新一輪科技革命和產業變革迅猛發展,發布僅6個月的ChatGPT,已掀起全球人工智能(AI)產業的大模型熱潮。在日前舉辦的中國人工智能產業年會中,AI大模型帶來的安全挑戰和發展機遇成為與會專家熱議話題。
賦能千行百業
ChatGPT在與人類對話、寫作文、寫代碼等方面令人驚艷的表現,是AI大模型GPT通過大算力、大規模訓練數據突破自然語言處理瓶頸的結果。但大模型本身并不是新鮮事物,AI大模型也不止GPT這一條路線,很多科技巨頭近幾年都在“煉”大模型,且各有積累。這也是ChatGPT走紅之后,各巨頭短短數月內就紛紛推出競品的原因。
電子科技大學教授、考拉悠然科技有限公司聯合創始人沈復民所在的研發團隊獲得了2022年度吳文俊人工智能科學技術獎自然科學一等獎。據他介紹,團隊開發了為垂直行業賦能的多模態AI操作系統,基于行業多模態大模型、多模態融合分析、機器視覺等核心AI算法支持,可以讓企業擺脫繁雜的算法、算力、數據整合工作,快速孵化行業大模型,高效率應用到工業制造、城市治理、消費、能源、交通、建材等業務場景。
“通用對話技術是人工智能領域最具挑戰性的方向之一,也被認為是通用人工智能的必備能力。如今備受關注的對話式人工智能,其背后就有通用對話技術。”百度首席技術官、深度學習技術及應用國家工程研究中心主任王海峰說。中國人工智能產業年會期間,由他帶領團隊完成的“知識與深度學習融合的通用對話技術及應用”成果,獲2022年度吳文俊人工智能科技進步獎特等獎。
公開資料顯示,這一研究項目已獲授權發明專利82項,發表高水平論文36篇,在國際權威評測中獲世界冠軍11項。目前項目成果實現了大規模產業應用,已支持5億智能設備,服務超過10億用戶,覆蓋包括通信、金融、汽車、能源等20多個行業。
爭取“主動安全”
技術是把雙刃劍。人工智能大模型能力越大,一旦濫用帶來的危害也就越大。當前,ChatGPT等工具被用于生成假新聞、假照片、假視頻,甚至實施詐騙等犯罪行為,引發人們對大模型安全性的擔憂。
西北工業大學教授王震是網絡空間智能對抗應用研究領域的專家,他認為,要用人工智能驅動網絡空間智能對抗。比如,用人工智能檢測、識別有害信息,搭建“主動安全”的智能防御網。
“只有在AI發展過程中,我們才能面對問題、解決問題,并找到機遇。”螞蟻集團AI風險管理負責人楊舟表示,在AI管理中,安全事件對日常風險管理至關重要。“我們需要重視和預測相關事件,分析安全問題,避免發展帶來的風險。”
“大模型是人工智能發展的轉折點,研究人員需要進一步了解這些大模型為何具備類人思考的能力。”香港科技大學教授馮雁表示,ChatGPT最初只作為科研項目發布,但通過加入人機交互界面,迅速變成網紅產品。其爆紅帶來的倫理問題始料未及,也給生成式人工智能的管理提出了挑戰。“只有真正的開源,才能共同研究,理解大模型存在的問題和產生的根源,更好地進行管理。”
亟需深度治理
專家們對未來的人工智能長遠治理做出種種設想。
“不能把價值設計看成治理的唯一路徑。”復旦大學應用倫理學研究中心教授王國豫認為,針對現階段人工智能治理的局限性,可從三方面采取措施。一是充分評估數據和模型的倫理影響和風險點;二是從流程方面,不僅要考慮通用模型,還要把通用模型納入到社會生態系統、社會政治經濟系統來考慮;三是探索倫理方法,充分探索“價值敏感設計”“負責任創新”等倫理方法在通用模型語境下的可行性。
中國社會科學院哲學所科技哲學研究室主任、研究員段偉文表示,需要警惕機器對人類思維的馴化。比如,有的人不擅社交,可能用人工智能生成對話的方式幫他社交聊天,這樣的對話機制會反過來馴化人類。他建議加強人類和人工智能的交互和溝通,不僅要了解人類怎么去修機器,也要研究機器如何影響人類。
中科院自動化研究所研究員曾毅期待構建人工智能的道德直覺,“從要求人工智能大模型合乎倫理,到真正構建有道德的人工智能。”曾毅表示,未來通用人工智能和超級智能的倫理安全問題,要從現在就開始關注和準備。 |