">
工聯網消息(IItime) 人工智能的發展猶如一把雙刃劍,在帶來巨大機遇的同時,也蘊含著諸多風險。其中,最大的風險之一是其可能被濫用,從而對人類社會造成嚴重的威脅。
如果人工智能一旦失控,會不會出現《我,機器人》中的景象,所有人類都被人工智能圈禁?會不會像《流浪地球2》中,AI做出自私自利的決定,毀滅人類?
為了阻止人工智能失控,應該把人工智能關進監管的籠子,引導AI向善。
哪些人工智能的使用需要監管?
過去一年,大模型發展速度之快,賦能范圍之廣,讓我們看到通用人工智能的實現路徑與曙光,但人工智能安全問題的嚴重性與緊迫性不容忽視。
當我們從不同層面審視人工智能安全問題時,可以發現人工智能所帶來的安全挑戰已經從技術本身所帶來的數據、算力、系統等傳統安全問題,逐漸向對個人、組織、國家社會、人類生態的衍生安全問題蔓延。
人工智能的“聰明”有可能帶來不可控的后果。
一是人工智能的決策過程可能存在不透明性和不可解釋性。由于大模型通常是基于大量的數據進行訓練的,它們的決策往往是基于復雜的算法和模型,這使得人們難以理解它們是如何做出決策的。這種不透明性可能導致人們對人工智能的信任度降低,尤其是在一些關鍵領域,如醫療、金融等,錯誤的決策可能會帶來嚴重的后果。
二是人工智能還可能加劇社會不平等。例如,使用AI給應聘者打分時可能存在性別歧視等問題,這會進一步加劇社會的不平等現象。
與此同時,大模型的飛速發展也帶來不少安全問題。如模型環境漏洞、生成惡意內容、生成錯誤信息以及Agent流程失控等。
例如,模型訓練導致大量資源浪費,抬高了碳排放水平;社交平臺上傳播的虛假不良信息和利用深度偽造技術進行的合成信息詐騙,給社會帶來了負面影響;使用AI給應聘者打分存在的不公平現象,侵犯了個人的權益;此外,模型風險如“對抗樣本攻擊”可能破解多款人臉解鎖的手機,不法分子利用手機漏洞繞過人臉識別活體檢測等系統層面的問題,也對個人的隱私、生命和財產權益構成威脅。
全球人工智能治理走向新階段
當前,全球針對人工智能安全已有很多聲明和請愿,但更重要的是要明確目標、投入資源、采取行動、攜手結伴、共同應對風險。我們也觀察到,各國和地區針對人工智能治理正從原則治理走向安全實踐的新階段。
在治理框架方面,各國和地區基本形成本土治理方案。美國推出《人工智能風險管理框架》推動基于風險的治理實踐;歐盟《人工智能法》構建了風險分級的治理方案,并即將正式生效;新加坡在原先治理框架基礎上推出了《生成式人工智能治理模型框架》,提出人工智能評估需考慮的九個維度;日本發布《人工智能運營商指南》,為開發者、提供者、使用者制定行為準則;我國從《互聯網信息服務算法推薦管理規定》到《生成式人工智能服務管理暫行辦法》精準化治理前沿技術。
在治理工具方面,全球積極推出安全測試評估平臺。美國成立人工智能安全研究所和安全聯盟以推動制定人工智能安全標準和開展安全評測,并于近期啟動“評估人工智能的風險和影響”計劃;英國人工智能安全研究所推出“Inspect”人工智能模型安全評估平臺;新加坡依托“AI Verify”發布軟件工具包,推動新技術的沙箱測試。我國已有近140個大模型通過安全評估與備案,形成良好示范效應。
可以看出,安全已成為各國人工智能治理的核心關切。保障安全是人工智能技術創新發展的基石,也是推動人工智能產業可持續發展的重要前提。
AIIA成立安全安全治理委員會
對于AI的發展,中國提出了人工智能以人為本、智能向善的目標,讓AI造福人類,得到了各國的高度認同。
我國也在2023年8月發布了《生成式人工智能服務管理暫行辦法》,提出國家堅持發展和安全并重、促進創新和依法治理相結合的原則,采取有效措施鼓勵生成式人工智能創新發展,對生成式人工智能服務實行包容審慎和分類分級監管,明確了提供和使用生成式人工智能服務總體要求。
為此,中國人工智能產業發展聯盟(以下簡稱“AIIA”)也在2023年底成立了安全治理委員圍繞人工智能治理規則、風險管理、安全研究、安全評測開展了一系列工作,并形成了眾多階段性成果。
在7月25日舉辦的AIIA安全治理委員會成果發布會上,AIIA安全治理委員會辦公室主任、中國信通院人工智能研究所安全與元宇宙部主任石霖介紹了工作組在人工智能安全與治理方面取得的成績。
AIIA安全治理委員會主任單位由中國信通院牽頭,副主任單位包括vivo、百度、騰訊、360、華為、中國移動、阿里云、浙江大學、螞蟻集團等,成員單位近百家。委員會共設兩大工作組——治理組、安全組,同時負責運營安全對齊伙伴計劃、可信人臉應用守護計劃、內容科技產業推進方陣。
一是治理工作組,治理組重點就AI治理框架推進AI風險管理報告起草工作、針對ISO/EC42001開展研討工作。AI合規治理就文旅行業人臉識別開展工作。AI賦能治理開展法律大模型相關文件編寫工作。
二是安全工作組,根據大模型安全、合規等熱點方向,推動了安全基準測試AI safety benchmark以及多項安全相關規范的編寫工作。
為提升國內人工智能技術的服務提供方、使用方的安全防護能力,今年6月,中國信通院依托中國人工智能產業發展聯盟(AIIA)發起“人工智能安全守護計劃”,希望聯合多方力量,提升我國人工智能技術水平和治理能力,促進人工智能產業健康有序發展。
大模型安全防護如何做
大模型是人們最近使用最多的工具,大模型在安全方面也帶來了兩個最為經典的挑戰。
首先是模型的幻覺問題,大模型會一本正經胡說八道,輸出看似合理卻非事實性結果。原因主要是模型用了自回歸訓練方式,學習詞語和詞之間的相互關系和句法句式的依賴,缺乏對于事實之事的理解能力。
這個幻覺問題據主要存在于參數量較小的小模型當中,而對于參數量大模型更多遇到易受攻擊問題。這是因為本身信息量比較足及學習知識比較多,大模型非常容易受到提示誘導攻擊方式,輸出非法有害的內容,主要是在訓練過程中存在安全目標競爭和不匹配泛化的情況。
對于大模型的安全,信通院在大模型安全加固方面開展了一系列工作。為了應對大模型的安全風險,信通院聯合30余家單位發起了AI Safety Benchmark測評活動,旨在測試和發現大模型安全風險,為相關產業健康發展保駕護航。
信通院還設計了大模型價值對齊方法,在保持模型原有能力和推理效率的前提下,對開源大模型自身進行安全防護加固。通過模型微調對齊和安全知識庫增強等手段,多個開源大模型的誘導攻擊成功率下降均超過30多個百分點。信通院還將進一步深入探索大模型安全加固方案,一方面從基礎層面進行持續迭代,夯實數據底座;另一方面根據實際需求升級對齊方法,增強應用能力。
對于企業而言,構建企業級大模型應遵循“安全、向善、可信、可控”的原則。具體來說,要確保訓練工具安全可靠,輸入輸出內容安全,輸出結果即時性好,業務流程安全可控。
例如,360提出的大模型安全方案包括安全檢測系統,如國內首個支持系統化安全檢測的AISE人工智能系統安全檢測平臺,能夠檢測多種安全風險,輸出安全評分及分析報告,并提供相應的安全加固方案;基于幻覺檢測Agent評測和優化大模型輸出可信度,通過幻覺檢測Agent和專項優化,使智腦在通用場景下的幻覺比例下降50%以上;使用原生安全的AI Agent可控框架,對大模型的場景進行統一編排調用,原生設置安全措施,保證大模型的“手和腳”可控,解決大模型不可控的問題。
全球協作,共同參與
人工智能的發展是全球性的,因此監管也需要全球協作共同參與。各國應加強在人工智能監管方面的合作與交流,分享經驗和最佳實踐,共同應對人工智能帶來的挑戰。從而釋放出人工智能最大向善的能力,造福于人類。
對此,中國信通院院長余曉暉呼吁道,可以從四個方面進行努力。
一是完善人工智能安全風險識別方法論,人工智能技術日益融入經濟社會發展各領域全過程,其安全風險面不斷擴大,需要建立更加敏捷、精準的安全風險識別機制。
二是通過強化風險評估與防范,重點從人工智能基礎設施、算法模型、上層應用以及產業鏈等方面進行評估,盡快盡早發現風險。
三是加強人工智能安全技術治理,加強對算法模型毒性、魯棒性、公平性等方面的評測技術工具研究,通過技術治理技術。
四是加強國際合作,很多國家國家級人工智能安全研究所,中國需要和全球一起共同研究推動全球性人工智能,我們達成更廣泛的共識,共同釋放我們人工智能潛力,也防范治理風險。
在國際合作方面,聯合國通過的《加強人工智能能力建設國際合作決議》就強調了國際合作的重要性,鼓勵各國通過合作幫助發展中國家加強人工智能能力建設,實現人工智能的包容普惠可持續發展。
同時,國際組織如ISO、IEEE等也應發揮積極作用,制定國際通用的人工智能標準和規范,促進全球人工智能的協調發展。此外,各國還應加強在人工智能技術研發、應用等方面的合作,共同推動人工智能技術的進步,同時確保其安全可控。
監管部門也需要加強對人工智能技術的研究和了解,及時掌握技術發展的動態,以便制定更加有效的監管措施。同時,各國應加強溝通與協調,在國際組織的框架下,共同制定全球統一的人工智能監管標準和規范,促進全球人工智能的健康發展。
北京市金杜律師事務所合伙人寧宣鳳律師建議,歐盟在網絡治理過程中引入了守門人制度,我國在人工智能領域對于大模型企業而言,是否也應當考慮守門人監管模式,區分大小企業的責任范圍,對于行業整體發展來說更利于合規、資源配置,促進大企業的領頭羊示范模范作用,也保護中小企業公平競爭。
總而言之,人工智能治理需要多元共治,每個主體都應當參與其中,這是人工智能治理必然要求,通過事前、事中、事后綜合治理,可以確保人工智能技術發展應用促進社會進步,但同時也能保護公共利益、維護社會秩序。
這種全流程的治理活動需要政府、企業、行業組織、專業機構以及公眾共同和各方的參與才能達到效果,通過最大化、最優化的資源配置實現人工智能的良性發展。
此外,企業和科研機構也應積極參與到人工智能的監管中來,加強自律,確保人工智能技術的發展符合道德和法律規范。