">
工聯(lián)網(wǎng)消息(IItime) 人工智能的發(fā)展猶如一把雙刃劍,在帶來巨大機(jī)遇的同時,也蘊含著諸多風(fēng)險。其中,最大的風(fēng)險之一是其可能被濫用,從而對人類社會造成嚴(yán)重的威脅。
如果人工智能一旦失控,會不會出現(xiàn)《我,機(jī)器人》中的景象,所有人類都被人工智能圈禁?會不會像《流浪地球2》中,AI做出自私自利的決定,毀滅人類?
為了阻止人工智能失控,應(yīng)該把人工智能關(guān)進(jìn)監(jiān)管的籠子,引導(dǎo)AI向善。

哪些人工智能的使用需要監(jiān)管?
過去一年,大模型發(fā)展速度之快,賦能范圍之廣,讓我們看到通用人工智能的實現(xiàn)路徑與曙光,但人工智能安全問題的嚴(yán)重性與緊迫性不容忽視。
當(dāng)我們從不同層面審視人工智能安全問題時,可以發(fā)現(xiàn)人工智能所帶來的安全挑戰(zhàn)已經(jīng)從技術(shù)本身所帶來的數(shù)據(jù)、算力、系統(tǒng)等傳統(tǒng)安全問題,逐漸向?qū)人、組織、國家社會、人類生態(tài)的衍生安全問題蔓延。

人工智能的“聰明”有可能帶來不可控的后果。
一是人工智能的決策過程可能存在不透明性和不可解釋性。由于大模型通常是基于大量的數(shù)據(jù)進(jìn)行訓(xùn)練的,它們的決策往往是基于復(fù)雜的算法和模型,這使得人們難以理解它們是如何做出決策的。這種不透明性可能導(dǎo)致人們對人工智能的信任度降低,尤其是在一些關(guān)鍵領(lǐng)域,如醫(yī)療、金融等,錯誤的決策可能會帶來嚴(yán)重的后果。
二是人工智能還可能加劇社會不平等。例如,使用AI給應(yīng)聘者打分時可能存在性別歧視等問題,這會進(jìn)一步加劇社會的不平等現(xiàn)象。
與此同時,大模型的飛速發(fā)展也帶來不少安全問題。如模型環(huán)境漏洞、生成惡意內(nèi)容、生成錯誤信息以及Agent流程失控等。
例如,模型訓(xùn)練導(dǎo)致大量資源浪費,抬高了碳排放水平;社交平臺上傳播的虛假不良信息和利用深度偽造技術(shù)進(jìn)行的合成信息詐騙,給社會帶來了負(fù)面影響;使用AI給應(yīng)聘者打分存在的不公平現(xiàn)象,侵犯了個人的權(quán)益;此外,模型風(fēng)險如“對抗樣本攻擊”可能破解多款人臉解鎖的手機(jī),不法分子利用手機(jī)漏洞繞過人臉識別活體檢測等系統(tǒng)層面的問題,也對個人的隱私、生命和財產(chǎn)權(quán)益構(gòu)成威脅。
全球人工智能治理走向新階段
當(dāng)前,全球針對人工智能安全已有很多聲明和請愿,但更重要的是要明確目標(biāo)、投入資源、采取行動、攜手結(jié)伴、共同應(yīng)對風(fēng)險。我們也觀察到,各國和地區(qū)針對人工智能治理正從原則治理走向安全實踐的新階段。

在治理框架方面,各國和地區(qū)基本形成本土治理方案。美國推出《人工智能風(fēng)險管理框架》推動基于風(fēng)險的治理實踐;歐盟《人工智能法》構(gòu)建了風(fēng)險分級的治理方案,并即將正式生效;新加坡在原先治理框架基礎(chǔ)上推出了《生成式人工智能治理模型框架》,提出人工智能評估需考慮的九個維度;日本發(fā)布《人工智能運營商指南》,為開發(fā)者、提供者、使用者制定行為準(zhǔn)則;我國從《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》到《生成式人工智能服務(wù)管理暫行辦法》精準(zhǔn)化治理前沿技術(shù)。
在治理工具方面,全球積極推出安全測試評估平臺。美國成立人工智能安全研究所和安全聯(lián)盟以推動制定人工智能安全標(biāo)準(zhǔn)和開展安全評測,并于近期啟動“評估人工智能的風(fēng)險和影響”計劃;英國人工智能安全研究所推出“Inspect”人工智能模型安全評估平臺;新加坡依托“AI Verify”發(fā)布軟件工具包,推動新技術(shù)的沙箱測試。我國已有近140個大模型通過安全評估與備案,形成良好示范效應(yīng)。
可以看出,安全已成為各國人工智能治理的核心關(guān)切。保障安全是人工智能技術(shù)創(chuàng)新發(fā)展的基石,也是推動人工智能產(chǎn)業(yè)可持續(xù)發(fā)展的重要前提。
AIIA成立安全安全治理委員會
對于AI的發(fā)展,中國提出了人工智能以人為本、智能向善的目標(biāo),讓AI造福人類,得到了各國的高度認(rèn)同。
我國也在2023年8月發(fā)布了《生成式人工智能服務(wù)管理暫行辦法》,提出國家堅持發(fā)展和安全并重、促進(jìn)創(chuàng)新和依法治理相結(jié)合的原則,采取有效措施鼓勵生成式人工智能創(chuàng)新發(fā)展,對生成式人工智能服務(wù)實行包容審慎和分類分級監(jiān)管,明確了提供和使用生成式人工智能服務(wù)總體要求。
為此,中國人工智能產(chǎn)業(yè)發(fā)展聯(lián)盟(以下簡稱“AIIA”)也在2023年底成立了安全治理委員圍繞人工智能治理規(guī)則、風(fēng)險管理、安全研究、安全評測開展了一系列工作,并形成了眾多階段性成果。
在7月25日舉辦的AIIA安全治理委員會成果發(fā)布會上,AIIA安全治理委員會辦公室主任、中國信通院人工智能研究所安全與元宇宙部主任石霖介紹了工作組在人工智能安全與治理方面取得的成績。

AIIA安全治理委員會主任單位由中國信通院牽頭,副主任單位包括vivo、百度、騰訊、360、華為、中國移動、阿里云、浙江大學(xué)、螞蟻集團(tuán)等,成員單位近百家。委員會共設(shè)兩大工作組——治理組、安全組,同時負(fù)責(zé)運營安全對齊伙伴計劃、可信人臉應(yīng)用守護(hù)計劃、內(nèi)容科技產(chǎn)業(yè)推進(jìn)方陣。
一是治理工作組,治理組重點就AI治理框架推進(jìn)AI風(fēng)險管理報告起草工作、針對ISO/EC42001開展研討工作。AI合規(guī)治理就文旅行業(yè)人臉識別開展工作。AI賦能治理開展法律大模型相關(guān)文件編寫工作。
二是安全工作組,根據(jù)大模型安全、合規(guī)等熱點方向,推動了安全基準(zhǔn)測試AI safety benchmark以及多項安全相關(guān)規(guī)范的編寫工作。
為提升國內(nèi)人工智能技術(shù)的服務(wù)提供方、使用方的安全防護(hù)能力,今年6月,中國信通院依托中國人工智能產(chǎn)業(yè)發(fā)展聯(lián)盟(AIIA)發(fā)起“人工智能安全守護(hù)計劃”,希望聯(lián)合多方力量,提升我國人工智能技術(shù)水平和治理能力,促進(jìn)人工智能產(chǎn)業(yè)健康有序發(fā)展。
大模型安全防護(hù)如何做
大模型是人們最近使用最多的工具,大模型在安全方面也帶來了兩個最為經(jīng)典的挑戰(zhàn)。
首先是模型的幻覺問題,大模型會一本正經(jīng)胡說八道,輸出看似合理卻非事實性結(jié)果。原因主要是模型用了自回歸訓(xùn)練方式,學(xué)習(xí)詞語和詞之間的相互關(guān)系和句法句式的依賴,缺乏對于事實之事的理解能力。
這個幻覺問題據(jù)主要存在于參數(shù)量較小的小模型當(dāng)中,而對于參數(shù)量大模型更多遇到易受攻擊問題。這是因為本身信息量比較足及學(xué)習(xí)知識比較多,大模型非常容易受到提示誘導(dǎo)攻擊方式,輸出非法有害的內(nèi)容,主要是在訓(xùn)練過程中存在安全目標(biāo)競爭和不匹配泛化的情況。
對于大模型的安全,信通院在大模型安全加固方面開展了一系列工作。為了應(yīng)對大模型的安全風(fēng)險,信通院聯(lián)合30余家單位發(fā)起了AI Safety Benchmark測評活動,旨在測試和發(fā)現(xiàn)大模型安全風(fēng)險,為相關(guān)產(chǎn)業(yè)健康發(fā)展保駕護(hù)航。

信通院還設(shè)計了大模型價值對齊方法,在保持模型原有能力和推理效率的前提下,對開源大模型自身進(jìn)行安全防護(hù)加固。通過模型微調(diào)對齊和安全知識庫增強(qiáng)等手段,多個開源大模型的誘導(dǎo)攻擊成功率下降均超過30多個百分點。信通院還將進(jìn)一步深入探索大模型安全加固方案,一方面從基礎(chǔ)層面進(jìn)行持續(xù)迭代,夯實數(shù)據(jù)底座;另一方面根據(jù)實際需求升級對齊方法,增強(qiáng)應(yīng)用能力。
對于企業(yè)而言,構(gòu)建企業(yè)級大模型應(yīng)遵循“安全、向善、可信、可控”的原則。具體來說,要確保訓(xùn)練工具安全可靠,輸入輸出內(nèi)容安全,輸出結(jié)果即時性好,業(yè)務(wù)流程安全可控。
例如,360提出的大模型安全方案包括安全檢測系統(tǒng),如國內(nèi)首個支持系統(tǒng)化安全檢測的AISE人工智能系統(tǒng)安全檢測平臺,能夠檢測多種安全風(fēng)險,輸出安全評分及分析報告,并提供相應(yīng)的安全加固方案;基于幻覺檢測Agent評測和優(yōu)化大模型輸出可信度,通過幻覺檢測Agent和專項優(yōu)化,使智腦在通用場景下的幻覺比例下降50%以上;使用原生安全的AI Agent可控框架,對大模型的場景進(jìn)行統(tǒng)一編排調(diào)用,原生設(shè)置安全措施,保證大模型的“手和腳”可控,解決大模型不可控的問題。
全球協(xié)作,共同參與
人工智能的發(fā)展是全球性的,因此監(jiān)管也需要全球協(xié)作共同參與。各國應(yīng)加強(qiáng)在人工智能監(jiān)管方面的合作與交流,分享經(jīng)驗和最佳實踐,共同應(yīng)對人工智能帶來的挑戰(zhàn)。從而釋放出人工智能最大向善的能力,造福于人類。
對此,中國信通院院長余曉暉呼吁道,可以從四個方面進(jìn)行努力。
一是完善人工智能安全風(fēng)險識別方法論,人工智能技術(shù)日益融入經(jīng)濟(jì)社會發(fā)展各領(lǐng)域全過程,其安全風(fēng)險面不斷擴(kuò)大,需要建立更加敏捷、精準(zhǔn)的安全風(fēng)險識別機(jī)制。
二是通過強(qiáng)化風(fēng)險評估與防范,重點從人工智能基礎(chǔ)設(shè)施、算法模型、上層應(yīng)用以及產(chǎn)業(yè)鏈等方面進(jìn)行評估,盡快盡早發(fā)現(xiàn)風(fēng)險。
三是加強(qiáng)人工智能安全技術(shù)治理,加強(qiáng)對算法模型毒性、魯棒性、公平性等方面的評測技術(shù)工具研究,通過技術(shù)治理技術(shù)。
四是加強(qiáng)國際合作,很多國家國家級人工智能安全研究所,中國需要和全球一起共同研究推動全球性人工智能,我們達(dá)成更廣泛的共識,共同釋放我們?nèi)斯ぶ悄軡摿,也防范治理風(fēng)險。
在國際合作方面,聯(lián)合國通過的《加強(qiáng)人工智能能力建設(shè)國際合作決議》就強(qiáng)調(diào)了國際合作的重要性,鼓勵各國通過合作幫助發(fā)展中國家加強(qiáng)人工智能能力建設(shè),實現(xiàn)人工智能的包容普惠可持續(xù)發(fā)展。
同時,國際組織如ISO、IEEE等也應(yīng)發(fā)揮積極作用,制定國際通用的人工智能標(biāo)準(zhǔn)和規(guī)范,促進(jìn)全球人工智能的協(xié)調(diào)發(fā)展。此外,各國還應(yīng)加強(qiáng)在人工智能技術(shù)研發(fā)、應(yīng)用等方面的合作,共同推動人工智能技術(shù)的進(jìn)步,同時確保其安全可控。
監(jiān)管部門也需要加強(qiáng)對人工智能技術(shù)的研究和了解,及時掌握技術(shù)發(fā)展的動態(tài),以便制定更加有效的監(jiān)管措施。同時,各國應(yīng)加強(qiáng)溝通與協(xié)調(diào),在國際組織的框架下,共同制定全球統(tǒng)一的人工智能監(jiān)管標(biāo)準(zhǔn)和規(guī)范,促進(jìn)全球人工智能的健康發(fā)展。
北京市金杜律師事務(wù)所合伙人寧宣鳳律師建議,歐盟在網(wǎng)絡(luò)治理過程中引入了守門人制度,我國在人工智能領(lǐng)域?qū)τ诖竽P推髽I(yè)而言,是否也應(yīng)當(dāng)考慮守門人監(jiān)管模式,區(qū)分大小企業(yè)的責(zé)任范圍,對于行業(yè)整體發(fā)展來說更利于合規(guī)、資源配置,促進(jìn)大企業(yè)的領(lǐng)頭羊示范模范作用,也保護(hù)中小企業(yè)公平競爭。

總而言之,人工智能治理需要多元共治,每個主體都應(yīng)當(dāng)參與其中,這是人工智能治理必然要求,通過事前、事中、事后綜合治理,可以確保人工智能技術(shù)發(fā)展應(yīng)用促進(jìn)社會進(jìn)步,但同時也能保護(hù)公共利益、維護(hù)社會秩序。
這種全流程的治理活動需要政府、企業(yè)、行業(yè)組織、專業(yè)機(jī)構(gòu)以及公眾共同和各方的參與才能達(dá)到效果,通過最大化、最優(yōu)化的資源配置實現(xiàn)人工智能的良性發(fā)展。
此外,企業(yè)和科研機(jī)構(gòu)也應(yīng)積極參與到人工智能的監(jiān)管中來,加強(qiáng)自律,確保人工智能技術(shù)的發(fā)展符合道德和法律規(guī)范。



