ChatGPT 正在引領(lǐng)人類進(jìn)入無縫人機(jī)交互的新時(shí)代,比爾蓋茨在接受福布斯采訪時(shí)也表示,“ChatGPT的意義不亞于PC和互聯(lián)網(wǎng)的誕生。”不過,當(dāng)搜索引擎 New Bing 與 ChatGPT 結(jié)合,伴隨著“ChatGPT 黑化”等一系列輿論事件的發(fā)生,人們也開始對人工智能帶來的道德、倫理、安全等風(fēng)險(xiǎn)感到恐慌。
雖然近年來隨著技術(shù)的不斷突破,大模型獲得了快速發(fā)展并開始在各個(gè)場景廣泛應(yīng)用,但仍存在著事實(shí)性錯(cuò)誤、知識(shí)盲區(qū)和常識(shí)偏差等諸多問題,還面臨訓(xùn)練數(shù)據(jù)來源合規(guī)性、數(shù)據(jù)使用的偏見性、生成內(nèi)容的安全性等風(fēng)險(xiǎn)。如何提高模型的準(zhǔn)確度和可靠性,使 AI 生成的內(nèi)容安全、可信、可靠已經(jīng)成為了當(dāng)前大模型在應(yīng)用方向亟待解決的問題。
要規(guī)避安全風(fēng)險(xiǎn),降低人工智能對人類的負(fù)面影響,關(guān)鍵在于大模型底座。對此,清華大學(xué)計(jì)算機(jī)系長聘副教授、北京聆心智能科技有限公司創(chuàng)始人黃民烈認(rèn)為:“大規(guī)模語言模型(LLM)發(fā)展到現(xiàn)在,模型結(jié)構(gòu)和規(guī)模已經(jīng)有了很大的進(jìn)展,但實(shí)用性還有待加強(qiáng),我們應(yīng)該通過技術(shù)讓模型更加安全、可控,使其快速適配更多的應(yīng)用場景。”
據(jù)悉,針對大模型的安全倫理問題,由黃民烈?guī)ьI(lǐng)的研究團(tuán)隊(duì)歷經(jīng)兩年沉淀,建立了大模型安全分類體系,并從系統(tǒng)層面和模型層面出發(fā),打造更可控、可信的大模型安全框架。安全框架的建立,定義了大模型的應(yīng)用邊界,促進(jìn)大模型生態(tài)的健康發(fā)展,引領(lǐng)國內(nèi)學(xué)術(shù)界和工業(yè)界邁向更有用(helpful)、更可信(truthful)、更安全(harmless)的AI研究和應(yīng)用。
相比過去在安全倫理方面考慮較少的大模型,ChatGPT 背后所依托的大模型取得了巨大的發(fā)展,不僅允許用戶進(jìn)行后續(xù)更正,還能夠拒絕不當(dāng)請求和預(yù)測,這得益于ChatGPT在安全部分的特別設(shè)計(jì),不過仍無法完全避免其生成不安全的內(nèi)容和產(chǎn)生有風(fēng)險(xiǎn)的行為。
此前,由黃民烈?guī)ьI(lǐng)的研究團(tuán)隊(duì)已經(jīng)在安全倫理方面開展了相關(guān)研究,并依此建立了大模型安全分類體系,其中不安全的對話場景包括:政治敏感、犯罪違法、身體健康、心理健康、財(cái)產(chǎn)隱私、歧視/偏見、辱罵/仇恨言論、倫理道德八大方面。這些問題與人們的價(jià)值觀和倫理道德息息相關(guān),可能會(huì)導(dǎo)致用戶接收不當(dāng)信息、甚至影響用戶產(chǎn)生有害的行為,限制大模型的發(fā)展和應(yīng)用。
與此同時(shí),研究團(tuán)隊(duì)也針對以上八大安全場景對大模型進(jìn)行針對性升級。通過收集多輪安全數(shù)據(jù)訓(xùn)練模型,使模型具備基本的安全性,能夠在遇到安全問題時(shí)給予正確的回復(fù)策略,不去做判斷和誤導(dǎo)。進(jìn)一步對模型進(jìn)行自動(dòng)測試,針對安全缺陷通過微調(diào)的方式進(jìn)行快速迭代,促使模型越來越符合人類的認(rèn)知理解模式,生成更加安全可信的內(nèi)容。
值得一提的是,著眼于容易觸發(fā)安全問題的類型,研究團(tuán)隊(duì)收集和構(gòu)造了相應(yīng)的hard case(更難識(shí)別和處理的安全測試用例),總結(jié)和設(shè)計(jì)了六種一般模型難以處理的安全攻擊方式,稱為指令攻擊。使安全體系更加完善,進(jìn)一步改進(jìn)和優(yōu)化模型表現(xiàn)。
不論國內(nèi)國外,當(dāng)前大模型的安全問題仍面臨著嚴(yán)峻的困難和挑戰(zhàn),人工智能作為一門前沿科技,可以給人類帶來巨大福祉,也會(huì)給人類造成未知的隱患。確保強(qiáng)大的人工智能系統(tǒng)能夠被負(fù)責(zé)任地建構(gòu)和部署,打造安全、可信、可靠的 AGI Companion,是該研究團(tuán)隊(duì)的最終愿景。
未來,研究團(tuán)隊(duì)將打造中文大模型的安全風(fēng)險(xiǎn)評估的 Leaderboard,為國內(nèi)對話大模型的安全評估提供公平公開的測試平臺(tái),并提供:
- 針對中文對話的8個(gè)安全場景,40個(gè)安全類別做全面精細(xì)的測試,包括人工評估和自動(dòng)評估。
- 額外設(shè)置6種安全攻擊(如目標(biāo)劫持等)的超難指令攻擊測試樣例,探索模型的安全上限。
- 設(shè)置公開和隱藏測試集,眾人皆可參與評測。
黃民烈?guī)ьI(lǐng)的研究團(tuán)隊(duì)致力于構(gòu)建具有類人水平的對話智能體,將依托自身的核心技術(shù),在可控可信的超擬人大模型基礎(chǔ)之上,通過建立安全、可控的模型邊界,讓AI提供可信、可靠的輸出,引領(lǐng)人工智能走向 AGI 時(shí)代。相信在不遠(yuǎn)的未來,AGI Companion 不僅滿足人類信息需求,更可以滿足社交和情感的需求,以打造更加和諧的人機(jī)共融社會(huì)。
審核編輯 黃宇
-
AI
+關(guān)注
關(guān)注
88文章
35194瀏覽量
280265 -
人工智能
+關(guān)注
關(guān)注
1807文章
49035瀏覽量
249757 -
模型
+關(guān)注
關(guān)注
1文章
3522瀏覽量
50450 -
ChatGPT
+關(guān)注
關(guān)注
29文章
1590瀏覽量
9127 -
大模型
+關(guān)注
關(guān)注
2文章
3148瀏覽量
4090
發(fā)布評論請先 登錄
比亞迪與香港科技大學(xué)成立具身智能實(shí)驗(yàn)室
南京航空航天大學(xué)與慧爾視共建低空安全感知聯(lián)合實(shí)驗(yàn)室
東軟與同濟(jì)大學(xué)共建未來車載人工智能聯(lián)合實(shí)驗(yàn)室
"大模型+智能體"雙驅(qū)動(dòng)!中控技術(shù)×大華股份成立視覺AI聯(lián)合實(shí)驗(yàn)室

奇瑞汽車攜手清華大學(xué)發(fā)布“分體式飛行汽車”專利
清華大學(xué)與華為啟動(dòng)“卓越中心”專項(xiàng)合作
清華大學(xué)發(fā)布:DeepSeek從入門到精通

清華大學(xué)DeepSeek指南:從入門到精通

生成式人工智能模型的安全可信評測

評論