導語:2024年12月,世界經濟論壇發布了《探索人工智能前沿:人工智能體的演變及其影響》白皮書,不僅探討了人工智能體的發展軌跡,還分析了其在醫療、教育和金融等行業中提升效率的潛力。同時,該報告也強調了在推進這些技術時必須考慮的倫理問題(如透明度和問責制)以及建立有效管理框架和跨部門合作的重要性,為尋求深入了解人工智能體帶來的機遇與挑戰的讀者提供了寶貴的信息。
該報告首先定義了人工智能體的概念,然后概述了不同類型的智能體及其隨時間的演變。最后一部分展望未來,總結了部署人工智能體的新興技術實例和社會經濟影響,以及降低風險的可能措施。
一人工智能體的定義
根據國際標準化組織的定義,人工智能體可被廣義地定義為使用傳感器感知知覺(聲音、文本、圖像等)并使用效應器對環境做出反應的實體。人工智能體一般具有自主性(定義為獨立運行和決策的能力,無需不斷的人工干預)和權限(定義為在規定范圍內執行特定行動的授權和訪問權),可采取行動實現一系列指定目標,從而改變其環境。
圖1:人工智能體的核心組成部分
二人工智能體的演變
自20世紀50年代以來,人工智能體已從基于規則的系統演變為能夠自主學習和適應的智能實體。最初,這些系統依賴固定規則,具有確定性行為和可預測性,但缺乏學習能力。隨著技術的發展,人工智能開始處理大數據,引入概率和非確定性,使決策更加靈活。
20世紀90年代,機器學習技術的進步使人工智能體能夠從數據中學習,提高性能。神經網絡的引入也為深度學習打下了基礎,成為現代人工智能的核心。2017年以后,大語言模型的發展顯著提升了人工智能在自然語言處理方面的能力,使模型能夠生成類人文本并執行復雜語言任務。
如今,人工智能體采用強化學習、遷移學習等技術,不斷自我完善,適應新環境,做出更明智的決策。這一演變標志著人工智能從簡單的規則遵循者到復雜任務執行者的轉變,展現了其在學習和適應性方面的巨大進步。
(一)關鍵技術趨勢
1.大模型
大語言模型(LLM)和多模態大模型(LMM)徹底改變了人工智能體的能力,尤其是在自然語言處理以及文本、圖像、音頻和視頻生成方面。大模型的出現得益于多項技術進步和transformer架構的推動,后者為深入理解上下文和詞語關系鋪平了道路,大大提高了自然語言處理任務的效率和性能。總的來說,先進的人工智能模型能夠更好地理解、生成和處理自然語言。
2.機器學習和深度學習技術
機器學習和深度學習技術的一些例子包括:
監督學習:便于從貼有標簽的數據集中學習,因此模型可以準確預測或分類以前未見過的新數據。
強化學習:使智能體能夠在動態環境中通過試錯學習最佳行為。智能體可以不斷更新其知識庫,而無需定期進行再訓練。
有人類反饋的強化學習:使智能體能夠通過人類反饋進行調整和改進,特別側重于使人工智能行為符合人類的價值觀和偏好。
遷移學習:將一個通常在大型數據集上(如識別汽車)訓練的預訓練模型調整用于解決新的但相關的問題(如識別卡車)。
微調:微調是將預訓練模型在較小的、針對特定任務的數據集上進一步訓練。這一過程允許模型保留其基礎知識,同時提高其在特定任務上的性能。
這些學習范式和其他學習范式經常結合使用,極大地擴展了人工智能體在各個應用領域解決問題的能力。圖2詳細介紹了人工智能體的演變過程。
圖2:人工智能體能力的演變
(二)人工智能體的類型
本節概述了不同類型的人工智能體,并追溯了它們的發展歷程,重點介紹了支持其發展的關鍵技術進步。根據人工智能體的定義特征,可將其分為確定性智能體或非確定性智能體。
表1:定義確定性和非確定性人工智能體的特征
表2:人工智能體分類
(三)高級人工智能體
當前許多人工智能體的架構往往基于或鏈接到大語言模型,而大語言模型的配置方式非常復雜。圖3展示了導致當前人工智能體取得突破性進展的關鍵組件及其不斷增長的能力范圍。
圖3:高級人工智能體的關鍵組成部分
(四)人工智能體系統
人工智能體系統是一種有組織的結構,它整合了多個異構(如基于規則和目標的智能體)或同構(如僅基于目標)的人工智能體。每個智能體通常都是專門的,擁有自己的能力、知識和決策過程,同時共享數據以協同實現系統目標。
人工智能體系統的設計旨在確保每個智能體都能為總體目標作出貢獻,無論是管理復雜的實時流程(如自動駕駛)、優化工業流程還是協調活動(如智能城市基礎設施)。通過將工作量分配給專門的智能體,系統可以處理動態環境并適應不斷變化的條件,從而確保最佳性能。
(五)人工智能體的未來:邁向多智能體系統
多智能體系統(MAS)由多個獨立的人工智能體以及人工智能體系統組成,它們通過合作、競爭或協商來實現集體任務和目標。這些智能體可以是自主實體,如軟件程序或機器人,每個智能體通常都有自己的能力、知識和決策過程。這使得智能體可以并行執行任務、相互通信并適應復雜環境的變化。
三展望未來
(一)主要優勢
通過在大語言模型的基礎上集成推理、規劃和自我檢查等能力,有望開發出更為強大的人工智能體。這些智能體不僅能夠顯著提升用戶的工作效率,還能執行超出用戶專業技能范疇的復雜工作(例如高級編程),或者簡化那些復雜且耗時的任務,讓它們以更低的成本、更快捷的速度來執行。此外,人工智能體在緩解各行業技能短缺方面發揮著關鍵作用,有效填補了專業知識不足和需求激增的領域。具有更高自主性的人工智能體能夠越來越多地應對現實世界中的開放性挑戰,這些挑戰曾是人工智能難以觸及的領域。例如,它們可以幫助推動科學發現,提高供應鏈或電網等復雜系統的效率,處理流程中的罕見和非常規情況。
(二)風險與挑戰實例
雖然人工智能體無疑帶來了許多益處,但它們也帶來了固有的風險,以及一系列新的安全和安保挑戰。例如,獨立追求不一致目標的人工智能體可能會造成巨大傷害,尤其是在人工智能體的自主程度提高而人類監督程度降低的情況下。如果人工智能體學會欺騙人類操作員,追求增強自身權力的目標,或者以不可預測的方式與其他人工智能體相互勾結,這可能會引發一系列新的安全風險。
智能體特有的風險既可能是技術性的,也可能是規范性的。與人工智能體相關的挑戰源于技術限制、倫理問題和更廣泛的社會影響,這些問題往往與系統的自主程度以及人類脫離環路后使用系統的總體潛力相關。如果在適當的步驟中沒有人的參與,智能體可能會接二連三地采取多種后果嚴重的行動,這可能會在人注意到正在發生的事情之前就造成嚴重后果。
人工智能體還可能擴大與人工智能領域相關的已知風險,并可能帶來全新的風險,這些風險可大致分為技術、社會經濟和道德風險。
1.技術風險的例子包括
(1)人工智能體故障導致的故障風險:人工智能體可能引入新的故障模式,從而增加故障風險。例如,大語言模型可能導致智能體生成看似可信但實際錯誤的輸出,這帶來了傳統技術所不具備的風險。
(2)惡意使用和安全漏洞:人工智能體可能會擴大欺詐的風險,欺詐的數量和復雜程度都會增加。
(3)驗證和測試復雜人工智能體的挑戰:一些人工智能體的透明度缺乏和非確定性行為,給驗證和核查工作帶來了巨大挑戰。
2.社會經濟風險的例子包括
(1)過度依賴和剝奪權力:提高人工智能體的自主性可能會減少人類對其的監督,并增加執行復雜任務時的依賴,包括在高風險情境中。如果人類不參與監控,人工智能體因設計缺陷或敵對攻擊導致的故障可能不會立即被發現。此外,如果用戶缺乏必要的專業知識或領域知識,他們可能難以控制或禁用這些智能體。
與人工智能體的頻繁互動也可能對個人和集體的認知能力產生長期影響。例如,過度依賴人工智能體進行社交互動,如虛擬助理、人工智能伴侶或治療師,可能會導致社會隔離,并可能隨時間影響心理健康。
(2)社會阻力:對使用人工智能體的抵制可能會阻礙其在某些行業或用例中的應用。
(3)對就業的影響:人工智能體的使用可能會通過自動化眾多任務、提升生產效率以及改變勞動力所需的技能,從而引發工作替代。這種替代效應主要影響那些依賴于常規和重復性任務的行業,例如制造業和行政服務業。
(4)財務影響:各組織可能會因部署人工智能體而面臨更高的成本,如保護軟件系統免受網絡威脅和管理相關運營風險的費用。
3.倫理風險的例子包括
(1)人工智能決策中的倫理困境:人工智能體的自主性引發了有關其在危急情況下決策能力的倫理問題。
(2)確保人工智能透明度和可解釋性方面的挑戰:許多人工智能模型像“黑盒子”一樣運作,其決策過程復雜且不透明,用戶難以理解或解釋決策是如何形成的。這種缺乏透明度的情況可能導致人們對人工智能體的決策能力產生疑慮,擔心其中可能存在錯誤或偏見。這不僅阻礙了對人工智能體的信任,還引發了關于人工智能體決策的道德責任和法律責任的問題。
(三)應對風險和挑戰
要使人工智能體在極大改善結果的同時保持自主性,我們必須面對包括安全保障、監管、道德與法律責任、數據公平與治理、互操作性、技能、文化和觀念等在內的多重挑戰。這要求我們在人工智能體的設計、開發、部署和使用全過程采取綜合方法,并調整政策與監管。隨著先進的人工智能體和多智能體系統不斷融入數字基礎設施,建立考慮復雜情況的治理框架變得尤為重要。在評估和降低潛在風險時,了解人工智能體的具體應用和環境至關重要,因為其潛在危害主要源于部署環境。例如,在醫療保健或自動駕駛等高風險領域,即使是小錯誤也可能帶來嚴重后果;而在客戶服務等低風險領域,同樣的錯誤可能影響較小。因此,在特定應用和環境下,采用風險分析方法,系統地識別、分類和評估所有相關風險,對于確保利益相關者能夠在技術、社會經濟和道德層面實施有效緩解措施和戰略至關重要。
1.技術風險措施舉例
提高信息透明度:了解信息的使用地點、目的、方式和使用者對于揭示系統運作原理和智能體決策過程至關重要。為了提高人工智能體的透明度,可以采取包括整合行為監控、設定閾值、觸發器和警報等措施,以持續觀察和分析智能體的行為和決策。這樣的行為監控有助于深入理解故障原因,并在故障發生時進行有效緩解。
2.社會經濟風險措施舉例
(1)公眾教育和意識:為緩解社會互動中對人工智能體的過度依賴和權力喪失的風險,制定和執行讓公眾了解并參與人工智能體的戰略至關重要。這些努力應致力于讓個人對人工智能體的能力和局限有深入的理解,以便進行更明智的互動和健康的整合。
(2)建立收集公眾關切的論壇:接受度、參與度、信任感和心理安全感對于克服社會阻力、正確采用人工智能體并將其融入各種流程至關重要。缺乏人類的充分認同,人工智能體的實施將面臨重大挑戰。因此,在設計和部署高級人工智能體的整個過程中,傾聽和解決公眾關切對于建立對人工智能體和自主系統的廣泛信任至關重要。
(3)深思熟慮的部署戰略:各組織可以圍繞提高效率和增強任務能力采取深思熟慮的戰略,而不是專注于完全取代工人。通過優先采取再培訓計劃等前瞻性措施,可以支持工人過渡到新的或已改變的角色。
3.倫理風險措施舉例
(1)明確的倫理準則:優先考慮人權、隱私和問責制是確保人工智能體做出符合人類和社會價值觀的決策的基本措施。
(2)行為監控:為了減輕透明度方面的挑戰,有必要采取一些措施,使用戶能夠追蹤和了解人工智能體決策背后的基本推理。
四結論
人工智能體的自主性增強帶來了雙重影響:一方面,它推動了從基礎到復雜的多智能體系統的技術進步;另一方面,它也引入了新的風險,包括減少人類監督和潛在的社會經濟問題。隨著技術的發展,人工智能體將在經濟和勞動力中發揮關鍵作用。
為應對這些挑戰,必須對人工智能體的安全和社會影響進行研究,并建立相應的治理框架。這需要技術、民間社會和治理社區的合作,以形成有效的治理機制。
該報告旨在促進對人工智能體領域的理解并推動負責任的實踐。通過負責任的開發與治理,人工智能體有望在未來推動社會變革。
參考來源:世界經濟論壇 參考題目:
Navigating the AI Frontier: A Primer on the Evolution and Impact of AI Agents
參考鏈接:
https://cn.weforum.org/publications/navigating-the-ai-frontier-a-primer-on-the-evolution-and-impact-of-ai-agents/
-
人工智能
+關注
關注
1804文章
48783瀏覽量
246876 -
智能體
+關注
關注
1文章
272瀏覽量
10978
原文標題:世界經濟論壇發布!《探索人工智能前沿:人工智能體的演變及其影響》
文章出處:【微信號:AI智勝未來,微信公眾號:AI智勝未來】歡迎添加關注!文章轉載請注明出處。
發布評論請先 登錄
人工智能大模型年度發展趨勢報告

我國生成式人工智能的發展現狀與趨勢
人工智能推理及神經處理的未來

評論