想象一下,有一種人工智能(AI)不僅僅遵循你的指令,還能自行決定如何實現你的目標。代理型人工智能(Agentic AI)正是如此:這是人工智能的一個新前沿領域,在這個領域中系統可以獨立運行。代理型人工智能有潛力革新諸多行業。但其高度的自主性伴隨著重大的責任——以及潛在的倫理困境。確保自主導向系統中的責任性、公平性和安全性是建立對這些技術的信任和可靠性的核心所在。
Keeley Crockett是IEEE會員以及《IEEE計算智能新興話題雜志》的前任副主編,下文中他將重點探討什么是代理型人工智能、它正在如何被使用以及在未來幾年可能會如何發展。
你會如何向沒有技術背景的人解釋代理型人工智能呢?
代理型人工智能指的是能夠獨立行動以實現目標而不需要持續人類控制的人工智能系統。這些系統能夠基于其程序設定和所處理的數據來做決策、執行操作并適應各種情況,通常不需要人類輸入。一個目標可能包含若干個子目標。
關于這些系統在未來可能的應用有幾個例子。想象一下你有一個家庭清潔機器人,你只給它下達“保持房屋清潔”的指令。然后這個機器人就會在適當的時候執行任務,比如當它判定地板臟了就進行吸塵,飯后就去洗碗,以及定時把東西放回原位。這個機器人理解目標并且不需要持續的指令就能自主行動。
另一種情形涉及使用代理型人工智能來運營一個營銷項目。你可能會告知該系統要將銷售額提高20%。然后,一個代理型人工智能系統能夠獨立分析特定時間段內的客戶數據,以識別趨勢和偏好。接著,該人工智能將分析客戶數據,基于這一分析開展營銷活動,并且如果發現活動未達到預期效果就進行調整。
代理型人工智能與傳統人工智能模型或自動化系統有何區別?
傳統人工智能模型遵循通常從數據中發現的預定義規則。如果沒有某種形式的重新訓練、測試和驗證,這類模型無法自動適應意外的變化。而且還需要人類的監督和干預。傳統模型通常是為一項特定任務而構建的,例如分類任務,即構建一個模型來判定一個人是否有可能拖欠貸款還款。
代理型人工智能系統能夠獨立行動以實現特定目標,不需要持續的人類干預。它們可以從數據中學習、適應新情況并動態調整自身的行動。它們的行為是目標驅動的,并且必須弄清楚如何實現主要目標和子目標,這就要求它們獨立于人類對任務進行優先級排序和解決問題。
代理型人工智能有哪些倫理影響?
代理型人工智能的使用引發了幾個關鍵問題。在如此復雜的系統中,如果出現問題,誰來負責?需要哪些數據和隱私保護措施?當代理型人工智能系統要做出具有現實世界影響的“道德”決策時,它應該如何應對?
這些問題對于傳統人工智能系統也是一樣的。盡管有倫理原則以及現行/新興的立法作為指導,但我們仍在努力理解并剖析這在實際運作的系統中意味著什么。最大的倫理問題是,人類處于何種位置?
當今是否有正在使用的代理型人工智能模型?它們具備何種程度的自主性?
如今,代理型人工智能被應用于自動駕駛汽車中,基于對車輛周邊環境的持續分析來做出駕駛決策。每一次出行都是一次學習體驗。
一些網絡安全公司使用代理型人工智能通過對網絡活動的實時分析來檢測組織內的威脅并進行關聯。然后,人工智能會自動自主地對潛在的入侵做出響應。
我個人的觀點是,隨著研究的進展以及數據獲取量的增加,代理型人工智能的應用案例將迅速發展。這些系統的準確性取決于一個人愿意分享多少個人數據。
-
AI
+關注
關注
87文章
31738瀏覽量
270525 -
人工智能
+關注
關注
1796文章
47811瀏覽量
240593
原文標題:什么是代理型人工智能
文章出處:【微信號:IEEE_China,微信公眾號:IEEE電氣電子工程師】歡迎添加關注!文章轉載請注明出處。
發布評論請先 登錄
相關推薦
評論