人工智能的某些實例是否可能沒有我們想象的那么聰明?
稱之為人工智能。
一組計算機研究生報告說,仔細研究被譽為人工研究里程碑的數十種信息檢索算法,實際上遠沒有所謂的革命性。實際上,這些算法中使用的AI通常只是對先前建立的例程的細微調整。
麻省理工學院的研究生研究員戴維斯·布拉洛克(Davis Blalock)表示,在他的團隊研究了81種開發神經網絡的方法后,該方法通常被認為比以前的研究要好,該團隊無法確認實際上是否有任何改進。
布拉鐘克說:“有50篇論文被收錄,很明顯,最新的技術水平還不清楚?!?/p>
過去十年來,人工智能技術的進步很大程度上歸功于硬件的改進,例如圖形處理器,計算機處理單元和照相機,這些技術使復雜搜索項目,面部識別,攝影,語言翻譯和語音識別以及突破取得了指數級增長在虛擬現實游戲中越來越精彩的可視化效果中。當然,算法上的改進也有幫助。
但是麻省理工學院的團隊說,人工智能算法至少有一些改進是虛幻的。
他們發現,例如,通過對長期存在的AI算法進行細微調整,舊程序在本質上可以與高度吹捧的“新改進”程序一起使用。實際上,在某些情況下,發現新的AI模型不如舊方法。
《科學》雜志評估該研究的一篇文章援引了對搜索引擎中使用的信息檢索算法的薈萃分析的結果,直到2019年為止,發現“最高分數實際上是在2009年設定的”。流服務使用的神經網絡推薦系統的另一項研究確定,所使用的七個過程中的六個未能在幾年前設計的簡單算法上得到改進。
Blalock指出了用于比較算法的技術上的不一致,從而使聲稱一種方法比另一種方法更好的準確性尚有待商。。
實際上,據一位麻省理工學院的計算機科學家稱,過去十年來,在人工智能的某些領域顯然缺乏重大進展,這歸咎于無法正確比較和評估競爭方法。Blalock博士John Guttag 顧問說:“這是舊鋸,對嗎?如果您無法測量某些東西,就很難使其變得更好?!?/p>
卡內基·梅隆大學的計算機科學家Zico Kolter推測,給人的名字加上新算法的動機和社會獎勵要比僅僅修補和調整已建立的舊方法更為有效。
他研究了圖像識別模型,該模型被編程為抵抗黑客所謂的對抗攻擊。此類攻擊使用巧妙更改的代碼來繞過系統安全性。一種稱為投影梯度下降(PGD)的早期方法通過訓練AI系統來區分真實的和偽造的代碼示例來抵御此類攻擊。它被認為是一種可靠的方法,但是據說被更新更好的協議所繞過。但是,Kolter的研究人員團隊發現,對舊的PGD方法進行簡單的調整后,其有效性與新方法幾乎沒有區別。
“很顯然,PGD實際上只是正確的算法,” Kolter說?!斑@很明顯,人們希望找到過于復雜的解決方案?!?/p>
-
人工智能
+關注
關注
1807文章
49035瀏覽量
249778 -
計算機科學
+關注
關注
1文章
144瀏覽量
11635
發布評論請先 登錄
最新人工智能硬件培訓AI 基礎入門學習課程參考2025版(大模型篇)
人工智能是做什么的

AI人工智能隱私保護怎么樣

評論