在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

多智體深度強化學習研究中首次將概率遞歸推理引入AI的學習過程

DPVg_AI_era ? 來源:lp ? 2019-03-05 08:52 ? 次閱讀

受人類遞歸推理思維啟發,UCL汪軍教授組在多智體深度強化學習研究中首次將概率遞歸推理引入AI的學習過程,讓智能體在決策前預測其他智能體的反應對自身的影響。這項工作提升了AI群體思考深度,也為MARL研究提供了全新的思路。

開始之前,先來做個游戲。

假設你跟其他正在看這篇文章的讀者一起玩一個游戲,從0到100當中猜出一個數,最后最接近所有人猜的數字平均值的2/3的那個人獲勝,那么作為一個個體,你會說幾?

這個游戲來自著名的博弈論游戲“猜平均數的三分之二”(guess 2/3 of the average-game),嚴格來說,人類玩家之間并沒有一個必勝的策略。但是,通過不斷思考對手可能的決策,這個游戲的眾多答案中就會出現一個唯一的納什均衡,也就是0。

猜平均數的三分之二

0到100的平均值是50, 如果每個個體完全不考慮對手的數字而是隨機選擇一個數字,那么猜的數字的均值就是50.

這時候有人就可以想了,假設其他人都是無腦瞎猜,那么要獲勝,自己就需要多想一步,說出50的三分之二——也就是“50*2/3=33”。

假設其他人都說“33”,又會有人想,要獲勝,自己就需要再多想一步,說出33的2/3——“22”。

這個過程不斷重復下去,最終,就會得到0。實際上,0也是這個問題的納什均衡。

但注意,這是在所有人都完全極度理性的情況下,現實生活中,沒有人是絕對理性的,所以并不會出現所有人都猜到0的情況,一般群體能收斂到“22-33”之間已經很不錯了。

更重要的是,這個游戲充分說明了預測其他人猜的數字對自己將要給出的結果的影響——即使是完全理性的玩家,在這樣的游戲中也不應該猜“0”,除非能夠確認:1)其他玩家也都是理性的,2)每個玩家都知道其他玩家是理性的。

只要上述兩點沒有同時成立,也即存在非理性玩家的情況下,要獲勝至少應該猜大于0的數字。現實生活中,大多數情況下人類的決策都會有非理性的因素。為了對真實的決策過程更好的建模,那么考慮非理性的因素對于多智能體AI的研究來說就是至關重要了。

1981年,Alain Ledoux在他的法國雜志《游戲與策略》(Jeux et Stratégie)中提出了“猜平均數的三分之二”這個游戲,結果分布如下圖。

1981年2898位讀者參與“猜平均數2/3”的結果分布,來源:維基百科

這個游戲也可以用來反映群體的“思維深度”,最終數字越小,說明群體的思考層數(回數)越多。

實驗心理學領域詳細研究了不同職業不同人的思維深度,厲害的國際象棋大師能夠預測未來7個來回甚至更遠的情況,然后根據預測,返回來決定眼下在哪里落子。事實上,人類作為一個整體平均的思維深度是1.5– 2。

絕大多數的人都會在做事前對自己行為的結果進行某種程度上的預估,具體說,人會先預測自己的行為可能對他人影響,然后再進一步預測受了影響的他人將如何反過來影響自己,這是一個遞歸的過程。

認知心理學認為,遞歸推理(recursive reasoning)也即推測他人認為自己在想什么,是人類固有的一種思維模式,在社交生活中對人類行為決策起到重要作用。放在猜數字游戲里,就是“我猜你猜我在想什么”。

人類社交中的遞歸推理過程。圖片來源:Gl?scher Lab

UCL首次將遞歸推理引入多智體深度強化學習

在傳統的多智體學習過程當中,有研究者在對其他智能體建模(也即“對手建模”, opponent modeling)時使用了遞歸推理,但由于算法復雜和計算力所限,目前還尚未有人在多智體深度強化學習(Multi-Agent Deep Reinforcement Learning)的對手建模中使用遞歸推理。

在被深度學習頂會ICLR 2019高分接收的一篇最新論文中,UCL汪軍教授組首次將遞歸推理的思維模式引入多智體深度強化學習。

具體說,他們提出了一個遞歸概率推理框架Probabilistic Recursive Reasoning, 簡稱PR2,讓每個智能體在決策時考慮其他智能體將如何回應自己接下來的行動,然后做出最優的決策。

k 階遞歸推理圖模型。a代表思考深度,隱式的對手建模用函數ρ-i逼近。0階模型認為對手完全隨機。上圖灰色區域表示智能體 i 的遞歸推理思考過程。想得更深一級的智能體返回得出當前輪次的最優結果。每一級計算都包含上一級的計算,比如2階包含1階。來源:https://arxiv.org/abs/1901.09216

基于PR2框架,研究人員提出了分別對應連續和離散動作空間的PR2-Q 和 PR2-Actor-Critic算法。有趣的是,這些算法是天生的分布式算法,不需要Centralized Value Function。多次實驗結果表明,PR2有效提升了多智體強化學習中單個智能體的學習效率。

“我們在MARL智能體的遞歸推理中,使用了概率圖模型建模,最后得到了一個soft learning的結果,”參與這項工作的UCL計算機學院博士生Yaodong Yang告訴新智元:“巧妙的是,這和單智能體的最大熵強化學習有相通之處。”

研究人員希望這項工作為MARL的對手建模帶來一個全新的角度。論文的第一作者、UCL計算機學院的博士生溫穎在接受新智元采訪時表示:“在PR2的基礎上,針對更深層的遞歸推理,我們設計了一個特殊的trick,能保證訓練時每一步更深層的推理都比上一次迭代要好,同時不是無限制地計算下去,那樣的話計算資源的消耗太大。”

研究負責人UCL汪軍教授說:“ICLR的工作主要是考慮了1階遞歸思考,也就是考慮別人會怎么想自己,接下來,我們將繼續研究多智體強化學習中AI的遞歸推理,在ICML 2019的投稿中,我們將其推廣到 n 階遞歸思考的過程,從而讓多智能體AI在更加有效有意義的納什均衡,相關理論將在機器人自動駕駛汽車等應用中都有重要意義。”

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • AI
    AI
    +關注

    關注

    87

    文章

    33553

    瀏覽量

    274185
  • 智能體
    +關注

    關注

    1

    文章

    230

    瀏覽量

    10890
  • 強化學習
    +關注

    關注

    4

    文章

    269

    瀏覽量

    11470

原文標題:ICLR19高分論文:為思想“層次”建模,遞歸推理讓AI更聰明

文章出處:【微信號:AI_era,微信公眾號:新智元】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    什么是深度強化學習?深度強化學習算法應用分析

    什么是深度強化學習? 眾所周知,人類擅長解決各種挑戰性的問題,從低級的運動控制(如:步行、跑步、打網球)到高級的認知任務。
    發表于 07-01 10:29 ?1771次閱讀
    什么是<b class='flag-5'>深度</b><b class='flag-5'>強化學習</b>?<b class='flag-5'>深度</b><b class='flag-5'>強化學習</b>算法應用分析

    深度學習DeepLearning實戰

    測試)三、主講內容1:課程一、強化學習簡介課程二、強化學習基礎課程三、深度強化學習基礎課程四、智能
    發表于 01-09 17:01

    深度強化學習實戰

    測試)三、主講內容1:課程一、強化學習簡介課程二、強化學習基礎課程三、深度強化學習基礎課程四、智能
    發表于 01-10 13:42

    深度學習強化學習相結合的深度強化學習DRL

    深度強化學習DRL自提出以來, 已在理論和應用方面均取得了顯著的成果。尤其是谷歌DeepMind團隊基于深度強化學習DRL研發的AlphaGo,
    發表于 06-29 18:36 ?2.8w次閱讀

    薩頓科普了強化學習深度強化學習,并談到了這項技術的潛力和發展方向

    薩頓在專訪(再次)科普了強化學習深度強化學習,并談到了這項技術的潛力,以及接下來的發展方向:預測學習
    的頭像 發表于 12-27 09:07 ?1.1w次閱讀

    強化學習環境研究,智能玩游戲為什么厲害

    強化學習作為一種常用的訓練智能的方法,能夠完成很多復雜的任務。在強化學習,智能的策略是通過
    的頭像 發表于 08-18 11:38 ?3758次閱讀

    深度強化學習到底是什么?它的工作原理是怎么樣的

    深度學習DL是機器學習中一種基于對數據進行表征學習的方法。深度學習DL有監督和非監督之分,都已經
    的頭像 發表于 06-13 11:39 ?6430次閱讀

    DeepMind發布強化學習庫RLax

    RLax(發音為“ relax”)是建立在JAX之上的庫,它公開了用于實施強化學習智能的有用構建塊。。報道:深度強化學習實驗室作者:DeepRL ...
    的頭像 發表于 12-10 18:43 ?859次閱讀

    機器學習的無模型強化學習算法及研究綜述

    根據真實環境的狀態轉移數據來預定義環境動態模型,隨后在通過環境動態模型進行策略學習過程中無須再與環境進行交互。在無模型強化學習,智
    發表于 04-08 11:41 ?11次下載
    機器<b class='flag-5'>學習</b><b class='flag-5'>中</b>的無模型<b class='flag-5'>強化學習</b>算法及<b class='flag-5'>研究</b>綜述

    模型化深度強化學習應用研究綜述

    深度強化學習(DRL)作為機器學習的重要分攴,在 Alphago擊敗人類后受到了廣泛關注。DRL以種試錯機制與環境進行交互,并通過最大化累積獎賞最終得到最優策略。強化學習可分為無模型
    發表于 04-12 11:01 ?9次下載
    模型化<b class='flag-5'>深度</b><b class='flag-5'>強化學習</b>應用<b class='flag-5'>研究</b>綜述

    基于深度強化學習的路口單交叉信號控制

    利用深度強化學習技術實現路口信號控制是智能交通領域的硏究熱點。現有硏究大多利用強化學習來全面刻畫交通狀態以及設計有效強化學習算法以解決信號配時問題,但這些
    發表于 04-23 15:30 ?21次下載
    基于<b class='flag-5'>深度</b><b class='flag-5'>強化學習</b>的路口單交叉信號控制

    基于深度強化學習仿真集成的壓邊力控制模型

    壓邊為改善板料拉深制造的成品質量,釆用深度強化學習的方法進行拉深過程旳壓邊力優化控制。提岀一種基于深度強化學習與有限元仿真集成的壓邊力控制模
    發表于 05-27 10:32 ?0次下載

    一種新型的智能深度強化學習算法

    一種新型的智能深度強化學習算法
    發表于 06-23 10:42 ?36次下載

    《自動化學報》—Agent深度強化學習綜述

    突破.由于融合了深度學習強大的表征能力和強化學習有效的策略搜索能力,深度強化學習已經成為實現人工智能頗有前景的
    發表于 01-18 10:08 ?1816次閱讀
    《自動<b class='flag-5'>化學</b>報》—<b class='flag-5'>多</b>Agent<b class='flag-5'>深度</b><b class='flag-5'>強化學習</b>綜述

    語言模型做先驗,統一強化學習智能,DeepMind選擇走這條通用AI之路

    的發展,從最早的 AlphaGo、AlphaZero 到后來的模態、多任務、具身 AI 智能 Gato,智能的訓練方法和能力都在不斷
    的頭像 發表于 07-24 16:55 ?676次閱讀
    語言模型做先驗,統一<b class='flag-5'>強化學習</b>智能<b class='flag-5'>體</b>,DeepMind選擇走這條通用<b class='flag-5'>AI</b>之路
    主站蜘蛛池模板: 欧美夜夜| 美女一级毛片毛片在线播放 | 国产精品免费观看网站 | 亚洲欧美经典 | 国模在线视频 | 亚洲九色| 大喷水吹潮magnet | 黄黄的网站| 亚洲人成电影在线 | 成人区精品一区二区毛片不卡 | 可以免费看的黄色片 | 天天欧美 | 99久久99这里只有免费费精品 | 欧美女人天堂 | 国产又粗又大又爽又免费 | 黄乱色伦短篇小说h | 国模大尺度人体一区 | 黄色视屏免费在线观看 | 国产精品美女一级在线观看 | 午夜美女久久久久爽久久 | 欧美日韩一区二区三区毛片 | 天堂网ww | 日本在线www | 在线观看中文字幕一区 | 一区二区不卡免费视频 | 女人被狂躁视频网站免费 | 香港三级理论在线影院 | 久久夜夜操 | 日本高免费观看在线播放 | 免费国产成人午夜私人影视 | 色婷婷婷丁香亚洲综合不卡 | 欧美一级片免费在线观看 | 一级午夜免费视频 | 色婷婷一区二区三区四区成人 | 亚洲网站在线看 | 精品免费久久久久久成人影院 | 国产理论在线 | 亚洲黄色色图 | 成年女人毛片免费观看97 | 人人上人人干 | ssswww日本免费网站片 |