在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

機器人也會擁有觸覺分析能力

新機器視覺 ? 來源:機器之心 ? 作者:機器之心 ? 2020-12-28 13:54 ? 次閱讀

人類善于利用手指觸覺來感知物體的物理特性(包括質(zhì)量、重心、轉(zhuǎn)動慣量、表面摩擦等),從而完成高難度的控制任務。在不遠的將來,機器人也會擁有觸覺分析能力。在剛剛結(jié)束的機器人頂會 IROS 2020 上,上海交大 & MIT 聯(lián)合項目 SwingBot 為我們展示了如何讓機器人通過觸覺傳感器來學習感知物體復雜的物理特性(tactile exploration),從而完成一個高難度的甩筆任務(in-hand object swing-up)。該工作也摘得此次大會的最佳論文獎項。

IROS2020 最佳論文獎項。來源 iros2020.org (http://iros2020.org/) 下圖為機器人觸覺分析的流程通過握著物體旋轉(zhuǎn)一定角度和抖動物體來感知物理特性,從而推斷出最佳的控制策略實現(xiàn)甩筆。

該項目通過對多種觸覺探索動作的信息融合,讓機器人端到端的去學習概括手中物體的物理特性,并依靠這個物理特征來實現(xiàn)高難度的手上控制任務(in-hand swing-up)。更多的詳細內(nèi)容可以訪問論文原文和項目主頁:

論文鏈接:http://gelsight.csail.mit.edu/swingbot/IROS2020_SwingBot.pdf

項目地址:http://gelsight.csail.mit.edu/swingbot/

高精度、低成本的觸覺傳感器 研究人員使用的是一款名為 GelSight 的機器人觸覺傳感器,該傳感器也發(fā)明于此 MIT 項目組(指導教授:Edward Adelson)。區(qū)別于傳統(tǒng)觸覺傳感器依賴于稀疏的電極陣列(基于電阻 / 電容 ),GelSight 是一個基于光學的觸覺傳感器,通過一個微型相機來拍攝接觸面的三維幾何形變,可以返回高精度的觸覺信息(見下圖是 GelSight 重建的奧利奧餅干表面)。 更值得一提的是,因為只需要一個低成本的微型攝像頭和一個樹莓派控制器,GelSight 的制作總成本只有 100 美金(700 元),遠低于市面上的其他觸覺傳感器。

GelSight 觸覺信息效果圖。來源:[2] 在本篇工作中,研究人員將 GelSight 安裝在了機器人二爪夾具的一側(cè),通過在傳感器上標定靶點和重建三維信息,高密度的力學反饋可以以每秒60幀的速度實時傳輸出來。

基于多種觸覺探索動作的物理特性分析能力 人類可以通過多種觸覺探索動作(觸摸、甩、掂量)來概括手上物體的物理特性(重量、光滑程度、重心位置等)[1],而且人類并不需要測量這些物理參數(shù)的精確數(shù)值,而是用自己的經(jīng)驗結(jié)合觸覺手感來實現(xiàn)對手中物體高難度的控制。 受這個觀察的啟發(fā),該項目的研究人員首先提出了一個多觸覺探索的信息融合模型(Information fusion model for multiple tactile exploration actions),該模型的目的是整合不同的機器人觸覺探索動作信息到一個共同的物理特性特征空間(Physical embedding)中,從而實現(xiàn)對物體多種物理特性(質(zhì)量、重心位置、轉(zhuǎn)動慣量和摩擦力)的概括能力。

多觸覺探索動作的信息融合模型。來源:論文 研究人員為機器人設計了兩種基礎的探索動作:(1)緊握物體并旋轉(zhuǎn)一定角度(in-hand tilting)和(2)放松緊握狀態(tài)并抖動物體(in-hand shaking)。動作(1)的觸覺反饋信息會通過一個卷積神經(jīng)網(wǎng)絡(CNN)來輸出一個一維的特征向量;動作(2)的抖動因為是時序信息,會用一個循環(huán)神經(jīng)網(wǎng)絡(RNN)來處理獲得相應的特征。這兩個特征信息通過拼接和一個由若干多層感知器(MLP)組成的融合模型進行整合,得到一個低維的物理特征概括(physical feature embedding)。 區(qū)別于逐個測量每種不同的物理特性,這種信息整合模型的一大優(yōu)勢是可以根據(jù)任務來自主調(diào)節(jié)對不同物理信息的關(guān)注程度,因為很多任務是無法明確分析出是哪一種物理特性起到了主導作用,而使用該方法可以讓機器人自主地學習并選擇需要的物理信息。此外,這兩個觸覺探索動作加起來只需要 7 秒的時間,相比于用精密的儀器來逐個測量物體的質(zhì)量和摩擦力等,該方法的效率也有很大的提升,并且不需要額外的測量儀器的輔助,更接近人類的觸覺感知能力。 此外,為了讓機器人自主學習選擇最需要的物理信息,研究人員接著提出了一個控制預測模型,該模型通過輸入先前獲得的物理特征向量和機器人控制參數(shù),來預測最終物體會被甩到的角度。在訓練過程中,整個流程是用一個端到端(end-to-end)的訓練算法來實現(xiàn)的。研究人員設計了一個機器人自動采集數(shù)據(jù)的系統(tǒng),并且 3D 打印了可以隨意調(diào)節(jié)物理特性的模型來采集數(shù)據(jù),具體如下兩個動圖所示:

可變物理特性的模板物體。

數(shù)據(jù)收集流程。 研究人員讓機器人自主采集了1350次甩筆的數(shù)據(jù),其中包含了27個不同物理特性的物體。在測試的時候,研究人員額外選擇了6個訓練數(shù)據(jù)中不包含(unseen)的新物體,機器人需要通過觸覺探索模型來確定未知物體的物理特性,并根據(jù)任務要求的最終甩到的角度,來選擇一套成功率最高的控制參數(shù)。 實驗成果 研究人員首先對比了使用和不使用多觸覺探索融合算法對預測控制模型準確率的影響(數(shù)值越低,準確度越高),其中融合算法(Comb.)在已知和未知物體上的預測誤差率都遠低于不使用觸覺信息(None)。此外融合算法(Comb.)的表現(xiàn)也比單一使用一種觸覺探索動作(Tilt.: tilting-only, Shak.:shaking-only)的算法效果好。

4d1a018e-4699-11eb-8b86-12bb97331649.png

以下是機器人在測試過程中,通過使用多觸覺探索融合算法來實現(xiàn)對未知物體(unseen objects)的物理特性探索和上甩效果(swing-up)。第一個任務要求將物體上甩至相對于傳感器 90 度的角度位置:

第二個任務要求將物體上甩至相對于傳感器 180 度的位置:

研究人員緊接著探索融合算法學習到的物理特征空間到底包含哪些信息。他們用一組額外的多層感知器來回歸(regression)每一個物理特性的具體參數(shù),并計算誤差百分比(數(shù)值越低,準確度越高)。 如下表所示,可以發(fā)現(xiàn)第一個旋轉(zhuǎn)動作(Tilting)對物體的質(zhì)量(Mass)、重心(Center of mass)和轉(zhuǎn)動慣量(Moment of inertia)的信息捕捉更準確。而第二個搖晃動作(Shaking)對物體接觸部分的摩擦力(Friction)的把握更準。將兩種探索動作融合的算法(Combined)取得了最好的回歸準確率。

53d885b8-4699-11eb-8b86-12bb97331649.png

最后研究人員進一步探索所學習到的物理特征空間是如何能夠做到對未知物體依然適用的。他們可視化了6個未知物體的數(shù)據(jù)分布并展示在了下圖 (b) 中,其中 x 軸表示控制參數(shù),y 軸表示最終上甩的角度。在圖 (a) 中,研究人員用 PCA 提取了每個采樣中網(wǎng)絡輸出的物理特征向量的主成分(2 維)并可視化在這個二維點圖中。觀察可以發(fā)現(xiàn),如果兩個物體的控制策略相近(例如物體 5 和物體 6),他們的物理特征間距也會越近,而兩個物體的控制策略相差較大(例如物體 1 和物體 4),則在特征空間上的間距也會更大。

物理特征可視化。來源:論文 作者介紹

本項目的共同第一作者是:

王辰(Chen Wang): 本科畢業(yè)于上海交通大學,師從盧策吾教授。他即將前往 Stanford 攻讀計算機博士學位,該項目是其在 MIT 暑研期間完成的。個人主頁:http://www.chenwangjeremy.net

王少雄(Shaoxiong Wang):MIT CSAIL 博士生四年級,師從 Prof. Edward Adelson(此項目指導教授),本科畢業(yè)于清華大學。個人主頁:http://shaoxiongwang.com/

責任編輯:lq

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 控制器
    +關(guān)注

    關(guān)注

    112

    文章

    16448

    瀏覽量

    179481
  • 機器人
    +關(guān)注

    關(guān)注

    211

    文章

    28646

    瀏覽量

    208439
  • 觸覺傳感器
    +關(guān)注

    關(guān)注

    4

    文章

    86

    瀏覽量

    9397

原文標題:機器人也能「甩筆」,擁有觸覺分析能力,上交&MIT獲IROS 2020最佳論文獎

文章出處:【微信號:vision263com,微信公眾號:新機器視覺】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    【「具身智能機器人系統(tǒng)」閱讀體驗】2.具身智能機器人的基礎模塊

    具身智能機器人的基礎模塊,這個是本書的第二部分內(nèi)容,主要分為四個部分:機器人計算系統(tǒng),自主機器人的感知系統(tǒng),自主機器人的定位系統(tǒng),自主機器人
    發(fā)表于 01-04 19:22

    《具身智能機器人系統(tǒng)》第10-13章閱讀心得之具身智能機器人計算挑戰(zhàn)

    是全書最“硬核”的部分,涉及不少機器人的硬件、系統(tǒng)、算法等方面的知識,對于我這個非相關(guān)專業(yè)的人士,閱讀起來還是有些吃力,不過好在這本書不是講解特別深入,還是偏向于綜述性質(zhì)的概況總結(jié),我多讀幾遍還是能夠消化大部分的知識。
    發(fā)表于 01-04 01:15

    【「具身智能機器人系統(tǒng)」閱讀體驗】2.具身智能機器人大模型

    、醫(yī)療、服務等領(lǐng)域的應用前景更加廣闊,使得人類能夠更輕松地借助機器完成復雜工作。我深刻認識到,大模型技術(shù)正在從根本上改變我們對機器人能力的認知。它們不僅是一種技術(shù)工具,更是推動具身智
    發(fā)表于 12-29 23:04

    【「具身智能機器人系統(tǒng)」閱讀體驗】1.初步理解具身智能

    與未來,涵蓋如基于行為的人工智能、生物啟發(fā)的進化人工智能及認知機器人技術(shù)的發(fā)展。這一歷史背景為隨后的大模型驅(qū)動的具身智能討論奠定了基礎,隨著人工智能模型復雜性和能力的不斷提升,這一主題變得愈加
    發(fā)表于 12-28 21:12

    《具身智能機器人系統(tǒng)》第7-9章閱讀心得之具身智能機器人與大模型

    研讀《具身智能機器人系統(tǒng)》第7-9章,我被書中對大模型與機器人技術(shù)融合的深入分析所吸引。第7章詳細闡述了ChatGPT for Robotics的核心技術(shù)創(chuàng)新:它摒棄了傳統(tǒng)的分層控制架構(gòu),創(chuàng)造性地
    發(fā)表于 12-24 15:03

    【「具身智能機器人系統(tǒng)」閱讀體驗】+初品的體驗

    的快速發(fā)展,相關(guān)人才的需求在不斷增加,通過閱讀該書可以幫助大家系統(tǒng)性地了解和分析當前具身智能機器人系統(tǒng)的發(fā)展現(xiàn)狀和前沿研究,為未來的研究和開發(fā)工作提供指導。此外,本書還可以為研究人員和工程師提供具體
    發(fā)表于 12-20 19:17

    鴻蒙機器人與鴻蒙開發(fā)板聯(lián)動演示

    鴻蒙機器人與鴻蒙開發(fā)板聯(lián)動演示,機器人的角色為迎賓機器人,開發(fā)板負責人賓客出現(xiàn)監(jiān)聽
    發(fā)表于 12-02 14:55

    這批中國企業(yè),在做人形機器人觸覺傳感器

    日前,Meta公布了旗下FAIR(基礎人工智能研究)團隊在機器人觸覺感知能力上的最新研究成果。其中包含了一款名為Digit 360的高精度傳感器,其主要部署在機器人手指上。據(jù)介紹,Di
    的頭像 發(fā)表于 11-18 18:28 ?772次閱讀

    觸覺傳感器的發(fā)展,對機器人產(chǎn)業(yè)有什么影響?

    的傳感器,通過測量與環(huán)境物理交互產(chǎn)生的信息來工作,為機器人提供了更為精準和靈活的操作能力。本文將深入探討觸覺傳感器的發(fā)展及其在機器人產(chǎn)業(yè)中的廣泛應用,以及這一技術(shù)所帶來的深遠影響。
    的頭像 發(fā)表于 10-23 18:25 ?625次閱讀

    解鎖機器人視覺與人工智能的潛力,從“盲人機器”改造成有視覺能力機器人(上)

    正如人類依賴眼睛和大腦來解讀世界,機器人需要自己的視覺系統(tǒng)來有效運作。沒有視覺,機器人就如同蒙上雙眼的人類,僅能執(zhí)行預編程的命令,容易碰撞障礙物,并犯下代價高昂的錯誤。這正是機器人
    的頭像 發(fā)表于 10-12 09:56 ?462次閱讀
    解鎖<b class='flag-5'>機器人</b>視覺與人工智能的潛力,從“盲人<b class='flag-5'>機器</b>”改造成有視覺<b class='flag-5'>能力</b>的<b class='flag-5'>機器人</b>(上)

    開源項目!用ESP32做一個可愛的無用機器人

    /Kawaii-Useless-Robot 可以“可愛的無用機器人”打包下載所有3D打印文件。 項目鏈接:https://www.instructables.com/Kawaii-Useless-Robot-2024-Edition/ 項目作者:tobychui *附件
    發(fā)表于 09-03 09:34

    柔性電子技術(shù)革新與人形機器人的電子皮膚應用前景

    通過柔性電子技術(shù),結(jié)合柔性拉伸傳感器、溫度傳感器等,可以構(gòu)建出具有觸覺的電子皮膚。電子皮膚最直接的應用是智能機器人擁有觸覺機器人能夠更精
    的頭像 發(fā)表于 08-06 00:00 ?961次閱讀
    柔性電子技術(shù)革新與人形<b class='flag-5'>機器人</b>的電子皮膚應用前景

    Al大模型機器人

    理解能力強大: AI大模型機器人可以理解和生成自然語言,能夠進行復雜的對話和語言任務。它們能夠識別語言中的語義、語境和情感,并據(jù)此作出適當?shù)幕貞V泛的知識儲備: 這些模型基于大規(guī)模的數(shù)據(jù)集進行訓練,擁有
    發(fā)表于 07-05 08:52

    其利天下技術(shù)·搭載無刷電機的掃地機器人的前景如何?

    將得到進一步提升,實現(xiàn)更精準的清潔。同時,電池技術(shù)的不斷創(chuàng)新將為掃地機器人提供更持久的續(xù)航能力,減少用戶的使用顧慮。 此外,掃地機器人還有望在功能上進行拓展,例如增加拖地、消毒等功能
    發(fā)表于 05-05 15:03

    工業(yè)機器人觸覺傳感器有哪些?傳感器作用是什么?

    工業(yè)機器人觸覺傳感器可以幫助工業(yè)機器人測量與其環(huán)境的任何物理交互。傳感器可以測量與傳感器和物體接觸相關(guān)的參數(shù)。工業(yè)機器人受益于
    的頭像 發(fā)表于 03-11 08:39 ?918次閱讀
    主站蜘蛛池模板: 久久精品国产福利国产琪琪 | 黄色片 720p 黄色片链接 | 免费大片黄在线观看 | 四虎影院色 | 69pao强力打造免费高速 | 亚洲最色网站 | 亚洲婷婷综合中文字幕第一页 | 成 人在线观看视频网站 | 99pao在线视频精品免费 | 亚洲伦理一区二区三区 | 狠狠色狠狠色综合网 | 四虎影院在线观看免费 | 痴女在线播放免费视频 | 欧美一级视频精品观看 | 日韩色天使综合色视频 | 成人国产精品高清在线观看 | 5月色婷婷 | 亚洲欧美日本综合 | 福利社91 | 三级在线播放 | 播放欧亚一级特黄录像 | 欧美成人免费网站 | 樱桃磁力bt天堂 | 免费深夜视频 | 国产精品欧美精品国产主播 | 久久天天躁狠狠躁夜夜免费观看 | japanese69xxx日本| 欧美3d成人动画在线 | 伊人久久综合网亚洲 | 一级毛片一级毛片一级毛片 | 高清一区二区三区免费 | 国产成人mv在线观看入口视频 | 黄色网址在线播放 | 亚洲热热久久九九精品 | 婷婷六月综合 | 河南毛片 | 天堂va欧美ⅴa亚洲va一国产 | 免费黄色大片网站 | 国产大片免费观看资源 | 222aaa天堂 | h视频欧美|