在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

借助NVIDIA技術(shù)提升機器人的移動和全身控制能力

NVIDIA英偉達(dá)企業(yè)解決方案 ? 來源:NVIDIA英偉達(dá)企業(yè)解決方案 ? 2025-04-27 15:14 ? 次閱讀

歡迎閱讀首期“NVIDIA 機器人研究與開發(fā)摘要(R2D2)”。此技術(shù)博客系列將讓開發(fā)者和研究人員更深入地了解 NVIDIA 各個研究實驗室在物理 AI 和機器人領(lǐng)域的最新研究突破。

開發(fā)強大的機器人面臨著諸多重大挑戰(zhàn),例如:

數(shù)據(jù)稀缺:為 AI 模型生成多樣的真實世界訓(xùn)練數(shù)據(jù)。

適應(yīng)性:確保解決方案能夠在各種不同類型的機器人和環(huán)境中通用,并適應(yīng)動態(tài)、不可預(yù)測的場景。

集成性:有效地將移動能力、操作能力、控制能力和推理能力結(jié)合起來。

我們通過在自身平臺上經(jīng)過驗證的先進(jìn)研究來應(yīng)對這些挑戰(zhàn)。我們的方法將前沿研究與工程工作流相結(jié)合,并在我們的 AI 和機器人平臺(包括NVIDIA OmniverseCosmosIsaac SimIsaac Lab)上進(jìn)行測試。最終生成的模型、策略和數(shù)據(jù)集可作為研究人員和開發(fā)者社區(qū)的可定制參考,以適應(yīng)特定的機器人開發(fā)需求。我們期待分享我們的研究成果,共同構(gòu)建機器人技術(shù)的未來。

在本期 R2D2 中,您將了解以下機器人移動及全身控制的工作流及模型,以及它們?nèi)绾螒?yīng)對機器人導(dǎo)航、移動和控制方面的關(guān)鍵挑戰(zhàn):

MobilityGen:基于仿真的工作流,利用 Isaac Sim 快速生成大型合成運動數(shù)據(jù)集,用于為不同形態(tài)和環(huán)境下的機器人構(gòu)建模型,以及測試機器人在新環(huán)境中的導(dǎo)航能力。與真實世界的數(shù)據(jù)采集相比,該工作流可降低成本并節(jié)省時間。

COMPASS(Cross-embOdiment Mobility Policy via ResiduAl RL and Skill Synthesis):一種用于開發(fā)跨形態(tài)移動策略的工作流,可借助 Isaac Lab 實現(xiàn)微調(diào),并支持零樣本從仿真到現(xiàn)實的部署。

HOVER(Humanoid Versatile Controller):Isaac Lab 中用于人形機器人多種控制模式的工作流和統(tǒng)一全身控制通用策略。

ReMEmbR(適用于具身機器人的檢索增強內(nèi)存):一種支持機器人使用 LLMs、VLMs 和 RAG(檢索增強生成)進(jìn)行推理并采取移動行動的工作流。

NVIDIA 機器人移動工作流和 AI 模型

包括人形機器人、四足機器人和自主移動機器人(AMR)等在內(nèi)的移動機器人,越來越多地應(yīng)用于各種不同的環(huán)境中,這對強大的導(dǎo)航系統(tǒng)提出了更高的要求,需要能夠支持在已繪制地圖和未知的環(huán)境中安全運行,同時避開障礙物并減少停機時間。目前的導(dǎo)航軟件在適應(yīng)性方面存在困難,因為不同類型的機器人(例如,自主移動機器人與人形機器人)的算法差異很大,并且需要針對環(huán)境變化進(jìn)行大量的微調(diào),這增加了工程復(fù)雜性并限制了可擴(kuò)展性。

NVIDIA 研究中心通過開發(fā)由 AI 驅(qū)動的端到端基礎(chǔ)模型、高效的數(shù)據(jù)生成流程以及支持零樣本部署的訓(xùn)練工作流來應(yīng)對這些挑戰(zhàn),使機器人無需依賴昂貴的傳感器即可在雜亂的空間中導(dǎo)航。

c5b578f6-21c0-11f0-9310-92fbcf53809c.png

圖 1. 移動工作流包括三個主要步驟,即數(shù)據(jù)生成、在生成的數(shù)據(jù)上訓(xùn)練和微調(diào)模型,以及在對真實機器人進(jìn)行零樣本部署之前對模型進(jìn)行測試

用于數(shù)據(jù)生成的 MobilityGen

MobilityGen 工作流借助 NVIDIA Isaac Sim,為包括人形機器人、四足機器人和輪式機器人在內(nèi)的移動機器人生成合成運動數(shù)據(jù)。您可以使用這些數(shù)據(jù)來訓(xùn)練和測試機器人的移動模型以及感知算法,從而解決訓(xùn)練機器人時的數(shù)據(jù)稀缺問題。

MobilityGen 通過以下方式幫助增加數(shù)據(jù)集的多樣性:

添加動態(tài)對象

添加機器人動作數(shù)據(jù)

結(jié)合人類演示數(shù)據(jù)

增強數(shù)據(jù)(例如光照條件)

MobilityGen 提供真實數(shù)據(jù)的形式包括占用地圖、位姿信息、速度信息、RGB 圖像、深度圖像和分割圖像,以及可定制的動作和渲染數(shù)據(jù)。它支持的數(shù)據(jù)采集方法包括鍵盤或游戲手柄遠(yuǎn)程操作,以及自動隨機動作或可定制的路徑規(guī)劃。

通過解決數(shù)據(jù)稀缺問題,MobilityGen 增強了集成機器人堆棧的感知能力和移動基礎(chǔ)。通過 NVIDIA 深度學(xué)習(xí)培訓(xùn)中心(DLI)的免費自學(xué)課程,了解更多關(guān)于 MobilityGen 的信息,以及如何使用遠(yuǎn)程操作為人形機器人 Unitree H1 生成運動和導(dǎo)航數(shù)據(jù)集。

c5d9d930-21c0-11f0-9310-92fbcf53809c.png

圖 2. 機器人移動合成數(shù)據(jù)生成包括四個主要步驟:在仿真中構(gòu)建或?qū)氕h(huán)境、導(dǎo)入機器人模型、在仿真環(huán)境中移動機器人并記錄軌跡,最后渲染數(shù)據(jù)以用于訓(xùn)練和測試

視頻 2. MobilityGen 用戶使用 Isaac Sim 進(jìn)行合成數(shù)據(jù)生成

用于跨形態(tài)移動策略的 COMPASS

COMPASS 是一個用于開發(fā)跨形態(tài)移動策略的工作流。它提供了一種可通用的端到端移動工作流和模型,能夠在多種機器人形態(tài)下實現(xiàn)零樣本從仿真到現(xiàn)實的部署。其目標(biāo)是解決由于機器人專家開發(fā)和測試周期緩慢而導(dǎo)致的可擴(kuò)展性問題。

COMPASS 將基于視覺的端到端模仿學(xué)習(xí)(IL)與 Isaac Lab 中的 X-Mobility 的殘差強化學(xué)習(xí)(RL)以及策略蒸餾方法相結(jié)合,以擴(kuò)展到不同的機器人平臺。雖然基于模仿學(xué)習(xí)的 X-Mobility 策略是在使用 MobilityGen 生成的特定形態(tài)數(shù)據(jù)上進(jìn)行預(yù)訓(xùn)練的,但 COMPASS 的通用策略對于不同形態(tài)的機器人可實現(xiàn)高出 5 倍的成功率。這使得不同的機器人能夠使用統(tǒng)一的策略在復(fù)雜環(huán)境中高效導(dǎo)航。它還為用戶提供了針對特定形態(tài)和環(huán)境微調(diào)策略的靈活性和便利性。

c5f7d110-21c0-11f0-9310-92fbcf53809c.png

圖 3. COMPASS 工作流

該工作流的第一階段使用基于模仿學(xué)習(xí)的方法進(jìn)行世界建模,以訓(xùn)練針對環(huán)境狀態(tài)與行動的移動性“常識”表征。這類“常識”的具體體現(xiàn)包括對世界動態(tài)變化的理解、障礙物探測與規(guī)避、路徑規(guī)劃,以及環(huán)境感知能力等。

第二階段使用殘差強化學(xué)習(xí),將第一階段中基于模仿學(xué)習(xí)的策略逐步具體化為特定的專家策略。第三階段使用每個專家策略的數(shù)據(jù),并通過策略蒸餾將它們合并為一個跨形態(tài)模型。通過這種方式,每個專家的專業(yè)知識被融入到最終的蒸餾策略中,從而提高不同平臺的適應(yīng)性。

COMPASS 實現(xiàn)了零樣本多機器人交互,展示了機器人在不同環(huán)境中的功能。它還可用于連接 loco-manipulation 控制器,以執(zhí)行 loco-manipulation 相關(guān)的任務(wù)。

視頻 3. 使用 COMPASS 策略的人形機器人

COMPASS 通過解決跨形態(tài)的通用性問題,增強了集成式機器人堆棧的移動性基礎(chǔ)。

用于人形機器人全身控制的 HOVER

到目前為止,我們已經(jīng)了解了使機器人能夠從一個點移動到目標(biāo)位置的移動策略。但對于穩(wěn)健的運動來說,這還不夠,我們還需要實現(xiàn)平衡和全身控制,以確保安全、平穩(wěn)的移動。HOVER 的目標(biāo)就是為此提供一個參考工作流。

傳統(tǒng)上,人形機器人需要不同的控制模式來執(zhí)行各種任務(wù),例如用于導(dǎo)航的速度追蹤和用于桌面操作的上半身關(guān)節(jié)追蹤。HOVER 是一個在 Isaac Lab 中訓(xùn)練的工作流,它將這些控制模式整合為人形機器人的統(tǒng)一策略。對于使用本文中所提到的其他工作流的機器人,也可以使用其他控制器來替代 HOVER。

通過將復(fù)雜的人形機器人的多個運動部件集成到一個統(tǒng)一的神經(jīng)全身控制器中,HOVER 增強了集成機器人堆棧的基控制礎(chǔ)。HOVER(Humanoid Versatile Controller)是一種多模式策略蒸餾框架,可以將多種控制模式統(tǒng)一到單個策略中,實現(xiàn)了它們之間的無縫過渡。通過強化學(xué)習(xí)對 oracle 策略進(jìn)行訓(xùn)練,并模仿人類運動數(shù)據(jù),然后使用策略蒸餾流程將技能從 oracle 策略轉(zhuǎn)移到通用策略。

HOVER 代碼還包括一個在 Unitree H1 機器人上使用的部署代碼示例,使用戶能夠使用機器人來復(fù)制下圖中展示的運動和穩(wěn)定性。

c61be0c8-21c0-11f0-9310-92fbcf53809c.gif

圖 4. HOVER 策略在 Isaac Lab 中進(jìn)行訓(xùn)練、在 MuJoCo 中測試并部署到真實的機器人上;(左)使用 MuJoCo 在仿真中進(jìn)行測試,(右)部署到真實機器人

c656c120-21c0-11f0-9310-92fbcf53809c.gif

圖 5. HOVER 策略在執(zhí)行手臂動作的同時保持平衡

用于機器人推理的 ReMEmbR

到目前為止,我們探討的工作流解決了數(shù)據(jù)集創(chuàng)建、移動策略以及人形機器人的全身控制問題。為了通過對話式智能實現(xiàn)完全的自主移動,我們還需要集成機器人的推理和認(rèn)知能力。機器人如何記住在環(huán)境中看到的內(nèi)容,并根據(jù)用戶輸入采取相應(yīng)的行動呢?

ReMEmbR 是一種將大語言模型、視覺語言模型和檢索增強生成技術(shù)相結(jié)合的工作流,使機器人能夠使用長時間記憶動作,進(jìn)行推理、回答問題并在大范圍內(nèi)執(zhí)行導(dǎo)航操作。它可以充當(dāng)具身機器人的“記憶”,有助于基于感知的問答和語義動作執(zhí)行。

c6efcac8-21c0-11f0-9310-92fbcf53809c.png

圖 6. ReMEmbR 工作流

ReMEmbR 可用于為本文中介紹的其他工作流提供輸入,將它們整合在一起,以幫助解決機器人移動性的復(fù)雜問題。我們還發(fā)布了用于評估的 NaVQA 數(shù)據(jù)集(Navigation Visual Question Answering),其中包含具有各種輸出類型的空間、時間和描述性問題的示例。

c71ebd6a-21c0-11f0-9310-92fbcf53809c.png

圖 7. MobilityGen、ReMEmbR、COMPASS 和 HOVER 四個工作流相結(jié)合

通過利用大語言模型和視覺語言模型的強大功能來解決推理問題,ReMEmbR 強化了基于 AI 的集成機器人堆棧的推理和適應(yīng)能力。

生態(tài)系統(tǒng)應(yīng)用情況

人形機器人、倉庫自動化和自主系統(tǒng)領(lǐng)域的領(lǐng)先機構(gòu)正在采用 NVIDIA 的研究工作流,以加速開發(fā),并在可擴(kuò)展性和適應(yīng)性方面取得突破。

UCR(Under Control Robotics)集成了 X-Mobility,以引導(dǎo)其機器人 Moby 順暢抵達(dá)目的地。事實證明,這套模塊化系統(tǒng)能夠靈活適配各類工業(yè)任務(wù),比如數(shù)據(jù)采集、物料搬運,以及實現(xiàn)高風(fēng)險作業(yè)的自動化操作。

研華科技Advantech)、威剛科技(ADATA)和 Ubitus 合作,采用 ReMEmbR 技術(shù),使機器人能夠依據(jù)大量的觀察進(jìn)行推理并采取行動。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 機器人
    +關(guān)注

    關(guān)注

    212

    文章

    29280

    瀏覽量

    210858
  • NVIDIA
    +關(guān)注

    關(guān)注

    14

    文章

    5188

    瀏覽量

    105415
  • AI
    AI
    +關(guān)注

    關(guān)注

    87

    文章

    33553

    瀏覽量

    274185
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3464

    瀏覽量

    49814

原文標(biāo)題:R2D2:利用 NVIDIA 研究中心的新型工作流和 AI 基礎(chǔ)模型,提升機器人的移動和全身控制能力

文章出處:【微信號:NVIDIA-Enterprise,微信公眾號:NVIDIA英偉達(dá)企業(yè)解決方案】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    【「具身智能機器人系統(tǒng)」閱讀體驗】2.具身智能機器人大模型

    近年來,人工智能領(lǐng)域的大模型技術(shù)在多個方向上取得了突破性的進(jìn)展,特別是在機器人控制領(lǐng)域展現(xiàn)出了巨大的潛力。在“具身智能機器人大模型”部分,作者研究并探討了大模型如何
    發(fā)表于 12-29 23:04

    什么是工業(yè)機器人

    ` 本帖最后由 大連云港 于 2015-1-19 11:02 編輯 工業(yè)機器人是面向工業(yè)領(lǐng)域的多關(guān)節(jié)機械手或多自由度的機器人。工業(yè)機器人是自動執(zhí)行工作的機器裝置,是靠自身動力和
    發(fā)表于 01-19 10:58

    機器人視覺——機器人的“眼睛”

    目前產(chǎn)業(yè)機器人僅能在嚴(yán)格定義的結(jié)構(gòu)化環(huán)境中執(zhí)行預(yù)定指令動作,缺乏對環(huán)境的感知與應(yīng)變能力,這極大地限制了機器人的應(yīng)用。利用機器人的視覺控制
    發(fā)表于 01-23 15:02

    機器人書籍大全!強烈推薦

    傳感器網(wǎng)絡(luò)與移動機器人控制新版機器人技術(shù)手冊智能足球機器人系統(tǒng)多足步行機器人運動規(guī)劃與
    發(fā)表于 02-22 07:34

    為什么人形機器人更討人喜歡?

    一般的情緒,并能回應(yīng)的觸摸、語音等指令。有的人形機器人還有“自我”感覺,能感知自己的“身體”等狀況。 未來,機器人將成為智能終端的一種高級形態(tài),借助
    發(fā)表于 05-12 09:55

    六軸工業(yè)機器人控制方式

    `工業(yè)機器人是面向工業(yè)領(lǐng)域的多關(guān)節(jié)機械手或多自由度的機器裝置,它能自動執(zhí)行工作,是靠自身動力和控制能力來實現(xiàn)各種功能的一種機器。它可以接受人類指揮,也可以按照預(yù)先編排的程序運行,現(xiàn)代的
    發(fā)表于 08-09 16:30

    機器人的主要技術(shù)參數(shù)

    `機器人的主要技術(shù)參數(shù)  機器人技術(shù)參數(shù)反映了機器人可勝任的工作、具有的最高操作性能等情況,是設(shè)計、應(yīng)用
    發(fā)表于 08-15 14:00

    先進(jìn)機器人控制

    ,運動學(xué)部分從坐標(biāo)變換人手,介紹了正向運動學(xué)方程的建立、逆向運動學(xué)的求解以及機器人的微分運動等內(nèi)容。控制結(jié)構(gòu)篇著重介紹機器人的傳感技術(shù)、位置控制
    發(fā)表于 09-19 15:30

    機器人想要實現(xiàn)智能移動,必須具備超強的自主定位導(dǎo)航能力

    障的能力。 SLAMTEC—思嵐科技作為機器人自主定位導(dǎo)航方案服務(wù)商和領(lǐng)航者,從2009年開始就進(jìn)行自主定位導(dǎo)航方案的相關(guān)研究,經(jīng)過不斷的技術(shù)升級、產(chǎn)品優(yōu)化,2015年發(fā)布了SLAMWARE自主定位
    發(fā)表于 01-03 11:41

    機器人、協(xié)作機器人移動機器人,你分的清楚嗎

    我覺得現(xiàn)在是時候討論一些更有趣的話題,今天的話題是介紹工業(yè)機器人、協(xié)作機器人移動機器人。我想每個人都知道機器人是什么。機器人是可怕的大型
    發(fā)表于 10-30 11:33

    工業(yè)機器人技術(shù)原理

    `<span style="" >工業(yè)機器人技術(shù)原理機器人是綜合了計算機、控制論、機構(gòu)學(xué)、信息和傳感技術(shù)
    發(fā)表于 11-23 10:40

    如何實現(xiàn)移動機器人的設(shè)計?

    ,導(dǎo)航技術(shù),計算機技術(shù),人工智能等多個領(lǐng)域,因而對移動機器人控制部分提出很高的要求,特別是視覺傳感器的出現(xiàn),要求控制系統(tǒng)不僅存儲量大,而且
    發(fā)表于 11-23 15:08

    機器人運動控制技術(shù)

    機器人運動控制技術(shù),盡管運動控制器需求增長迅速,但即便到明年,整體市場規(guī)模仍不到 10 億元。高性能工業(yè)機器人作為核心裝備,一直被國外品牌壟
    發(fā)表于 07-28 07:33

    基于Matlab和VR技術(shù)移動機器人建模及仿真

    ,虛擬模型準(zhǔn)確地模擬了真實移動機器人的動力學(xué)特征 ; 通過對模型的參數(shù)修改 ,為實現(xiàn)對真實機器人的最優(yōu)控制和設(shè)計提供了可信的參考方案
    發(fā)表于 09-20 06:24

    先進(jìn)傳感器提升自主移動機器人控制能力介紹

    隨著人工智能的進(jìn)步,結(jié)合日益先進(jìn)的傳感器和控制算法,機器人變得越來越智能,他們現(xiàn)在可以自主執(zhí)行復(fù)雜的任務(wù),例如移動、抓取和定位物體。
    的頭像 發(fā)表于 04-24 11:21 ?892次閱讀
    先進(jìn)傳感器<b class='flag-5'>提升</b>自主<b class='flag-5'>移動機器人</b>的<b class='flag-5'>控制能力</b>介紹
    主站蜘蛛池模板: 国产精品三级在线观看 | 天天操夜夜骑 | 黄色成人免费观看 | 丁香激情综合网 | 亚洲综合五月天欧美 | jizz免费一区二区三区 | 极品丰满翘臀后进啪啪 | 免费能看的黄色网址 | 天天亚洲 | 新天堂| 成人欧美精品一区二区不卡 | 亚洲福利视频一区二区 | 午夜免费啪在线观看视频网站 | 激情五月综合 | 丁香视频在线观看播放 | 在线网站 看片 网站 | 免费看三级黄色片 | 理论片午午伦夜理片影院99 | 啪啪调教所29下拉式免费阅读 | 一级a级国产不卡毛片 | 精品一区二区三区免费毛片爱 | 伊人手机在线观看 | 欧美色爱综合 | 午夜影院毛片 | 激情综合五月婷婷 | 久青草国产在线视频_久青草免 | 手机在线观看免费视频 | 97久久伊人精品影院 | 日本黄色免费片 | 欧美日韩国产另类一区二区三区 | free性欧美高清另类 | 女的扒开尿口让男人桶爽 | 久久国产午夜精品理论片34页 | 国产亚洲精品在天天在线麻豆 | 欧美线人一区二区三区 | 精品视频网站 | 在线观看视频在线观看 | a4yy私人毛片在线 | 国产区亚洲区 | 天天综合亚洲国产色 | 女人张开腿等男人桶免费视频 |