在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

Transformer是機(jī)器人技術(shù)的基礎(chǔ)嗎

INDEMIND ? 來源:INDEMIND ? 2024-12-05 10:54 ? 次閱讀

生成式預(yù)訓(xùn)練Transformer(GPT)被吹捧為將徹底改變機(jī)器人技術(shù)。但實(shí)際應(yīng)用中,GPT需要龐大且昂貴的計算資源、冗長的訓(xùn)練時間以及(通常)非機(jī)載無線控制,諸多限制之下,GPT技術(shù)真的實(shí)用嗎?

? 文章:

Are Transformers Truly Foundational for Robotics?

? 作者:

James A. R. Marshall, Andrew B. Barron

? 論文鏈接:

https://arxiv.org/abs/2411.16917

? 編譯:

INDEMIND

本文核心內(nèi)容

近年來,由于新型架構(gòu)GPT的發(fā)展和部署,生成式人工智能取得了重大進(jìn)展。通過在深度神經(jīng)網(wǎng)絡(luò)中添加注意力機(jī)制并應(yīng)用于互聯(lián)網(wǎng)規(guī)模的訓(xùn)練集,Transformer極大地推動了自然語言處理和大語言模型(LLMs)的發(fā)展。在早期應(yīng)用之后,transformers與擴(kuò)散模型等其他架構(gòu)一起被應(yīng)用于開發(fā)文本到圖像和視頻的視覺語言模型以及其他多模態(tài)應(yīng)用。這些成功激發(fā)了人們在機(jī)器人領(lǐng)域探索Transformer架構(gòu)的興趣。

在復(fù)雜環(huán)境中感知到的無結(jié)構(gòu)多模態(tài)輸入,以及機(jī)器人控制的高自由度,限制了機(jī)器人同時具備普遍適用性和魯棒性的發(fā)展。Transformer在機(jī)器人領(lǐng)域的潛力似乎是值得期待的。大規(guī)模訓(xùn)練可以針對更小規(guī)模的訓(xùn)練集進(jìn)行專業(yè)化,從而為各種機(jī)器人任務(wù)提供通用且適應(yīng)性強(qiáng)的解決方案。由于可以在許多應(yīng)用領(lǐng)域中應(yīng)用,基于Transformer的方法被貼上了“基礎(chǔ)模型”的標(biāo)簽,這意味著它們具有基礎(chǔ)性地位,只是仍不成熟。

Transformers起源于大語言模型(LLM)。LLM也已被證明在許多應(yīng)用中具有通用性和變革性,但它并非沒有局限性。正如我們下面所討論的,LLM在訓(xùn)練數(shù)據(jù)集大小、訓(xùn)練所需計算資源、訓(xùn)練成本以及行為輸出的魯棒性等方面存在越來越被認(rèn)可的問題。在本文中,我們質(zhì)疑Transformer架構(gòu)是否真的能成為機(jī)器人學(xué)的基礎(chǔ)。我們想知道Transformer是否是實(shí)現(xiàn)通用人工智能的唯一或最佳途徑。我們提出,與“智能”不同,機(jī)器人系統(tǒng)的自主程度是明確定義的、可測量的,并且具有經(jīng)濟(jì)意義。

基于之前對GPT及其相關(guān)方法的批評,我們主張Transformer模型提供了一種仿真的自主性,而不是真正的自主性。然后,我們回顧了其他提出的替代方法。GPT解決自主機(jī)器人技術(shù)問題的方式與動物大腦通過生物方式實(shí)現(xiàn)自主行為控制的方式形成了鮮明對比。我們探討了這種對比,并提出當(dāng)前GPT方法中缺失了什么,以及如何添加新內(nèi)容以增強(qiáng)機(jī)器人的穩(wěn)健性和可擴(kuò)展的自主性。

將Transformer架構(gòu)應(yīng)用于自主系統(tǒng)的進(jìn)展

Transforme在機(jī)器人自主性方面得到了迅速應(yīng)用。除了備受矚目的商業(yè)公告和演示外,學(xué)術(shù)界和工業(yè)界都已在同行評審的文獻(xiàn)中開發(fā)出完整的機(jī)器人自主性解決方案,重點(diǎn)是機(jī)器人導(dǎo)航和靈巧性。

盡管Transformer在機(jī)器人自主性方面的早期目標(biāo)似乎正在實(shí)現(xiàn),但要實(shí)現(xiàn)通用且可擴(kuò)展的解決方案,必須認(rèn)識到這項技術(shù)仍然存在重大局限性,這將限制未來的性能和采用。盡管其中一些局限性可能會隨著新型技術(shù)開發(fā)和部署的傳統(tǒng)效率得到改善而變得不那么嚴(yán)重,但我們認(rèn)為當(dāng)前的Transformer架構(gòu)存在根本性的結(jié)構(gòu)性問題。

訓(xùn)練數(shù)據(jù)的規(guī)模和成本需求可能會增加

Transformer方法解決任何問題的核心是縮放要求。這些學(xué)習(xí)系統(tǒng)缺乏誘導(dǎo)偏置,因此具有高度的靈活性,但其代價是需要大量的訓(xùn)練數(shù)據(jù)。通常情況下,部署基于Transformer的基礎(chǔ)模型的模型是通過在互聯(lián)網(wǎng)規(guī)模的語料庫上進(jìn)行訓(xùn)練,使模型獲得多模態(tài)對應(yīng)關(guān)系和領(lǐng)域知識,然后在較小的訓(xùn)練數(shù)據(jù)集上進(jìn)一步進(jìn)行特定任務(wù)的專門訓(xùn)練。這些成本非常高昂。即使不考慮環(huán)境影響,當(dāng)前最先進(jìn)的LLMs每輪訓(xùn)練的成本在數(shù)百萬美元至數(shù)千萬美元之間。對于機(jī)器人應(yīng)用,通常還需要針對特定任務(wù)(如導(dǎo)航和操作)進(jìn)行進(jìn)一步的訓(xùn)練。獲取良好訓(xùn)練數(shù)據(jù)集的可用性和成本被認(rèn)為是一個主要問題。提出的解決方案包括創(chuàng)建涵蓋多種任務(wù)和機(jī)器人類型的開放數(shù)據(jù)集,盡管目前這些數(shù)據(jù)集可能只適用于相對較少的任務(wù)。還廣泛使用了基于物理學(xué)的模擬器來生成訓(xùn)練數(shù)據(jù)。我們認(rèn)為,與LLMs類似,為了維持性能的提升,可能需要指數(shù)級增加的數(shù)據(jù)量。即使對于文本和多模態(tài)數(shù)據(jù)集,互聯(lián)網(wǎng)也提供了大量的免費(fèi)訓(xùn)練數(shù)據(jù),但可用的訓(xùn)練數(shù)據(jù)仍可能成為限制因素。對于機(jī)器人數(shù)據(jù)集,無論是通過物理方式還是模擬方式收集有用的訓(xùn)練數(shù)據(jù),成本都將更加高昂。此外,由于Transformer性能的提升取決于訓(xùn)練數(shù)據(jù)規(guī)模和權(quán)重的增加,這個問題只會越來越嚴(yán)重。

計算和基礎(chǔ)設(shè)施成本及需求將持續(xù)存在

除了基于Transformer架構(gòu)的訓(xùn)練成本外,部署時的推理成本仍然可能相當(dāng)高。例如,Meta的Llama3.1擁有云規(guī)模部署(405億雙精度參數(shù))。也有適用于在本地GPU上部署的減小尺寸和精度的版本(例如,8億半精度整數(shù)參數(shù)),這在推理時可能需要20-100GB的內(nèi)存。即使是運(yùn)行在機(jī)器人上的最簡單的模型也需要相當(dāng)大的GPU。雖然量化、二進(jìn)制化和其他方法已被用于幫助設(shè)計邊緣AI加速器以加速深度和卷積神經(jīng)網(wǎng)絡(luò),但對于Transformer的問題規(guī)模要大得多。例如,對于深度神經(jīng)網(wǎng)絡(luò)研究中最廣泛應(yīng)用之一——目標(biāo)檢測,一種最先進(jìn)的算法具有數(shù)百萬至數(shù)千萬的網(wǎng)絡(luò)權(quán)重,而上述用于最先進(jìn)LLM的權(quán)重則為80億至405億。這在規(guī)模上相差四個數(shù)量級,即使不考慮為機(jī)器人任務(wù)訓(xùn)練Transformer的額外要求。因此,人們正在積極研究避免云計算瓶頸的方法,包括采用新技術(shù),如6G、摩爾定律和新型并行計算架構(gòu),這些在過去曾拯救了人工智能和計算機(jī)軟件。然而,對于基礎(chǔ)模型來說,我們認(rèn)為盡管可用的計算能力可以按指數(shù)級擴(kuò)展,但模型大小和吞吐量的指數(shù)級需求將相互抵消。只有當(dāng)前者的指數(shù)大于后者時,在追求性能提升的過程中才能實(shí)現(xiàn)實(shí)際的計算需求減少。然而,越來越多的人認(rèn)為我們已經(jīng)進(jìn)入了一個摩爾定律之后的時代,需要在材料方面進(jìn)行進(jìn)一步創(chuàng)新才能取得進(jìn)展。

機(jī)器人中的Transformer可能出現(xiàn)幻覺

由于接受了統(tǒng)計學(xué)方面的訓(xùn)練和推斷,LLMs容易產(chǎn)生混淆和幻覺。與人類一樣,幻覺可能會以可能對機(jī)器人或他人造成傷害的方式顯現(xiàn),并且已經(jīng)展示了針對機(jī)器人技術(shù)中Transformer的守門人(guardrails)的對抗性攻擊。這可能需要人類作為遠(yuǎn)程操作員繼續(xù)留在控制環(huán)路中,以確保機(jī)器人受到遠(yuǎn)程監(jiān)督,或者需要將機(jī)器人與人類隔離開來,或者兩者兼而有之。當(dāng)然,任何一種結(jié)果都會限制機(jī)器人技術(shù)所承諾的好處。其他研究人員也認(rèn)為,統(tǒng)計方法在AI方面的結(jié)構(gòu)性問題,除非進(jìn)行重大的架構(gòu)改變,否則不太可能得到解決。

Transformers賦予了仿真智能自主性

為什么transformers在機(jī)器人領(lǐng)域越來越受歡迎?我們將其歸因于兩個因素:首先,與LLMs和VLMs一樣,在傳統(tǒng)上非常困難的領(lǐng)域,如人形控制、操作和自然語言界面,已經(jīng)取得了顯著的早期進(jìn)展。其次,我們認(rèn)為,人類觀察者往往傾向于將機(jī)器擬人化,這導(dǎo)致他們賦予機(jī)器一些并不具備的技術(shù)能力和理解能力。

雖然有各種類型的Transformer,但其核心構(gòu)思是一個由自注意力塊(self-attentionblock)和多層感知器(multilayerperceptronblock)組成的重復(fù)單元(如圖1右側(cè)所示)。控制流是前饋的,而注意力機(jī)制則學(xué)習(xí)在預(yù)測下一個適當(dāng)動作時應(yīng)關(guān)注輸入的哪些早期元素。與LLMs一樣,機(jī)器人領(lǐng)域中Transformer的強(qiáng)大和泛化能力都源于其廣泛的訓(xùn)練,使得訓(xùn)練完成后,它們可以執(zhí)行將輸入與預(yù)測輸出匹配的操作。在機(jī)器人領(lǐng)域中,Transformer成功地從輸入中解析并執(zhí)行動作,但這是通過對訓(xùn)練集進(jìn)行插值和外推實(shí)現(xiàn)的,在離訓(xùn)練集的性能上存在不可靠的情況。Transformer沒有推理能力,也沒有理由選擇一個響應(yīng)而不是另一個,除了在訓(xùn)練后選擇的選項攜帶了最高的預(yù)測權(quán)重。LLMs的語言能力也可以用“隨機(jī)鸚鵡”來形容。

06571978-ad86-11ef-93f3-92fbcf53809c.png

訓(xùn)練和借鑒已有經(jīng)驗(yàn)也是生物自主決策的重要組成部分,但對于人類和其他動物來說,決策過程還受到對世界運(yùn)行模式、其他相關(guān)行為體應(yīng)如何運(yùn)作以及為何選擇的行動與當(dāng)前情況相適應(yīng)的推理的支持。Transformers缺乏這些模型。

一個自主機(jī)器人的能力將受到訓(xùn)練數(shù)據(jù)范圍的限制。由于Transformer的響應(yīng)是訓(xùn)練數(shù)據(jù)的無理由產(chǎn)物,任何基于Transformer的應(yīng)用程序無法通過統(tǒng)計相關(guān)性以外的理由來證明其決策的合理性。這給任何形式的人機(jī)交互都帶來了嚴(yán)重的挑戰(zhàn)。如果我們問一個懷有良好意愿的人類同事為什么犯了錯誤,他們會盡最大努力解釋自己行為背后的道理。如果我們問一個基于Transformer的機(jī)器人為什么犯了錯誤,那么它不會有任何有道理的答案;對于這個問題的回答,至多只有相關(guān)性,而沒有與錯誤之間的因果關(guān)系。

用于自主性的Transformers的替代品和補(bǔ)充

如果Transformers不是問題的全部答案,那么什么才是呢?下面我們將回顧主要的替代方案,重點(diǎn)介紹我們偏好的方法,該方法從生物大腦解決自主性問題的方式中汲取了深刻靈感。

自然智能

圖1顯示了機(jī)器人技術(shù)與生物大腦產(chǎn)生自主行為之間的巨大差距。通常,人們將LLMs、GPTs與人類推理進(jìn)行比較,但與動物大腦和動物推理的比較更為明顯。例如,蜜蜂的大腦很小(僅略大于1立方毫米),包含的神經(jīng)元數(shù)量不到100萬29。蜜蜂大腦的突觸數(shù)量尚未知曉,但如果我們根據(jù)果蠅的連接組(connectome)進(jìn)行推測,蜜蜂大腦的突觸數(shù)量將少于5億個(圖1,左)。顯然,蜜蜂僅憑這些就足以可靠地在長達(dá)數(shù)公里的距離上導(dǎo)航,自主地從環(huán)境中采集花粉和花蜜,進(jìn)行溝通和協(xié)調(diào),并完成所有必要的工作,包括養(yǎng)育下一代。它們可以解決復(fù)雜的覓食經(jīng)濟(jì)問題,重點(diǎn)是其蜂群所需的資源,并從環(huán)境中分散分布的隱蔽和短暫的花朵中采集它們31。蜜蜂無需練習(xí)就能飛行,在蜂巢周圍進(jìn)行20分鐘有組織的飛行訓(xùn)練就足以使它們能夠熟練地在環(huán)境中導(dǎo)航。與需要長時間訓(xùn)練的變形者相比,這種對比再明顯不過了。蜜蜂大腦在進(jìn)行完全自主的決策時的能量消耗與任何GPT相比都是微不足道的。與transformers不同,動物的大腦在行星尺度上已經(jīng)進(jìn)行了大規(guī)模的“預(yù)訓(xùn)練”,能夠使用最少的信息生成非常廣泛的行為(如圖2所示)。

0662e51e-ad86-11ef-93f3-92fbcf53809c.png

弱小的蜜蜂在計算能力、能量消耗和訓(xùn)練時間上如何優(yōu)于Transformer?

一句話——結(jié)構(gòu)。Transformer的通用性和優(yōu)雅性是因?yàn)樵陬A(yù)訓(xùn)練之前,它們在功能上沒有結(jié)構(gòu)上的差異。相反,昆蟲大腦是一個結(jié)構(gòu)-功能專門化的案例研究。昆蟲大腦被細(xì)分為模塊(如圖1左側(cè)所示)。每個模塊都專門用于處理自主決策挑戰(zhàn)的不同領(lǐng)域。每個模塊中的每個專業(yè)化都利用其處理信息的規(guī)律性和屬性來減少計算量并提高整體系統(tǒng)效率。例如,蜜蜂、螞蟻和蒼蠅大腦中的專用模塊處理太陽周圍產(chǎn)生的偏振光圖案。這是一個有價值且穩(wěn)定的導(dǎo)航線索。其結(jié)構(gòu)由拓?fù)?a target="_blank">處理器——中央復(fù)合體的前腦橋——保存,該處理器將輸出發(fā)送到一個區(qū)域,該區(qū)域作為環(huán)形吸引子來確定動物相對于外部線索的方位。這又連接到另一個專門處理視覺信息的區(qū)域。

這種專門化不僅限于視覺處理。例如,蒼蠅的大腦中有專門處理氣味的模塊,蜜蜂的大腦中有專門處理視覺和氣味信息的模塊。每個模塊的結(jié)構(gòu)和功能專門化都使它們能夠更有效地處理特定類型的信息,從而減少計算量并提高整體系統(tǒng)效率。

相比之下,Transformer在預(yù)訓(xùn)練之前沒有結(jié)構(gòu)上的專門化,這使得它們在處理不同類型的信息時效率較低。例如,在圖像識別任務(wù)中,Transformer需要對整個圖像進(jìn)行處理,這需要大量的計算資源和能量。而蜜蜂的大腦只需要處理來自太陽的偏振光圖案,這只需要很少的計算資源和能量。

因此,盡管Transformer在某些任務(wù)上的性能優(yōu)于蜜蜂的大腦,但在計算能力、能量消耗和訓(xùn)練時間方面,蜜蜂的大腦通常表現(xiàn)出更好的性能。該模塊在空間上按方位排列,并能夠支持昆蟲對外部物體的相對定位。昆蟲大腦中對外部世界的規(guī)律性是如何進(jìn)行編碼的,這傳達(dá)了一種直觀的物理學(xué)(盡管與人工智能中使用的物理學(xué)引擎類型有很大不同)。嗅覺和視覺感覺葉各自專門處理其感官領(lǐng)域的輸入特性。感覺葉會銳化、增強(qiáng)并最終壓縮感官信號,以便投射到多模態(tài)感覺整合區(qū)域。其中最大的是蘑菇體,其結(jié)構(gòu)類似于三層神經(jīng)網(wǎng)絡(luò)的擴(kuò)展中間層。這似乎特別擅長多模態(tài)分類。

昆蟲缺乏人類的陳述性推理能力,但它們的推理是建立在一種基本的世界模型之上的。昆蟲擁有一個統(tǒng)一且連貫的外部空間表征,在其中它們對周圍的物體具有第一人稱視角。物體的極性受到昆蟲與其之間學(xué)習(xí)經(jīng)驗(yàn)、固有極性和主觀生理狀態(tài)的影響。物體極性和位置的差異決定了昆蟲的選擇。這種推理方式或許很簡單,但它仍然比那些沒有理由的“變形金剛”更易于理解和明確。越來越多的人認(rèn)識到,人工智能可以從昆蟲神經(jīng)科學(xué)中汲取概念和算法,從而獲得巨大的益處。

目標(biāo):AI與世界模型

其他研究人員提出,動物(包括那些比人類“更簡單”的動物)的自主能力確實(shí)可以為AI研究人員提供靈感。然而,這種靈感比上述的自然智能方法要松散得多。雖然“客觀AI”方法確實(shí)提出了與在神經(jīng)科學(xué)、認(rèn)知科學(xué)和心理學(xué)中對人類大腦的理解相匹配的模塊化AI架構(gòu),但這一提法實(shí)際上大不相同;與其直接試圖逆向工程專業(yè)腦模塊中的神經(jīng)回路,不如設(shè)計可訓(xùn)練的模塊,以便相互交互以產(chǎn)生比大型未分化神經(jīng)網(wǎng)絡(luò)預(yù)期的更適應(yīng)性行為。因此,例如,與其直接試圖理解早期靈長類視覺系統(tǒng)中的特征檢測器如何工作,不如訓(xùn)練一個特征檢測器模塊。該提案的關(guān)鍵部分是重新引入顯式和可配置的世界模型,從認(rèn)知科學(xué)中汲取靈感;然而,這些模型也仍然需要從數(shù)據(jù)中學(xué)習(xí)。

混合方法

另有一些研究人員基于一項長期以來的提議,但同時又從人工智能領(lǐng)域的最新發(fā)展中獲得了新的動力,提出了“神經(jīng)符號方法”。該方法認(rèn)為,雖然深度神經(jīng)網(wǎng)絡(luò)非常適合諸如物體檢測等感知任務(wù),但它們在本質(zhì)上并不適合推理、規(guī)劃和決策過程中的符號操作。在Transformer的背景下,最近的觀察表明,LLMs無法有效地處理和操作符號知識。因此該提案是將統(tǒng)計AI的感知優(yōu)勢與較老的、符號化的AI方法的因果優(yōu)勢結(jié)合起來。鑒于大腦中符號推理的神經(jīng)基礎(chǔ)尚未被充分理解,這是一種特別務(wù)實(shí)的方法。通過繞過它們在處理現(xiàn)實(shí)世界感知復(fù)雜性時遇到的問題,希望可以緩解第一波符號AI的局限性。我們建議,可以將自然智能方法應(yīng)用于對空間和決策選項集的感知和建模,以實(shí)現(xiàn)更強(qiáng)大的組合。

總結(jié)

Transformer架構(gòu)已經(jīng)將它們在自然語言和多模態(tài)AI領(lǐng)域取得的巨大進(jìn)步帶到了機(jī)器人領(lǐng)域。然而,仍然需要繼續(xù)尋找解決機(jī)器人自主性的方案。Transformer架構(gòu)從純統(tǒng)計的角度來處理世界,盡管其基礎(chǔ)是感知輸入。這可能是對“苦澀教訓(xùn)”的一種有意識的選擇,即人工智能歷史上的歸納偏見。然而,這導(dǎo)致了與唯一真正自主的人類制品——生物大腦——運(yùn)作方式完全不同的自主性解決方案。我們在這里強(qiáng)調(diào)了這一點(diǎn),并認(rèn)為,隨著對各種大腦的大量數(shù)據(jù)和理解的巨大進(jìn)步,是時候重新審視“苦澀教訓(xùn)”,看看從對它們的研究中可以為AI學(xué)到哪些新的教訓(xùn)。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 機(jī)器人
    +關(guān)注

    關(guān)注

    212

    文章

    29313

    瀏覽量

    211047
  • Transformer
    +關(guān)注

    關(guān)注

    0

    文章

    148

    瀏覽量

    6342
  • LLM
    LLM
    +關(guān)注

    關(guān)注

    1

    文章

    317

    瀏覽量

    655

原文標(biāo)題:Transformer真的是機(jī)器人技術(shù)的基礎(chǔ)嗎?

文章出處:【微信號:gh_c87a2bc99401,微信公眾號:INDEMIND】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    【「# ROS 2智能機(jī)器人開發(fā)實(shí)踐」閱讀體驗(yàn)】視覺實(shí)現(xiàn)的基礎(chǔ)算法的應(yīng)用

    閱讀心得體會:ROS2機(jī)器人視覺與地圖構(gòu)建技術(shù) 通過對本書第7章(ROS2視覺應(yīng)用)和第8章(ROS2地圖構(gòu)建)的學(xué)習(xí),我對機(jī)器人視覺感知和自主導(dǎo)航的核心技術(shù)有了更深入的理解。以下是我
    發(fā)表于 05-03 19:41

    【「# ROS 2智能機(jī)器人開發(fā)實(shí)踐」閱讀體驗(yàn)】機(jī)器人入門的引路書

    的非常好的,特別是一些流程圖,很清晰的闡釋了概念 很適合作為初學(xué)者入門的引路書 還能了解很多技術(shù)和框架,破除初學(xué)者的自負(fù)困境,讓初學(xué)者知道功能是由很多開發(fā)者維護(hù)的,前人已經(jīng)為各種產(chǎn)品搭建了完善的框架。避免陷入得一個單打獨(dú)斗的錯覺 一直蠢蠢欲動ros2和
    發(fā)表于 04-30 01:05

    大象機(jī)器人攜手進(jìn)迭時空推出 RISC-V 全棧開源六軸機(jī)械臂產(chǎn)品

    機(jī)器人場景的量產(chǎn)應(yīng)用。更多的面向智能機(jī)器人的RISC-V AI軟硬件技術(shù)創(chuàng)新以及應(yīng)用案例,將陸續(xù)在公司微信公眾號做介紹,敬請大家期待。
    發(fā)表于 04-25 17:59

    什么是機(jī)器人?追蹤機(jī)器人技術(shù)的發(fā)展和未來

    什么是機(jī)器人? 我們都知道“機(jī)器人”這個詞,并在日常對話中隨意使用它。但我們知道它真正的含義嗎?讓我們花點(diǎn)時間來深入研究機(jī)器人的定義。它是像看起來那么簡單,還是挑戰(zhàn)了我們的理解? 在其核心,機(jī)
    的頭像 發(fā)表于 04-24 19:21 ?347次閱讀

    【「具身智能機(jī)器人系統(tǒng)」閱讀體驗(yàn)】2.具身智能機(jī)器人的基礎(chǔ)模塊

    具身智能機(jī)器人的基礎(chǔ)模塊,這個是本書的第二部分內(nèi)容,主要分為四個部分:機(jī)器人計算系統(tǒng),自主機(jī)器人的感知系統(tǒng),自主機(jī)器人的定位系統(tǒng),自主機(jī)器人
    發(fā)表于 01-04 19:22

    【「具身智能機(jī)器人系統(tǒng)」閱讀體驗(yàn)】2.具身智能機(jī)器人大模型

    近年來,人工智能領(lǐng)域的大模型技術(shù)在多個方向上取得了突破性的進(jìn)展,特別是在機(jī)器人控制領(lǐng)域展現(xiàn)出了巨大的潛力。在“具身智能機(jī)器人大模型”部分,作者研究并探討了大模型如何提升機(jī)器人的能力,大
    發(fā)表于 12-29 23:04

    【「具身智能機(jī)器人系統(tǒng)」閱讀體驗(yàn)】1.初步理解具身智能

    對人工智能、機(jī)器人技術(shù)和計算系統(tǒng)交叉領(lǐng)域感興趣的讀者來說不可或缺的書。這本書深入探討了具身智能這一結(jié)合物理機(jī)器人和智能算法的領(lǐng)域,該領(lǐng)域正在塑造自主系統(tǒng)及其應(yīng)用的未來。 開篇部分探討了具身智能
    發(fā)表于 12-28 21:12

    【「具身智能機(jī)器人系統(tǒng)」閱讀體驗(yàn)】+初品的體驗(yàn)

    的學(xué)習(xí)資源,以培養(yǎng)更多的專業(yè)人才。隨著具身智能機(jī)器人技術(shù)對社會的影響越來越大,該書還可以向公眾普及相關(guān)的知識,以提升社會對新技術(shù)的認(rèn)知和接受度,從而為技術(shù)的發(fā)展創(chuàng)造良好的社會環(huán)境。 隨
    發(fā)表于 12-20 19:17

    《具身智能機(jī)器人系統(tǒng)》第1-6章閱讀心得之具身智能機(jī)器人系統(tǒng)背景知識與基礎(chǔ)模塊

    要給AI這個聰明的“頭腦”裝上一副“身體”。這個“身體”可以是一部手機(jī),可以是一臺自動駕駛汽車。而人形機(jī)器人則是集各類核心尖端技術(shù)于一體的載體,是具身智能的代表產(chǎn)品。與傳統(tǒng)的軟件智能體不同,具身智能
    發(fā)表于 12-19 22:26

    鴻蒙機(jī)器人與鴻蒙開發(fā)板聯(lián)動演示

    鴻蒙機(jī)器人與鴻蒙開發(fā)板聯(lián)動演示,機(jī)器人的角色為迎賓機(jī)器人,開發(fā)板負(fù)責(zé)人賓客出現(xiàn)監(jiān)聽
    發(fā)表于 12-02 14:55

    機(jī)器人技術(shù)的發(fā)展趨勢

    機(jī)器人技術(shù)的發(fā)展趨勢呈現(xiàn)出多元化、智能化和廣泛應(yīng)用的特點(diǎn)。 一、智能化與自主化 人工智能(AI)與機(jī)器學(xué)習(xí) : AI和機(jī)器學(xué)習(xí)在機(jī)器人領(lǐng)域的
    的頭像 發(fā)表于 10-25 09:27 ?2018次閱讀

    開源項目!用ESP32做一個可愛的無用機(jī)器人

    巧妙設(shè)計的杠桿將開關(guān)推回“關(guān)”位置。這種玩具很常見,許多人已經(jīng)制作并上傳到Y(jié)ouTube上。 作者每年都會挑戰(zhàn)自己制作一個技術(shù)產(chǎn)品,今年他決定制作這個復(fù)雜的項目——可愛無用機(jī)器人。這個機(jī)器人參考了日本
    發(fā)表于 09-03 09:34

    開源項目!用ESP32做一個可愛的無用機(jī)器人

    巧妙設(shè)計的杠桿將開關(guān)推回“關(guān)”位置。這種玩具很常見,許多人已經(jīng)制作并上傳到Y(jié)ouTube上。 作者每年都會挑戰(zhàn)自己制作一個技術(shù)產(chǎn)品,今年他決定制作這個復(fù)雜的項目——可愛無用機(jī)器人。這個機(jī)器人參考了
    發(fā)表于 08-30 14:50

    Al大模型機(jī)器人

    金航標(biāo)kinghelm薩科微slkor總經(jīng)理宋仕強(qiáng)介紹說,薩科微Al大模型機(jī)器人有哪些的優(yōu)勢?薩科微AI大模型機(jī)器人由清華大學(xué)畢業(yè)的天才少年N博士和王博士團(tuán)隊開發(fā),與同行相比具有許多優(yōu)勢:語言
    發(fā)表于 07-05 08:52

    基于FPGA EtherCAT的六自由度機(jī)器人視覺伺服控制設(shè)計

    概述 中國制造 2025 是中國政府實(shí)施制造強(qiáng)國戰(zhàn)略的第一個十年行動綱領(lǐng),是全面提升中國制造業(yè)發(fā)展質(zhì)量和水平的重大戰(zhàn)略部署,其中明確指出了圍繞工業(yè)機(jī)器人創(chuàng)新技術(shù)的重要地位。目前工業(yè)機(jī)器人
    發(fā)表于 05-29 16:17
    主站蜘蛛池模板: 精品视频卡1卡2卡3 精品视频免费看 | 国产精品一久久香蕉产线看 | 手机看片国产免费永久 | 扛着高跟鞋丝袜腿呻吟视频 | 1314酒色| 免费一级特黄特色大片在线 | 一级aaaaaa片毛片在线播放 | 视频在线观看免费播放www | 久久久久久天天夜夜天天 | 丁香六月色婷婷综合网 | 亚洲天天操 | 久久草在线精品 | 精品国产一区二区三区国产馆 | 国产资源在线免费观看 | 超大乳抖乳露双乳视频 | 四虎在线最新永久免费 | 国产性videostv另类极品 | 日本69xxxxxxxx69| 人人草人人澡 | 好大好硬好深好爽视频h | 天天插天天狠天天透 | 在线高清国产 | 三级精品视频在线播放 | 国产精品15p | 亲女乱h文小兰第一次 | 2018天天拍拍拍免费视频 | 99干99 | www.国产一区二区三区 | 五月婷婷六月色 | 寡妇影院首页亚洲图片 | 丁香六月综合激情 | 女的扒开尿口让男人桶爽 | 1000rt人体1000欧美 | 日本a级片在线播放 | 在线黄色.com | 日本xxxx色视频在线观看免 | 亚洲高清资源 | yy4080一级毛片免费观看 | 美女淫| 亚洲国产日韩欧美在线as乱码 | 又粗又硬又爽又黄毛片 |