在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

如何訓練自主移動機器人使用合成數據檢測倉庫托盤千斤頂

NVIDIA英偉達 ? 來源:未知 ? 2023-11-09 10:45 ? 次閱讀

在訓練那些部署在自主移動機器人(AMR)上的感知 AI 模型時,合成數據可以發揮關鍵作用。這一過程在制造業中變得越來越重要。有關使用合成數據生成預訓練模型,用于檢測倉庫中托盤的示例,可參見使用《OpenUSD 和合成數據開發托盤檢測模型》一文:https://developer.nvidia.com/blog/developing-a-pallet-detection-model-using-openusd-and-synthetic-data/

本文將探討如何訓練 AMR 使用合成數據來檢測倉庫中的托盤千斤頂。托盤千斤頂通常用于抬起和運輸重型托盤。在擁擠的倉庫中,AMR 進行檢測并避免與托盤千斤頂相撞是很重要的。

為了實現這一目標,有必要在不同的光照條件和遮擋下使用大量不同的數據集來訓練 AI 模型。真實的數據很少能捕捉到潛在環境的全部范圍,而合成數據生成(SDG)是由 3D 仿真生成的注釋數據,使開發人員能夠克服數據差距并引導模型訓練過程。

視頻 1:使用 NVIDIA Omniverse Replicator

為 NVIDIA Isaac Sim 生成合成數據

本次用例將通過處理數據來踐行以數據為中心的方法,而不是通過更改模型參數去適應數據。這一過程首先使用 NVIDIA Isaac Sim 中的 NVIDIA Omniverse Replicator 生成合成數據,隨后使用 NVIDIA TAO Toolkit 中的合成數據對模型進行訓練,最后,將模型在真實數據上的性能可視化,并修改參數以生成更好的合成數據,達到期望的性能水平。

Omniverse Replicator 是 NVIDIA Omniverse 的核心擴展,是一個使個人和團隊能夠基于通用場景描述(OpenUSD)開發工作流的計算平臺。Replicator 使開發者能夠構建定制的合成數據生成管線,以生成數據來引導計算機視覺模型的訓練。

迭代合成數據以提高模型性能

以下解釋了本團隊如何迭代合成數據,來提高目標檢測模型的實際性能,并通過兼容 Omniverse Replicator API 的 Python 腳本詳細介紹了這些步驟。

在每次迭代時,我們增量改變模型中的各種參數,并生成新的訓練數據集,然后用實際數據驗證模型的性能。我們持續這一過程,直到能夠縮小仿真與現實之間的差距。

對象或場景參數變化的過程被稱為域隨機化。您可以隨機化許多參數來快速生成新數據用于模型訓練,這些參數包括位置、顏色、紋理、背景、物體和場景的光照。

OpenUSD 是一個可擴展的框架,一種 3D 場景描述技術,也是 NVIDIA Omniverse 的基礎,讓試驗一個場景中的不同參數變得很容易。參數可以在單獨的層中修改和測試,用戶可以在這些層之上創建非破壞性編輯。

準備

在起步階段,我們需要一個安裝有 NVIDIA RTX GPU 和最新版本的 NVIDIA Isaac Sim 的系統。Isaac Sim 是一個可擴展的機器人仿真應用程序,其利用 Omniverse Replicator 的核心功能生成合成數據。有關安裝和配置的詳細信息,請參見文檔:https://docs.omniverse.nvidia.com/isaacsim/latest/installation/requirements.html

當 Isaac Sim 啟動并運行時,我們可以從 GitHub 上的 NVIDIA-AI-IOT/synthetic_data_generation_training_workflow 下載所有資產。

第一次迭代:改變顏色和攝像頭位置

在第一次迭代中,我們改變了托盤千斤頂的顏色和姿勢,以及攝像頭的姿勢。可以按照以下步驟在自己的會話中復制此場景。

首先加載舞臺(Stage):

ENV_URL = "/Isaac/Environments/Simple_Warehouse/warehouse.usd"
open_stage(prefix_with_isaac_asset_server(ENV_URL))

然后添加托盤千斤頂和攝像頭到場景中。托盤千斤頂可以從 SimReady 資產庫中加載。

PALLETJACKS = ["http://omniverse-content-production.s3-us-west-2.amazonaws.com/Assets/DigitalTwin/Assets/Warehouse/Equipment/Pallet_Trucks/Scale_A/PalletTruckScale_A01_PR_NVD_01.usd",
      "http://omniverse-content-production.s3-us-west-2.amazonaws.com/Assets/DigitalTwin/Assets/Warehouse/Equipment/Pallet_Trucks/Heavy_Duty_A/HeavyDutyPalletTruck_A01_PR_NVD_01.usd",
      "http://omniverse-content-production.s3-us-west-2.amazonaws.com/Assets/DigitalTwin/Assets/Warehouse/Equipment/Pallet_Trucks/Low_Profile_A/LowProfilePalletTruck_A01_PR_NVD_01.usd"]
 
cam = rep.create.camera(clipping_range=(0.1, 1000000))

SimReady 或仿真就緒資產是包含精確物理屬性和行為的物理精確 3D 對象。它們預裝有模型訓練所需的元數據和注釋。

接下來,為托盤千斤頂和攝像頭添加域隨機化:

with cam:
        rep.modify.pose(position=rep.distribution.uniform((-9.2, -11.8,   0.4), (7.2, 15.8, 4)),look_at=(0, 0, 0))
 
   # Get the Palletjack body mesh and modify its color
   with rep.get.prims(path_pattern="SteerAxles"):
      rep.randomizer.color(colors=rep.distribution.uniform((0, 0, 0), (1, 1, 1)))
 
  # Randomize the pose of all the added palletjacks
  with rep_palletjack_group:
   rep.modify.pose(
  position=rep.distribution.uniform((-6, -6, 0), (6, 12, 0)),
  rotation=rep.distribution.uniform((0, 0, 0), (0, 0, 360)),
  scale=rep.distribution.uniform((0.01, 0.01, 0.01), (0.01, 0.01, 0.01)))

wKgZomVMSNyACi0RAARLy7nLidY827.png

圖 1. 顯示托盤千斤頂隨機顏色和位置與

隨機攝像機的位置的合成圖像

最后,配置用于注釋數據的編寫器:

writer = rep.WriterRegistry.get("KittiWriter") 
writer.initialize(output_dir=output_directory,
          omit_semantic_type=True,)

本例使用 Replicator 提供的 KittiWriter,以 KITTI 格式存儲對象檢測標簽的注釋,這將確保更容易與訓練管線兼容。

結果

對于第一批合成數據,團隊使用了 LOCO 數據集,這是一個用于物流的場景理解數據集,涵蓋了檢測物流特定對象的問題,以可視化現實世界的模型性能。

生成的圖像顯示,該模型仍然試圖在擁擠的倉庫中檢測托盤千斤頂(圖 2),在托盤千斤頂附近的物體周圍創建了許多邊界框。考慮到這是第一次訓練迭代,這個結果在一定程度上是意料之中的,減少域差距將是后續迭代的重點。

wKgZomVMSNyANl7OAAWuFwdCimU233.png

圖 2:在根據現實數據來驗證模型后,

現實世界的圖像顯示了許多報錯

第二次迭代:添加紋理和改變環境照明

在這次迭代中,除了第一次迭代中的托盤顏色和攝像頭位置外,團隊還隨機化了紋理和環境照明。

激活紋理和光照的隨機化:

# Randomize the lighting of the scene
  with rep.get.prims(path_pattern="RectLight"):
   rep.modify.attribute("color", rep.distribution.uniform((0, 0, 0), (1, 1, 1)))
   rep.modify.attribute("intensity", rep.distribution.normal(100000.0, 600000.0))
   rep.modify.visibility(rep.distribution.choice([True, False, False, False, False, False, False]))
 
# select floor material
random_mat_floor = rep.create.material_omnipbr(diffuse_texture=rep.distribution.choice(textures),                          roughness=rep.distribution.uniform(0, 1),                        metallic=rep.distribution.choice([0, 1]),                          emissive_texture=rep.distribution.choice(textures),      emissive_intensity=rep.distribution.uniform(0, 1000),)
     
     
   with rep.get.prims(path_pattern="SM_Floor"):
     rep.randomizer.materials(random_mat_floor)

圖 3 顯示了生成的合成圖像。可以看到已經添加到背景中的各種紋理和入射到物體上的不同類型的環境光。

wKgZomVMSN2AEa1lAATb2dwb-vY445.png

圖 3:不同紋理背景的托盤千斤頂的合成圖像

結果

本次迭代的報錯數量減少,增加了紋理和光照隨機化。生成合成數據時的一個關鍵因素是確保結果數據集中數據的多樣性。來自合成域的類似或重復數據可能無助于改善現實世界中的模型性能。

為了提高數據集的多樣性,可以在場景中添加更多的隨機化對象。這將在第三次迭代中解決,并且應該有助于改善模型的穩健性。

wKgZomVMSN2AAyvOAAVyCERfk2A136.png

圖 4. 現實世界的圖像表明,經過隨機紋理和光照圖像的訓練,該模型檢測托盤千斤頂的精度更高

第三次迭代:添加干擾

本次迭代將額外的對象(稱為干擾物)引入到場景中,這些干擾物增加了數據集的多樣性。此次迭代還包括前兩次迭代中的所有更改。

在場景中添加干擾物:

DISTRACTORS_WAREHOUSE = ["/Isaac/Environments/Simple_Warehouse/Props/S_TrafficCone.usd",
              "/Isaac/Environments/Simple_Warehouse/Props/S_WetFloorSign.usd",
              "/Isaac/Environments/Simple_Warehouse/Props/SM_BarelPlastic_A_01.usd",
              "/Isaac/Environments/Simple_Warehouse/Props/SM_BarelPlastic_A_02.usd",
              "/Isaac/Environments/Simple_Warehouse/Props/SM_BarelPlastic_A_03.usd"]
 
# Modify the pose of all the distractors in the scene
with rep_distractor_group:
    rep.modify.pose(
position=rep.distribution.uniform((-6, -6, 0), (6, 12, 0)),
      rotation=rep.distribution.uniform((0, 0, 0), (0, 0, 360)),
      scale=rep.distribution.uniform(1, 1.5))

這個項目使用的所有資源都可以通過默認的 Isaac Sim 安裝獲得,并通過指定它們在核心服務器上的路徑來加載它們。

wKgZomVMSN2AeJd1AAU8vEhnFPc666.png

圖 5. 被常見倉庫物體(干擾物)包圍的

托盤千斤頂的合成圖像

結果

圖 6 顯示了第三次迭代的結果。該模型能夠準確地檢測到托盤千斤頂,并且邊界框較少。與第一次迭代相比,模型性能得到了顯著改善。

wKgZomVMSN2ANCeIAAWgfea1mto418.png

圖 6. 現實世界的圖像顯示,

該模型能夠準確檢測到托盤千斤頂

持續迭代

該團隊在每次迭代中使用 5000 張圖像來訓練模型。您可以通過生成更多的變量和增加合成數據來繼續迭代此工作流,以達到所需的精度。

我們使用 NVIDIA TAO Toolkit 來訓練帶有 resnet18 主干的 DetectNet_v2 模型進行這些實驗。使用這個模型并不是工作流的要求,您可以利用使用注釋生成的數據來訓練您所選擇的體系架構和框架的模型。

我們在實驗中使用了 KITTI 編寫器。也可以使用 Omniverse Replicator 編寫自己的自定義編寫器,以正確的注釋格式生成數據,這將使您的訓練工作流無縫兼容。

您還可以在訓練過程中混合現實數據和合成數據來進行實驗。在獲得滿意的評價指標后,最終模型可以在 NVIDIA Jetson 上進行優化和部署。

使用 Omniverse Replicator

開發合成數據管線

通過使用 Omniverse Replicator,您可以構建自己的自定義合成數據生成管線或工具,以編程方式生成大量不同的合成數據集,以引導模型并快速迭代。引入各種類型的隨機化為數據集增加了必要的多樣性,使模型能夠在各種條件下識別對象或是感興趣的對象。

使用本文中的工作流,請訪問 GitHub 上的 NVIDIA-AI-IOT/synthetic_data_generation_training_workflow。要查看完整的工作流,NVIDIA 的團隊成員展示了如何使用 Omniverse Replicator 和合成數據來訓練制造流程的對象檢測模型(視頻 2)。

視頻 2:學習如何用合成數據訓練計算機視覺模型

要構建自己的自定義合成數據生成管線,請免費下載 Omniverse,并按照說明開始使用 Omniverse 代碼中的 Replicator。您也可以參加自定進度的在線課程“合成數據生成訓練計算機視覺模型”,并觀看最新的 Omniverse Replicator 教程

  • 免費下載 Omniverse:

    https://www.nvidia.com/en-us/omniverse/download/

  • 開始使用 Omniverse 代碼中的 Replicator:

    https://docs.omniverse.nvidia.com/extensions/latest/ext_replicator/getting_started.html

  • 通過合成數據生成訓練計算機視覺模型:

    https://courses.nvidia.com/courses/course-v1:DLI+S-OV-10+V1/

  • 最新的 Omniverse Replicator 教程:

    https://www.nvidia.com/en-us/on-demand/playlist/playList-35d98b97-8abf-4f92-883a-c898801f28b4/

NVIDIA 最近發布了 Omniverse Replicator 1.10,為開發者構建低代碼 SDG 工作流提供了新的支持。相關詳細信息,請參見“在 NVIDIA Omniverse Replicator 1.10 中使用低代碼工作流促進合成數據生成”:https://developer.nvidia.com/blog/boost-synthetic-data-generation-with-low-code-workflows-in-nvidia-omniverse-replicator-1-10/

NVIDIA Isaac ROS 2.0 和 NVIDIA Isaac Sim 2023.1 現已可用,其對性能感知和高保真仿真進行了重要更新。如需了解更多信息,請參閱《NVIDIA Isaac 平臺先進的仿真和感知工具助力 AI 機器人技術加速發展》。

GTC 2024 將于 2024 年 3 月 18 至 21 日在美國加州圣何塞會議中心舉行,線上大會也將同期開放。掃描下方海報二維碼,立即注冊 GTC 大會


原文標題:如何訓練自主移動機器人使用合成數據檢測倉庫托盤千斤頂

文章出處:【微信公眾號:NVIDIA英偉達】歡迎添加關注!文章轉載請注明出處。


聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 英偉達
    +關注

    關注

    22

    文章

    3902

    瀏覽量

    92971

原文標題:如何訓練自主移動機器人使用合成數據檢測倉庫托盤千斤頂

文章出處:【微信號:NVIDIA_China,微信公眾號:NVIDIA英偉達】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦
    熱點推薦

    安森美在自主移動機器人領域的發展成果

    在4月初落幕的“OFweek 2025(第十四屆)中國機器人產業大會”上,安森美(onsemi)AMG戰略業務拓展高級經理Henry Yang發表“從芯片到應用:安森美自主移動機器人(AMR)技術方案剖析”主題演講,為與會觀眾介
    的頭像 發表于 04-24 10:01 ?301次閱讀

    慣性測量單元傳感器在自主移動機器人的應用

    使機器人能夠在動態變化的環境中導航。本文將為您介紹IMU的功能特性,與在自主移動機器人(AMR)的應用,以及ADI所提供的相關解決方案。
    的頭像 發表于 02-27 10:04 ?779次閱讀
    慣性測量單元傳感器在<b class='flag-5'>自主</b><b class='flag-5'>移動機器人</b>的應用

    SICK收購Accerion,強化自主移動機器人技術

    (AI)的圖像處理技術的創新企業,尤其在移動機器人定位領域擁有卓越的技術實力和豐富的經驗。其先進的AI算法和圖像處理技術,為移動機器人提供了精準、可靠的定位能力,極大地提升了機器人自主
    的頭像 發表于 02-14 10:24 ?399次閱讀

    2024移動機器人市場風云:新玩家批量涌現,是挑戰還是機遇

    移動機器人行業未來發展的信心。 西井科技推出復合移動機器人面向倉儲物流場景 2024年7月初,西井國際在 2024WAIC 上全球首發復合機器人 Well-Bot。通過整合多傳感器感知技術并內嵌AI大模型,Well-Bot能夠
    的頭像 發表于 02-07 10:50 ?365次閱讀

    移動機器人核心科技解碼:導航、感知與掌控力的深度剖析

    富唯智能移動機器人的核心技術主要包括導航、感知與控制。這些技術共同決定了移動機器人在不同環境中的自主行動能力和工作效率。
    的頭像 發表于 01-02 16:01 ?400次閱讀

    自主移動機器人設計指南

    自主移動機器人(AMR)是一種復雜的系統,與自動駕駛汽車有許多共同之處--它們需要感知、電機驅動、電源轉換、照明和電池管理。也許最大的挑戰是將這些子系統整合到一個最終產品中--由于需要集成來自不同供應商的不同子系統,這一挑戰變得更加困難。
    的頭像 發表于 12-29 11:45 ?715次閱讀
    <b class='flag-5'>自主</b><b class='flag-5'>移動機器人</b>設計指南

    思嵐科技榮獲雙年度移動機器人優質供應鏈獎

    移動機器人(AGV/AMR)產業聯盟、人形機器人場景應用聯盟主辦的“2024中國移動機器人(AGV/AMR)產業發展年會”于12月13日在江蘇蘇州圓滿落幕!
    的頭像 發表于 12-16 17:54 ?813次閱讀

    移動機器人的技術突破和未來展望

    移動機器人已經成為現代社會不可或缺的一部分,在各個領域發揮著越來越重要的作用。在這個過程中,富唯智能機器人以其卓越的技術突破,引領著移動機器人領域的發展潮流。
    的頭像 發表于 12-13 17:57 ?505次閱讀
    <b class='flag-5'>移動機器人</b>的技術突破和未來展望

    智能移動機器人系統方案指南

    自主移動機器人 (AMR) 和自動導引車 (AGV) 是具有移動、感知和連接能力的無人機器人,用于運輸和移動各種重量和尺寸的負載,以及執行其
    的頭像 發表于 11-14 10:30 ?935次閱讀
    智能<b class='flag-5'>移動機器人</b>系統方案指南

    傳感器融合如何賦能自主移動機器人

    自主移動機器人(AMR)可幫助制造商提高生產效率、增強安全性并節省大量成本,因而在各行各業得到廣泛應用。2022年全球AMR市場規模為86.5億美元,預計2022年至2028年間的復合年增長率(CAGR)將達到18.3%。
    的頭像 發表于 11-14 10:11 ?481次閱讀
    傳感器融合如何賦能<b class='flag-5'>自主</b><b class='flag-5'>移動機器人</b>

    新松移動機器人批量進軍歐洲新能源市場

    近日,新松智慧園內呈現出一派繁忙的景象。百余臺移動機器人整齊地排列在車間內,它們蓄勢待發,即將踏上前往歐洲的旅程。這批機器人代表著新松移動機器人大規模進軍歐洲本土新能源市場的重要里程碑。
    的頭像 發表于 10-11 16:55 ?688次閱讀

    智能移動機器人

    富唯智能移動機器人分為復合機器人和轉運機器人,搭載ICD核心控制器,實現一體化控制,最快可實現15分鐘現場機器人的快速部署,無縫對接產線,配合自研2D/3D視覺系統,精準抓取搬運工件。
    的頭像 發表于 08-27 17:22 ?555次閱讀
    智能<b class='flag-5'>移動機器人</b>

    如何借助恩智浦MCX系列MCU糾錯功能,打造可靠安全的移動機器人

    安全挑戰。MCX MCU基于高性能Arm Cortex-M33內核,具有先進的錯誤檢測和糾正功能,非常適合開發開發對可靠性和安全性要求極高的移動機器人。? 移動機器人常見的可靠性和安全問題
    的頭像 發表于 08-02 11:04 ?2094次閱讀
    如何借助恩智浦MCX系列MCU糾錯功能,打造可靠安全的<b class='flag-5'>移動機器人</b>?

    智能移動機器人系統的用途和市場趨勢

    自主移動機器人 (AMR) 和自動導引車 (AGV) 是具有移動、感知和連接能力的無人機器人,用于運輸和移動各種重量和尺寸的負載,以及執行其
    的頭像 發表于 07-16 09:37 ?985次閱讀

    海康機器人第100000臺移動機器人下線

    海康機器人第100000臺移動機器人已經成功下線 。這是一個重要的里程碑,標志著海康機器人在全品類移動機器人(AMR)領域取得了顯著的進展。
    的頭像 發表于 05-24 14:43 ?1355次閱讀
    主站蜘蛛池模板: 国产免费一区二区三区在线 | 99色视频在线观看 | 欧美性xxxx极品高清 | 亚洲一二三四区 | 精品视频一区二区三区 | 毛片免费观看 | 新激情五月| 国产精品二区三区免费播放心 | 免费看又爽又黄禁片视频1000 | 色免费观看| 性欧美成人依依影院 | 午夜影院入口 | 国产国拍亚洲精品mv在线观看 | 久久久久国产精品免费免费 | 欧美一级乱理片免费观看 | 88av视频在线| 婷婷久久综合九色综合98 | 米奇777色狠狠8888影视 | 五月六月伊人狠狠丁香网 | 色多多在线观看高清免费 | 美女拍拍拍爽爽爽爽爽爽 | 男人j进女人j的一进一出视频 | 午夜黄色大片 | 成年女人色费视频免费 | 在线观看视频色 | 一级做a爰片久久毛片美女图片 | 在线免费观看色片 | 天天操天天操天天操香蕉 | 又潮又黄的叫床视频 | 激情五月激情综合 | 亚洲激情婷婷 | 亚洲啪啪| 三级网站在线 | 丁香八月婷婷 | 免费 视频 | 黄色小网站在线观看 | 日本69sex护士www | 97久久综合九色综合 | 可以免费播放的在线视频 | 在线免费看污视频 | 性欧美精品xxxx |