在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

虛擬到現實的翻譯網絡如何滿足自動駕駛要求?

ml8z_IV_Technol ? 來源:未知 ? 作者:胡薇 ? 2018-08-16 09:33 ? 次閱讀

加州大學伯克利分校的Xinlei Pan等人提出了一種虛擬到現實(Virtual to Real)的翻譯網絡,可以將虛擬駕駛模擬器中生成的虛擬場景翻譯成真實場景,來進行強化學習訓練,取得了更好的泛化能力,并可以遷移學習應用到真實世界中的實際車輛,滿足真實世界的自動駕駛要求。

1.前言

強化學習(Reinforcement Learning)是機器學習的一個熱門研究方向。強化學習較多的研究情景主要在機器人、游戲與棋牌等方面,自動駕駛的強化學習研究中一大問題是很難在現實場景中進行實車訓練。因為強化學習模型需要成千上萬次的試錯來迭代訓練,而真實車輛在路面上很難承受如此多的試錯。所以目前主流的關于自動駕駛的強化學習研究都集中在使用虛擬駕駛模擬器來進行代理(Agent)的仿真訓練,但這種仿真場景和真實場景有一定的差別,訓練出來的模型不能很好地泛化到真實場景中,也不能滿足實際的駕駛要求。加州大學伯克利分校的Xinlei Pan等人提出了一種虛擬到現實(Virtual to Real)的翻譯網絡,可以將虛擬駕駛模擬器中生成的虛擬場景翻譯成真實場景,來進行強化學習訓練,取得了更好的泛化能力,并可以遷移學習應用到真實世界中的實際車輛,滿足真實世界的自動駕駛要求。下面為本文的翻譯,編者對文章有一定的概括與刪改。

2.簡介

強化學習被認為是推動策略學習的一個有前途的方向。然而,在實際環境中進行自動駕駛車輛的強化學習訓練涉及到難以負擔的試錯。更可取的做法是先在虛擬環境中訓練,然后再遷移到真實環境中。本文提出了一種新穎的現實翻譯網絡(Realistic Translation Network),使虛擬環境下訓練的模型在真實世界中變得切實可行。提出的網絡可以將非真實的虛擬圖像輸入轉換到有相似場景結構的真實圖像。以現實的框架為輸入,通過強化學習訓練的駕駛策略能夠很好地適應真實世界的駕駛。實驗表明,我們提出的虛擬到現實的強化學習效果很好。據我們所知,這是首次通過強化學習訓練的駕駛策略可以適應真實世界駕駛數據的成功案例。

圖1 自動駕駛虛擬到現實強化學習的框架。由模擬器(環境)渲染的虛擬圖像首先被分割成場景解析的表現形式,然后通過提出的圖像翻譯網絡(VISRI)將其翻譯為合成的真實圖像。代理(Agent)觀察合成的真實圖像并執行動作。環境會給Agent獎勵。由于Agent是使用可見的近似于真實世界的圖像來訓練,所以它可以很好地適應現實世界的駕駛。

自動駕駛的目標是使車輛感知它的環境和在沒有人參與下的行駛。實現這個目標最重要的任務是學習根據觀察到的環境自動輸出方向盤、油門、剎車等控制信號的駕駛策略。最直接的想法是端到端的有監督學習,訓練一個神經網絡模型直接映射視覺輸入到動作輸出,訓練數據被標記為圖像-動作對。然而,有監督的方法通常需要大量的數據來訓練一個可泛化到不同環境的模型。獲得如此大量的數據非常耗費時間且需要大量的人工參與。相比之下,強化學習是通過一種反復試錯的方式來學習的,不需要人工的明確監督。最近,由于其在動作規劃方面的專門技術,強化學習被認為是一種有前途的學習駕駛策略的技術。

然而,強化學習需要代理(Agent)與環境的相互作用,不符規則的駕駛行為將會發生。在現實世界中訓練自動駕駛汽車會對車輛和周圍環境造成破壞。因此目前的自動駕駛強化學習研究大多集中于仿真,而不是在現實世界中的訓練。一個受過強化學習訓練的代理在虛擬世界中可以達到近人的駕駛性能,但它可能不適用于現實世界的駕駛環境,這是因為虛擬仿真環境的視覺外觀不同于現實世界的駕駛場景。

雖然虛擬駕駛場景與真實駕駛場景相比具有不同的視覺外觀,但它們具有相似的場景解析結構。例如虛擬和真實的駕駛場景可能都有道路、樹木、建筑物等,盡管紋理可能有很大的不同。因此將虛擬圖像翻譯成現實圖像是合理的,我們可以得到一個在場景解析結構與目標形象兩方面都與真實世界非常相似的仿真環境。最近,生成對抗性網絡(GAN)在圖像生成方面引起了很多關注。[1]等人的工作提出了一種可以用兩個域的配對數據將圖像從一個域翻譯到另一個域的翻譯網絡的設想。然而,很難找到駕駛方向的虛擬現實世界配對圖像。這使得我們很難將這種方法應用到將虛擬駕駛圖像翻譯成現實圖像的案例中。

本文提出了一個現實翻譯網絡,幫助在虛擬世界中訓練自動駕駛車輛使其完全適應現實世界的駕駛環境。我們提出的框架(如圖1所示)將模擬器渲染的虛擬圖像轉換為真實圖像,并用合成的真實圖像訓練強化學習代理。雖然虛擬和現實的圖像有不同的視覺外觀,但它們有一個共同的場景解析表現方式(道路、車輛等的分割圖)。因此我們可以用將場景解析的表達作為過渡方法將虛擬圖像轉化為現實圖像。這種見解類似于自然語言翻譯,語義是不同語言之間的過渡。具體來說,我們的現實翻譯網絡包括兩個模塊:第一個是虛擬解析或虛擬分割模塊,產生一個對輸入虛擬的圖像進行場景解析的表示方式。第二個是將場景解析表達方式翻譯為真實圖像的解析到真實網絡。通過現實翻譯網絡,在真實駕駛數據上學習得到的強化學習模型可以很好地適用于現實世界駕駛。

為了證明我們方法的有效性,我們通過使用現實翻譯網絡將虛擬圖像轉化成合成的真實圖像并將這些真實圖像作為狀態輸入來訓練我們的強化學習模型。我們進一步比較了利用領域隨機化(Domain Randomization)的有監督學習和其他強化學習方法。實驗結果表明,用翻譯的真實圖像訓練的強化學習模型比只用虛擬輸入和使用領域隨機化的強化學習模型效果都要更好。

3.自然環境下的強化學習

我們的目標是成功地將一個完全在虛擬環境中訓練的駕駛模型應用于真實世界的駕駛挑戰。其中一個主要的空白是,代理所觀察到的是由模擬器渲染的幀,它們在外觀上與真實世界幀不同。因此提出了一種將虛擬幀轉換為現實幀的現實翻譯網絡。受圖像-圖像翻譯網絡工作的啟發,我們的網絡包括兩個模塊:即虛擬-解析和解析-現實網絡。第一個模塊將虛擬幀映射到場景解析圖像。第二個模塊將場景解析轉換為與輸入虛擬幀具有相似的場景結構的真實幀。這兩個模塊可以產生保持輸入虛擬幀場景解析結構的真實幀。最后我們在通過現實翻譯網絡獲得的真實幀上,運用強化學習的方法,訓練了一個自動駕駛代理。我們所采用了[2]等人提出的方法,使用異步的actor-critic強化學習算法在賽車模擬器TORCS[3]中訓練了一輛自動駕駛汽車。在這部分,我們首先展現了現實翻譯網絡,然后討論了如何在強化學習框架下對駕駛代理進行訓練。

圖2:虛擬世界圖像(左1和左2)和真實世界圖像(右1和右2)的圖像分割實例

3.1 現實翻譯網絡:

由于沒有配對過的虛擬和真實世界圖像,使用[1]的直接映射虛擬世界圖像到真實世界圖像將是尷尬的。然而由于這兩種類型的圖像都表達了駕駛場景,我們可以通過場景分析來翻譯它們。受[1]的啟發,我們的現實翻譯網絡由兩個圖像翻譯網絡組成,第一個圖像翻譯網絡將虛擬圖像轉化為圖像的分割。第二個圖像翻譯網絡將分割后圖像轉化為現實世界中的對應圖像。

由[1]等人提出的圖像至圖像的翻譯網絡基本上是一個有條件的生成對抗網絡(GAN)。傳統的GAN網絡和有條件的GAN網絡的區別在于,傳統GAN網絡是學習一種從隨機噪聲矢量z到輸出圖像s的映射:G:z → s,而有條件的GAN網絡是同時吸收了圖像x和噪聲向量z,生成另一個圖像s:G:{x, z} → s,且s通常與x屬于不同的領域(例如將圖像翻譯成其分割)。

有條件的GAN網絡的任務目標可以表達為:

G是試圖最小化目標的生成器,D是與G相違背的試圖最大化目標的對抗判別器。換句話說,=argmima(G,D),為了抑制模糊,添加了L1的損失正則化,可以表達為

因此,圖像-圖像翻譯網絡的總體目標是:

λ是正則化的權重。

我們的網絡由兩個圖像-圖像的轉換網絡組成,這兩個網絡使用公式(3)作為相同的損失函數。第一個網絡將虛擬圖像x翻譯成它們的分割 s:G1:{x,} → S,第二個網絡將分割的圖像s轉換成它們的現實對應的y: G2:{ s,} → y,,是噪聲,以避免確定性的輸出。對于GAN神經網絡的結構,我們使用的是與[1]相同的生成器和判別器結構。

3.2 訓練自主駕駛汽車的強化學習:

我們使用傳統的強化學習解決方案異步優勢Actor-Arbitor(A3C)來訓練自動駕駛汽車,這種方法在多種機器學習任務中表現的很出色。A3C算法是將幾種經典的強化學習算法與異步并行線程思想相結合的一種基本的行動Actor-Critic。多個線程與環境的無關副本同時運行,生成它們自己的訓練樣本序列。這些Actor-learners繼續運行,好像他們正在探索未知空間的不同部分。對于一個線程,參數在學習迭代之前同步,完成后更新。A3C算法實現的細節見[2]。為了鼓勵代理更快地駕駛和避免碰撞,我們定義了獎勵函數為:

Vt是在第t步時代理的速度(m/s),α是代理的速度方向與軌跡切線之間的輪廓(紅色部分),是代理中心和軌跡中點之間的距離,β、γ是常數并在訓練的一開始就被定義。我們在訓練時設置β=0.006,γ=-0.025。

我們做了兩組實驗來比較我們的方法和其他強化學習方法以及有監督學習方法的性能。第一組實驗涉及真實世界駕駛數據的虛擬到現實的強化學習,第二組實驗涉及不同虛擬駕駛環境下的遷移學習。我們實驗中使用的虛擬模擬器是TORCS。

圖3:強化學習網絡結構。該網絡是一個端到端的將狀態表示映射到動作概率輸出的網絡

圖4:虛擬到真實圖像翻譯的例子。奇數列是從TORCS截取的虛擬圖像。偶數列是根據左邊的虛擬圖像相對應合成的真實世界圖像。

3.3 真實世界駕駛數據下的虛擬到現實強化學習:

在本實驗中,我們用現實翻譯網絡訓練了我們所提出的強化學習模型。我們首先訓練虛擬到真實的圖像翻譯網絡然后利用受過訓練的網絡對模擬器中的虛擬圖像進行濾波。這些真實的圖像隨后被輸入A3C算法,以訓練駕駛策略。最后經過訓練的策略在真實世界駕駛數據上進行了測試,以評估其轉向角度預測精度。

為便于比較,我們還訓練了一個有監督學習模型來預測每個駕駛測試視頻框架的轉向角度。該模型是一種具有我們的強化學習模型中相同的策略網絡設計結構的深度神經網絡(DNN)。網絡輸入是四個連續框架的序列,網絡輸出的是動作概率向量,向量中的元素表示直行、左轉、右轉的概率。有監督學習模型的訓練數據不同于用于評價模型性能的測試數據。另外,另一個基線強化學習模型(B-RL))也被訓練。B-RL和我們的方法的唯一區別是虛擬世界圖像是由代理直接作為狀態輸入的。B-RL模型也在相同的真實世界駕駛數據上被測試。

數據集:真實世界駕駛視頻數據來自[4],這是一個在晴天收集的每一幀都有詳細的轉角標注的數據集。這個數據集大概有45000張圖片,其中15000張被用作訓練有監督學習,另外15000張被選出來進行測試。為了訓練我們的現實翻譯網絡,我們從TORCS中的Aalborg環境收集了虛擬圖像以及他們的分割。共收集了1673張涵蓋了整個Aalborg環境的駕駛照片。

圖5:不同環境間的遷移學習。Orcle曾在CGTrac2中接受過訓練和測試,所以它的性能是最好的。我們的模型比領域隨機化RL方法更有效。領域隨機化方法需要在多個虛擬環境中進行培訓,這就需要大量的人工的工程工作。

場景分割:我們使用了[5]中的圖像語義分割網絡設計及其在CityScape圖像分割數據集[6]上經過訓練的分割網絡,從[5]中分割45000張真實世界的駕駛圖像。該網絡在11個類別的CityScape數據集上訓練并迭代了30000次。

圖像翻譯網絡訓練:我們使用收集的虛擬-分割圖像對和分割-真實圖像對訓練了虛擬-解析和解析-真實兩個網絡。如圖1所示,翻譯網絡采用編碼-解碼器的方式。在圖像翻譯網絡中,我們使用了可以從編碼器到解碼器跳躍連接兩個獨立分開層的U-Net體系結構,具有相同的輸出特征圖形狀。生成器的輸入尺寸是256×256。每個卷積層有4×4大小的卷積核,步長為2。每一卷積層后都有一個slope為0.2 的LeakyReLU層,每一個反卷積層后都應用一個Relu層。此外,在每一個卷積層與反卷積層后,都應用一個BatchNormalization層。編碼器的最終輸出與輸出尺寸為3×256×256并接著tanh激活函數的卷積層連接。我們用了全部的1673個虛擬-分割圖像對來訓練一個虛擬-分割網絡。因為45000張真實圖像有所冗余,我們從45000張圖像中選擇了1762張圖像和它們的分割來訓練解析-真實的圖像翻譯網絡。為了訓練這個圖像翻譯模型,我們使用了Adam優化器,初始學習率為0.0002,沖量設為0.5,batchsize設為16,訓練了200次迭代直到收斂。

強化訓練:我們訓練中使用的RL網絡結構類似于[2]中的actor網絡,是有4個層并且每層間使用Relu激活函數的卷積神經網絡(如圖3所示)。該網絡將4個連續RGB幀作為狀態輸入并輸出9個離散動作,這些動作對應于“直線加速”,“加速向左”、“加速向右”、“直走和剎車”、“向左和剎車”、“向右和剎車”、“向左走”和“向右走”。我們用0.01個異步線程和RMSPop優化器對強化學習代理進行了訓練,初始學習率為0.01,γ=0.9,ε=0.1。

評估:真實的駕駛數據集提供了每幀的轉向角度注釋。然而,在TORCS虛擬環境中執行的動作只包含“左轉”,“向右走”,“直走”或它們與“加速”“剎車”的組合。因此我們定義了一個標簽映射策略,將轉向角度標簽翻譯成虛擬模擬器中的動作標簽。我們把(-10,10)中的轉向角度與“直走”的動作聯系起來。(由于小轉向角度不能在短時間內導致明顯的轉彎),轉向角度小于-10度映射到動作“向左”,轉向角度超過10度映射到動作“向右”。通過將我們的方法產生的輸出動作與地面真實情況相比較,我們可以獲得駕駛動作預測的準確率。

虛擬駕駛環境下的遷移學習:我們進一步進行了另一組實驗,并獲得了不同虛擬駕駛環境之間的遷移學習的結果。在這個實驗中,我們訓練了三名強化學習代理。第一個代理在TORCS中的Cg-Track2環境中接受了標準的A3C算法訓練,并頻繁地在相同的環境中評估其性能。我們有理由認為這種代理的性能是最好,所以我們稱之為“Oracle”。第二個代理用我們提出現實翻譯網絡的強化學習方法來訓練。但是,它在TORCS的E-track1環境中接受訓練,然后在Cg-track2中進行評估。需要注意的是,E-track1的視覺外觀不同于Cg-Track2。第三個代理是用類似于[22]的領域隨機化方法訓練的,在Cg-track2中,該代理接受了10種不同的虛擬環境的訓練,并進行了評估。為了使用我們的方法訓練,我們得到了15000張分割圖像給E-track1和Cg-track2去訓練虛擬-解析和解析-真實的圖像翻譯網絡。圖像翻譯訓練的細節和強化學習的細節與第3.1部分相同。

3.4 結果

圖像分割結果:我們使用在Cityscape數據集上訓練的圖像分割模型來分割虛擬和真實的圖像。例子如圖2所示。圖中表示,盡管原始的虛擬圖像和真實的圖像看起來很不一樣,但它們的場景解析結果非常相似。因此將場景解析作為連接虛擬圖像和真實圖像的過渡過程是合理的。

現實翻譯網絡的定性結果:圖4顯示了我們的圖像翻譯網絡的一些有代表性的結果。奇數列是TORCS中的虛擬圖像,偶數列則被翻譯成真實的圖像。虛擬環境中的圖像似乎比被翻譯的圖像更暗,因為訓練翻譯網絡的真實圖像是在晴天截取的。因此我們的模型成功地合成了與原始地面真實圖像相類似的真實圖像。

強化訓練結果:在真實世界駕駛數據上學習到的虛擬-現實的強化學習結果見表1。結果表明,我們提出的方法總體性能優于基線(B-RL)方法,強化學習代理在虛擬環境中接受訓練,看不到任何現實的數據。有監督學習方法的整體性能最好。然而,需要用大量的有監督標記數據訓練。

表1 三種方法的動作預測準確率

不同虛擬環境下的遷移學習結果見圖5。顯然,標準A3C(Oracle)在同一環境中訓練和測試的性能最好。然而,我們的模型比需要在多個環境中進行訓練才能進行泛化的域隨機化方法更好。如[7]所述,領域隨機化需要大量的工程工作來使其泛化。我們的模型成功地觀察了從E-track1到Cg-Track2的翻譯圖像,這意味著,該模型已經在一個看起來與測試環境非常相似的環境中進行了訓練,從而性能有所提高。

4總結

我們通過實驗證明,利用合成圖像作為強化學習的訓練數據,代理在真實環境中的泛化能力比單純的虛擬數據訓練或領域隨機化訓練更好。下一步將是設計一個更好的圖像-圖像翻譯網絡和一個更好的強化學習框架,以超越有監督學習的表現。

由于場景解析的橋梁,虛擬圖像可以在保持圖像結構的同時被翻譯為真實的圖像。在現實框架上學習的強化學習模型可以很容易地應用于現實環境中。我們同時注意到分割圖的翻譯結果不是唯一的。例如,分割圖指示一輛汽車,但它不指定該汽車的顏色。因此,我們未來的工作之一是讓解析-真實網絡的輸出呈現多種可能的外觀(比如顏色,質地等)。這樣,強化學習訓練中的偏差會大幅度減少。

我們第一個提供了例子,通過與我們提出的圖像-分割-圖像框架合成的真實環境交互,訓練駕駛汽車強化學習算法。通過使用強化學習訓練方法,我們可以得到一輛能置身于現實世界中的自動駕駛車輛。

5.參考文獻

[1]Phillip Isola, Jun-Yan Zhu, Tinghui Zhou, and Alexei A. Efros. Image-to-imagetranslation with conditional adversarial networks. CoRR, abs/1611.07004, 2016.URL http://arxiv.org/abs/1611.07004.

[2]Volodymyr Mnih, Adrià Puigdomènech Badia, Mehdi Mirza, AlexGraves, Timothy P. Lillicrap, Tim Harley, David Silver, and Koray Kavukcuoglu.Asynchronous methods for deep reinforcement learning. CoRR, abs/1602.01783,2016. URL http: //arxiv.org/abs/1602.01783.

[3]Bernhard Wymann, Eric Espié, Christophe Guionneau, ChristosDimitrakakis, Rémi Coulom,and Andrew Sumner. Torcs, the open racing car simulator.Software available at http://torcs. sourceforge. net, 2000.

[4]Sully Chen. Autopilot-tensor?ow,2016. URL https://github.com/ SullyChen/Autopilot-TensorFlow.

[5] VijayBadrinarayanan, Alex Kendall, and Roberto Cipolla. Segnet: A deep convolutionalencoder-decoder architecture for image segmentation. arXiv preprintarXiv:1511.00561, 2015.

[6]MariusCordts,Mohamed Omran,Sebastian Ramos,Timo Rehfeld,Markus Enzweiler, RodrigoBenenson, Uwe Franke, Stefan Roth, and Bernt Schiele. The cityscapes datasetfor semantic urban scene understanding. CoRR, abs/1604.01685, 2016. URL http://arxiv.org/abs/1604.01685.

[7]Fereshteh Sadeghi and Sergey Levine. (cad)$?2$rl: Real single-image flightwithout a single real image. CoRR,abs/1611.04201, 2016. URL http://arxiv.org/abs/1611.04201.

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 自動駕駛
    +關注

    關注

    785

    文章

    13947

    瀏覽量

    167115
  • 強化學習
    +關注

    關注

    4

    文章

    268

    瀏覽量

    11307

原文標題:自動駕駛中虛擬到現實的強化學習

文章出處:【微信號:IV_Technology,微信公眾號:智車科技】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    自動駕駛的未來 - 了解如何無縫、可靠地完成駕駛

    作者:Don Horne 投稿人:DigiKey 北美編輯 自動駕駛組件的最新進展使許多駕駛員的“無需干預”成為現實。然而,許多駕駛員對真正自動駕駛
    的頭像 發表于 01-26 21:52 ?187次閱讀
    <b class='flag-5'>自動駕駛</b>的未來 - 了解如何無縫、可靠地完成<b class='flag-5'>駕駛</b>

    2024年自動駕駛行業熱點技術盤點

    自動駕駛技術日新月異,每一年都會有新的突破。2024年的自動駕駛,更是出現了許多新的技術路線,其中包括城市NOA(Navigate on Autopilot)、Robotaxi、端端解決方案、重
    的頭像 發表于 01-14 10:48 ?270次閱讀

    自動駕駛技術研究與分析

    傳遞和全局優化的優勢,成為智能駕駛技術發展的重要方向。與傳統模塊化架構相比,端端技術通過深度神經網絡實現從傳感器數據輸入車輛控制信號輸出的完整優化路徑,大大提升了系統的可靠性和效率
    的頭像 發表于 12-19 13:07 ?337次閱讀

    連接視覺語言大模型與端自動駕駛

    自動駕駛在大規模駕駛數據上訓練,展現出很強的決策規劃能力,但是面對復雜罕見的駕駛場景,依然存在局限性,這是因為端端模型缺乏常識知識和
    的頭像 發表于 11-07 15:15 ?354次閱讀
    連接視覺語言大模型與端<b class='flag-5'>到</b>端<b class='flag-5'>自動駕駛</b>

    自動駕駛汽車安全嗎?

    隨著未來汽車變得更加互聯,汽車逐漸變得更加依賴技術,并且逐漸變得更加自動化——最終實現自動駕駛,了解自動駕駛汽車的安全問題變得非常重要,這樣你才能回答“自動駕駛汽車安全嗎”和“
    的頭像 發表于 10-29 13:42 ?632次閱讀
    <b class='flag-5'>自動駕駛</b>汽車安全嗎?

    自動駕駛HiL測試方案案例分析--ADS HiL測試系統#ADAS #自動駕駛 #VTHiL

    自動駕駛
    北匯信息POLELINK
    發布于 :2024年10月22日 15:20:19

    自動駕駛技術的典型應用 自動駕駛技術涉及哪些技術

    自動駕駛技術的典型應用 自動駕駛技術是一種依賴計算機、無人駕駛設備以及各種傳感器,實現汽車自主行駛的技術。它通過使用人工智能、視覺計算、雷達、監控裝置和全球定位系統等技術,使自動駕駛
    的頭像 發表于 10-18 17:31 ?1055次閱讀

    Mobileye端自動駕駛解決方案的深度解析

    自動駕駛技術正處于快速發展之中,各大科技公司和汽車制造商均在爭相布局,試圖在這個新興領域占據一席之地。Mobileye作為全球自動駕駛技術的領軍企業之一,憑借其獨特的端自動駕駛解決
    的頭像 發表于 10-17 09:35 ?486次閱讀
    Mobileye端<b class='flag-5'>到</b>端<b class='flag-5'>自動駕駛</b>解決方案的深度解析

    自動駕駛HiL測試方案介紹#ADAS #自動駕駛 #VTHiL

    自動駕駛
    北匯信息POLELINK
    發布于 :2024年10月12日 18:02:07

    實現自動駕駛,唯有端端?

    ,去年行業主流方案還是輕高精地圖城區智駕,今年大家的目標都瞄到了端端(End-to-End, E2E)。端端作為一種新興的技術路徑,逐漸受到業內的廣泛關注。端端解決方案在自動駕駛
    的頭像 發表于 08-12 09:14 ?877次閱讀
    實現<b class='flag-5'>自動駕駛</b>,唯有端<b class='flag-5'>到</b>端?

    FPGA在自動駕駛領域有哪些優勢?

    對實時性要求極高,任何延遲都可能導致安全事故。FPGA的硬件特性使得其能夠實現極低的延遲,確保自動駕駛系統能夠實時響應環境變化并做出正確的決策。 高能效比: 盡管FPGA的功耗相對于一些專用處理器可能
    發表于 07-29 17:11

    FPGA在自動駕駛領域有哪些應用?

    是FPGA在自動駕駛領域的主要應用: 一、感知算法加速 圖像處理:自動駕駛中需要通過攝像頭獲取并識別道路信息和行駛環境,這涉及大量的圖像處理任務。FPGA在處理圖像上的運算速度快,可并行性強,且功耗
    發表于 07-29 17:09

    未來已來,多傳感器融合感知是自動駕駛破局的關鍵

    巨大的進展;自動駕駛開始摒棄手動編碼規則和機器學習模型的方法,轉向全面采用端端的神經網絡AI系統,它能模仿學習人類司機的駕駛,遇到場景直接輸入傳感器數據,再直接輸出轉向、制動和加速信
    發表于 04-11 10:26

    自動駕駛已成現實?賽思時間同步服務器賦能北京市高級別自動駕駛示范區,為自動駕駛提供中國方案

    賽思時間同步服務器賦能全球首個“車路云一體化”高級別自動駕駛示范區,為自動駕駛提供中國方案!北京市高級別自動駕駛示范區的“中樞神經”-云控基礎平臺北京市高級別自動駕駛示范區,是全球首個
    的頭像 發表于 03-22 09:30 ?1109次閱讀
    <b class='flag-5'>自動駕駛</b>已成<b class='flag-5'>現實</b>?賽思時間同步服務器賦能北京市高級別<b class='flag-5'>自動駕駛</b>示范區,為<b class='flag-5'>自動駕駛</b>提供中國方案

    自動駕駛發展問題及解決方案淺析

    隨著科技的飛速進步,自動駕駛汽車已經從科幻概念逐漸轉變為現實。然而,在其蓬勃發展的背后,自動駕駛汽車仍面臨一系列亟待解決的問題和挑戰。本文將對這些問題進行深入的剖析,并提出相應的解決方案,以期為未來
    的頭像 發表于 03-14 08:38 ?1250次閱讀
    主站蜘蛛池模板: 欧美在线视频播放 | 又色又污又爽又黄的网站 | 西西午夜影院 | 美女扒开尿口给男的桶个爽 | 伊人五月婷婷 | 日本在线亚洲 | 欧美一区二区三区高清视频 | 久久久久久久国产 | 美女张开大腿让男人桶 | 中国又粗又大又爽的毛片 | 手机在线精品视频 | 亚洲国产欧美在线成人aaaa | 久久久精品波多野结衣 | 天天在线天天看成人免费视频 | 狠狠色96视频| 黄色三级视频 | 高清视频 一区二区三区四区 | 国产国拍亚洲精品mv在线观看 | 午夜黄色影片 | 免费观看影院 | 天天摸夜夜摸成人免费视频 | 337p亚洲精品色噜噜狠狠 | 黄色片免费看视频 | 日本啪啪小视频 | 69xxx欧美| 欧美成人午夜精品免费福利 | 四虎影视免费看 | 手机午夜视频 | 亚洲五月婷 | 在线天堂中文www官网 | 偷拍福利视频 | 四虎影永久在线观看网址 | 色老头久久久久久久久久 | 激情在线播放免费视频高清 | 天天色天天做 | 毛片在线看免费版 | 一区二区三区高清在线 | 美女扒开尿口给男人捅 | 337p欧洲亚洲大胆艺术 | 国产精品久久久久影视不卡 | www.三级.com|