在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

一份指南,鼓勵大家在家訓練自動駕駛系統的感知能力

ml8z_IV_Technol ? 來源:未知 ? 作者:李倩 ? 2018-06-05 10:35 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

自動駕駛汽車依靠攝像頭、激光雷達以及雷達等等傳感器來感知周圍的變化,感知能力對自動駕駛來說非常重要。本文是一份指南,鼓勵大家在家訓練自動駕駛系統的感知能力。

△神秘的視覺

感知,大概就是感受到周遭正在發生什么的一種能力。這項技能對自動駕駛來說太重要了。

自動駕駛汽車依靠攝像頭、激光雷達以及雷達等等傳感器來感知周圍的變化。

一位名叫凱爾 (Kyle Stewart-Frantz) 的大叔,準備了一份指南,鼓勵大家在家訓練自動駕駛系統的感知能力。

當然,這個手冊并不是他出于愛好寫出來的,是隨著Lyft和Udacity聯合發起的感知挑戰賽(Lyft Perception Challenge),而生的。

比賽考驗的就是系統能不能準確地感受到,可以行駛的路面在哪里,周圍的汽車在哪里。

挑戰賽中,能夠倚仗的所有數據,都來自車載的前向攝像頭。

攝像頭不存在?

這里的“攝像頭數據”并非真實攝像頭記錄的影像,而是一個名為CARLA的模擬器生成的圖景。

畢竟,自動駕駛汽車的軟件開發大多是在模擬器中進行的,那里快速的原型設計和迭代,比在現實世界里使用真實硬件要高效得多。

那么,來看一下CARLA給的數據長什么樣——

左邊是模擬攝像頭捕捉的畫面,右邊則是與之對應的、標記好的圖像。

用這樣的數據來訓練算法,讓AI能夠在從未見過的新鮮圖像里,判斷出哪些像素對應的是道路,哪些部分對應的是其他車輛。

這就是挑戰賽的目標。

車前蓋太搶鏡?

要完成比賽任務,自然會想到語義分割。用這種方式來訓練神經網絡,成熟后的AI便可以判斷每個像素里包含的物體了。

第一步,是對標記好的圖像做預處理。比如,因為設定是“車載前向攝像頭”拍下的畫面,每一幅圖像都會出現車前蓋,可是如果這樣就把所有圖像判定為“車”,就不太好了。

所以要把顯示車前蓋的那些像素的值設為零,或者貼上其他的“非車”標簽

第二步,車道標識和道路的值是不一樣的,但我們希望這些標識,可以被識別為路面的一部分。

△這不是給汽車的指示,但也太隨性了

所以,要把車道標識和路面,貼上一樣的標簽。

Python寫出來,預處理功能就長這樣——

1def preprocess_labels(label_image): 2 labels_new = np.zeros_like(label_image) 3 # Identify lane marking pixels (label is 6) 4 lane_marking_pixels = (label_image[:,:,0] == 6).nonzero() 5 # Set lane marking pixels to road (label is 7) 6 labels_new[lane_marking_pixels] = 7 7 8 # Identify all vehicle pixels 9 vehicle_pixels = (label_image[:,:,0] == 10).nonzero()10 # Isolate vehicle pixels associated with the hood (y-position > 496)11 hood_indices = (vehicle_pixels[0] >= 496).nonzero()[0]12 hood_pixels = (vehicle_pixels[0][hood_indices], 13 vehicle_pixels[1][hood_indices])14 # Set hood pixel labels to 015 labels_new[hood_pixels] = 016 # Return the preprocessed label image 17 return labels_new

預處理過后的結果,就是標記和之前的不太一樣了。

準備活動做好了,神經網絡的正式訓練也就可以開始了。

誰是分類小公主?

那么,大叔選的是怎樣的神經網絡?

定制一個FCN-Alexnet或許是個不錯的選項,它擅長把每個像素分到不同的類別里。

循著以下鏈接,可以找到這個模型的詳細信息——

代碼:

https://github.com/shelhamer/fcn.berkeleyvision.org/tree/master/voc-fcn-alexnet

論文:

https://arxiv.org/pdf/1605.06211.pdf

大叔用一個隨機梯度下降solver,把全部訓練數據跑了10次(10 epochs) ,基礎學習率設的是0.0001。

評估訓練成果

拿訓練好的神經網絡去跑驗證數據,凱爾得到了0.6685的F2值,以及0.9574的F0.5值 (前者更重視召回率,后者更重視準確率) 。系統每秒處理6.06幅圖像。

當然,視頻會比這些數字更加生動

然后還想怎樣?

大叔說,要讓神經網絡表現更好,將來會搜集更多數據,涉及更加豐富的路況。

另外,要進行一系列的數據增強,讓數據和數據之間的差異更加明顯。

關于神經網絡的結構,也還有其他選擇,比如為細粒度預測而生的FCN-8,值得嘗試。

還有,可以引入時態數據(光流) ,來減少推斷需要的幀數,同時保持比較高的準確度。

模擬器不夠真?

當然,只有模擬器也是不夠的,自動駕駛系統終究要接受現實的考驗。

面對真實攝像頭傳出的畫面,系統的辨識結果并沒有非常理想。不過在許多幀里面,神經網絡都能夠在一定程度上,辨認出道路和車輛。

真實世界和模擬器里的駕駛場景,還是不一樣的。

如果模擬器生成的圖像和現實更加接近的話,可能結果就會好一些了。

不難看到,在和模擬器設定更為接近的路況下,系統的表現還是很不錯的。

如此看來,這只AI還是很有前途。只要把模擬器造得更貼近真實,神經網絡應該就能得到更有效的訓練。

這里提供一段代碼,可以用來查看,算法跑出的結果到底怎么樣——

1from moviepy.editor import VideoFileClip, ImageSequenceClip 2import numpy as np 3import scipy, argparse, sys, cv2, os 4 5file = sys.argv[-1] 6 7if file == 'demo.py': 8 print ("Error loading video") 9 quit1011def your_pipeline(rgb_frame):1213 ## Your algorithm here to take rgb_frame and produce binary array outputs!1415 out = your_function(rgb_frame)1617 # Grab cars18 car_binary_result = np.where(out==10,1,0).astype('uint8')19 car_binary_result[496:,:] = 020 car_binary_result = car_binary_result * 2552122 # Grab road23 road_lines = np.where((out==6),1,0).astype('uint8')24 roads = np.where((out==7),1,0).astype('uint8')25 road_binary_result = (road_lines | roads) * 2552627 overlay = np.zeros_like(rgb_frame)28 overlay[:,:,0] = car_binary_result29 overlay[:,:,1] = road_binary_result3031 final_frame = cv2.addWeighted(rgb_frame, 1, overlay, 0.3, 0, rgb_frame)3233 return final_frame3435# Define pathname to save the output video36output = 'segmentation_output_test.mp4'37clip1 = VideoFileClip(file)38clip = clip1.fl_image(your_pipeline)39clip.write_videofile(output, audio=False)

用到的可視化數據在這里:https://s3-us-west-1.amazonaws.com/udacity-selfdrivingcar/Lyft_Challenge/videos/Videos.tar.gz

你也一起來吧?

當然,作為Lyft感知挑戰賽的研發負責人,凱爾大叔這番苦口婆心的目的,還是吸引更多的小伙伴摻和進來。

道路安全,人人有責。大概就是這個意思,吧。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 傳感器
    +關注

    關注

    2564

    文章

    52792

    瀏覽量

    765385
  • 激光雷達
    +關注

    關注

    971

    文章

    4218

    瀏覽量

    192399
  • 自動駕駛
    +關注

    關注

    788

    文章

    14265

    瀏覽量

    170161

原文標題:自動駕駛感知訓練指南:不許你歧視車道線,那也是路面的一部分

文章出處:【微信號:IV_Technology,微信公眾號:智車科技】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    SONY FCB-CR8530,如何重塑自動駕駛視覺感知格局?

    自動駕駛技術快速發展的當下,車輛對周圍環境的精準感知是確保安全與高效運行的關鍵。凱茉銳電子SONY FCB-CR8530攝像機憑借其卓越性能,正逐漸成為自動駕駛領域視覺感知
    的頭像 發表于 06-25 17:54 ?99次閱讀

    自動駕駛安全基石:ODD

    和限制下可以正常工作,是自動駕駛安全的核心概念之。 ? 對于人類司機來說,在不同的道路上駕駛能力也有所區別,比如新手司機在些窄路、山路
    的頭像 發表于 05-19 03:52 ?4956次閱讀

    新能源車軟件單元測試深度解析:自動駕駛系統視角

    。 ?自動駕駛軟件的特殊性? ? 感知層: ?激光雷達、攝像頭等傳感器數據處理算法的單元測試需覆蓋極端場景。例如,激光雷達點云濾波算法在雨雪天氣下的噪聲抑制能力需通過邊界測試驗證。某廠商曾在測試中遺漏
    發表于 05-12 15:59

    AI將如何改變自動駕駛

    自動駕駛帶來哪些變化?其實AI可以改變自動駕駛技術的各個環節,從感知能力的提升到決策框架的優化,從安全性能的增強到測試驗證的加速,AI可以讓自動駕駛從實驗室走向大規模商業化。 對于
    的頭像 發表于 05-04 09:58 ?218次閱讀

    感知融合如何讓自動駕駛汽車“看”世界更清晰?

    自動駕駛技術被認為是未來交通領域的革命性變革,其目標是通過技術手段實現安全、高效、便捷的出行體驗。而在這技術體系中,環境感知系統扮演著至關重要的角色,它不僅是
    的頭像 發表于 04-27 16:24 ?212次閱讀
    <b class='flag-5'>感知</b>融合如何讓<b class='flag-5'>自動駕駛</b>汽車“看”世界更清晰?

    自動駕駛行業,分析數據標注在人工智能的重要性

    自動駕駛中,數據標注的作用尤為突出。自動駕駛系統依賴大量傳感器數據(如攝像頭、激光雷達、雷達等)來感知周圍環境,而這些數據必須經過精確標注,才能用于
    的頭像 發表于 02-08 15:43 ?812次閱讀

    自動駕駛角度解析數據標注對于人工智能的重要性

    自動駕駛中,數據標注的作用尤為突出。自動駕駛系統依賴大量傳感器數據(如攝像頭、激光雷達、雷達等)來感知周圍環境,而這些數據必須經過精確標注,才能用于
    的頭像 發表于 02-08 15:40 ?2713次閱讀
    以<b class='flag-5'>自動駕駛</b>角度解析數據標注對于人工智能的重要性

    “多維像素”多模態雷視融合技術構建自動駕駛超級感知能力 上海昱感微電子創始人蔣宏GADS演講預告

    。在主會場下午的城市NOA專題論壇上,上海昱感微電子科技有限公司創始人&CEO蔣宏將帶來演講,主題為《“多維像素”多模態雷視融合技術構建自動駕駛超級感知能力》。 蔣宏有多年的產品研發與管理經驗,先后在Eastman Kodak,香港飛利浦等著名
    的頭像 發表于 01-09 10:33 ?478次閱讀

    文聊聊自動駕駛測試技術的挑戰與創新

    隨著自動駕駛技術的飛速發展,自動駕駛測試的重要性也日益凸顯。自動駕駛測試不僅需要驗證車輛的感知、決策、控制模塊的獨立性能,還需確保系統在復雜
    的頭像 發表于 12-03 15:56 ?671次閱讀
    <b class='flag-5'>一</b>文聊聊<b class='flag-5'>自動駕駛</b>測試技術的挑戰與創新

    標貝科技:自動駕駛中的數據標注類別分享

    自動駕駛訓練模型的成熟和穩定離不開感知技術的成熟和穩定,訓練自動駕駛感知模型需要使用大量準確真實
    的頭像 發表于 11-22 15:07 ?1914次閱讀
    標貝科技:<b class='flag-5'>自動駕駛</b>中的數據標注類別分享

    標貝科技:自動駕駛中的數據標注類別分享

    自動駕駛訓練模型的成熟和穩定離不開感知技術的成熟和穩定,訓練自動駕駛感知模型需要使用大量準確真實
    的頭像 發表于 11-22 14:58 ?3566次閱讀
    標貝科技:<b class='flag-5'>自動駕駛</b>中的數據標注類別分享

    聊聊自動駕駛離不開的感知硬件

    自動駕駛飛速發展,繞不開感知、決策和控制決策的經典框架,而感知作為自動駕駛汽車“感官”的重要組成部分,決定了自動駕駛
    的頭像 發表于 08-23 10:18 ?1092次閱讀

    FPGA在自動駕駛領域有哪些優勢?

    對實時性要求極高,任何延遲都可能導致安全事故。FPGA的硬件特性使得其能夠實現極低的延遲,確保自動駕駛系統能夠實時響應環境變化并做出正確的決策。 高能效比: 盡管FPGA的功耗相對于些專用處理器可能
    發表于 07-29 17:11

    FPGA在自動駕駛領域有哪些應用?

    是FPGA在自動駕駛領域的主要應用: 感知算法加速 圖像處理:自動駕駛中需要通過攝像頭獲取并識別道路信息和行駛環境,這涉及到大量的圖像處理任務。FPGA在處理圖像上的運算速度快,可
    發表于 07-29 17:09

    自動駕駛汽車如何識別障礙物

    自動駕駛汽車識別障礙物是個復雜而關鍵的過程,它依賴于多種傳感器和技術的協同工作。這些傳感器主要包括激光雷達(LiDAR)、雷達、攝像頭以及超聲波雷達等,它們各自具有不同的工作原理和優勢,共同為自動駕駛汽車提供全面的環境
    的頭像 發表于 07-23 16:40 ?2701次閱讀
    主站蜘蛛池模板: 在线亚洲日产一区二区 | 美女黄网站人色视频免费国产 | 免费久久精品国产片香蕉 | 黄色免费片 | 天天躁夜夜躁狠狠躁2024 | 亚洲激情四射 | 亚洲乱码中文字幕综合 | 男男h全肉耽污 | 欧美日韩一区在线观看 | www.最色| 日本不卡视频一区二区三区 | 99pao强力打造免费高清色 | 成人免费的性色视频 | 狠狠干狠狠干狠狠干 | 色视网站| 手机看片福利日韩 | 午夜久久免影院欧洲 | 久久久久久夜精品精品免费啦 | 成人的天堂视频一区二区三区 | 欧美一二三区在线 | 免费一级特黄视频 | 日本一区视频在线观看 | 五月天婷婷在线免费观看 | 月夜免费观看高清在线完整 | 日本人zzzwww | 天天躁夜夜躁狠狠躁 | 操久在线| 日韩av线观看 | 色综合一区二区三区 | 97影院理伦在线观看 | 亚洲免费一级视频 | 一卡二卡三卡四卡无卡在线 | 国产亚洲精品成人一区看片 | 免费观看美女被cao视频 | 男女www视频在线看网站 | 国产精品资源网 | 天天摸日日舔 | 亚洲黄色网址大全 | 国产精品成人免费观看 | 色婷婷777| 久久国产视频一区 |