最近優步汽車(Uber)導致一位自行車騎行者因車禍遇難的事件引發了多方關注。很多人認為,系統能力低下的責任應由優步公司承擔,但也有些人認為,事故本身并不值得大做文章。在筆者看來,此類事故確實可以通過技術方式加以避免。然而,為什么這個問題對于自動駕駛系統而言相對更難以解決?那么首先,讓我們回答這樣一個問題——“為何優步沒有在自己的汽車上,使用奔馳配備的夜視系統?”下面就隨汽車電子小編一起來了解一下相關內容吧。
首先需要強調,我并不清楚造成此次事故的具體原因,也不會將其認定為無法避免的狀況。此外,我也不打算在本文當中對任何人加以指責,或者對任何肇事原因作出證明。換言之,我只是在單純討論為什么這個問題對于人工智能類系統而言,要比常規駕駛情況下更難以解決。
在幾乎所有新型車輛上,我們都能找到常規的碰撞回避(“collision avoidance”,簡稱CA)系統。這套系統的作用非常單一,或者說只有一項目標——在車輛即將發生碰撞時剎車。這種“確定性”意味著其會在檢測到某種特定信號時,采取與之對應的動作(即制動)。對于同一種信號,其總是會產生同樣的反應。此外,還有一些碰撞回避系統會根據環境采取一些基于概率的判斷,但總體來講,碰撞回避系統通常非常簡單:當車輛以不合理的速度接近某個位置時,其會觸發剎車。您可以在程序代碼當中使用簡單的IF語句來實現這項功能。
那么,為什么人工智能型系統就做不到這一點?人工智能是系統展示其認知技能的一種能力,例如學習以及解決問題。換言之,人工智能并非依靠預編程方式來監測來自傳感器的已知輸入信號,從而采取預定義的行動。這意味著,不同于以往對已知情況進行預定義的處理方式,如今我們需要為算法提供大量數據以實現人工智能訓練,并借此引導其學會如何操作——這就是機器學習的基本原理。如果我們利用機器學習技術建立一套碰撞回避系統,其完全能夠達到近乎完美的效果——但這也意味著其仍然屬于單一目的系統。它可以剎車,但卻學不會導航。
導航功能由感知并解釋環境、作出決策并采取行動這幾個部分組成。環境感知則包括路徑規劃(駛向何處)、障礙物檢測以及軌跡估算(探測到的物體如何移動)。除此之外還有很多。現在可以看到,避免碰撞只是其需要完成的眾多任務當中的一項。系統同時面對著很多問題:我要去哪里在、我看到了什么、如何解釋這些景象、是否有物體在移動、其移動速度有多快、我的軌跡是否會與他人的路線發生交叉等等。
這種自主導航問題太過復雜,無法簡單在程序代碼中使用IF-ELSE語句(IF-ELSE statements)并配合傳感器信號讀取加以解決。為什么?因為要獲取完成這項任務所需要的一切數據,車輛當中必須包含數十個不同的傳感器。其目標,在于建立一套全面的視野,同時彌補單一傳感器所存在的不足。如果我們現在對這些傳感器所能產生的測量值組合數字進行估算,就會發現這套自動駕駛系統有多么復雜。很明顯,模擬其中每一種可能的輸入組合已經遠遠超過人類大腦的處理能力。
此外,這種自我學習系統很可能以概率作為指導基礎。如果其在路上注意到某些事物,其會考慮所有的潛在選項并為其附加對應概率。舉例來說,物體為狗的概率為5%,物體為卡車的概率為95.7%,那么其會將對方判斷為卡車。但是,如果傳感器給出的輸入內容存在矛盾,又該怎么辦?
這種情況其實相當常見。舉例來說,普通的攝像機能夠清晰拍攝到近距離物體,但只能以二維方式呈現。激光雷達屬于一種激光發射器,其能夠在三維空間中看到同一個物體,但觀察結果卻缺乏細節——特別是色彩信息(詳見下圖)。因此,我們可以利用多臺攝像機從多個角度拍攝以重建三維場景,并將其與雷達“圖像”進行比較。如此得出的綜合結果顯然更為可靠。然而,攝像機對光照條件非常敏感——即使是少量陰影也可能干擾場景中的某些部分并導致輸出質量低下。作為一套出色的識別系統,其應該能夠在這種情況下更多依賴于雷達系統的輸入。而在其它情況下,則更多依賴于攝像機系統。而兩類傳感器得出共識性結論的部分,則屬于可信度最高的判斷。
圖:我坐在辦公室的椅子上(位于圖像中心位置)揮舞著Velodyne VLP-16雷達。自動駕駛汽車所使用的激光雷達擁有更高的分辨率,但仍然無法與攝像機相媲美。請注意,此圖像來自單一雷達掃描,我們可以進行多次雷達掃描以進一步提升圖像分辨率。
那么,如果攝像機將目標識別為一輛卡車,但雷達認為這是一只狗,且兩種結論的可信度對等,結果又將如何?這實際上是一種最為困難,且可能無法解決的狀況。現代碰撞回避系統會使用記憶機制,其中包含車輛曾經看到過的地圖與寄存內容。其會追蹤圖像之間的記錄信息。如果兩秒鐘之間兩套傳感器(更準確地說,兩種解釋傳感器計數的算法)皆認為目標為卡車,而稍后其中一套認為其是狗,那么目標仍會被視為卡車——直到出現更強有力的證據。請記住這個例子,我們將在稍后探討優步事件時再次提到。
這里咱們回顧一下。之前我們已經講述了人工智能必須處理來自眾多不同傳感器的輸入內容,評估傳感器輸入內容的質量并構建場景認知結論。有時不同傳感器會給出不同的預測結果,而且并非所有傳感器在任意時間段內皆可提供信息。因此,該系統會建立一套影響判斷過程的記憶機制,這一點與人類一樣。此后,其需要將這些信息加以融合,從而對當前狀況作出一致的判斷進而驅動汽車行進。
聽起來不錯,那么我們能否信任這樣的AI系統?系統的質量取決于其整體架構的組合水平(使用哪些傳感器、如何處理傳感器信息、如何融合信息、使用哪些算法以及如何評估決策等等)以及實際使用及訓練所用數據的性質與數量。即使架構完美,如果我們提供的數據量太少,其也有可能犯下嚴重錯誤。這就像是委派缺少經驗的工作人員執行一項艱巨的任務。數據總量越大,意味著系統將擁有更多學習機會并作出更好的決策。與人類不同,人工智能可以匯集數百年來積累的經驗,并最終提供比任何個人都更為出色的駕駛能力。
那么,這樣的系統為何還會引發傷亡事故?在接下來的文章中,我們將提到很多可能的情況,而其中錯誤的評估結論就有可能導致事故。我們還會探討哪些情況下,人工智能系統更有可能作出錯誤判斷。
· 首先,如果系統未能看到充足的類似數據,則可能無法正確理解當前情況。
· 第二,如果當前環境難以感知,且傳感器輸入內容的可信度不高或者信號混雜,則可能引發錯誤判斷。
· 第三,如果對傳感器輸入內容的理解與基于系統記憶的理解相矛盾(例如在前一個時間步幅內將對象認定為卡車,但后一個步幅內傳感器將其判斷為狗),則可能引發錯誤判斷。
· 最后,我們無法排除存在其它故障因素的可能性。
沒錯,任何擁有合理設計的系統都能夠單獨處理其中的一類問題,然而:
· 解決矛盾需要時間;
· 多項因素的共同作用可能導致錯誤的決策及行為。
在進一步研究具體情況之前,我們首先簡單介紹一下現代傳感器能做到什么、又不能做到什么。
理解傳感器技術
很多人表示,如今的技術已經如此先進,因此優步汽車應該能夠明確識別出正在過路的行人,包括那些因為走錯了路而繞轉回來、或者突然從暗處沖入照明區域的行人。那么,傳感器能夠測量到哪些情況,又無法應對哪些場景?這里,我談的單純只是測量,而非理解測量內容的能力。
· 攝像機無法觀察到暗處的事物。攝像機是一種被動式傳感器,其只能記錄照明環境下的事物。我將這一條列在最前面,是因為目前已經有不少強大的攝像機能夠在黑暗環境中正常拍攝(例如HDR攝像機)。然而,這類設備所能適應的其實是弱光而非無光環境。而對于無光環境,雖然紅外及紅外輔助攝像機能夠切實解決問題,但自動駕駛汽車上采用雷達代替這類設備。因此大多數用于自動駕駛汽車的攝像機仍然無法“看”清暗處的事物。
· 雷達能夠輕松檢測到移動的對象。其利用無線電波自物體處反射回來時,運動目標造成的反射波在多普勒頻移效應下出現的波長差異。然而,常規雷達很難測量體積較小、移動緩慢或者靜止的物體——因為從靜止物體反射回來的波,與從地面反射回來的波之間只存在極小的差別。
· 激光雷達的工作原理與普通雷達相似,只是發射激光從而輕松在三維空間內繪制任何表面。為了增大三維成像范圍,大多數激光雷達會不斷旋轉,像復印機掃描紙張那樣持續掃描周邊環境。其不依賴于外部照明,在黑暗條件下也能夠準確發現目標。然而,雖然高端激光雷達擁有出色的分辨率水平,但其需要配合強大的計算機以重建三維圖像。因此如果有廠商聲稱其激光雷達能夠
[1] [2] [3]
-
人工智能
+關注
關注
1796文章
47836瀏覽量
240665 -
自動駕駛
+關注
關注
785文章
13953瀏覽量
167143
發布評論請先 登錄
相關推薦
一文聊聊自動駕駛測試技術的挑戰與創新
![一文聊聊<b class='flag-5'>自動駕駛</b>測試技術的挑戰與創新](https://file1.elecfans.com/web3/M00/00/CB/wKgZO2dNqh-AbdvkAAJ8XxHihyU454.png)
![](https://file1.elecfans.com/web2/M00/0A/DD/wKgaomcXUg2AKdNuAAEXvBseoXE121.jpg)
自動駕駛技術的典型應用 自動駕駛技術涉及到哪些技術
![](https://file1.elecfans.com/web2/M00/09/AC/wKgZomcQukWAJMctAAEcL1RSHjU877.jpg)
![](https://file1.elecfans.com/web2/M00/09/90/wKgZomcPKxmASQCFAAEgUWmACmg080.jpg)
![](https://file1.elecfans.com/web2/M00/0A/49/wKgaomcKSRKARKGCAADn4aW4wSM974.jpg)
評論