大約從五年前開始,每個人都在談論物聯網(IoT)以及它將如何經由數億臺裝置互連來改變一切。我們似乎周而復始地經歷一項新技術被大肆宣傳的循環,如今輪到人工智能(AI)了。
在我大約33年來的電子產業與半導體職業生涯中,我看到了技術革命的三大變化。首先是微處理器時代,然后是互聯網,接著是行動時代。而今,就像新思科技(Synopsys)共同首席執行官Aart de Geus最近所說的:“現在是AI時代!”他并在日前的一場活動中提到,AI將推動半導體產業在未來幾十年的發展,因為大數據(big data)需要機器學習,而機器學習需要更多運算,這些都將產生更多的數據。
的確,AI如今正處于市調公司Gartner所謂“炒作期”(hype cycle)的上升階段,但它似乎又不同于之前引進新技術的情況:我從未見過一項技術引發這么多關于倫理道德的爭辯。AI將會改變許多事情,自動駕駛車、軍用和工業無人機、機器人,以及在醫療、政府和城市功能等領域的其他許多應用都可能受到影響。
2017年版Gartner新技術成熟度曲線
英國政府日前發布了一份長達183頁的《英國AI發展現況調查》(AI in the UK: ready, willing and able?)報告,涵蓋許多有關AI系統的責任、監管與倫理道德等議題,以及在AI研究與商業化應用方面的創新、投資與技巧等其他主題。
英國上議院特別委員會主席Lord Clement-Jones說:“英國有著領先的AI公司、充滿活力的學術研究文化、活躍的創業生態系統,以及大量的法律、道德、金融和語言優勢。我們應該充份利用這樣的環境優勢,但關鍵在于必須以道德準則作為發展AI的關注重點。”
Jones說:“AI并非沒有風險,委員會提出的道德原則將有助于減輕這些風險。道德方法確保大眾相信這項技術并且看到使用它的好處,同時也使其準備好質疑技術是否遭到濫用。我們要確保這個國家仍然是研究和開發這項新技術的前哨站。不過,新創公司可能很難自行擴大規模。”
在該委員會的報告中,許多建議均指出AI需要透明化。當AI被用來做出重大或敏感的決策時,應該建立一個自發性機制來告知消費者。該報告并指出,當AI系統故障或對用戶造成傷害時,現行法律是否足以明確相關責任,目前并不清楚,因此,該領域亟需盡快明確責任歸屬。
讓AI透明化
AI系統能夠透明且易于理解嗎?是否存在一定的技術透明度,讓人們能針對系統為什么作出某一項特定決定提出質疑?
業界對此以及AI系統的問責制都有詳細討論。在許多深度學習系統中,透過許多不同的處理層饋送信息并得出最終解答或決定,可能會讓系統看起來像“黑盒子”,即使是其開發人員也不一定都能夠確定哪些因素導致系統決定其中一項比另一項更重要。
輝達(Nvidia)歐洲、中東、非洲(EMEA)解決方案架構和工程團隊總監Timothy Lanfear提出了另一種看法。他說,機器學習算法通常比傳統的軟件編碼更短、更簡單,因此在某些方面也更容易理解與偵測。“我們每天都在使用那些復雜到無法吸收的系統。AI并沒什么不同。它也處于一種無法完全理解的復雜程度。然而,你唯一能做的是把它分解成片段,找到測試它的方法,然后檢查它是否按你期望的方式進行,如果不是的話,就采取行動。”
該委員會坦承,要達到技術上的完全透明化相當困難,對于某些AI系統來說甚至是不可能的,特別是在某些情況下甚至并不適用。然而,在一些安全關鍵的場景中,技術必須是透明的。在這些領域的監管機構必須有權強制使用更透明的AI技術。
英國AI委員會在其報告中還提到,“我們認為部署任何可能對個人生活造成潛在影響的AI系統都是不被接受的,除非它能對自己所做的決定提出充份且令人滿意的解釋。例如對于像深度神經網絡(DNN)等無法為其決定產生完全解釋的情況,可能意味著必須延遲某些特定用途的部署,直到找到替代解決方案。”
致力于開發全堆棧自動駕駛車功能的英國自駕車新創公司FiveAI首席執行官Stan Boland并不認同該報告中提出AI系統存在的黑盒子現象。他說:“我們的系統是完全模塊化的,這對于解釋和除錯系統以提升技術和服務來說非常關鍵。任何系統在實際上路之前都必須經過多次獨立驗證。”
他補充說,全世界采用自動駕駛的方各不相同,“例如,在英國倫敦(London)和美國山景城(Mountain View)就有不同的運作方式。每個城市由于生活方式和環境條件不同,自動駕駛系統的模式也各異其趣。對我們來說,重點在于打造出符合歐洲客戶需求的解決方案。”
各國加碼投資AI
英國政府的這份報告也為全球的AI研發提供另一個視角。根據高盛(Goldman Sachs)的數據顯示,在2012年第1季到2016年第2季之間,美國對于AI的投資達到了182億美元,中國大陸和英國分別是26億美元和8.5億美元。隨著中國大陸致力于成為AI的全球領導者,預計到2030年,在其發展AI生態系統方面的投資將上看1,500億美元。
有鑒于現有資源的差異性,英國在AI領域的投入規模可能比不上中、美。德國和加拿大則有更多的比較性。德國的AI策略受其打造旗艦級工業4.0策略影響頗深。其策略探索以AI提升智能制造的過程,并產出整合AI功能的智能商品,例如冰箱和汽車。而加拿大的AI策略則較不專注于為特定領域開發AI,但該國政府已經拿出1.25億美元成立了三座新的AI研究所,并吸引更多來自全球的AI研究人員。
處理器瓶頸?
過去十年來,盡管深度學習在AI的進展中扮演了重要角色,但它也存在一些問題。深度學習需要大量的數據集,這極難取得且費用昂貴,而且還需要大量的處理能力。該報告中提到,盡管深度學習近來隨著處理能力提高而明顯進步,但摩爾定律(Moore’s law)開始面臨挑戰,處理能力提高帶動降價的腳步開始放緩。諸如量子運算等創新也還無法使其復蘇或加速,不過現在還為時尚早,未來還有很多的不確定性。
深度學習先驅Geoff Hinton提出了深度學習革命可能很快結束的警告。其他人的看法則較樂觀,特別是由于各種客制AI芯片的出現,如Google的張量處理器(TPU),以及量子運算的進展,都為深度學習的未來提供了新的發展動能。
犯罪濫用與監管
該報告并深入探索犯罪濫用、監管和創新等領域。在“對抗式AI”(adversarial AI)領域,研究人員有效掌握AI系統如何運作,并試圖瞞過其他AI系統做出錯誤的分類或決定。特別是影像識別系統經證實極易于受到這一類型的攻擊。例如,研究人員可以巧妙地稍加改變圖片或甚至是3D模型或標志,使其看起來與原始影像毫無區別,但仍瞞過AI系統將它們識別為完全不同的對象。
其他例子還包括利用虛假影像讓車子發生碰撞、突然停止,或觸發自動武器發射等。當然,這些情況也可能發生在非機器學習的系統(人類決策者亦然),不過,使用非機器學習方法可以對所涉及的推論進行詢問、恢復和除錯,而許多機器學習系統則無法做到這些。
在監管方面,該報告指出中國大陸“雖然在技術應用方面的法規不夠完善,但卻從另一方面推動了更快的實驗和創新,包括對于數據的利用和AI技術等方面。”
公司和組織在違反規定時將面臨的責任程度也包括在內。Nvidia的Lanfear說,雖然公司員工知道其道德原則以及如何遵守規定,但他坦承并不容易回答這個問題,因為“作為技術專家,這并不是我的核心思想。”對此,很多人都和Lanfear有同樣的感受。因此,必須找到一些機制以確保目前的道德準則趨勢不只是簡單地轉化為無意義的黑盒子作業。
如今,我們所擁有的AI技術可用于推動下一波基于高端AI處理器與芯片的運算進展。但是,盡管半導體和運算產業不斷挑戰極限,業界最終將會決定該技術在現實世界的應用有多大——我們總是在看到自動駕駛車發生傷亡事件后,才能聽見社會的抗議聲浪。而關于AI道德標準的討論與爭議,將有助于我們思考技術該如何安全且有效地部署,以及最終可被社會接受和采納。
-
物聯網
+關注
關注
2914文章
45072瀏覽量
378604 -
微處理器
+關注
關注
11文章
2275瀏覽量
82914 -
ai技術
+關注
關注
1文章
1304瀏覽量
24584
原文標題:我們的AI技術有道德標準可言嗎?
文章出處:【微信號:gh_bee81f890fc1,微信公眾號:面包板社區】歡迎添加關注!文章轉載請注明出處。
發布評論請先 登錄
相關推薦
DM36x的OSD透明顯示問題,請問有沒有人實現過圖片的透明度疊加顯示呢??
【經驗干貨】如何設置AD導線或鋪銅層的透明度?
如何給兩個不同位置的但是有一定重疊度的圖像進行透明度調整?
AD20如何修改PCB頁面各元素透明度?
DNP發布最新投影用透明顯示屏,亮度和透明度大幅提高
WiFi可以控制窗戶透明度 透明度水平隨自己心意而定
PCB板設計:AD如何設置“透明度“

大眾汽車試點區塊鏈以實現供應鏈透明度
Mozilla:科技公司廣告透明度工具需進一步完善
加州立法推動AI透明度,生成式人工智能迎來數據披露新紀元
動態代理IP的匿名性和透明度,為主要考慮關鍵!

評論