在商業(yè)軟件中,電腦芯片已被遺忘。對于商業(yè)應(yīng)用程序來說,這是一種商品。由于機器人技術(shù)與個人硬件設(shè)備聯(lián)系更為緊密,因而制造應(yīng)用程序仍然更側(cè)重于硬件部分。
自20世紀(jì)70年代以來,整體上看,人工智能(AI)的現(xiàn)狀,以及具體到深度學(xué)習(xí)(DL)領(lǐng)域,硬件與軟件的關(guān)系比任何時候都聯(lián)系地更加緊密。而我最近幾篇“管理人工智能(management AI)”的文章與過度擬合和偏見有關(guān),機器學(xué)習(xí)(ML)系統(tǒng)中存在的兩個主要風(fēng)險。本專欄將深入探討許多管理人員,尤其是業(yè)務(wù)線經(jīng)理可能會處理的硬件縮略詞問題,這些縮略詞在機器學(xué)習(xí)系統(tǒng)中被不斷提及:圖形處理單元(Graphics Processing Unit ,GPU)和現(xiàn)場可編程門陣列(Field Programmable Gate Array ,FPGA)。
這有助于理解GPU的價值,因為GPU加速了深度學(xué)習(xí)應(yīng)用程序所需的張量(tensor)處理。FPGA的興趣點則在于尋找研究新AI算法的途徑,訓(xùn)練這些系統(tǒng),并開始部署現(xiàn)在正在許多工業(yè)AI應(yīng)用中研究的低容量定制系統(tǒng)。盡管這是關(guān)于FPGA進(jìn)行訓(xùn)練的能力研究討論,但我認(rèn)為早期使用是源于F,現(xiàn)場(field)的使用。
例如,訓(xùn)練一個推理引擎(機器學(xué)習(xí)“機器”的核心)可能需要千兆字節(jié),甚至兆兆字節(jié)的數(shù)據(jù)。在數(shù)據(jù)中心運行推理時,計算機必須管理一個潛在的不斷增加中的并發(fā)用戶請求數(shù)。在邊緣應(yīng)用程序中,無論是在用于檢查管道的無人機中還是在智能手機中,設(shè)備都必須很小且仍然有效,而且還具有適應(yīng)性。簡單地說,一個CPU和一個GPU是兩個器件,而一個FPGA可以有不同的塊做不同的事情,并有可能提供一個穩(wěn)健的芯片系統(tǒng)。鑒于所有這些不同的需求,最好了解可支持不同需求的系統(tǒng)架構(gòu)的當(dāng)前狀態(tài)。
有兩類主要的芯片設(shè)計可以驅(qū)動當(dāng)前的ML系統(tǒng),GPU和FPGA。在未來的中期(至少幾年),也有可能成為游戲轉(zhuǎn)換者的新技術(shù)暗示。讓我們來看看。
圖形處理單元(GPU)
機器學(xué)習(xí)世界中最大的芯片是圖形處理單元GPU。這個主要用于電腦游戲,讓其在計算機顯示器上看起來更好的東西是如何變得對機器學(xué)習(xí)至關(guān)重要的?要理解這一點,我們必須回到軟件層。
機器學(xué)習(xí)目前的冠軍是Deep Learning(DL)系統(tǒng)。DL系統(tǒng)基于各種算法,包括深度神經(jīng)網(wǎng)絡(luò)(DNN),卷積神經(jīng)網(wǎng)絡(luò)(CNN),遞歸神經(jīng)網(wǎng)絡(luò)(RNN)以及許多其他變體。你在這三個術(shù)語中看到的關(guān)鍵詞是“網(wǎng)絡(luò)(network)”。算法是一個主題的變體,主題是幾層節(jié)點, 節(jié)點和層之間有不同類型的通信。
正在處理的是多個陣列或矩陣。矩陣(matrix)的另一個更為精確的術(shù)語是張量(tensor),因此它在整個機器學(xué)習(xí)行業(yè)中用于諸如TensorFlow之類。
現(xiàn)在回到你的電腦屏幕。您可以將它按行和列看作是像素或點的矩陣。這是一個二維矩陣或張量。當(dāng)你添加顏色,添加到每個像素的位大小,想要一個快速變化的一致圖像的時候,計算可以很快變得復(fù)雜并且在一步一步的CPU中占用周期。而GPU擁有自己的內(nèi)存,可以將整個圖形圖像保存為矩陣。然后可以使用張量數(shù)學(xué)計算圖像中的變化,然后只更改屏幕上受影響的像素。這個過程比每次更改圖像時重新繪制整個屏幕要快得多。
NVIDIA成立于1993年,旨在創(chuàng)建一個芯片來解決諸如CPU等通用計算機無法解決的矩陣問題。這是GPU的誕生。
矩陣運算并不關(guān)心最終產(chǎn)品是什么,而只是處理元素。這是一種輕微的過度簡化,因為不同的運算依稀疏矩陣(當(dāng)有很多零時)與密集矩陣的不同而有不同的工作方式,但內(nèi)容不會改變運算,這個事實依然存在。當(dāng)深度學(xué)習(xí)理論學(xué)者看到GPU的發(fā)展時,他們很快就采用其來加速張量運算。
GPU對機器學(xué)習(xí)的發(fā)展至關(guān)重要,推動了數(shù)據(jù)中心的訓(xùn)練和推理。例如,NVIDIA Volta V100 Tensor Core在其基本架構(gòu)和以更低精度運行推理的能力方面繼續(xù)加速推進(jìn)(這將是另一個話題,意味著更少的位,即意味著更快的處理)。但是,當(dāng)涉及物聯(lián)網(wǎng)時還有其他問題需要考慮。
現(xiàn)場可編程門陣列(FPGA)
在現(xiàn)場(field)中,所有類型的應(yīng)用程序都有不同的需求。有很多不同的應(yīng)用領(lǐng)域,車輛,管線,機器人等等。不同行業(yè)可以為每種類型的應(yīng)用設(shè)計不同的芯片,但這可能會非常昂貴并且會破壞公司的投資回報率。還可能推遲上市時間,錯過重要的商業(yè)機會。對于那些不能提供足夠規(guī)模經(jīng)濟市場的高度個性化需求而言,情況尤其如此。
FPGA是幫助公司和研究人員解決問題的芯片。FPGA是一種集成電路,可以編程為多種用途。它有一系列“可編程邏輯塊”和一種編程塊和塊之間關(guān)系的方法。它是一種通用工具,可以為多種用途進(jìn)行定制。主要供應(yīng)商包括賽靈思(Xinlinx)和美國國家儀器(National Instruments)。
值得注意的是,芯片設(shè)計成本較低的問題并不能使FPGA成為低價位的選擇。它們通常最適用于研究或工業(yè)應(yīng)用。電路和設(shè)計的復(fù)雜性使其可編程,不適用于低成本的消費類應(yīng)用。
由于FPGA可以重新編程,這使得其對于新興的機器學(xué)習(xí)領(lǐng)域來說很有價值。不斷增加算法,并通過重新編程塊來針對不同算法進(jìn)行微調(diào)。此外,低精度推斷的低功耗FPGA對于遠(yuǎn)程傳感器來說是一個很好的組合。雖然發(fā)明人將“現(xiàn)場(field)”更多地稱為“客戶(customer)”,但FPGA在實現(xiàn)AI應(yīng)用方面的真正優(yōu)勢在實際領(lǐng)域中。無論是對于工廠、道路和管道等基礎(chǔ)設(shè)施,還是無人機遠(yuǎn)程檢測,F(xiàn)PGA都允許系統(tǒng)設(shè)計人員靈活地使用一塊硬件,以實現(xiàn)多種用途,從而實現(xiàn)更簡單的物理設(shè)計,從而可以更加容易地進(jìn)行現(xiàn)場應(yīng)用。
新體系結(jié)構(gòu)即將到來
GPU和FPGA是目前正在幫助解決如何擴大機器學(xué)習(xí)對許多市場影響的挑戰(zhàn)的技術(shù)。他們所做的是讓更多人關(guān)注這個行業(yè)的發(fā)展,并試圖及時創(chuàng)建新的架構(gòu)來應(yīng)用。
一方面,許多公司試圖在GPU上學(xué)習(xí)張量運算的教訓(xùn)。惠普、IBM和英特爾都有開發(fā)專門用于深度學(xué)習(xí)的下一代張量運算設(shè)備的項目。與此同時,像Cambricon、Graphcore和Wave Computing這樣的初創(chuàng)公司也在努力做同樣的事情。
另一方面,Arm、Intel和其他公司正在設(shè)計架構(gòu),以充分利用GPU和CPU,并使器件也瞄準(zhǔn)機器學(xué)習(xí)市場,據(jù)稱能夠做的不僅僅是集中張量運算,對于圍繞核心AI流程的其他處理也更加強大。
雖然上述一些組織專注于數(shù)據(jù)中心和其他物聯(lián)網(wǎng),但現(xiàn)在談?wù)撈渲械娜魏我粋€都為時尚早。
從全球公司到初創(chuàng)公司,一個告誡是,除了最早的信息外,還沒有其他信息出現(xiàn)。如果我們最遲在2020年看到最早的器件樣品,那么這將是一個驚喜,所以它們至少在五年內(nèi)不會上市。
-
FPGA
+關(guān)注
關(guān)注
1644文章
21993瀏覽量
615464 -
機器人
+關(guān)注
關(guān)注
213文章
29568瀏覽量
211972 -
機器學(xué)習(xí)
+關(guān)注
關(guān)注
66文章
8497瀏覽量
134240
原文標(biāo)題:GPU、FPGA芯片成為增強機器學(xué)習(xí)能力的“左膀右臂”
文章出處:【微信號:AItists,微信公眾號:人工智能學(xué)家】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。
發(fā)布評論請先 登錄
FPGA真的能取代CPU和GPU嗎?
相比GPU和GPP,FPGA是深度學(xué)習(xí)的未來?
FPGA在深度學(xué)習(xí)應(yīng)用中或?qū)⑷〈?b class='flag-5'>GPU
從CPU、GPU再到TPU,Google的AI芯片是如何一步步進(jìn)化過來的?
FPGA 超越 GPU,問鼎下一代深度學(xué)習(xí)主引擎
為什么說FPGA并不會取代CPU和GPU成為機器人開發(fā)的新寵兒?
什么是機器學(xué)習(xí)? 機器學(xué)習(xí)基礎(chǔ)入門
什么是深度學(xué)習(xí)?使用FPGA進(jìn)行深度學(xué)習(xí)的好處?
FPGA、ASIC有望在機器學(xué)習(xí)領(lǐng)域中崛起
FPGA、ASIC將在機器學(xué)習(xí)領(lǐng)域崛起
深度學(xué)習(xí)方案ASIC、FPGA、GPU比較 哪種更有潛力

評論