在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

什么是CPU、GPU、TPU、DPU、NPU、BPU?有什么區別?

硬件攻城獅 ? 來源:CSDN ? 2023-06-05 18:29 ? 次閱讀

技術日新月異,物聯網人工智能深度學習等遍地開花,各類芯片名詞GPU, TPU, NPU,DPU層出不窮…它們都是什么鬼?又有什么不一樣?

01

CPU

CPU,作為機器的“大腦”,它是布局謀略、發號施令、控制行動的“總司令官”,擔負著整個計算機系統的核心任務。

CPU由多個結構組成,其中包括運算器(ALU, Arithmetic and Logic Unit)、控制單元(CU, Control Unit)、寄存器(Register)、高速緩存器(Cache),它們之間通過數據、控制及狀態總線進行通訊。這些結構和通訊方式是CPU完成各種任務的必要基礎,也是提高計算機運算效率的關鍵因素。

簡單來說:CPU架構由計算單元、控制單元和存儲單元三部分組成,如下圖所示:

23a44eec-0387-11ee-90ce-dac502259ad0.png

23c18fde-0387-11ee-90ce-dac502259ad0.png

從字面上我們也很好理解,計算單元主要執行算術運算、移位等操作以及地址運算和轉換;存儲單元主要用于保存運算中產生的數據以及指令等;控制單元則對指令譯碼,并且發出為完成每條指令所要執行的各個操作的控制信號

所以一條指令在CPU中執行的過程是這樣的:讀取到指令后,通過指令總線送到控制器(黃色區域)中進行譯碼,并發出相應的操作控制信號;然后運算器(綠色區域)按照操作指令對數據進行計算,并通過數據總線將得到的數據存入數據緩存器(大塊橙色區域)。過程如下圖所示:

23d97ff4-0387-11ee-90ce-dac502259ad0.jpg

圖:CPU執行指令圖?

?

CPU遵循的是馮諾依曼架構,其核心就是:存儲程序,順序執行。在這個結構圖中,負責計算的綠色區域占的面積似乎太小了,而橙色區域的緩存Cache和黃色區域的控制單元占據了大量空間。

因為CPU的架構中需要大量的空間去放置存儲單元(橙色部分)和控制單元(黃色部分),相比之下計算單元(綠色部分)只占據了很小的一部分,所以它在大規模并行計算能力上極受限制,而更擅長于邏輯控制。

另外,因為遵循馮諾依曼架構(存儲程序,順序執行),CPU就像是個一板一眼的管家,人們吩咐的事情它總是一步一步來做。但是隨著人們對更大規模與更快處理速度的需求的增加,這位管家漸漸變得有些力不從心。

于是,能不能把多個處理器放在同一塊芯片上,讓它們一起來做事,這樣效率不就提高了嗎?GPU便由此誕生了。

02

GPU

GPU全稱為Graphics Processing Unit,中文為圖形處理器,就如它的名字一樣,GPU最初是用在個人電腦、工作站、游戲機和一些移動設備(如平板電腦、智能手機等)上運行繪圖運算工作的微處理器

為什么GPU特別擅長處理圖像數據呢?這是因為圖像上的每一個像素點都有被處理的需要,而且每個像素點處理的過程和方式都十分相似,也就成了GPU的天然溫床。

GPU簡單架構如下圖所示:

2404ed4c-0387-11ee-90ce-dac502259ad0.png

圖:GPU微架構示意圖

從架構圖我們就能很明顯的看出,GPU的構成相對簡單,有數量眾多的計算單元和超長的流水線,特別適合處理大量的類型統一的數據。

但GPU無法單獨工作,必須由CPU進行控制調用才能工作。CPU可單獨作用,處理復雜的邏輯運算和不同的數據類型,但當需要大量的處理類型統一的數據時,則可調用GPU進行并行計算。

注:GPU中有很多的運算器ALU和很少的緩存cache,緩存的目的不是保存后面需要訪問的數據的,這點和CPU不同,而是為線程thread提高服務的。如果有很多線程需要訪問同一個相同的數據,緩存會合并這些訪問,然后再去訪問dram

再把CPU和GPU兩者放在一張圖上看下對比,就非常一目了然了。

24227448-0387-11ee-90ce-dac502259ad0.jpg

GPU的工作大部分都計算量大,但沒什么技術含量,而且要重復很多很多次。

借用知乎上某大神的說法,就像你有個工作需要計算幾億次一百以內加減乘除一樣,最好的辦法就是雇上幾十個小學生一起算,一人算一部分,反正這些計算也沒什么技術含量,純粹體力活而已;而CPU就像老教授,積分微分都會算,就是工資高,一個老教授資頂二十個小學生,你要是富士康你雇哪個?

GPU就是用很多簡單的計算單元去完成大量的計算任務,純粹的人海戰術。這種策略基于一個前提,就是小學生A和小學生B的工作沒有什么依賴性,是互相獨立的。

有一點需要強調,雖然GPU是為了圖像處理而生的,但是我們通過前面的介紹可以發現,它在結構上并沒有專門為圖像服務的部件,只是對CPU的結構進行了優化與調整,所以現在GPU不僅可以在圖像處理領域大顯身手,它還被用來科學計算、密碼**、數值分析,海量數據處理(排序,Map-Reduce等),金融分析等需要大規模并行計算的領域。

所以GPU也可以認為是一種較通用的芯片。

03

TPU

按照上文所述,CPU和GPU都是較為通用的芯片,但是有句老話說得好:萬能工具的效率永遠比不上專用工具。

隨著人們的計算需求越來越專業化,人們希望有芯片可以更加符合自己的專業需求,這時,便產生了ASIC(專用集成電路)的概念。

ASIC是指依產品需求不同而定制化的特殊規格集成電路,由特定使用者要求和特定電子系統的需要而設計、制造。當然這概念不用記,簡單來說就是定制化芯片。

因為ASIC很“專一”,只做一件事,所以它就會比CPU、GPU等能做很多件事的芯片在某件事上做的更好,實現更高的處理速度和更低的能耗。但相應的,ASIC的生產成本也非常高。

而TPU(Tensor Processing Unit, 張量處理器)就是谷歌專門為加速深層神經網絡運算能力而研發的一款芯片,其實也是一款ASIC。

原來很多的機器學習以及圖像處理算法大部分都跑在GPU與FPGA(半定制化芯片)上面,但這兩種芯片都還是一種通用性芯片,所以在效能與功耗上還是不能更緊密的適配機器學習算法,而且Google一直堅信偉大的軟件將在偉大的硬件的幫助下更加大放異彩,所以Google便想,我們可不可以做出一款專用機機器學習算法的專用芯片,TPU便誕生了。

據稱,TPU與同期的CPU和GPU相比,可以提供15-30倍的性能提升,以及30-80倍的效率(性能/瓦特)提升。初代的TPU只能做推理,要依靠Google云來實時收集數據并產生結果,而訓練過程還需要額外的資源;而第二代TPU既可以用于訓練神經網絡,又可以用于推理。

看到這里你可能會問了,為什么TPU會在性能上這么牛逼呢?

嗯,谷歌寫了好幾篇論文和博文來說明這一原因,所以僅在這里拋磚引玉一下。

2443a50a-0387-11ee-90ce-dac502259ad0.png

24755ca8-0387-11ee-90ce-dac502259ad0.png

如上圖所示,TPU在芯片上使用了高達24MB的局部內存,6MB的累加器內存以及用于與主控處理器進行對接的內存,總共占芯片面積的37%(圖中藍色部分)。

這表示谷歌充分意識到了片外內存訪問是GPU能效比低的罪魁禍首,因此不惜成本的在芯片上放了巨大的內存。相比之下,英偉達同時期的K80只有8MB的片上內存,因此需要不斷地去訪問片外DRAM。

另外,TPU的高性能還來源于對于低運算精度的容忍。研究結果表明,低精度運算帶來的算法準確率損失很小,但是在硬件實現上卻可以帶來巨大的便利,包括功耗更低、速度更快、占芯片面積更小的運算單元、更小的內存帶寬需求等...TPU采用了8比特的低精度運算。

到目前為止,TPU其實已經干了很多事情了,例如機器學習人工智能系統RankBrain,它是用來幫助Google處理搜索結果并為用戶提供更加相關搜索結果的;還有街景Street View,用來提高地圖與導航的準確性的;當然還有下圍棋的計算機程序AlphaGo!

04

NPU

講到這里,相信大家對這些所謂的“XPU”的套路已經有了一定了解,我們接著來。

所謂NPU(Neural network Processing Unit), 即神經網絡處理器。顧名思義,這家伙是想用電路模擬人類的神經元和突觸結構啊!

怎么模仿?那就得先來看看人類的神經結構——生物的神經網絡由若干人工神經元結點互聯而成,神經元之間通過突觸兩兩連接,突觸記錄了神經元之間的聯系。

如果想用電路模仿人類的神經元,就得把每個神經元抽象為一個激勵函數,該函數的輸入由與其相連的神經元的輸出以及連接神經元的突觸共同決定。

為了表達特定的知識,使用者通常需要(通過某些特定的算法)調整人工神經網絡中突觸的取值、網絡的拓撲結構等。該過程稱為“學習”。

在學習之后,人工神經網絡可通過習得的知識來解決特定的問題。

這時不知道大家有沒有發現問題——原來,由于深度學習的基本操作是神經元和突觸的處理,而傳統的處理器指令集(包括x86和ARM等)是為了進行通用計算發展起來的,其基本操作為算術操作(加減乘除)和邏輯操作(與或非),往往需要數百甚至上千條指令才能完成一個神經元的處理,深度學習的處理效率不高。

這時就必須另辟蹊徑——突破經典的馮·諾伊曼結構!

神經網絡中存儲和處理是一體化的,都是通過突觸權重來體現。而馮·諾伊曼結構中,存儲和處理是分離的,分別由存儲器和運算器來實現,二者之間存在巨大的差異。當用現有的基于馮·諾伊曼結構的經典計算機(如X86處理器和英偉達GPU)來跑神經網絡應用時,就不可避免地受到存儲和處理分離式結構的制約,因而影響效率。這也就是專門針對人工智能的專業芯片能夠對傳統芯片有一定先天優勢的原因之一。

05

ASIC

ASIC(Application Specific Integrated Circuit)是一種為專門目的而設計的集成電路。無法重新編程,效能高功耗低,但價格昂貴。近年來涌現出的類似TPU、NPU、VPU、BPU等令人眼花繚亂的各種芯片,本質上都屬于ASIC。ASIC不同于 GPU 和 FPGA 的靈活性,定制化的 ASIC 一旦制造完成將不能更改,所以初期成本高、開發周期長的使得進入門檻高。目前,大多是具備 AI 算法又擅長芯片研發的巨頭參與,如 Google 的 TPU。由于完美適用于神經網絡相關算法,ASIC 在性能和功耗上都要優于 GPU 和 FPGA,TPU1 是傳統 GPU 性能的 14-16 倍,NPU 是 GPU 的 118 倍。寒武紀已發布對外應用指令集,預計 ASIC 將是未來 AI 芯片的核心。

06

BPU

(Brain Processing Unit,大腦處理器)

是由地平線科技提出的嵌入式人工智能處理器架構。第一代是高斯架構,第二代是伯努利架構,第三代是貝葉斯架構。目前地平線已經設計出了第一代高斯架構,并與英特爾在2017年CES展會上聯合推出了ADAS系統(高級駕駛輔助系統)。

07

DPU

(Deep learning Processing Unit, 即深度學習處理器)

最早由國內深鑒科技提出,基于Xilinx可重構特性的FPGA芯片,設計專用的深度學習處理單元(可基于已有的邏輯單元,設計并行高效的乘法器及邏輯電路,屬于IP范疇),且抽象出定制化的指令集和編譯器(而非使用OpenCL),從而實現快速的開發與產品迭代。事實上,深鑒提出的DPU屬于半定制化的FPGA。

嵌入式神經網絡處理器(NPU)采用“數據驅動并行計算”的架構,特別擅長處理視頻、圖像類的海量多媒體數據。

NPU處理器專門為物聯網人工智能而設計,用于加速神經網絡的運算,解決傳統芯片在神經網絡運算時效率低下的問題。

在GX8010中,CPU和MCU各有一個NPU,MCU中的NPU相對較小,習慣上稱為SNPU。

NPU處理器包括了乘加、激活函數、二維數據運算、解壓縮等模塊。

乘加模塊用于計算矩陣乘加、卷積、點乘等功能,NPU內部有64個MAC,SNPU有32個。

激活函數模塊采用最高12階參數擬合的方式實現神經網絡中的激活函數,NPU內部有6個MAC,SNPU有3個。

二維數據運算模塊用于實現對一個平面的運算,如降采樣、平面數據拷貝等,NPU內部有1個MAC,SNPU有1個。

解壓縮模塊用于對權重數據的解壓。為了解決物聯網設備中內存帶寬小的特點,在NPU編譯器中會對神經網絡中的權重進行壓縮,在幾乎不影響精度的情況下,可以實現6-10倍的壓縮效果。

不,據說每過18天,集成電路領域就會多出一個XPU,直到26個字母被用完。

這被戲稱為AI時代的XPU版摩爾定律。

據不完全統計,已經被用掉的有:

▍APU

Accelerated Processing Unit。目前還沒有 AI 公司將自己的處理器命名為 APU,因為 AMD 早就用過 APU 這個名字了。APU 是 AMD 的一個處理器品牌。AMD 在一顆芯片上集成傳統 CPU 和圖形處理器 GPU,這樣主板上將不再需要北橋,任務可以靈活地在 CPU 和 GPU 間分配。AMD 將這種異構結構稱為加速處理單元,即 APU。

Audio Processing Unit。聲音處理器,顧名思義,處理聲音數據的專用處理器。不多說,生產 APU 的芯片商有好多家。聲卡里都有。

▍BPU

Brain Processing Unit。地平線機器人(Horizon Robotics)以 BPU 來命名自家的 AI 芯片。相比于國內外其他 AI 芯片 start-up 公司,地平線的第一代 BPU 走的相對保守的 TSMC 的 40nm 工藝。BPU 已經被地平線申請了注冊商標,其他公司就別打 BPU 的主意了。

▍CPU

上文也進行了詳細的介紹。也不會有 AI 公司將自己的處理器命名為 CPU 的。不過,CPU 與 AI 處理器并不沖突。

▍DPU

Deep-Learning Processing Unit。深度學習處理器。創立于 2010 年的 wave computing 公司將其開發的深度學習加速處理器稱為 Dataflow Processing Unit(DPU),應用于數據中心

▍EPU

Emotion Processing Unit伴隨機情緒機器人而生,可以讓機器人具有情緒。從官方渠道消息看,EPU 本身并不復雜,也不需要做任務量巨大的神經網絡計算,是基于 MCU 的芯片。

▍FPU

Floating Point Unit。浮點單元,不多做解釋了。現在高性能的 CPU、DSP、GPU 內都集成了 FPU 做浮點運算。

▍GPU

Graphics Processing Unit。圖形處理器。GPU 原來最大的需求來自 PC 市場上各類游戲對圖形處理的需求。但是隨著移動設備的升級,在移動端也逐漸發展起來。

▍HPU

Holographic Processing Unit。全息處理器。Microsoft 專為自家 Hololens 應用開發的。

▍IPU

Intelligence Processing Unit。智能處理器。以 IPU 命名芯片的有兩家公司——Graphcore和Mythic。

Image Cognition Processor。圖像認知處理器 ICP,加拿大公司 CogniVue 開發的用于視覺處理和圖像認知的 IP。

Image Processing Unit。圖像處理器。一些 SOC 芯片中將處理靜態圖像的模塊稱為 IPU。但是,IPU 不是一個常用的縮寫,更常見的處理圖像信號的處理器的縮寫為下面的 ISP。

Image Signal Processor。圖像信號處理器。這個話題也不是一個小話題。ISP 的功能,簡單的來說就是處理 camera 等攝像設備的輸出信號,實現降噪、Demosaicing、HDR、色彩管理等功能。

▍KPU

Knowledge Processing Unit。嘉楠耘智(canaan)號稱 2017 年將發布自己的 AI 芯片 KPU。嘉楠耘智要在 KPU 單一芯片中集成人工神經網絡和高性能處理器,主要提供異構、實時、離線的人工智能應用服務。這又是一家向 AI 領域擴張的不差錢的礦機公司。作為一家做礦機芯片(自稱是區塊鏈專用芯片)和礦機的公司,嘉楠耘智累計獲得近 3 億元融資,估值近 33 億人民幣。據說嘉楠耘智近期將啟動股改并推進 IPO。

另:Knowledge Processing Unit 這個詞并不是嘉楠耘智第一個提出來的,早在 10 年前就已經有論文和書籍講到這個詞匯了。只是,現在嘉楠耘智將 KPU 申請了注冊商標。

▍MPU

Micro Processing Unit。微處理器。MPU,CPU,MCU,這三個概念差不多,知道就行了。

Mind Processing Unit。意念處理器,聽起來不錯。「解讀腦電波」,「意念交流」,永恒的科幻話題。如果采集大量人類「思考」的腦電波數據,通過深度學習,再加上強大的意念處理器 MPU,不知道能否成為 mind-reader。如果道德倫理上無法接受,先了解一下家里寵物貓寵物狗的「想法」也是可以的嗎。再進一步,從 mind-reader 發展為 mind-writer,持續升級之后,是不是就可以成為冰與火中的 Skinchanger?

▍NPU

Neural-Network Processing Unit。與 GPU 類似,神經網絡處理器 NPU 已經成為了一個通用名詞,而非某家公司的專用縮寫。由于神經網絡計算的類型和計算量與傳統計算的區別,導致在進行 NN 計算的時候,傳統 CPU、DSP 甚至 GPU 都有算力、性能、能效等方面的不足,所以激發了專為 NN 計算而設計 NPU 的需求。這里羅列幾個以 NPU 名義發布過產品的公司,以及幾個學術圈的神經網絡加速器。

▍OPU

Optical-Flow Processing Unit。光流處理器。有需要用專門的芯片來實現光流算法嗎?不知道,但是,用 ASIC IP 來做加速應該是要的。

▍PPU

Physical Processing Unit。物理處理器。要先解釋一下物理運算,就知道物理處理器是做什么的了。物理計算,就是模擬一個物體在真實世界中應該符合的物理定律。具體的說,可以使虛擬世界中的物體運動符合真實世界的物理定律,可以使游戲中的物體行為更加真實,例如布料模擬、毛發模擬、碰撞偵測、流體力學模擬等。開發物理計算引擎的公司有那么幾家,使用 CPU 來完成物理計算,支持多種平臺。但是,Ageia 應該是唯一一個使用專用芯片來加速物理計算的公司。Ageia 于 2006 年發布了 PPU 芯片 PhysX,還發布了基于 PPU 的物理加速卡,同時提供 SDK 給游戲開發者。2008 年被 NVIDIA 收購后,PhysX 加速卡產品被逐漸取消,現在物理計算的加速功能由 NVIDIA 的 GPU 實現,PhysX SDK 被 NVIDIA 重新打造。

▍QPU

Quantum Processing Unit。量子處理器。量子計算機也是近幾年比較火的研究方向。作者承認在這方面所知甚少。可以關注這家成立于 1999 年的公司 D-Wave System。DWave 大概每兩年可以將其 QPU 上的量子位個數翻倍一次。

▍RPU

Resistive Processing Unit。阻抗處理單元 RPU。這是 IBM Watson Research Center 的研究人員提出的概念,真的是個處理單元,而不是處理器。RPU 可以同時實現存儲和計算。利用 RPU 陣列,IBM 研究人員可以實現 80TOPS/s/W 的性能。

Ray-tracing Processing Unit。光線追蹤處理器。Ray tracing 是計算機圖形學中的一種渲染算法,RPU 是為加速其中的數據計算而開發的加速器。現在這些計算都是 GPU 的事情了。

▍SPU

Streaming Processing Unit。流處理器。流處理器的概念比較早了,是用于處理視頻數據流的單元,一開始出現在顯卡芯片的結構里。可以說,GPU 就是一種流處理器。甚至,還曾經存在過一家名字為「Streaming Processor Inc」的公司,2004 年創立,2009 年,隨著創始人兼董事長被挖去 NVIDIA 當首席科學家,SPI 關閉。

Speech-Recognition Processing Unit。語音識別處理器,SPU 或 SRPU。這個縮寫還沒有公司拿來使用。現在的語音識別和語義理解主要是在云端實現的,比如科大訊飛。科大訊飛最近推出了一個翻譯機,可以將語音傳回云端,做實時翻譯,內部硬件沒有去專門了解。和語音識別相關的芯片如下。

Space Processing Unit。空間處理器。全景攝像,全息成像,這些還都是處理我們的生活空間。當面對廣闊的太陽系、銀河系這些宇宙空間,是不是需要新的更強大的專用處理器呢?飛向 M31 仙女座星系,對抗黑暗武士,只靠 x86 估計是不行的。

▍TPU

Tensor Processing Unit。Google 的張量處理器。2016 年 AlphaGo 打敗李世石,2017 年 AlphaGo 打敗柯潔,兩次人工智能催化事件給芯片行業帶來的沖擊無疑就是 TPU 的出現和解密。Google 在 2017 年 5 月的開發者 I/O 大會上正式公布了 TPU2,又稱 Cloud TPU。

▍UPU

Universe Processing Unit。宇宙處理器。和 Space Processing Unit 相比,你更喜歡哪個?

▍VPU

Vision Processing Unit。視覺處理器 VPU 也有希望成為通用名詞。作為現今最火熱的 AI 應用領域,計算機視覺的發展的確能給用戶帶來前所未有的體驗。為了處理計算機視覺應用中遇到的超大計算量,多家公司正在為此設計專門的 VPU。

Visual Processing Unit。

Video Processing Unit。視頻處理器。處理動態視頻而不是圖像,例如進行實時編解碼。

Vector Processing Unit。向量處理器。標量處理器、向量處理器、張量處理器,這是以處理器處理的數據類型進行的劃分。

▍WPU

Wearable Processing Unit。一家印度公司 Ineda Systems 在 2014 年大肆宣傳了一下他們針對 IOT 市場推出的 WPU 概念,獲得了高通三星的注資。Ineda Systems 研發的這款「Dhanush WPU」分為四個級別,可適應普通級別到高端級別的可穿戴設備的運算需求,可以讓可穿戴設備的電池達到 30 天的持續續航、減少 10x 倍的能耗。但是,一切似乎在 2015 年戛然而止,沒有了任何消息。只在主頁的最下端有文字顯示,Ineda 將 WPU 申請了注冊商標。

Wisdom Processing Unit。智慧處理器。

▍ZPU

Zylin CPU。挪威公司 Zylin 的 CPU 的名字。為了在資源有限的 FPGA 上能擁有一個靈活的微處理器,Zylin 開發了 ZPU。ZPU 是一種 stack machine(堆棧結構機器),指令沒有操作數,代碼量很小,并有 GCC 工具鏈支持,被稱為「The worlds smallest 32 bit CPU with GCC toolchain」。Zylin 在 2008 年將 ZPU 在 opencores 上開源。有組織還將 Arduino 的開發環境進行了修改給 ZPU 用。

▍其他非 xPU 的 AI 芯片

寒武紀科技(Cambricon)中科院背景的寒武紀并沒有用 xPU 的方式命名自家的處理器。媒體的文章既有稱之為深度學習處理器 DPU 的,也有稱之為神經網絡處理器 NPU 的。陳氏兄弟的 DianNao 系列芯片架構連續幾年在各大頂級會議上刷了好幾篇 best paper,為其公司的成立奠定了技術基礎。寒武紀 Cambricon-X 指令集是其一大特色。目前其芯片 IP 已擴大范圍授權集成到手機、安防、可穿戴設備等終端芯片中。據流傳,2016 年就已拿到一億元訂單。在一些特殊領域,寒武紀的芯片將在國內具有絕對的占有率。最新報道顯示,寒武紀又融了 1 億美元。

Intel Intel 在智能手機芯片市場的失利,讓其痛定思痛,一改當年的猶豫,在 AI 領域的幾個應用方向上接連發了狠招。什么狠招呢,就是三個字:買,買,買。在數據中心/云計算方面,167 億美金收購的 Altera,4 億美金收購 Nervana;在移動端的無人機、安防監控等方面,收購 Movidius(未公布收購金額);在 ADAS 方面,153 億美金收購 Mobileye。Movidius 在前面 VPU 部分進行了介紹,這里補充一下 Nervana 和 Mobileye(基于視覺技術做 ADAS 方案,不是單純的視覺處理器,所以沒寫在 VPU 部分)。

Nervana Nervana 成立于 2014 年,總部在 SanDiego,以提供 AI 全棧軟件平臺 Nervana Cloud 為主要業務。和硬件扯上關系的是,Nervana Cloud 除了支持 CPU、GPU 甚至 Xeon Phi 等后臺硬件外,還提供有自家定制的 Nervana Engine 硬件架構。根據 The Next Platform 的報道「Deep Learning Chip Upstart Takes GPUs to Task」,Nervana Engine 使用 TSMC 28nm 工藝,算力 55 TOPS。報道發布不到 24 小時,就被 Intel 收購了,全部 48 位員工并入 Intel。Intel 以 Nervana Engine 為核心打造了 Crest Family 系列芯片。項目代碼為「Lake Crest」的芯片是第一代 Nervana Engine,「Knights Crest」為第二代。哦,對了,Nervana 的 CEO 在創立 Nervana 之前,在高通負責一個神經形態計算的研究項目,就是上面提到的 Zeroth。

Mobileye 一家基于計算機視覺做 ADAS 的以色列公司,成立于 1999 年,總部在耶路撒冷。Mobileye 為自家的 ADAS 系統開發了專用的芯片——EyeQ 系列。2015 年,Tesla 宣布正在使用 Mobileye 的芯片(EyeQ3)和方案。但是,2016 年 7 月,Tesla 和 Mobileye 宣布將終止合作。隨后,Mobile 于 2017 年被 Intel 以$153 億收入囊中,現在是 Intel 的子公司。Mobileye 的 EyeQ4 使用了 28nm SOI 工藝,其中用了 4 個 MIPS 的大 CPU core 做主控和算法調度以及一個 MIPS 的小 CPU core 做外設控制,集成了 10 個向量處理器(稱為 VMP,Vector Microcode Processor)來做數據運算(有點眼熟,回去看看 Movidius 部分)。Mobileye 的下一代 EyeQ5 將使用 7nm FinFET 工藝,集成 18 個視覺處理器,并且為了達到自動駕駛的 level 5 增加了硬件安全模塊。

比特大陸 Bitmain 比特大陸設計的全定制礦機芯片性能優越,讓其大賺特賺。在賣礦機芯片之余,比特大陸自己也挖挖礦。總之,芯片設計能力非凡、土豪有錢的比特大陸對標 NVIDIA 的高端 GPU 芯片,任性地用 16nm 的工藝開啟了自家的 AI 芯片之路。芯片測試已有月余,據傳功耗 60W 左右,同步在招攬產品、市場人員。最近的推文爆出了這款 AI 芯片的名字:「智子(Sophon)」,來自著名的《三體》,可見野心不小,相信不就即將正式發布。

華為&海思市場期待華為的麒麟 970 已經很長時間了,內置 AI 加速器已成公開的秘密,據傳用了寒武紀的 IP,就等秋季發布會了。還是據傳,海思的 HI3559 中用了自己研發的深度學習加速器。

蘋果蘋果正在研發一款 AI 芯片,內部稱為「蘋果神經引擎」(Apple Neural Engine)。這個消息大家并不驚訝,大家想知道的就是,這個 ANE 會在哪款 iphone 中用上。

高通高通除了維護其基于 Zeroth 的軟件平臺,在硬件上也動作不斷。收購 NXP 的同時,據傳高通也一直在和 Yann LeCun 以及 Facebook 的 AI 團隊保持合作,共同開發用于實時推理的新型芯片。

還有一些諸如 Leapmind、REM 這樣的 start-up,就不一一列舉。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • cpu
    cpu
    +關注

    關注

    68

    文章

    10908

    瀏覽量

    213073
  • 人工智能
    +關注

    關注

    1796

    文章

    47734

    瀏覽量

    240389
  • 深度學習
    +關注

    關注

    73

    文章

    5516

    瀏覽量

    121579

原文標題:什么是CPU、GPU、TPU、DPU、NPU、BPU?有什么區別?

文章出處:【微信號:mcu168,微信公眾號:硬件攻城獅】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    一文理清CPUGPUTPU的關系

    很多讀者可能分不清楚 CPUGPUTPU 之間的區別,因此 Google Cloud 將在這篇博客中簡要介紹它們之間的區別,并討論為
    的頭像 發表于 09-04 11:12 ?4534次閱讀

    CPUGPU之間什么區別

    CPUGPU之間什么區別
    發表于 11-05 07:58

    CPU,GPU,TPU,NPU都是什么

    嵌入式算法移植優化學習筆記5——CPU,GPU,TPU,NPU都是什么一、什么是CPU?二、什么是GPU
    發表于 12-15 06:07

    MCU、DSP、GPU、MPU、CPUDPU、FPGA、ASIC、SOC、ECU、NPUTPU、VPU、APU、BPU、ECU、FPU、EPU、這些主控異同點哪些?

    MCU、DSP、GPU、MPU、CPUDPU、FPGA、ASIC、SOC、ECU、NPUTPU、VPU、APU、
    發表于 12-17 17:07

    一文了解CPUGPUTPU區別

    很多讀者可能分不清楚 CPUGPUTPU 之間的區別,因此 Google Cloud 將在這篇博客中簡要介紹它們之間的區別,并討論為
    的頭像 發表于 09-06 16:53 ?2.9w次閱讀

    CPUGPUTPU是如何工作的到底什么區別

    很多讀者可能分不清楚 CPUGPUTPU 之間的區別,因此 Google Cloud 將在這篇博客中簡要介紹它們之間的區別,并討論為
    的頭像 發表于 01-20 11:57 ?5745次閱讀

    一文知道CPUGPU區別

    對于GPU,大家想必也十分熟悉。但是,大家真的了解GPU嗎?譬如,GPU和顯卡是同一個東西嗎?CPUGPU
    的頭像 發表于 11-23 10:14 ?5865次閱讀

    GPUCPU什么區別GPU的詳細介紹

    對于GPU,大家想必也十分熟悉。但是,大家真的了解GPU嗎?譬如,GPU和顯卡是同一個東西嗎?CPUGPU
    的頭像 發表于 11-28 11:23 ?2.4w次閱讀

    CPUGPUTPUNPU等的講解

    CPUGPUTPUNPU等的講解
    的頭像 發表于 01-05 14:54 ?1.1w次閱讀

    MPU、MCU、CPUGPU、DSP、MMU、TPUNPU大雜燴

    MPU、MCU、CPUGPU、DSP、MMU、TPUNPU大雜燴寫在前面:相信大家都和我一樣,對這些U的英文縮寫,傻傻分不清楚,這是最近收集的一些,整理一下,做個記錄。MPU與MC
    發表于 12-08 14:21 ?19次下載
    MPU、MCU、<b class='flag-5'>CPU</b>、<b class='flag-5'>GPU</b>、DSP、MMU、<b class='flag-5'>TPU</b>、<b class='flag-5'>NPU</b>大雜燴

    什么是CPUGPUTPUDPUNPUBPU什么區別

    技術日新月異,物聯網、人工智能、深度學習等遍地開花,各類芯片名詞GPU, TPU, NPUDPU層出不窮…它們都是什么鬼?又有什么不一樣? 01
    的頭像 發表于 06-30 08:48 ?1.7w次閱讀
    什么是<b class='flag-5'>CPU</b>、<b class='flag-5'>GPU</b>、<b class='flag-5'>TPU</b>、<b class='flag-5'>DPU</b>、<b class='flag-5'>NPU</b>、<b class='flag-5'>BPU</b>?<b class='flag-5'>有</b><b class='flag-5'>什么區別</b>?

    gpucpu什么區別

    gpucpu什么區別GPUCPU是電腦中兩個重要的計算器件。如果想要了解這兩個設備的
    的頭像 發表于 08-09 16:15 ?1.3w次閱讀

    cpu gpu npu區別 NPUGPU哪個好?gpu是什么意思?

    cpu gpu npu區別 NPUGPU哪個好?gpu
    的頭像 發表于 08-27 17:03 ?1.1w次閱讀

    TPUNPU區別

    TPUNPU區別? 在IT領域中,TPUNPU屬于兩種不同類型的芯片。這兩種芯片都是專為人工智能(AI)和大型數據分析設計而開發的,但
    的頭像 發表于 08-27 17:08 ?8809次閱讀

    CPUGPUTPU之間什么區別

    CPUGPUTPU之間什么區別CPU(Central Processing Unit,
    的頭像 發表于 12-15 10:10 ?6949次閱讀
    主站蜘蛛池模板: 波多野结衣在线网址 | 成成人看片在线 | 手机视频在线播放 | 日本午夜色| 国产 高清 在线 | 俺也去第四色 | 不卡无毒免费毛片视频观看 | 国产高清色视频免费看的网址 | 久久在精品线影院精品国产 | 性色免费视频 | tube69xxxxhd日本 | 日本福利网址 | 天堂成人网 | 正在播放国产女免费 | 波多野结衣的毛片 | 69ww免费视频播放器 | 美女免费视频是黄的 | 色视频在线播放 | 天堂网最新版中文 | 九九久久国产精品大片 | 亚洲精品精品一区 | 亚洲婷婷综合色高清在线 | 国产a三级三级三级 | 日韩亚洲人成在线综合 | tube69欧美最新片 | 男人的午夜天堂 | 人人干网 | 在线观看视频你懂得 | 免费视频观看 | 日本一本高清 | 久久免费国产 | 日韩三级中文字幕 | 经典三级一区在线播放 | 国产精品资源 | 六月婷婷导航福利在线 | 四虎精品成人a在线观看 | 天堂视频在线视频观看2018 | 午夜在线观看视频在线播放版 | 激情福利视频 | 国产三级在线免费观看 | 激情五月婷婷基地 |