在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

如何加速深度學習_GPU、FPGA還是專用芯片

電子工程師 ? 來源:網絡整理 ? 2018-03-31 07:15 ? 次閱讀

計算機發展到今天,已經大大改變了我們的生活,我們已經進入了智能化的時代。但要是想實現影視作品中那樣充分互動的人工智能與人機互動系統,就不得不提到深度學習

深度學習

深度學習的概念源于人工神經網絡的研究。含多隱層的多層感知器就是一種深度學習結構。深度學習通過組合低層特征形成更加抽象的高層表示屬性類別或特征,以發現數據的分布式特征表示。

深度學習的概念由Hinton等人于2006年提出?;谏钚哦染W(DBN)提出非監督貪心逐層訓練算法,為解決深層結構相關的優化難題帶來希望,隨后提出多層自動編碼器深層結構。此外Lecun等人提出的卷積神經網絡是第一個真正多層結構學習算法,它利用空間相對關系減少參數數目以提高訓練性能。

深度學習是機器學習研究中的一個新的領域,其動機在于建立、模擬人腦進行分析學習的神經網絡,它模仿人腦的機制來解釋數據,例如圖像,聲音和文本。

同機器學習方法一樣,深度機器學習方法也有監督學習與無監督學習之分.不同的學習框架下建立的學習模型很是不同.

例如,卷積神經網絡(Convolutional neural networks,簡稱CNNs)就是一種深度的監督學習下的機器學習模型,而深度置信網(Deep Belief Nets,簡稱DBNs)就是一種無監督學習下的機器學習模型。

Artificial Intelligence,也就是人工智能,就像長生不老和星際漫游一樣,是人類最美好的夢想之一。雖然計算機技術已經取得了長足的進步,但是到目前為止,還沒有一臺電腦能產生“自我”的意識。是的,在人類和大量現成數據的幫助下,電腦可以表現的十分強大,但是離開了這兩者,它甚至都不能分辨一個喵星人和一個汪星人。

圖靈(圖靈,大家都知道吧。計算機和人工智能的鼻祖,分別對應于其著名的“圖靈機”和“圖靈測試”)在 1950 年的論文里,提出圖靈試驗的設想,即,隔墻對話,你將不知道與你談話的,是人還是電腦。這無疑給計算機,尤其是人工智能,預設了一個很高的期望值。但是半個世紀過去了,人工智能的進展,遠遠沒有達到圖靈試驗的標準。這不僅讓多年翹首以待的人們,心灰意冷,認為人工智能是忽悠,相關領域是“偽科學”。

但是自 2006 年以來,機器學習領域,取得了突破性的進展。圖靈試驗,至少不是那么可望而不可及了。至于技術手段,不僅僅依賴于云計算對大數據的并行處理能力,而且依賴于算法。這個算法就是,Deep Learning。借助于 Deep Learning 算法,人類終于找到了如何處理“抽象概念”這個亙古難題的方法。

2012年6月,《紐約時報》披露了Google Brain項目,吸引了公眾的廣泛關注。這個項目是由著名的斯坦福大學的機器學習教授Andrew Ng和在大規模計算機系統方面的世界頂尖專家JeffDean共同主導,用16000個CPU Core的并行計算平臺訓練一種稱為“深度神經網絡”(DNN,Deep Neural Networks)的機器學習模型(內部共有10億個節點。這一網絡自然是不能跟人類的神經網絡相提并論的。要知道,人腦中可是有150多億個神經元,互相連接的節點也就是突觸數更是如銀河沙數。曾經有人估算過,如果將一個人的大腦中所有神經細胞的軸突和樹突依次連接起來,并拉成一根直線,可從地球連到月亮,再從月亮返回地球),在語音識別和圖像識別等領域獲得了巨大的成功。

項目負責人之一Andrew稱:“我們沒有像通常做的那樣自己框定邊界,而是直接把海量數據投放到算法中,讓數據自己說話,系統會自動從數據中學習?!绷硗庖幻撠熑薐eff則說:“我們在訓練的時候從來不會告訴機器說:‘這是一只貓。’系統其實是自己發明或者領悟了“貓”的概念?!?/p>

2012年11月,微軟在中國天津的一次活動上公開演示了一個全自動的同聲傳譯系統,講演者用英文演講,后臺的計算機一氣呵成自動完成語音識別、英中機器翻譯和中文語音合成,效果非常流暢。據報道,后面支撐的關鍵技術也是DNN,或者深度學習(DL,DeepLearning)。

用什么加快計算速度?異構處理器

在摩爾定律的作用下,單核標量處理器的性能持續提升,軟件開發人員只需要寫好軟件,而性能就等待下次硬件的更新,在2003年之前的幾十年里,這種“免費午餐”的模式一直在持續。2003年后,主要由于功耗的原因,這種“免費的午餐”已經不復存在。為了生存,各硬件生產商不得不采用各種方式以提高硬件的計算能力,以下是目前最流行的幾種方式是。

1) 讓處理器一個周期處理多條指令 ,這多條指令可相同可不同。如Intel Haswell處理器一個周期可執行4條整數加法指令、2條浮點乘加指令,同時訪存和運算指令也可同時執行。

2) 使用向量指令 ,主要是SIMD和VLIW技術。SIMD技術將處理器一次能夠處理的數據位數從字長擴大到128或256位,也就提升了計算能力。

3) 在同一個芯片中集成多個處理單元 ,根據集成方式的不同,分為多核處理器或多路處理器。多核處理器是如此的重要,以至于現在即使是手機上的嵌入式ARM處理器都已經是四核或八核。

4) 使用異構處理器,不同的架構設計的處理器具有不同的特點,如X86 處理器為延遲優化,以減少指令的執行延遲為主要設計考量(當然今天的X86 處理器設計中也有許多為吞吐量設計的影子);如NVIDIA GPUAMD GPU則為吞吐量設計,以提高整個硬件的吞吐量為主要設計目標。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • gpu
    gpu
    +關注

    關注

    28

    文章

    4804

    瀏覽量

    129577
  • 深度學習
    +關注

    關注

    73

    文章

    5522

    瀏覽量

    121695
收藏 人收藏

    評論

    相關推薦

    fpga和cpu的區別 芯片gpu還是CPU

    型的芯片,它們在結構、功能、應用場景等方面存在顯著差異。 結構與靈活性 FPGAFPGA是一種可編程邏輯器件,其內部由大量的可編程邏輯單元(CLB)、輸入/輸出模塊(IOB)、可編程互連資源
    的頭像 發表于 02-01 14:57 ?271次閱讀

    深度學習工作負載中GPU與LPU的主要差異

    ,一個新的競爭力量——LPU(Language Processing Unit,語言處理單元)已悄然登場,LPU專注于解決自然語言處理(NLP)任務中的順序性問題,是構建AI應用不可或缺的一環。 本文旨在探討深度學習工作負載中GPU
    的頭像 發表于 12-09 11:01 ?2630次閱讀
    <b class='flag-5'>深度</b><b class='flag-5'>學習</b>工作負載中<b class='flag-5'>GPU</b>與LPU的主要差異

    《算力芯片 高性能 CPUGPUNPU 微架構分析》第3篇閱讀心得:GPU革命:從圖形引擎到AI加速器的蛻變

    在數據挖掘工作中,我經常需要處理海量數據的深度學習任務,這讓我對GPU架構和張量運算充滿好奇。閱讀《算力芯片》第7-9章,讓我對這些關鍵技術有了全新認識。
    發表于 11-24 17:12

    GPU深度學習中的應用 GPUs在圖形設計中的作用

    隨著人工智能技術的飛速發展,深度學習作為其核心部分,已經成為推動技術進步的重要力量。GPU(圖形處理單元)在深度學習中扮演著至關重要的角色,
    的頭像 發表于 11-19 10:55 ?840次閱讀

    NPU在深度學習中的應用

    設計的硬件加速器,它在深度學習中的應用日益廣泛。 1. NPU的基本概念 NPU是一種專門針對深度學習算法優化的處理器,它與傳統的CPU和
    的頭像 發表于 11-14 15:17 ?1079次閱讀

    pcie在深度學習中的應用

    深度學習模型通常需要大量的數據和強大的計算能力來訓練。傳統的CPU計算資源有限,難以滿足深度學習的需求。因此,GPU(圖形處理單元)和TPU
    的頭像 發表于 11-13 10:39 ?726次閱讀

    PyTorch GPU 加速訓練模型方法

    深度學習領域,GPU加速訓練模型已經成為提高訓練效率和縮短訓練時間的重要手段。PyTorch作為一個流行的深度
    的頭像 發表于 11-05 17:43 ?728次閱讀

    GPU深度學習應用案例

    GPU深度學習中的應用廣泛且重要,以下是一些GPU深度學習應用案例: 一、圖像識別 圖像識別是
    的頭像 發表于 10-27 11:13 ?566次閱讀

    GPU加速計算平臺是什么

    GPU加速計算平臺,簡而言之,是利用圖形處理器(GPU)的強大并行計算能力來加速科學計算、數據分析、機器學習等復雜計算任務的軟硬件結合系統。
    的頭像 發表于 10-25 09:23 ?325次閱讀

    FPGA加速深度學習模型的案例

    FPGA(現場可編程門陣列)加速深度學習模型是當前硬件加速領域的一個熱門研究方向。以下是一些FPGA
    的頭像 發表于 10-25 09:22 ?471次閱讀

    深度學習GPU加速效果如何

    圖形處理器(GPU)憑借其強大的并行計算能力,成為加速深度學習任務的理想選擇。
    的頭像 發表于 10-17 10:07 ?295次閱讀

    FPGA深度學習能走多遠?

    的應用場景。 ? 可重構性:在深度學習高速迭代的情況下,FPGA 比一些專用芯片(如 ASIC)具有更強的靈活性。當
    發表于 09-27 20:53

    新手小白怎么學GPU云服務器跑深度學習?

    新手小白想用GPU云服務器跑深度學習應該怎么做? 用個人主機通常pytorch可以跑但是LexNet,AlexNet可能就直接就跑不動,如何實現更經濟便捷的實現GPU云服務器
    發表于 06-11 17:09

    FPGA芯片你了解多少?

    集成電路芯片包括數字芯片和模擬芯片兩大類,數字芯片可以分為存儲器芯片和邏輯芯片,大家熟知的邏輯
    發表于 04-17 11:13

    FPGA深度學習應用中或將取代GPU

    現場可編程門陣列 (FPGA) 解決了 GPU 在運行深度學習模型時面臨的許多問題 在過去的十年里,人工智能的再一次興起使顯卡行業受益匪淺。英偉達 (Nvidia) 和 AMD 等公
    發表于 03-21 15:19
    主站蜘蛛池模板: 日本a级精品一区二区三区 日本a级特黄三级三级三级 | 精品国产三级a∨在线 | 加勒比在线免费视频 | 久久免费看 | 99久久免费精品国产免费高清 | bt天堂资源 | 18岁禁黄色 | 亚洲日本三级 | 久久久噜噜噜久久网 | 天堂中文在线资源库用 | 激情五月宗合网 | 日本边添边爱边摸边做边爱 | 日韩一二三级 | 91大神在线精品视频一区 | 中文字幕三级久久久久久 | 99久久99久久精品免费看子伦 | 在线播放黄色网址 | 美女牲交毛片一级视频 | 亚洲国产欧美日韩一区二区三区 | 黄色网久久 | 亚洲一区二区高清 | 四虎永久在线精品免费观看地址 | 我把美女日出白浆 | 精品国产麻豆免费人成网站 | 双性人皇上被c到哭 | 亚洲精品91香蕉综合区 | 综合久久婷婷 | 五月天婷婷在线视频国产在线 | 97色爱| 免费色黄网站 | 欧美三级免费观看 | 人与性www | 日韩第五页 | 国产色婷婷精品综合在线 | 美女网站色在线观看 | 人人爱天天做夜夜爽毛片 | 一区二区三 | 香港澳门a级三级三级全黄 香港经典a毛片免费观看爽爽影院 | 美女扒开尿囗给男人玩的动图 | 欧美一区二区三区激情啪啪 | 五月婷婷视频在线 |