在21世紀初期,研究人員意識到,由于機器學習算法通常具有與圖形處理算法相同類型的計算,因此GPU可以為機器學習提供基于CPU計算的更有效的替代方案。盡管近年來基于CPU的可用性和成本限制,但基于GPU的計算已經成為機器學習或神經網絡訓練的事實標準?;?個問題闡述GPU 在增強 AI 和機器學習技術中的作用。
GPU是什么?
顧名思義,專業的圖形處理單元(GPU)最初是在幾十年前設計的,用于高效的執行圖像和視頻處理等常見的操作。這些過程以基于矩陣的數學計算為特色。人們通常更熟悉中央處理器(CPU),它存在于筆記本電腦、手機和智能設備中,可以執行許多不同類型的操作。
在21世紀初期,研究人員意識到,由于機器學習算法通常具有與圖形處理算法相同類型的計算,因此GPU可以為機器學習提供基于CPU計算的更有效的替代方案。盡管近年來基于CPU的可用性和成本限制,但基于GPU的計算已經成為機器學習或神經網絡訓練的事實標準。
使用GPU的好處是什么?
使用GPU最關鍵的好處就是效率高。GPU提供的計算效率不僅僅是簡化了分析過程,它還促進了更廣泛的模型訓練以獲得更高的準確性,擴大了模型搜索過程的范圍以防止替代規范,使以前無法實現的某些模型變得可行,并允許對替代數據集增加額外的敏感性以確保其穩健性。
GPU如何支持專家證詞?
基于人工智能的系統用數據驅動的決策取代了人類決策。這可以使得在處理大量復雜信息時減少主觀性和錯誤。我們利用人工智能和機器學習來推動越來越復雜的任務的自動化,并解鎖新的分析方法,包括使用監督和非監督學習,這些技術都由我們內部的GPU支持。
數據科學中心如何利用GPU進行計算?
我們在案例生命周期的所有階段(從發現到經濟分析)以及從標準表格數據到文本和圖像的所有類型的數據都使用GPU。其中一些應用程序依賴于GPU計算已經被廣泛使用的應用程序,如神經網絡,而另一些應用程序則依賴于更定制的分析框架。下面是一些例子。
矩陣運算
GPU使我們能夠快速地執行自定義矩陣運算。例如,在反壟斷問題中,我們經常需要計算所有供應商和所有消費者之間的距離(坐標對)。將計算從CPU遷移到GPU使我們能夠每秒計算近1億個坐標對之間的距離。
深層神經網絡
圍繞基于GPU計算的許多關注的重點都集中在神經網絡上。雖然能夠處理常規的分類和回歸問題,但附加的特定于任務的神經網絡體系結構為文本、圖像和聲音的特定分析提供了一個框架。考慮到這些模型的復雜性和生成可靠結果所需的數據量,如果沒有GPU計算資源,它們的使用實際上是無法實現的。當在GPU上訓練一個流行的多類圖像模型時,與在單個CPU上運行相同的進程相比,我們體驗到了25,000%的速度提高。我們在針對消費者欺詐問題的內容分析中利用了這種效率,我們設計文本和圖像分類器來表征有問題的營銷材料的目標受眾。
增強樹
隨著GPU計算變得越來越普遍,流行的機器學習軟件包越來越多地在其產品中包含基于GPU的計算選項。我們經常在回歸和分類問題中使用增強樹。這些模型依次將多個簡單的決策樹聚合為一個更大、更準確的學習器。與可能具有數億個參數的深度神經網絡相比,這些模型更小,因此需要更少的數據和訓練時間來產生可概括的推理。這些優勢使得它們在我們經常遇到的許多類型的分析中比深度神經網絡更有用。切換到基于GPU的訓練過程使我們能夠為這些任務訓練模型,其速度比相應的 CPU 規范快近 100 倍。
語言模型
語言模型通?;谝环N或多種深度學習技術,可以對文本進行分類、解析和生成。我們使用大型語言模型來提取特定的信息片段,解析實體之間的關系,識別語義關系,并在文本分類問題中補充傳統的基于術語的特征,例如在誹謗事件中量化圍繞公共實體的社交媒體情緒。
不出所料,考慮到這些模型可以做的所有事情,利用CPU通過這些模型處理文檔會給分析過程帶來顯著的延遲。僅僅使用一個GPU,我們就可以將文檔分割成獨立的組件,并且每秒可以完全處理幾百個句子。
未來我們可以期待這個領域的哪些發展?
GPU和與其相關的軟件將繼續發展。新的硬件可能具有更多的內核、更快的內核和更多的內存,以適應更大的模型和數據批。新的軟件可能會使跨多個GPU,共享模型和數據變得更加容易。
其他發展可能涉及完全不同的設備。為了解決GPU計算中仍然存在的一些效率低下的問題,機器學習從業者越來越多地轉向應用特定的集成電路(ASIC)和現場可編程門陣列(FPGA)。例如,谷歌的張量處理單元(TPU)是一個專門為其機器學習TensorFlow軟件包執行計算而設計的ASIC。FPGA提供了更大的靈活性,通常用于在需要低延遲、高帶寬和最低能耗的生產環境中部署機器學習模型。
審核編輯 :李倩
-
gpu
+關注
關注
28文章
4775瀏覽量
129357 -
AI
+關注
關注
87文章
31520瀏覽量
270339 -
機器學習
+關注
關注
66文章
8438瀏覽量
133087
原文標題:GPU 在增強 AI 和機器學習技術中的作用
文章出處:【微信號:ICViews,微信公眾號:半導體產業縱橫】歡迎添加關注!文章轉載請注明出處。
發布評論請先 登錄
相關推薦
評論