在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

Transformer流行的背后

Astroys ? 來源:Astroys ? 2023-08-30 16:57 ? 次閱讀

許多技術公司都在大肆宣揚自己擁有比其他公司更好的處理transformer算法的解決方案。但其實業界transformer的基準測試尚未推出。

Generative AI(GAI)的蓬勃發展已經顛覆了整個AI世界,似乎是這樣。

大語言模型(LLM),如ChatGPT所示,大多局限于語言建模和文本生成。但transformer(一種支撐LLM和其他GAI應用的總體深度學習架構)提供了一種可用于文本、語音、圖像、3D和視頻等數據流或任何傳感數據的模型。

Nvidia汽車部門副總裁Danny Shapiro提到了GAI的多功能性,他說:“AI領域新的神奇之處在于它的無限性。而我們現在只觸及到了表面。”

與任何新興技術一樣,硅谷也充斥著科技公司大肆宣揚其革命性解決方案的聲音。坊間傳聞,硅谷也在爭相用transformer取代基于卷積神經網絡(CNN)的模型。其中一種猜測提到了一家robotaxi公司,該公司剛剛淘汰了其內部設計的汽車芯片,并急于開發一種可以處理transformer的新款芯片。

Quadric是一家機器學習推理IP公司,Untether AI則將其硬件宣傳為是“通用推理加速器”,這兩家公司都在兜售可處理transformer的技術。Quadric說日本的Denso和Megachip是其客戶,而Untether AI則說通用是其技術開發合作方之一。

Quadric的CMO Steve Roddy認為,transformer話題“在過去幾周內真正活躍了起來”。他說:“顯然,transformer總體上已經初具規模了,因為每個人都在玩生成式圖像或ChatGPT等等。但到目前為止,LLM類型的東西都是在云端運行的,因為它們涉及數十億個參數。”

Qualcomm因素

??

Roddy說:“盡管如此,人們現對‘設備端(on-device)’的transformer的關注要迫切得多。他猜測,引發這一變化的是Qualcomm。Qualcomm上月宣布了其2024年計劃,即在智能手機和PC上提供Meta的新聊天工具、基于Llama 2的AI。

Qualcomm表示,其目的是“讓開發者能夠利用Snapdragon平臺的AI功能,迎來全新的、令人興奮的GAI應用”。Qualcomm的這一聲明讓Roddy和其他行業玩家感到不安。為什么要等到2024年?

越來越多的人猜測,Apple可能會率先采用設備端的transformer。今年秋季發布的新款iPhone能否實現這一目標?這是人們無法證實的猜測。

Gartner認為,GAI主導了有關AI的討論,利用ChatGPT等系統以非常實際的方式提高了開發者和知識工作者的工作效率,該公司上周宣布,市場趨勢正在將GAI推向“Hype Cycle中的預期膨脹高峰”。

cb4f3d18-46db-11ee-a2ef-92fbcf53809c.png

工程咨詢公司BDTI總裁、Edge AI and Vision Alliance創始人Jeff Bier在被問及一些公司吹噓的transformer芯片時持謹慎態度。他說:“我們已經看到了相當可信的說法。但我們尚未對這些說法進行獨立驗證。就實際應用而言,transformer在很大程度上仍然處于領先地位。”

BDTI從事處理器基準測試(benchmarking)。不過,他說:“我們還沒有對transformer或LLM進行任何處理器基準測試……我們剛剛收到第一批請求。”

什么是transformer?

?? 首先,了解transformer模型到底是什么很重要。

在處理輸入流時,與傳統神經網絡相比,transformer模型基于不同算法,使用不同的方法。該模型側重于“關系”。

在自然語言處理(如ChatGPT)中,transformer模型(最初應用于LLM)是一種神經網絡,用于查找和跟蹤輸入句子之間的關系,從而學習上下文和含義。

BDTI的高級工程師Mihran Touriguian說:“transformer非常適合查找輸入之間的關系。即使輸入之間的關系在時間或地點上相距甚遠,該模型也能發揮作用。”

人們對transformer的興趣之所以如此高漲,是因為它們與輸入流無關。Touriguian解釋說,該模型不僅可以應用于語言,還可以應用于視頻或被分割成塊的單一大型圖像。

與其他模型相比,transformer的優勢在于能找到圖像中多個時間或位置輸入之間的“關系”。Touriguian指出:“如果你的應用中使用了不同類型的傳感器,那么transformer就非常適合。這些‘傳感器’可以是圖像、文本或語音。Transformer非常適合將不同的數據流結合到一個應用中。”

與數據類型無關

??

以往的神經網絡模型需要單獨的算法或拓撲結構來處理每種數據類型。Touriguian說:“在后端或前端,你可以將信息組合起來進行預測。”

與此相反,“transformer與輸入類型無關”,他解釋道。“因此,你可以將產生數據的多種類型傳感器輸入transformer。transformer基本上可以找到它們之間的關系,例如語音、圖像和標題(文本)之間的關系。”

例如,在車載應用中,關鍵的輸入數據流來自各種類型的傳感器,攝像頭、雷達和激光雷達都至關重要。Transformer如果能像承諾的那樣發揮作用,就能將來自不同傳感器的信息結合起來,為汽車提供更好的決策和解決方案。

但,我們還沒有做到

??????

然而,現實世界還沒有實現這一愿景。要實現這一目標,transformer必須先進行大量的準備工作,即對輸入數據進行預處理。Touriguian說,你需要“對輸入的類型進行規范化”,這個過程被稱為“嵌入(embedding)”,它捕捉并存儲語言或其他數據流的意義和關系。它們是模型比較不同標記或數據輸入的方式。

Touriguian說,在神經網絡中,來自任何傳感器的任何輸入都必須轉換為包含一定數量元素的矢量。這種規范化是transformer在多種類型傳感器上運行的關鍵步驟。

Transformer面臨的另一個障礙是其所依賴的龐大的參數和權重(數以億計)。不過,Touriguian表示,最近這些參數已經縮小到與CNN模型相當的大小。他補充道,在精度方面,transformer與基于CNN的模型相同或略勝一籌。

然而,值得注意的是,研究人員和開發者已經意識到,通過結合CNN和transformer的優勢,他們可以取得更好的結果,Touriguian指出,“CNN部分在圖像上的表現非常出色,因為CNN關注的是相鄰像素之間的關系。同時,在此基礎上,transformer基本上可以找到這些鄰域與圖像中其他區域之間的關系。”

Transformer在車載領域中的應用

????????

Transformer可以應用在哪里以及如何應用,似乎沒有限制,從銷售工具、聊天框、翻譯到設計/工程、工廠和倉儲……

例如,ChatGPT可以在車載中最明顯的應用之一,就是讓新手司機無需閱讀數百頁的使用手冊,就能向汽車問:“嘿,XX,我該如何換輪胎?”

訓練數據是另一個重要的應用領域。Nvidia的Shapiro舉例說,GAI生成合成數據的能力可以用來向汽車的感知系統輸入“一堆停車標志的圖像”(有的上面有涂鴉,有的已經風化、生銹,有的被樹木遮擋)。

他補充說,ViT、SwinTransformer、DETR、Perceiver等流行的視覺transformer目前已廣泛應用于自動駕駛軟件棧中。此外,GPT等LLM DNN可用于座艙應用,以自然、直觀的方式向車內的人提供信息。他表示,Nvidia Drive“能夠在車內部署運行這些復雜的視覺transformer和LLM”。

Transformer硬件需要什么?

????????????????????

Bier指出,如今,一些專注于邊緣或嵌入式處理的AI硬件更加專業化,更偏愛CNN等成熟模型。另一些則更加靈活,更容易適應transformer。

Bier強調說:“這種適應性取決于兩點。一是架構本身。另一個是支持它的軟件工具和庫。”

憑借其GPNPU架構Chimera所獨有的IP,Quadric是一家聲名顯赫的AI IP供應商,其架構被宣傳為能夠“運行任何機器學習圖形,包括最新的視覺transformer”。

Quadric聲稱,Chimera結合了神經加速器(NPU)和DSP的最佳特性,提供經典代碼和圖形代碼的混合。Quadric的Roddy強調說,這對軟件開發者尤為重要,因為他們希望“只需混合和匹配預構建的應用代碼構件”。

Roddy認為,Quadric的優勢在于它能夠運行不同的內核來完成不同的任務(經典的DSP代碼任務、經典神經網絡kernel(包括檢測器和驗證器),以及介于兩者之間的類似CPU的任務),所有這些都可以在Quadric的“單處理器”上完成。Roddy解釋說:“無需多個引擎。實際只有一個處理器、一個執行流水線、一個代碼流,所有這些都編譯在一起。”

這與許多芯片設計者對機器學習出現的反應形成了鮮明對比。他們部署了一大塊NPU加速器,并將新的加速器添加到SoC上已有的DSP和CPU內核中。

cb9a114e-46db-11ee-a2ef-92fbcf53809c.jpg

Roddy說,他們意識到無法在CPU或DSP上運行最新版本的ResNet(Residual Neural Network),“因為它太強大了”。這導致大多數公司創建了一個復雜的架構,迫使程序員“每年都要進行越來越高的抽象”,并對每個塊的內存大小和工作負載分區進行“細致入微的思考”。結果導致了漫長的開發周期。

然后是transformer。

對于正在努力開發AI硬件的芯片公司來說,這無疑又是一記響亮的耳光。對于芯片設計師和程序員來說,本已復雜的局面變得更加混亂。Quadric說:“Transformer打破了你對傳統NPU加速器的認知。”

Quadric認為,與以往的神經網絡算法相比,視覺transformer“在網絡拓撲結構和構件運算符方面大不相同”。該公司建議,“如果你的傳統NPU無法處理視覺transformer,那么Quadric的GPNPU會更好”。

DNN以外的數學

?????????????????

Untether AI正在宣傳其芯片對transformer的適應性。產品副總裁Bob Beachler說:“與兩三年前相比,我在視覺應用中看到了更多的transformer式網絡,當時大家都專注于CNN。”

因為Untether AI“一直在研究自然語言處理”,而自然語言處理是一種attention transformer式網絡。Beachler稱:“我們可以把為自然語言處理投入的相同電路用于基于視覺的transformer應用。”

當被問及Untether AI是否只是運氣好時,Beacher回避了。他說,這個故事的寓意是“不要過度限制你的AI加速、AI應用”。

他指出:“我也看到一些初創公司在嘗試進行特定類型的數學運算、棘手的數學變換。當你開始這樣做時,你可以進行大量的數學變換,但你也開始失去精度。最終,你的芯片可能只能運行一次。”

要設計出能處理transformer式算法的處理器,最重要的是什么?

除了在處理器中加入靈活性之外,Beachler還強調,芯片必須處理DNN處理之外所需的所有數學運算,“比如視頻縮放、激活和邊界框的非最大值抑制。所有這些類型的事情都需要一種更通用的方法”。

BDTI的Bier表示贊同。他說,需要牢記的一個關鍵是,“現實世界中的大多數應用并不是簡單地獲取數據并將其輸入某種DNN。它們需要使用非神經網絡技術(如經典圖像和信號處理技術)進行某種預處理。然后,再應用一個或多個DNN。然后再應用額外的經典算法,如跟蹤算法。”

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 機器學習
    +關注

    關注

    66

    文章

    8457

    瀏覽量

    133206
  • 深度學習
    +關注

    關注

    73

    文章

    5522

    瀏覽量

    121691
  • Transformer
    +關注

    關注

    0

    文章

    146

    瀏覽量

    6085

原文標題:Transformer流行的背后

文章出處:【微信號:Astroys,微信公眾號:Astroys】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    如何使用MATLAB構建Transformer模型

    Transformer 模型在 2017 年由 Vaswani 等人在論文《Attentionis All You Need》中首次提出。其設計初衷是為了解決自然語言處理(Nature
    的頭像 發表于 02-06 10:21 ?971次閱讀
    如何使用MATLAB構建<b class='flag-5'>Transformer</b>模型

    transformer專用ASIC芯片Sohu說明

    2022年,我們打賭說transformer會統治世界。 我們花了兩年時間打造Sohu,這是世界上第一個用于transformer(ChatGPT中的“T”)的專用芯片。 將transformer
    的頭像 發表于 01-06 09:13 ?442次閱讀
    <b class='flag-5'>transformer</b>專用ASIC芯片Sohu說明

    Transformer是機器人技術的基礎嗎

    生成式預訓練Transformer(GPT)被吹捧為將徹底改變機器人技術。但實際應用中,GPT需要龐大且昂貴的計算資源、冗長的訓練時間以及(通常)非機載無線控制,諸多限制之下,GPT技術真的
    的頭像 發表于 12-05 10:54 ?336次閱讀
    <b class='flag-5'>Transformer</b>是機器人技術的基礎嗎

    Transformer模型的具體應用

    如果想在 AI 領域引領一輪新浪潮,就需要使用到 Transformer
    的頭像 發表于 11-20 09:28 ?782次閱讀
    <b class='flag-5'>Transformer</b>模型的具體應用

    Transformer模型能夠做什么

    盡管名為 Transformer,但它們不是電視銀幕上的變形金剛,也不是電線桿上垃圾桶大小的變壓器。
    的頭像 發表于 11-20 09:27 ?510次閱讀
    <b class='flag-5'>Transformer</b>模型能夠做什么

    自動駕駛中一直說的BEV+Transformer到底是個啥?

    在很多車企的自動駕駛介紹中,都會聽到一個關鍵技術,那就是BEV+Transformer,那BEV+Transformer到底是個啥?為什么很多車企在自動駕駛技術中都十分追捧這項技術?其實“BEV
    的頭像 發表于 11-07 11:19 ?617次閱讀
    自動駕駛中一直說的BEV+<b class='flag-5'>Transformer</b>到底是個啥?

    Transformer能代替圖神經網絡嗎

    Transformer作為一種在處理序列數據方面表現出色的深度學習模型,自其提出以來,已經在自然語言處理(NLP)、時間序列分析等領域取得了顯著的成果。然而,關于Transformer是否能完全代替圖神經網絡(GNN)的問題,需要從多個維度進行深入探討。
    的頭像 發表于 07-12 14:07 ?576次閱讀

    Transformer語言模型簡介與實現過程

    在自然語言處理(NLP)領域,Transformer模型以其卓越的性能和廣泛的應用前景,成為了近年來最引人注目的技術之一。Transformer模型由谷歌在2017年提出,并首次應用于神經機器翻譯
    的頭像 發表于 07-10 11:48 ?2215次閱讀

    Transformer架構在自然語言處理中的應用

    隨著人工智能技術的飛速發展,自然語言處理(NLP)領域取得了顯著的進步。其中,Transformer架構的提出,為NLP領域帶來了革命性的變革。本文將深入探討Transformer架構的核心思想、組成部分以及在自然語言處理領域的應用,旨在幫助讀者全面理解并應用這一革命性的
    的頭像 發表于 07-09 11:42 ?1022次閱讀

    Transformer模型在語音識別和語音生成中的應用優勢

    隨著人工智能技術的飛速發展,語音識別和語音生成作為人機交互的重要組成部分,正逐漸滲透到我們生活的各個方面。而Transformer模型,自其誕生以來,憑借其獨特的自注意力機制和并行計算能力,在
    的頭像 發表于 07-03 18:24 ?1410次閱讀

    使用PyTorch搭建Transformer模型

    Transformer模型自其問世以來,在自然語言處理(NLP)領域取得了巨大的成功,并成為了許多先進模型(如BERT、GPT等)的基礎。本文將深入解讀如何使用PyTorch框架搭建Transformer模型,包括模型的結構、訓練過程、關鍵組件以及實現細節。
    的頭像 發表于 07-02 11:41 ?1949次閱讀

    Transformer 能代替圖神經網絡嗎?

    Transformer模型發布時,它徹底革新了機器翻譯領域。雖然最初是為特定任務設計的,但這種革命性的架構顯示出它可以輕松適應不同的任務。隨后成為了Transformer一個標準,甚至用于它最
    的頭像 發表于 07-02 08:27 ?410次閱讀
    <b class='flag-5'>Transformer</b> 能代替圖神經網絡嗎?

    基于xLSTM和Transformer的模型評估:xLSTM在“語言能力”的表現

    近期,Hochreiter在arXiv平臺發表論文,推出了一款新型的XLSTM(擴展LSTM)架構,有效克服了傳統LSTM互聯網結構“僅能按時間順序處理信息”的局限性,有望挑戰當前熱門的Transformer架構。
    的頭像 發表于 05-13 10:31 ?955次閱讀

    視覺Transformer基本原理及目標檢測應用

    視覺Transformer的一般結構如圖2所示,包括編碼器和解碼器兩部分,其中編碼器每一層包括一個多頭自注意力模塊(self-attention)和一個位置前饋神經網絡(FFN)。
    發表于 04-03 10:32 ?3984次閱讀
    視覺<b class='flag-5'>Transformer</b>基本原理及目標檢測應用

    基于Transformer模型的壓縮方法

    基于Transformer架構的大型模型在人工智能領域中發揮著日益重要的作用,特別是在自然語言處理(NLP)和計算機視覺(CV)領域。
    的頭像 發表于 02-22 16:27 ?753次閱讀
    基于<b class='flag-5'>Transformer</b>模型的壓縮方法
    主站蜘蛛池模板: 天堂在线中文字幕 | 69hdxxxx日本 | 日日噜夜夜噜 | 如果我们是季节韩剧在线观看 | 女性私密部位扒开的视频 | 天天草天天爽 | 亚洲国产一区二区三区在线观看 | 日韩免费高清一级毛片 | 免费看国产精品久久久久 | 777国产精品永久免费观看 | 四虎tv在线观看884aa | 成人在线91 | 天天操夜操 | 国产午夜视频在线观看网站 | 欧美色图首页 | 欧美性一级交视频 | 久久婷婷激情 | 午夜爱爱爱爱爽爽爽网站免费 | 国产高清免费 | 99久久99| 狠狠色丁香婷婷综合欧美 | 午夜影视免费完整高清在线观看网站 | 不卡一区 | 亚洲www美色| 欧美天天性 | 国产乱码1卡一卡二卡 | 啪啪网免费视频 | 性欧美高清强烈性视频 | jiuse在线| 成年网站在线观看 | 国产农村一一级特黄毛片 | 视频亚洲一区 | 四虎免费大片aⅴ入口 | 色香蕉在线观看网站 | 在线你懂的视频 | 新版天堂中文资源官网 | 激情网页 | 久久精品久久久久 | 偷窥自拍亚洲色图 | 欧美一级在线全免费 | 日本黄色小视频在线观看 |