在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

注意力可以為視覺應(yīng)用程序帶來所需的上下文

醉清歌 ? 來源:醉清歌 ? 作者:醉清歌 ? 2022-07-15 08:17 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

嵌入式視覺技術(shù)賦予機器視覺的力量,但今天的系統(tǒng)仍然無法理解圖像的所有細(xì)微差別。一種用于自然語言處理的方法可以解決這個問題。

基于注意力的神經(jīng)網(wǎng)絡(luò),尤其是變換器網(wǎng)絡(luò),徹底改變了自然語言處理 (NLP),讓機器比以往任何時候都更好地理解語言。這種技術(shù)旨在通過為人工神經(jīng)網(wǎng)絡(luò)提供歷史或背景的概念來模擬認(rèn)知過程,與使用記憶的舊方法(如長短期記憶(LSTM)和循環(huán)記憶)相比,它產(chǎn)生了更復(fù)雜的人工智能代理。神經(jīng)網(wǎng)絡(luò)(RNN)。NLP 現(xiàn)在對輸入的問題或提示有了更深層次的理解,并且可以創(chuàng)建很長的文本作為響應(yīng),這些文本通常與人類可能寫的內(nèi)容沒有區(qū)別。

注意力當(dāng)然可以應(yīng)用于圖像處理,盡管到目前為止它在計算機視覺中的使用受到限制。Perceive 首席執(zhí)行官、人工智能專家 Steve Teig 在接受 EE Times 的獨家采訪時認(rèn)為,注意力對于視覺應(yīng)用程序?qū)⒆兊脴O為重要。

基于注意力的網(wǎng)絡(luò)

注意機制查看輸入序列,例如句子,并在序列中的每條數(shù)據(jù)(音節(jié)或單詞)之后決定序列的其他部分是相關(guān)的。這類似于您閱讀本文的方式:您的大腦在記憶中保留了某些單詞,即使它專注于您正在閱讀的每個新單詞,因為您已經(jīng)閱讀的單詞與您正在正確閱讀的單詞結(jié)合在一起現(xiàn)在提供有價值的上下文來幫助您理解文本。

泰格的例子是:

汽車在街上打滑,因為它很滑。

當(dāng)你讀完這句話時,你會明白“滑”可能是指街道而不是汽車,因為你已經(jīng)記住了“街道”和“汽車”這兩個詞,你的經(jīng)驗告訴你, “slippery”和“street”比“slippery”和“car”之間的關(guān)聯(lián)性強得多。神經(jīng)網(wǎng)絡(luò)可以嘗試使用注意力機制來模仿這種能力。

該機制“獲取最近過去的所有單詞,并以某種方式將它們進行比較,以了解哪些單詞可能與哪些其他單詞相關(guān),”Teig 說。“然后網(wǎng)絡(luò)知道至少要關(guān)注這一點,因為“滑”更有可能與街道或汽車[相關(guān)]而不是[任何其他詞]。

因此,注意力是一種專注于將呈現(xiàn)數(shù)據(jù)的序列減少到可能感興趣的子集(可能僅是當(dāng)前和以前的句子),然后分配每個單詞可能相關(guān)程度的可能性的方法。

“[注意力]最終成為了一種利用時間的方式,以一種有點原則的方式,沒有查看曾經(jīng)發(fā)生的一切的開銷,”泰格說。“這導(dǎo)致人??們,直到最近,還認(rèn)為注意力是一種可以管理時間的技巧。當(dāng)然,它對語音處理、語言處理和其他時間事物產(chǎn)生了巨大的積極影響。最近,就在最近幾個月,人們開始意識到,也許我們可以用注意力來做其他的信息聚焦。”

視覺轉(zhuǎn)換器

迄今為止,為視覺設(shè)計的神經(jīng)網(wǎng)絡(luò)對注意力技術(shù)的使用非常有限。到目前為止,注意力已與卷積神經(jīng)網(wǎng)絡(luò) (CNN) 一起應(yīng)用或用于替換 CNN 的某些組件。但谷歌科學(xué)家最近發(fā)表的一篇論文(“一幅圖像值得 16 × 16 字:大規(guī)模圖像識別的變形金剛,” 2020 年 10 月)認(rèn)為注意力的概念更廣泛地適用于視覺。作者表明,純 Transformer 網(wǎng)絡(luò)是 NLP 中廣泛使用的一種依賴于注意力機制的網(wǎng)絡(luò),當(dāng)直接應(yīng)用于圖像塊序列時,可以很好地執(zhí)行圖像分類任務(wù)。研究人員構(gòu)建的變壓器網(wǎng)絡(luò) Vision Transformer (ViT) 取得了優(yōu)于 CNN 的結(jié)果,但訓(xùn)練所需的計算資源更少。

雖然很容易想象注意力如何應(yīng)用于文本或口語對話,但將相同的概念應(yīng)用于靜止圖像(而不是諸如視頻之類的時間序列)就不那么明顯了。事實上,注意力可以用在空間上,而不是這里的時間上下文中。音節(jié)或單詞類似于圖像的補丁。

Teig 的例子是一張狗的照片。顯示狗耳朵的圖像補丁可能會將自己識別為耳朵,即使是在毛茸茸的動物或四足動物身上發(fā)現(xiàn)的特定類型的耳朵。同樣,尾巴補丁知道它也存在于毛茸茸的動物和四足動物身上。圖像背景中的樹塊知道它有樹枝和樹葉。注意力機制詢問耳貼和樹貼有什么共同點。答案是,不多。然而,耳貼和尾貼確實有很多共同點。他們可以討論這些共性,也許神經(jīng)網(wǎng)絡(luò)可以找到比“耳朵”或“尾巴”更大的概念。也許網(wǎng)絡(luò)可以理解圖像提供的一些上下文,以計算出耳朵加尾巴可能等于狗。

注意力可以通過了解圖像塊之間的相關(guān)性來推斷上下文,從而幫助 AI 代理更好地理解圖像中發(fā)生的事情。

“狗的耳朵和尾巴不是獨立的這一事實使我們能夠更簡潔地描述圖片中發(fā)生的事情:‘圖片中有一只狗’,而不是‘旁邊有一個棕色像素到一個灰色像素,旁邊是……’,這是對圖片中正在發(fā)生的事情的可怕描述,”Teig 說。“可以這么說,當(dāng)系統(tǒng)用這些語義術(shù)語描述圖像的各個部分時,這就是可能的。然后它可以將這些聚合成更有用的概念,用于下游推理。”

Teig 說,最終的目標(biāo)是讓神經(jīng)網(wǎng)絡(luò)理解圖片是一只追逐飛盤的狗。

“祝你好運,用 1600 萬色像素做到這一點,”他說。“這是一種嘗試將其處理為‘有一只狗;有一個飛盤;狗在跑。‘ 現(xiàn)在我有機會理解狗可能在玩飛盤。”

更近一步

谷歌在視覺系統(tǒng)注意力方面的工作是朝著正確方向邁出的一步,Teig 說,“但我認(rèn)為無論從理論和軟件的角度,還是從硬件的角度來看,這里都有很大的進步空間,當(dāng)一個不必用巨大的矩陣來打擊數(shù)據(jù),我非常懷疑你的大腦正在做什么。有很多東西可以在上下文中過濾掉,而無需將其與其他所有內(nèi)容進行比較。”

雖然 Google 研究團隊的解決方案比 CNN 更節(jié)省地使用計算資源,但 NLP 中通常實現(xiàn)注意力的方式使得像轉(zhuǎn)換器這樣的網(wǎng)絡(luò)非常耗費資源。Transformer 經(jīng)常構(gòu)建巨大的 N × N 音節(jié)矩陣(用于文本)或像素(用于圖像),需要大量的計算能力和內(nèi)存來處理。

“那里的數(shù)據(jù)中心人員認(rèn)為,‘太好了——我們有一個數(shù)據(jù)中心,所以一切對我們來說都像是釘子,’”Teig 說,這就是我們最終得到像 OpenAI 的 GPT-3 這樣的 NLP 模型的方式,它的 1750 億個參數(shù)。“當(dāng)你先驗地看到所有東西時,你可以說前面句子中的幾乎所有內(nèi)容都無關(guān)緊要,這有點荒謬。你不能提前做任何過濾嗎?你真的要因為你有一個巨大的矩陣乘法器就粗暴地做這個嗎……?這有任何意義嗎?可能不是。”

科學(xué)界最近嘗試減少注意力的計算開銷,已將所需的操作數(shù)量從 N 2減少到 N√N。但這些嘗試延續(xù)了“近乎普遍的信念——我不同意——即深度學(xué)習(xí)完全是關(guān)于矩陣和矩陣乘法,”Teig 說,并指出最先進的神經(jīng)網(wǎng)絡(luò)研究正在由那些能夠獲得大規(guī)模矩陣乘法加速器。

Teig 作為邊緣 AI 加速器芯片公司 Perceive 的首席執(zhí)行官的觀點是,有更有效的方法來概念化神經(jīng)網(wǎng)絡(luò)計算。Perceive 已經(jīng)在使用其中一些概念,Teig 認(rèn)為類似的見解將適用于注意力機制和轉(zhuǎn)換器網(wǎng)絡(luò)。

“我認(rèn)為關(guān)注的精神非常重要,”他說。“我認(rèn)為機器本身將在未來幾年內(nèi)迅速發(fā)展……在軟件、理論上和硬件方面來代表它。”

今天的大型變壓器網(wǎng)絡(luò)最終會安裝到邊緣設(shè)備的加速器上嗎?在 Teig 看來,部分問題在于像 GPT-3 的 1750 億個參數(shù)這樣的網(wǎng)絡(luò)——大約 1 萬億位信息(為了論證而假設(shè) 8 位參數(shù))。

他說:“這就像我們在玩20個問題的游戲,只是我要問你一萬億個問題,才能理解你剛才說的話。”也許兩萬或兩百萬不能完成,但一萬億——滾出去!缺陷不是我們有一個20-MW的小芯片;缺陷在于,擁有1750億個參數(shù)意味著你真的做錯了什么。

根據(jù)泰格的說法,減少基于注意力的網(wǎng)絡(luò)的參數(shù)數(shù)量,并有效地表示它們,可以為邊緣設(shè)備帶來基于注意力的嵌入式視覺。而這樣的發(fā)展“并不遙遠(yuǎn)”。

Percept首席執(zhí)行官Steve Teig將在嵌入式愿景峰會上發(fā)表兩次演講。在“直面偏見”中,他將討論人工智能系統(tǒng)中歧視的來源,而在“TinyML不夠大”中,他將挑戰(zhàn)TinyML模型必須在準(zhǔn)確性上妥協(xié)以及它們應(yīng)該在CPUMCU上運行的觀念。

審核編輯:郭婷

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 嵌入式
    +關(guān)注

    關(guān)注

    5144

    文章

    19586

    瀏覽量

    315989
  • 神經(jīng)網(wǎng)絡(luò)

    關(guān)注

    42

    文章

    4812

    瀏覽量

    103124
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    Transformer架構(gòu)中編碼器的工作流程

    編碼器是Transformer體系結(jié)構(gòu)的基本組件。編碼器的主要功能是將輸入標(biāo)記轉(zhuǎn)換為上下文表示。與早期獨立處理token的模型不同,Transformer編碼器根據(jù)整個序列捕獲每個token的上下文
    的頭像 發(fā)表于 06-10 14:27 ?214次閱讀
    Transformer架構(gòu)中編碼器的工作流程

    UIAbility組件基本用法說明

    用getContext接口獲取當(dāng)前頁面關(guān)聯(lián)的UIAbilityContext或ExtensionContext。 在UIAbility中可以通過this.context獲取UIAbility實例的上下文信息
    發(fā)表于 05-16 06:32

    經(jīng)顱電刺激適應(yīng)癥之tDCS治療注意力缺陷ADHD

    ADHD是常見神經(jīng)行為障礙,癥狀包括注意力不集中、多動和沖動,兒童和青少年患病率為5%-7.2%,成人在1%-10%,男孩多于女孩,成年后部分癥狀會持續(xù),引發(fā)多種并發(fā)癥,給個人、家庭和社會帶來
    的頭像 發(fā)表于 04-22 19:49 ?143次閱讀
    經(jīng)顱電刺激適應(yīng)癥之tDCS治療<b class='flag-5'>注意力</b>缺陷ADHD

    2D圖形渲染緩慢怎么加快?

    我有一個圖形應(yīng)用程序,它似乎渲染屏幕的速度很慢。按下屏幕后,通常需要相當(dāng)長的時間來更新,大約 50 或 100 毫秒。 在應(yīng)用程序啟動時,我看到一條錯誤消息“GDK 無法創(chuàng)建 GL 上下文,回退
    發(fā)表于 04-02 06:46

    LPCXpresso54S018在位置0xBF30B670訪問后無法訪問調(diào)試端口,怎么解決?

    我使用的是 SDK 版本 2.15 并打開 freertos_hello SDK 演示應(yīng)用程序可以正常構(gòu)建,但下載到 Flash 會打印一條錯誤消息,指出: 15:Read Memory 中
    發(fā)表于 03-31 08:18

    S32K在AUTOSAR中使用CAT1 ISR,是否需要執(zhí)行上下文切換?

    如果我們在 AUTOSAR 中使用 CAT1 ISR,是否需要執(zhí)行上下文切換?另外,是否需要返回指令才能跳回到作系統(tǒng)?您有沒有帶有 CAT1 ISR 的 S32K3x4 微控制器的示例?
    發(fā)表于 03-27 07:34

    DeepSeek推出NSA機制,加速長上下文訓(xùn)練與推理

    近日,DeepSeek公司宣布推出一種全新的稀疏注意力機制——NSA(Native Sparse Attention)。據(jù)DeepSeek介紹,NSA旨在與現(xiàn)代硬件實現(xiàn)高度一致,并且具備本機可訓(xùn)練
    的頭像 發(fā)表于 02-19 14:01 ?611次閱讀

    DLP471TP USB無法連接,無法編程FLASH,無法燒寫應(yīng)用程序,怎么解決?

    我參考以下文檔的原理圖設(shè)計了一塊線路板,但是目前無法燒錄boot程序應(yīng)用程序: DLPDLCR471TPEVM Formatter Board Electrical Design Files 我
    發(fā)表于 02-17 07:32

    一種新的通用視覺主干模型Vision Mamba

    核,使其計算量為線性,但也由此而面臨著窗口化局部感受野的缺陷,使其在全局場景感知和場景語義理解上之力;Transformer通過全局的注意力計算,使其具有長上下文的全局感知能力,但其二次方復(fù)雜度的計算量使得在算有限的端側(cè)設(shè)備上
    的頭像 發(fā)表于 01-06 09:55 ?1109次閱讀
    一種新的通用<b class='flag-5'>視覺</b>主干模型Vision Mamba

    OpenAI更新macOS ChatGPT應(yīng)用,推出“代理”功能實現(xiàn)無縫集成

    ”功能的推出。通過這一功能,ChatGPT能夠作為用戶的得力助手,在支持的第三方應(yīng)用程序中讀取屏幕信息,并根據(jù)上下文提供精準(zhǔn)的幫助和建議。無論是編寫代碼、記錄筆記還是處理文檔,用戶都能享受到ChatGPT帶來的智能化輔助,實現(xiàn)工
    的頭像 發(fā)表于 01-02 10:49 ?646次閱讀

    《具身智能機器人系統(tǒng)》第7-9章閱讀心得之具身智能機器人與大模型

    的應(yīng)用。MAML算法通過二階優(yōu)化找到對任務(wù)變化敏感的模型參數(shù),實現(xiàn)了快速適應(yīng)。上下文學(xué)習(xí)則引入了注意力機制,使模型能夠根據(jù)當(dāng)前場景動態(tài)調(diào)整行為策略。在預(yù)訓(xùn)練-微調(diào)范式中,我們要注意任務(wù)表示的重要性:好的表示
    發(fā)表于 12-24 15:03

    一種基于因果路徑的層次圖卷積注意力網(wǎng)絡(luò)

    機電系統(tǒng)中的故障檢測對其可維護性和安全性至關(guān)重要。然而,系統(tǒng)監(jiān)測變量往往具有復(fù)雜的聯(lián)系,很難表征它們的關(guān)系并提取有效的特征。本文開發(fā)了一種基于因果路徑的層次圖卷積注意力網(wǎng)絡(luò)(HGCAN),以提高復(fù)雜
    的頭像 發(fā)表于 11-12 09:52 ?993次閱讀
    一種基于因果路徑的層次圖卷積<b class='flag-5'>注意力</b>網(wǎng)絡(luò)

    Llama 3 在自然語言處理中的優(yōu)勢

    領(lǐng)域的最新進展。 1. 高度的上下文理解能力 Llama 3的一個顯著優(yōu)勢是其對上下文的深刻理解。傳統(tǒng)的NLP模型往往在處理復(fù)雜的語言結(jié)構(gòu)和上下文依賴性時遇到困難。Llama 3通過使用先進的
    的頭像 發(fā)表于 10-27 14:22 ?690次閱讀

    SystemView上下文統(tǒng)計窗口識別阻塞原因

    SystemView工具可以記錄嵌入式系統(tǒng)的運行時行為,實現(xiàn)可視化的深入分析。在新發(fā)布的v3.54版本中,增加了一項新功能:上下文統(tǒng)計窗口,提供了對任務(wù)運行時統(tǒng)計信息的深入分析,使用戶能夠徹底檢查每個任務(wù),幫助開發(fā)人員識別阻塞原因。
    的頭像 發(fā)表于 08-20 11:31 ?670次閱讀

    【《大語言模型應(yīng)用指南》閱讀體驗】+ 基礎(chǔ)知識學(xué)習(xí)

    并捕捉長距離依賴關(guān)系的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)。Transformer通過編碼器(Encoder)和解碼器(Decoder)兩部分實現(xiàn)語言的編碼和解碼。 注意力機制:Transformer中的注意力機制使得模型
    發(fā)表于 08-02 11:03
    主站蜘蛛池模板: 天天视频观看 | 黄.www| 国产亚洲精品在天天在线麻豆 | 色综合成人网 | 亚洲va老文色欧美黄大片人人 | 神马午夜98 | 国产毛片一区二区三区精品 | 大香线蕉97久久 | 一级特黄色片 | 午夜影视在线视频观看免费 | 女人张开腿让男人桶免费网站 | 好男人社区www在线资源视频 | 黄黄网 | 伊人久久成人爱综合网 | 国产免费爽爽视频免费可以看 | 天堂网www在线资源中文 | 亚洲第一黄色网址 | 欧美爽爽 | 在线人成精品免费视频 | 四月婷婷七月婷婷综合 | 欧美四虎 | 俺去鲁婷婷六月色综合 | 在线资源站 | 国产亚洲人成网站天堂岛 | 久久夜色tv网站免费影院 | 啪啪黄色片 | 人人干人人干 | 国产精品毛片久久久久久久 | 手机看片中文字幕 | 性欧美高清视频 | 四虎网址在线观看 | 在线中文天堂 | 国产精品久久久久久久久ktv | 日韩特级片 | 久99频这里只精品23热 视频 | 亚洲爱v | www.五月婷婷.com | 欧美一级三级在线观看 | 精品黄色录像 | 久久天天躁夜夜躁狠狠85麻豆 | 婷婷丁香六月天 |