91在线观看视频-91在线观看视频-91在线观看免费视频-91在线观看免费-欧美第二页-欧美第1页

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

未來或許深度學(xué)習(xí)江湖統(tǒng)一真的不是夢

新機(jī)器視覺 ? 來源:量子位 ? 作者:量子位 ? 2021-05-23 15:13 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

你能想象某一天打開深度學(xué)習(xí)的詞條,發(fā)現(xiàn):

深度學(xué)習(xí)的江湖已經(jīng)能夠被統(tǒng)一了嗎?

幾何學(xué)上的對稱性可以玩轉(zhuǎn)整個(gè)深度學(xué)習(xí)嗎?

通過對稱性和的變換,可以提煉出覆蓋CNNs, GNNs, LSTMs, Transformers, DeepSets, mesh CNN等一切你所需構(gòu)建的架構(gòu)嗎?

不要驚訝,不要懷疑。

一百多年前埃爾蘭根大學(xué)一位23歲的小伙就給出了答案。

他僅憑一己之力開創(chuàng)的“埃爾蘭根計(jì)劃”,從而在幾何學(xué)上做出了一項(xiàng)開創(chuàng)性的工作,改變了數(shù)學(xué)史。

幾何學(xué)對稱問題的源起

在1872年10月,德國的埃爾蘭根大學(xué)任命了一位新的年輕教授。按照慣例,他被要求提供一個(gè)就職研究計(jì)劃,他以長而乏味的標(biāo)題Vergleichende Betrachtungen über neuere geometrische Forschungen(“對幾何學(xué)最新研究的比較評(píng)論”)進(jìn)行了發(fā)表。

這位就是菲利克斯·克萊因(Felix Klein),當(dāng)時(shí)他只有23歲,他的開創(chuàng)性工作被稱為“埃爾蘭根計(jì)劃”,在數(shù)學(xué)史上有濃墨重彩的一筆。

十九世紀(jì)簡直就是幾何學(xué)的大爆發(fā)時(shí)代。歐幾里得之后的近兩千年來,龐塞萊特(Poncelet)構(gòu)造了投影幾何,高斯(Gauss)、波利亞伊(Galys)和洛巴切夫斯基(Lobachevsky)構(gòu)造了雙曲線幾何,而黎曼(Riemann)構(gòu)造了橢圓幾何。

克萊因的Erlangen program(埃爾蘭根綱領(lǐng))的突破性體現(xiàn)在研究幾何學(xué)時(shí)運(yùn)用了結(jié)構(gòu)的對稱性??巳R因采用群論的形式來定義此類轉(zhuǎn)換,并采用群及其子群的層次結(jié)構(gòu)來分類由此產(chǎn)生的不同幾何形狀。

因此,剛性運(yùn)動(dòng)會(huì)產(chǎn)生傳統(tǒng)的歐幾里得幾何,而仿射或投影變換分別產(chǎn)生仿射和投影幾何。

Erlangen program不僅對幾何和數(shù)學(xué)影響非常深遠(yuǎn),同時(shí)也影響了物理領(lǐng)域,對稱性可以從第一原理推導(dǎo)守恒律,即Noether定理。

經(jīng)過幾十年的發(fā)展,直到楊振寧和米爾斯在1954年提出的規(guī)范不變性的概念的廣義形式證明了這一基本原理,成功地統(tǒng)一了除重力以外的所有自然基本力。

這種標(biāo)準(zhǔn)模型已經(jīng)描述了我們目前所知道的所有物理學(xué)知識(shí)。

所以啊,還是諾貝爾獎(jiǎng)得主物理學(xué)家菲利普·安德森(Philip Anderson)的話說得好:

“it is only slightly overstating the case to say that physics is the study of symmetry.”

“說物理學(xué)本質(zhì)上就是研究對稱性的,這只是有點(diǎn)夸大其詞了。”

目前深度學(xué)習(xí)領(lǐng)的現(xiàn)狀和19世紀(jì)的幾何情況驚人的類似:

一方面,在過去的十年中,深度學(xué)習(xí)帶來了數(shù)據(jù)科學(xué)的一場革命,并完成了許多以前被認(rèn)為無法實(shí)現(xiàn)的任務(wù):無論是計(jì)算機(jī)視覺,語音識(shí)別,自然語言翻譯,還是下圍棋。

另一方面,現(xiàn)在存在一個(gè)針對不同類型數(shù)據(jù)的不同神經(jīng)網(wǎng)絡(luò)體系結(jié)構(gòu)的“動(dòng)物園”,但統(tǒng)一的原理很少。這樣很難理解不同方法之間的關(guān)系,也導(dǎo)致相同概念的多次發(fā)明和資源的浪費(fèi)。

機(jī)器學(xué)習(xí)中,對稱性的重要性實(shí)際上早已得到認(rèn)可。

尤其是在模式識(shí)別和計(jì)算機(jī)視覺的應(yīng)用中,有關(guān)等變特征檢測的早期工作可以追溯到Shunichi Amari和Reiner Lenz。

在神經(jīng)網(wǎng)絡(luò)文獻(xiàn)中,Marvin Minsky和Seymour Papert提出的感知器的群不變性定理對(單層)感知器學(xué)習(xí)不變性的能力提出了基本限制。

幾何深度學(xué)習(xí)

具體怎么個(gè)“統(tǒng)一”,請看采用的“幾何深度學(xué)習(xí)”:

幾何深度學(xué)習(xí)是Michael M. Bronstein,Joan Bruna,Taco Cohen,Petar Veli?kovi? 等人中引入的一個(gè)籠統(tǒng)術(shù)語,指的是類似于Klein的Erlangen program,在幾何機(jī)器學(xué)習(xí)上統(tǒng)一的嘗試的總稱。

它有兩個(gè)目的:首先,提供一個(gè)通用的數(shù)學(xué)框架以推導(dǎo)最成功的神經(jīng)網(wǎng)絡(luò)體系結(jié)構(gòu);其次,給出一個(gè)建設(shè)性的過程,并以有原則的方式構(gòu)建未來的體系結(jié)構(gòu)。

在最簡單的情況下,有監(jiān)督的機(jī)器學(xué)習(xí)本質(zhì)上是一個(gè)函數(shù)估計(jì)問題:給定訓(xùn)練集上某些未知函數(shù)的輸出(例如標(biāo)記的狗和貓圖像),人們試圖從某個(gè)假設(shè)函數(shù)類別中找到一個(gè)適合訓(xùn)練的函數(shù)f ,并可以預(yù)測以前看不見的輸入的輸出。

在過去的十年中,大型的、高質(zhì)量的數(shù)據(jù)集(如ImageNet)的可用性與不斷增長的計(jì)算資源(GPU)吻合,從而可以設(shè)計(jì)功能豐富的類,這些類可以內(nèi)插此類大型數(shù)據(jù)集。

神經(jīng)網(wǎng)絡(luò)似乎是表征功能的合適選擇,因?yàn)榧词故亲詈唵蔚捏w系結(jié)構(gòu)(如Perceptron),僅使用兩層時(shí)也可以生成密集類的功能,從而可以將任何連續(xù)函數(shù)近似為任何所需的精度,這種特性稱為“通用逼近”(Universal Approximation)。

低維問題的設(shè)置是逼近理論中的經(jīng)典問題,該問題已得到廣泛研究,并通過精確的數(shù)學(xué)方法控制估算誤差。但是,在高維度上情況卻完全不同:人們可以很快地看到,即使近似一類簡單的Lipschitz連續(xù)函數(shù),樣本數(shù)量也隨維度呈指數(shù)增長,這種現(xiàn)象俗稱“維數(shù)詛咒”。

由于現(xiàn)代機(jī)器學(xué)習(xí)方法需要處理成千上萬甚至數(shù)百萬個(gè)維度的數(shù)據(jù),因此維度的詛咒總是在幕后出現(xiàn),使得我們無法通過樸素的方式進(jìn)行學(xué)習(xí)。

△維度詛咒的圖示:為了近似由高斯核構(gòu)成的Lipschitz連續(xù)函數(shù),該函數(shù)位于誤差為ε的d維單位超立方體(藍(lán)色)的象限中,需要

在計(jì)算機(jī)視覺問題(例如圖像分類)中可能最好地看到了這一點(diǎn)。即使是很小的圖像也往往具有很高的尺寸,但是從直觀上講,當(dāng)人們將圖像解析為向量以將其饋反饋送到感知器時(shí),很多圖像的結(jié)構(gòu)會(huì)被破壞并丟棄。如果現(xiàn)在僅將圖像移位一個(gè)像素,則向量化的輸入將有很大的不同,并且神經(jīng)網(wǎng)絡(luò)將需要顯示很多示例,因此必須以相同的方式對移位的輸入進(jìn)行分類。

原理簡介

通過對稱性,不變性和群的視角,包含兩大原理:

“先驗(yàn)對稱性”

在許多高維ML問題的情況下,我們可以采用一個(gè)附加結(jié)構(gòu)信息,它來自輸入信號(hào)的幾何形狀。我們稱這種結(jié)構(gòu)為“先驗(yàn)對稱性”,它是一種普遍有效的原理,它使我們對由維數(shù)引起的問題感到樂觀。在我們的圖像分類示例中,輸入圖像x不僅是d維向量,而且是在某個(gè)域Ω上定義的信號(hào),在這種情況下,該信號(hào)是二維網(wǎng)格。

域的結(jié)構(gòu)由對稱群變換????(在我們的示例中為一組二位變換-作用于域上的點(diǎn)。在信號(hào)????(Ω)的空間中,底層域上的群動(dòng)作(群元素,????∈????)通過所謂的群表征ρ(????)來表示,在我們的例子中,上述操作是平移操作,即一個(gè)作用于d維向量的d×d矩陣。

輸入信號(hào)底層的域的幾何結(jié)構(gòu)為我們試圖學(xué)習(xí)的函數(shù) f 的類別施加了架構(gòu)信息。一個(gè)不變函數(shù)可以不受群的操作作用的影響,即對于任何????∈????和x,f(ρ(????)x)= f(x)。另一方面,函數(shù)可能具有相同的輸入和輸出結(jié)構(gòu),并且以與輸入相同的方式進(jìn)行轉(zhuǎn)換,這種函數(shù)稱為等變函數(shù),即滿足f(ρ(????)x)= ρ(???? )f(x)。

在計(jì)算機(jī)視覺領(lǐng)域中,圖像分類是一種典型的人們希望得到不變函數(shù)的任務(wù)(例如,無論貓位于圖像的什么位置,我們都希望將該圖分類為貓);而圖像分割任務(wù)的輸出是一個(gè)像素級(jí)別的標(biāo)簽掩模,這是一種等變函數(shù)(分割掩模需要遵循輸入圖像的變化)。

“尺度分離”

另一個(gè)強(qiáng)大的幾何先驗(yàn)是“尺度分離”。在某些情況下,我們可以通過“同化”附近的點(diǎn)并產(chǎn)生與粗粒度算子P相關(guān)的信號(hào)空間的層次結(jié)構(gòu),來構(gòu)建域的多尺度層次結(jié)構(gòu)(下圖中的Ω和Ω’)。

在這些粗尺度上,我們可以應(yīng)用粗尺度函數(shù)。我們分析出,如果一個(gè)函數(shù) f 可以被近似為粗粒度算子 P 和粗尺度函數(shù)的組合 f≈f’°P,則 f 是局部穩(wěn)定的。盡管 f 可能取決于長距離依賴,如果 f 是局部穩(wěn)定的,它們可以被分解為局部交互,然后向著粗尺度傳播。

這兩個(gè)原理為他們提供了一個(gè)非常通用的深度學(xué)習(xí)藍(lán)圖,可以在大多數(shù)用于表示學(xué)習(xí)的流行深度神經(jīng)體系結(jié)構(gòu)中得到認(rèn)可:一個(gè)典型設(shè)計(jì)由一系列等變層(例如,CNN中的卷積層)組成,可能遵循通過不變的全局池層將所有內(nèi)容聚合到一個(gè)輸出中。在某些情況下,也可以通過一些采用局部池化形式的粗化過程(coarsening procedure)來創(chuàng)建域的層次結(jié)構(gòu)。

這是一種非常通用的設(shè)計(jì),可以應(yīng)用于不同類型的幾何結(jié)構(gòu),包括幾何深度學(xué)習(xí)的“ 5G”(Grid,Groups,Graphs,Geodesics & Gauges):網(wǎng)格(具有全局轉(zhuǎn)換群的齊次空間),圖形(以及特殊情況下的集合)和流形,幾何先驗(yàn)通過全局等距不變性表示(可以使用測地學(xué)表示) 和局部規(guī)范的對稱性。

這些原則的實(shí)現(xiàn)導(dǎo)致了深度學(xué)習(xí)中當(dāng)今存在的一些最流行的體系結(jié)構(gòu):從平移對稱導(dǎo)出的卷積網(wǎng)絡(luò)(CNN)、圖神經(jīng)網(wǎng)絡(luò)、DeepSets和Transformers,實(shí)現(xiàn)了置換不變性, 時(shí)間扭曲不變導(dǎo)出的門控RNN(例如LSTM網(wǎng)絡(luò)),以及由規(guī)范對稱性導(dǎo)出的計(jì)算機(jī)圖形和視覺中使用的 Intrinsic Mesh CNN。

下一步他們還打算在“ 5G”上繼續(xù)“幾何深度學(xué)習(xí)”藍(lán)圖。

貌似高深的理論,用到了群論、微分幾何和各類機(jī)器學(xué)習(xí)高級(jí)算法,期待有更多研究人員參與并開展進(jìn)一步深入研究。

未來,也許整個(gè)深度學(xué)習(xí)“動(dòng)物園”的在原理上的統(tǒng)一真的不是夢。

責(zé)任編輯:haq

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴

原文標(biāo)題:收藏 | 從“幾何深度學(xué)習(xí)”看深度學(xué)習(xí)江湖的統(tǒng)一

文章出處:【微信號(hào):vision263com,微信公眾號(hào):新機(jī)器視覺】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    軍事應(yīng)用中深度學(xué)習(xí)的挑戰(zhàn)與機(jī)遇

    人工智能尤其是深度學(xué)習(xí)技術(shù)的最新進(jìn)展,加速了不同應(yīng)用領(lǐng)域的創(chuàng)新與發(fā)展。深度學(xué)習(xí)技術(shù)的發(fā)展深刻影響了軍事發(fā)展趨勢,導(dǎo)致戰(zhàn)爭形式和模式發(fā)生重大變化。本文將概述
    的頭像 發(fā)表于 02-14 11:15 ?530次閱讀

    BP神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)的關(guān)系

    BP神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)之間存在著密切的關(guān)系,以下是對它們之間關(guān)系的介紹: 、BP神經(jīng)網(wǎng)絡(luò)的基本概念 BP神經(jīng)網(wǎng)絡(luò),即反向傳播神經(jīng)網(wǎng)絡(luò)(Backpropagation Neural Network
    的頭像 發(fā)表于 02-12 15:15 ?850次閱讀

    之墨創(chuàng)新工程教育實(shí)踐套件家族再添

    在電子信息工程教育領(lǐng)域,理論與實(shí)踐相結(jié)合的教學(xué)模式正日益受到重視。近期,之墨創(chuàng)新工程教育實(shí)踐套件家族再添員,即基于電子增材制造技術(shù)與電子工程教育深度整合的工程實(shí)訓(xùn)創(chuàng)新應(yīng)用案例——“調(diào)頻收音機(jī)”套件。該套件可作為融合綜合理論知
    的頭像 發(fā)表于 01-02 10:37 ?507次閱讀

    NPU在深度學(xué)習(xí)中的應(yīng)用

    隨著人工智能技術(shù)的飛速發(fā)展,深度學(xué)習(xí)作為其核心驅(qū)動(dòng)力之,已經(jīng)在眾多領(lǐng)域展現(xiàn)出了巨大的潛力和價(jià)值。NPU(Neural Processing Unit,神經(jīng)網(wǎng)絡(luò)處理單元)是專門為深度
    的頭像 發(fā)表于 11-14 15:17 ?1899次閱讀

    Pytorch深度學(xué)習(xí)訓(xùn)練的方法

    掌握這 17 種方法,用最省力的方式,加速你的 Pytorch 深度學(xué)習(xí)訓(xùn)練。
    的頭像 發(fā)表于 10-28 14:05 ?651次閱讀
    Pytorch<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>訓(xùn)練的方法

    GPU深度學(xué)習(xí)應(yīng)用案例

    GPU在深度學(xué)習(xí)中的應(yīng)用廣泛且重要,以下是些GPU深度學(xué)習(xí)應(yīng)用案例: 、圖像識(shí)別 圖像識(shí)別是
    的頭像 發(fā)表于 10-27 11:13 ?1339次閱讀

    激光雷達(dá)技術(shù)的基于深度學(xué)習(xí)的進(jìn)步

    信息。這使得激光雷達(dá)在自動(dòng)駕駛、無人機(jī)、機(jī)器人等領(lǐng)域具有廣泛的應(yīng)用前景。 二、深度學(xué)習(xí)技術(shù)的發(fā)展 深度學(xué)習(xí)是機(jī)器學(xué)習(xí)
    的頭像 發(fā)表于 10-27 10:57 ?1057次閱讀

    FPGA加速深度學(xué)習(xí)模型的案例

    FPGA(現(xiàn)場可編程門陣列)加速深度學(xué)習(xí)模型是當(dāng)前硬件加速領(lǐng)域的個(gè)熱門研究方向。以下是些FPGA加速深度
    的頭像 發(fā)表于 10-25 09:22 ?1219次閱讀

    AI大模型與深度學(xué)習(xí)的關(guān)系

    AI大模型與深度學(xué)習(xí)之間存在著密不可分的關(guān)系,它們互為促進(jìn),相輔相成。以下是對兩者關(guān)系的介紹: 、深度學(xué)習(xí)是AI大模型的基礎(chǔ) 技術(shù)支撐 :
    的頭像 發(fā)表于 10-23 15:25 ?2876次閱讀

    深度學(xué)習(xí)GPU加速效果如何

    圖形處理器(GPU)憑借其強(qiáng)大的并行計(jì)算能力,成為加速深度學(xué)習(xí)任務(wù)的理想選擇。
    的頭像 發(fā)表于 10-17 10:07 ?608次閱讀

    FPGA做深度學(xué)習(xí)能走多遠(yuǎn)?

    ,共同進(jìn)步。 歡迎加入FPGA技術(shù)微信交流群14群! 交流問題() Q:FPGA做深度學(xué)習(xí)能走多遠(yuǎn)?現(xiàn)在用FPGA做深度學(xué)習(xí)加速成為
    發(fā)表于 09-27 20:53

    PyTorch深度學(xué)習(xí)開發(fā)環(huán)境搭建指南

    PyTorch作為種流行的深度學(xué)習(xí)框架,其開發(fā)環(huán)境的搭建對于深度學(xué)習(xí)研究者和開發(fā)者來說至關(guān)重要。在Windows操作系統(tǒng)上搭建PyTorc
    的頭像 發(fā)表于 07-16 18:29 ?2512次閱讀

    深度學(xué)習(xí)模型有哪些應(yīng)用場景

    深度學(xué)習(xí)模型作為人工智能領(lǐng)域的重要分支,已經(jīng)在多個(gè)應(yīng)用場景中展現(xiàn)出其巨大的潛力和價(jià)值。這些應(yīng)用不僅改變了我們的日常生活,還推動(dòng)了科技進(jìn)步和產(chǎn)業(yè)升級(jí)。以下將詳細(xì)探討深度學(xué)習(xí)模型的20個(gè)主
    的頭像 發(fā)表于 07-16 18:25 ?4077次閱讀

    深度學(xué)習(xí)算法在嵌入式平臺(tái)上的部署

    隨著人工智能技術(shù)的飛速發(fā)展,深度學(xué)習(xí)算法在各個(gè)領(lǐng)域的應(yīng)用日益廣泛。然而,將深度學(xué)習(xí)算法部署到資源受限的嵌入式平臺(tái)上,仍然是個(gè)具有挑戰(zhàn)性的任
    的頭像 發(fā)表于 07-15 10:03 ?3183次閱讀

    深度學(xué)習(xí)算法在集成電路測試中的應(yīng)用

    隨著半導(dǎo)體技術(shù)的快速發(fā)展,集成電路(IC)的復(fù)雜性和集成度不斷提高,對測試技術(shù)的要求也日益增加。深度學(xué)習(xí)算法作為種強(qiáng)大的數(shù)據(jù)處理和模式識(shí)別工具,在集成電路測試領(lǐng)域展現(xiàn)出了巨大的應(yīng)用潛力。本文將從
    的頭像 發(fā)表于 07-15 09:48 ?1854次閱讀
    主站蜘蛛池模板: 三级黄色网址 | 亚洲一区二区三区免费在线观看 | 午夜影院h | 日本高清视频成人网www | 久久综合九色欧美综合狠狠 | 久久精品亚洲一级毛片 | 中国免费黄色片 | 国产天天在线 | 让她爽的喷水叫爽乱 | 日本色婷婷 | 老师下面很湿很爽很紧 | 变态重口极致另类在线 | 天天看黄色 | 日本不卡高清免费v日本 | 日本视频网站在线www色 | 欧美12一13高清视频 | 日日拍拍 | 六月婷婷色| 狠狠狠狠操 | 日本在线不卡视频 | 亚色影视 | 婷婷99视频精品全部在线观看 | 色黄网| 在线你懂的网址 | 免费午夜不卡毛片 | 日韩色影视 | 色777777女人色 | 欧美无遮挡国产欧美另类 | 国产1024一区二区你懂的 | 最新久久免费视频 | 亚洲精品美女在线观看 | 黄色的视频免费看 | 国产女人伦码一区二区三区不卡 | 五月婷婷综合激情网 | 色老头成人免费综合视频 | 日本不卡高清视频 | 日本 韩国 三级 国产 欧美 | 亚洲羞羞裸色私人影院 | 双性强迫开宫灌满h | 午夜免费观看福利片一区二区三区 | 美女国产 |