在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

有關(guān)深度學(xué)習(xí)的25個(gè)問題

倩倩 ? 來源:CSDN ? 2020-04-17 11:12 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

在本文中,我將分享有關(guān)深度學(xué)習(xí)的25個(gè)問題,希望能夠幫助你為面試做好準(zhǔn)備。

1.為什么必須在神經(jīng)網(wǎng)絡(luò)中引入非線性?

答:否則,我們將獲得一個(gè)由多個(gè)線性函數(shù)組成的線性函數(shù),那么就成了線性模型。線性模型的參數(shù)數(shù)量非常少,因此建模的復(fù)雜性也會非常有限。

2.說明解決神經(jīng)網(wǎng)絡(luò)中梯度消失問題的兩種方法。

答:

使用ReLU激活函數(shù)代替S激活函數(shù)。

使用Xavier初始化。

3.在圖像分類任務(wù)中,相較于使用密集神經(jīng)網(wǎng)絡(luò)(Dense Neural Network,DNN),使用卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)有哪些優(yōu)勢?

答:雖然兩種模型都可以捕獲彼此靠近的像素之間的關(guān)系,但CNN具有以下屬性:

它是平移不變的:對于過濾器而言,像素的確切位置是無關(guān)的。

更不容易發(fā)生過度擬合:一般而言CNN中的參數(shù)比DNN要少很多。

方便我們更好地理解模型:我們可以查看過濾器的權(quán)重,并可視化神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)成果。

分層性質(zhì):通過使用較簡單的模式描述復(fù)雜的模式來學(xué)習(xí)模式。

4. 說明在圖像分類任務(wù)中可視化CNN特征的兩種方法。

答:

輸入遮擋:遮擋輸入圖像的一部分,看看哪部分對分類的影響最大。 例如,針對某個(gè)訓(xùn)練好的圖像分類模型,將下列圖像作為輸入。如果我們看到第三幅圖像被分類為狗狗的概率為98%,而第二幅圖像的準(zhǔn)確率僅為65%,則說明眼睛對于對分類的影響更大。

激活最大化:創(chuàng)建一個(gè)人造的輸入圖像,以最大化目標(biāo)響應(yīng)(梯度上升)。

5. 在優(yōu)化學(xué)習(xí)速率時(shí),分別嘗試學(xué)習(xí)速率:0.1、0.2,…,0.5是好辦法嗎?

答:這種方法并不好,建議使用對數(shù)比例來優(yōu)化學(xué)習(xí)速率。

6. 假設(shè)一個(gè)神經(jīng)網(wǎng)絡(luò)擁有3層的結(jié)構(gòu)和ReLU激活函數(shù)。如果我們用同一個(gè)值初始化所有權(quán)重,結(jié)果會怎樣?如果我們只有1層(即線性/邏輯回歸)會怎樣?

答:如果所有權(quán)重的初始值都相同,則無法破壞對稱性。也就是說,所有梯度都會更新成同一個(gè)值,而且神經(jīng)網(wǎng)絡(luò)將無法學(xué)習(xí)。但是,如果神經(jīng)網(wǎng)絡(luò)只有1層的話,成本函數(shù)是凸形的(線性/ S型),因此權(quán)重始終會收斂到最佳點(diǎn),無論初始值是什么(收斂可能會較慢)。

7.解釋Adam優(yōu)化器的概念。

答:Adam結(jié)合了兩個(gè)想法來改善收斂性:每個(gè)參數(shù)更新可加快收斂速度;動量可避免卡在鞍點(diǎn)上。

8.比較批處理,小批處理和隨機(jī)梯度下降。

答:批處理是指在估計(jì)數(shù)據(jù)時(shí)獲取整個(gè)數(shù)據(jù);小批處理是通過對幾個(gè)數(shù)據(jù)點(diǎn)進(jìn)行采樣來進(jìn)行小批量處理;而隨機(jī)梯度下降是指在每個(gè)時(shí)期更新一個(gè)數(shù)據(jù)點(diǎn)的梯度。我們需要權(quán)衡梯度計(jì)算的準(zhǔn)確度與保存在內(nèi)存中的批量大小。此外,通過在每個(gè)epoch添加隨機(jī)噪聲,我們可以通過小批處理(而非整個(gè)批處理)實(shí)現(xiàn)正規(guī)化效果。

9.什么是數(shù)據(jù)擴(kuò)充?舉個(gè)例子。

答:數(shù)據(jù)擴(kuò)充是一種技術(shù),通過操作原始數(shù)據(jù)來增加輸入數(shù)據(jù)。例如,對于圖像,我們可以執(zhí)行以下操作:旋轉(zhuǎn)圖像、翻轉(zhuǎn)圖像、添加高斯模糊等。

10. 解釋GAN的概念。

答:GAN(Generative Adversarial Network)即生成對抗網(wǎng)絡(luò),通常由兩個(gè)神經(jīng)網(wǎng)絡(luò)D和G組成,其中D指的是判別器(Discriminator),而G指生成網(wǎng)絡(luò)(Generative Network)。這種模型的目標(biāo)是創(chuàng)建數(shù)據(jù),例如創(chuàng)建與真實(shí)圖像并無二樣的圖像。假設(shè)我們想要創(chuàng)建一只貓的對抗示例。神經(jīng)網(wǎng)絡(luò)G負(fù)責(zé)生成圖像,而神經(jīng)網(wǎng)絡(luò)D則負(fù)責(zé)判斷圖像是否是貓。G的目標(biāo)是“愚弄”D——將G的輸出始終分類為貓。

11.使用Batchnorm有什么優(yōu)勢?

答:Batchnorm能夠加快訓(xùn)練過程,而且(一些噪音的副產(chǎn)品)還具有調(diào)節(jié)作用。

12.什么是多任務(wù)學(xué)習(xí)?應(yīng)該在什么時(shí)候使用?

答:當(dāng)我們使用少量數(shù)據(jù)處理多個(gè)任務(wù)時(shí),多任務(wù)處理將很有用,而且我們還可以使用在其他任務(wù)的大型數(shù)據(jù)集上訓(xùn)練好的模型。通過“硬”方式(即相同的參數(shù))或“軟”方式(即對成本函數(shù)進(jìn)行正則化/懲罰)共享模型的參數(shù)。

13.什么是端到端學(xué)習(xí)?列舉一些優(yōu)點(diǎn)。

答:端到端學(xué)習(xí)通常是一個(gè)模型,該模型能夠獲取原始數(shù)據(jù)并直接輸出所需的結(jié)果,而無需任何中間任務(wù)或功能工程。其優(yōu)點(diǎn)包括:無需手工構(gòu)建功能,而且通??梢越档推?。

14.如果在最后一層中,我們先使用ReLU激活函數(shù),然后再使用Sigmoid函數(shù),會怎樣?

答:由于ReLU始終會輸出非負(fù)結(jié)果,因此該神經(jīng)網(wǎng)絡(luò)會將所有輸入預(yù)測成同一個(gè)類別!

15.如何解決梯度爆炸的問題?

答:解決梯度爆炸問題的一個(gè)最簡單的方法就是梯度修剪,即當(dāng)梯度的絕對值大于M(M是一個(gè)很大的數(shù)字)時(shí),設(shè)梯度為±M。

16.使用批量梯度下降法時(shí),是否有必要打亂訓(xùn)練數(shù)據(jù)?

答:沒有必要。因?yàn)槊總€(gè)epoch的梯度計(jì)算都會使用整個(gè)訓(xùn)練數(shù)據(jù),所以打亂順序也沒有任何影響。

17.當(dāng)使用小批量梯度下降時(shí),為什么打亂數(shù)據(jù)很重要?

答:如果不打亂數(shù)據(jù)的順序,那么假設(shè)我們訓(xùn)練一個(gè)神經(jīng)網(wǎng)絡(luò)分類器,且有兩個(gè)類別:A和B,那么各個(gè)epoch中的所有小批量都會完全相同,這會導(dǎo)致收斂速度變慢,甚至導(dǎo)致神經(jīng)網(wǎng)絡(luò)對數(shù)據(jù)的順序產(chǎn)生傾向性。

18.列舉遷移學(xué)習(xí)的超參數(shù)。

答:保留多少層、添加多少層、凍結(jié)多少層。

19. 測試集上是否需要使用dropout?

答:不可以使用!dropout只能用于訓(xùn)練集。dropout是訓(xùn)練過程中應(yīng)用的一種正則化技術(shù)。

20.說明為什么神經(jīng)網(wǎng)絡(luò)中的dropout可以作為正則化。

答:關(guān)于dropout的工作原理有幾種解釋。我們可以將其視為模型平均的一種形式:我們可以在每一步中“去掉”模型的一部分并取平均值。另外,它還會增加噪音,自然會產(chǎn)生調(diào)節(jié)的效果。最后,它還可以稀釋權(quán)重,從根本上阻止神經(jīng)網(wǎng)絡(luò)中神經(jīng)元的共適應(yīng)。

21. 舉個(gè)適合多對一RNN架構(gòu)的例子。

答:例如:情緒分析,語音中的性別識別等。

22.我們什么時(shí)候不能使用BiLSTM?說明在使用BiLSTM我們必須做的假設(shè)。

答:在所有雙向模型中,我們都可以假設(shè)在給定的“時(shí)間”內(nèi)訪問序列的下一個(gè)元素。文本數(shù)據(jù)(例如情感分析、翻譯等)就是這種情況,而時(shí)間序列數(shù)據(jù)則不屬于這種情況。

23. 判斷對錯:將L2正則化添加到RNN有助于解決梯度消失的問題。

答:錯誤!添加L2正則化會將權(quán)重縮小為零,在某些情況下這實(shí)際上會讓梯度消失的問題更嚴(yán)重。

24. 假設(shè)訓(xùn)練錯誤/成本很高,而且驗(yàn)證成本/錯誤幾乎與之相等。這是什么意思?我們應(yīng)該做些什么?

答:這表明欠擬合。我們可以添加更多參數(shù),增加模型的復(fù)雜性或減少正則化。

25. 說明為何L2正則化可以解釋為一種權(quán)重衰減。

答:假設(shè)我們的成本函數(shù)為C(w),我們再加上一個(gè)c|w|2。使用梯度下降時(shí),迭代如下:

w = w -grad(C)(w) — 2cw = (1–2c)w — grad(C)(w)

在該等式中,權(quán)重乘以因子《1

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    軍事應(yīng)用中深度學(xué)習(xí)的挑戰(zhàn)與機(jī)遇

    ,并廣泛介紹了深度學(xué)習(xí)在兩個(gè)主要軍事應(yīng)用領(lǐng)域的應(yīng)用:情報(bào)行動和自主平臺。最后,討論了相關(guān)的威脅、機(jī)遇、技術(shù)和實(shí)際困難。主要發(fā)現(xiàn)是,人工智能技術(shù)并非無所不能,需要謹(jǐn)慎應(yīng)用,同時(shí)考慮到其局限性、網(wǎng)絡(luò)安全威脅以及
    的頭像 發(fā)表于 02-14 11:15 ?515次閱讀

    BP神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)的關(guān)系

    ),是一種多層前饋神經(jīng)網(wǎng)絡(luò),它通過反向傳播算法進(jìn)行訓(xùn)練。BP神經(jīng)網(wǎng)絡(luò)由輸入層、一個(gè)或多個(gè)隱藏層和輸出層組成,通過逐層遞減的方式調(diào)整網(wǎng)絡(luò)權(quán)重,目的是最小化網(wǎng)絡(luò)的輸出誤差。 二、深度學(xué)習(xí)的定義與發(fā)展
    的頭像 發(fā)表于 02-12 15:15 ?829次閱讀

    NPU在深度學(xué)習(xí)中的應(yīng)用

    隨著人工智能技術(shù)的飛速發(fā)展,深度學(xué)習(xí)作為其核心驅(qū)動力之一,已經(jīng)在眾多領(lǐng)域展現(xiàn)出了巨大的潛力和價(jià)值。NPU(Neural Processing Unit,神經(jīng)網(wǎng)絡(luò)處理單元)是專門為深度學(xué)習(xí)
    的頭像 發(fā)表于 11-14 15:17 ?1873次閱讀

    Pytorch深度學(xué)習(xí)訓(xùn)練的方法

    掌握這 17 種方法,用最省力的方式,加速你的 Pytorch 深度學(xué)習(xí)訓(xùn)練。
    的頭像 發(fā)表于 10-28 14:05 ?640次閱讀
    Pytorch<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>訓(xùn)練的方法

    GPU深度學(xué)習(xí)應(yīng)用案例

    能力,可以顯著提高圖像識別模型的訓(xùn)練速度和準(zhǔn)確性。例如,在人臉識別、自動駕駛等領(lǐng)域,GPU被廣泛應(yīng)用于加速深度學(xué)習(xí)模型的訓(xùn)練和推理過程。 二、自然語言處理 自然語言處理(NLP)是深度學(xué)習(xí)
    的頭像 發(fā)表于 10-27 11:13 ?1315次閱讀

    激光雷達(dá)技術(shù)的基于深度學(xué)習(xí)的進(jìn)步

    信息。這使得激光雷達(dá)在自動駕駛、無人機(jī)、機(jī)器人等領(lǐng)域具有廣泛的應(yīng)用前景。 二、深度學(xué)習(xí)技術(shù)的發(fā)展 深度學(xué)習(xí)是機(jī)器學(xué)習(xí)的一
    的頭像 發(fā)表于 10-27 10:57 ?1040次閱讀

    FPGA加速深度學(xué)習(xí)模型的案例

    FPGA(現(xiàn)場可編程門陣列)加速深度學(xué)習(xí)模型是當(dāng)前硬件加速領(lǐng)域的一個(gè)熱門研究方向。以下是一些FPGA加速深度學(xué)習(xí)模型的案例: 一、基于FPG
    的頭像 發(fā)表于 10-25 09:22 ?1186次閱讀

    AI大模型與深度學(xué)習(xí)的關(guān)系

    AI大模型與深度學(xué)習(xí)之間存在著密不可分的關(guān)系,它們互為促進(jìn),相輔相成。以下是對兩者關(guān)系的介紹: 一、深度學(xué)習(xí)是AI大模型的基礎(chǔ) 技術(shù)支撐 :深度
    的頭像 發(fā)表于 10-23 15:25 ?2847次閱讀

    FPGA做深度學(xué)習(xí)能走多遠(yuǎn)?

    ,共同進(jìn)步。 歡迎加入FPGA技術(shù)微信交流群14群! 交流問題(一) Q:FPGA做深度學(xué)習(xí)能走多遠(yuǎn)?現(xiàn)在用FPGA做深度學(xué)習(xí)加速成為一個(gè)
    發(fā)表于 09-27 20:53

    PyTorch深度學(xué)習(xí)開發(fā)環(huán)境搭建指南

    PyTorch作為一種流行的深度學(xué)習(xí)框架,其開發(fā)環(huán)境的搭建對于深度學(xué)習(xí)研究者和開發(fā)者來說至關(guān)重要。在Windows操作系統(tǒng)上搭建PyTorch環(huán)境,需要綜合考慮多個(gè)方面,包括軟件安裝、
    的頭像 發(fā)表于 07-16 18:29 ?2447次閱讀

    深度學(xué)習(xí)算法在嵌入式平臺上的部署

    隨著人工智能技術(shù)的飛速發(fā)展,深度學(xué)習(xí)算法在各個(gè)領(lǐng)域的應(yīng)用日益廣泛。然而,將深度學(xué)習(xí)算法部署到資源受限的嵌入式平臺上,仍然是一個(gè)具有挑戰(zhàn)性的任
    的頭像 發(fā)表于 07-15 10:03 ?3101次閱讀

    利用Matlab函數(shù)實(shí)現(xiàn)深度學(xué)習(xí)算法

    在Matlab中實(shí)現(xiàn)深度學(xué)習(xí)算法是一個(gè)復(fù)雜但強(qiáng)大的過程,可以應(yīng)用于各種領(lǐng)域,如圖像識別、自然語言處理、時(shí)間序列預(yù)測等。這里,我將概述一個(gè)基本的流程,包括環(huán)境設(shè)置、數(shù)據(jù)準(zhǔn)備、模型設(shè)計(jì)、訓(xùn)
    的頭像 發(fā)表于 07-14 14:21 ?3597次閱讀

    基于Python的深度學(xué)習(xí)人臉識別方法

    基于Python的深度學(xué)習(xí)人臉識別方法是一個(gè)涉及多個(gè)技術(shù)領(lǐng)域的復(fù)雜話題,包括計(jì)算機(jī)視覺、深度學(xué)習(xí)、以及圖像處理等。在這里,我將概述一
    的頭像 發(fā)表于 07-14 11:52 ?1677次閱讀

    深度學(xué)習(xí)中的時(shí)間序列分類方法

    時(shí)間序列分類(Time Series Classification, TSC)是機(jī)器學(xué)習(xí)深度學(xué)習(xí)領(lǐng)域的重要任務(wù)之一,廣泛應(yīng)用于人體活動識別、系統(tǒng)監(jiān)測、金融預(yù)測、醫(yī)療診斷等多個(gè)領(lǐng)域。隨著深度
    的頭像 發(fā)表于 07-09 15:54 ?2092次閱讀

    深度學(xué)習(xí)中的無監(jiān)督學(xué)習(xí)方法綜述

    深度學(xué)習(xí)作為機(jī)器學(xué)習(xí)領(lǐng)域的一個(gè)重要分支,近年來在多個(gè)領(lǐng)域取得了顯著的成果,特別是在圖像識別、語音識別、自然語言處理等領(lǐng)域。然而,深度
    的頭像 發(fā)表于 07-09 10:50 ?1684次閱讀
    主站蜘蛛池模板: 天天在线天天看成人免费视频 | 二级黄色大片 | 欧美不卡1卡2卡三卡老狼 | 伊人网色| 丁香花免费观看视频 | 黄色网址视频在线播放 | 欧美xingai| 欧美一区二区精品 | 国产福利2021最新在线观看 | 久久99精品久久久久久野外 | 午夜性爽快 | 曰本三级香港三级人妇99视频 | 色多多a| 色视频免费在线 | 天堂网2014av| 忘忧草爱网 | 九色视频网站 | 欧美性色黄在线视 | 亚洲国产网 | 性欧美大胆高清视频 | 黄色免费网站在线播放 | 成人亚洲网站 | 免费在线观看理论片 | 男人资源站 | 狠狠噜天天噜日日噜 | 俺来也婷婷 | 男女交性高清视频无遮挡 | 欧美伊人久久综合网 | a级黑粗大硬长爽猛视频毛片 | 亚洲人成网站在线观看妞妞网 | 亚洲视频1 | 男人的天堂97 | 福利午夜最新 | 国产无遮挡床戏视频免费 | 在线观看免费视频网站色 | 1024视频在线观看国产成人 | 日本色高清 | 久久精品94精品久久精品 | 女人被两根一起进3p在线观看 | 欧美一区二区三区高清视频 | 一区二区三区中文字幕 |