在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

基于機(jī)器學(xué)習(xí)方法的網(wǎng)絡(luò)流量解析

電子設(shè)計(jì) ? 來(lái)源: 信息安全與通信保密雜志 ? 作者:Cismag ? 2021-01-16 10:28 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

隨著大眾網(wǎng)絡(luò)安全意識(shí)的穩(wěn)步提升,對(duì)于數(shù)據(jù)保護(hù)的意識(shí)也愈加強(qiáng)烈。根據(jù)Google的報(bào)告,2019年10月,Chrome加載網(wǎng)頁(yè)中啟用加密的比例已經(jīng)達(dá)到了95%。對(duì)于特定類型的流量,加密甚至已成為法律的強(qiáng)制性要求,加密在保護(hù)隱私的同時(shí)也給網(wǎng)絡(luò)安全帶來(lái)了新的隱患。攻擊者將加密作為隱藏活動(dòng)的工具,加密流量給攻擊者隱藏其命令與控制活動(dòng)提供了可乘之機(jī)。在面臨日益嚴(yán)重的網(wǎng)絡(luò)安全威脅和攻擊時(shí),需要提出有效的識(shí)別方法。實(shí)現(xiàn)加密流量精細(xì)化管理,保障計(jì)算機(jī)和終端設(shè)備安全運(yùn)行,維護(hù)健康綠色的網(wǎng)絡(luò)環(huán)境。

01、相關(guān)研究

當(dāng)前對(duì)于加密網(wǎng)絡(luò)流識(shí)別的研究主要集中在機(jī)器學(xué)習(xí)相關(guān)的方法上。使用機(jī)器學(xué)習(xí)方法對(duì)網(wǎng)絡(luò)流量進(jìn)行解析時(shí),按使用的機(jī)器學(xué)習(xí)算法不同可以分為傳統(tǒng)機(jī)器學(xué)習(xí)算法(淺層學(xué)習(xí))和深度學(xué)習(xí)。傳統(tǒng)機(jī)器學(xué)習(xí)算法對(duì)加密網(wǎng)絡(luò)流量解析主要存在兩個(gè)問(wèn)題:一個(gè)是需要對(duì)待分類的報(bào)文人工設(shè)計(jì)一個(gè)可以普遍反映流量特征的特征集;另一個(gè)就是傳統(tǒng)機(jī)器學(xué)習(xí)方法有很大的局限性,例如對(duì)復(fù)雜函數(shù)難以表示、容易陷入局部最優(yōu)解等。

由于以上兩個(gè)原因,導(dǎo)致傳統(tǒng)機(jī)器學(xué)習(xí)方法對(duì)加密網(wǎng)絡(luò)流量解析的準(zhǔn)確率不是很高。隨著計(jì)算方法的發(fā)展和計(jì)算能力的提高,深度學(xué)習(xí)的引入可以有效解決機(jī)器學(xué)習(xí)設(shè)計(jì)特征的問(wèn)題。深度學(xué)習(xí)通過(guò)特征學(xué)習(xí)和分層特征提取的方法來(lái)替代手工獲取特征。深度神經(jīng)網(wǎng)絡(luò)擁有很高的擬合能力,可以逼近許多復(fù)雜的函數(shù),不易陷入局部最優(yōu)解。解決了傳統(tǒng)機(jī)器學(xué)習(xí)在加密網(wǎng)絡(luò)流量解析時(shí)存在的兩個(gè)關(guān)鍵問(wèn)題。

深度學(xué)習(xí)是基于表示學(xué)習(xí)的眾多機(jī)器學(xué)習(xí)算法中的一員。目前使用最多的深度學(xué)習(xí)方法包括DBN(Deep Belief Nets)、CNN(Convolutional Neural Networks)、深度自編碼器(AutoEncoder,AE)和循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network,RNN)以及基于RNN的長(zhǎng)短期記憶網(wǎng)絡(luò)(Long Short-Term Memory,LSTM),近年來(lái)這些方法被廣泛地應(yīng)用在加密流量解析中,并取得了不錯(cuò)的成果。王偉等人提出一種基于CNN的異常流量檢測(cè)方法,該方法利用CNN特征學(xué)習(xí)能力,準(zhǔn)確地對(duì)流量的特征進(jìn)行提取,將提取到的特征用于流量分類并取得了良好的結(jié)果,最終將該模型用于異常流量檢測(cè)。

J.Ran等人提出了一種將三維卷積神經(jīng)網(wǎng)絡(luò)應(yīng)用于無(wú)線網(wǎng)絡(luò)流量分類的方法,實(shí)驗(yàn)結(jié)果表明該方法優(yōu)于一維和二維卷積神經(jīng)網(wǎng)絡(luò)。Jain研究了由不同優(yōu)化器訓(xùn)練的卷積神經(jīng)網(wǎng)絡(luò)對(duì)協(xié)議識(shí)別的影響,實(shí)驗(yàn)結(jié)果表明,隨機(jī)梯度下降(Stochastic Gradient Descent,SGD)優(yōu)化器產(chǎn)生的識(shí)別效果最好。陳雪嬌等利用卷積神經(jīng)網(wǎng)絡(luò)的識(shí)別準(zhǔn)確率高和自主進(jìn)行特征選擇的優(yōu)勢(shì),將其應(yīng)用于加密流量的識(shí)別,測(cè)試結(jié)果表明該方法優(yōu)于DPI方法。

王勇等設(shè)計(jì)了基于LeNet-5深度卷積神經(jīng)網(wǎng)絡(luò)的分類方法,通過(guò)不斷調(diào)整參數(shù)產(chǎn)生最優(yōu)分類模型,測(cè)試結(jié)果表明該方法優(yōu)于主成分分析、稀疏隨機(jī)映射等方法。Wu,Kehe等人將網(wǎng)絡(luò)流量數(shù)據(jù)的121個(gè)流統(tǒng)計(jì)特征作為數(shù)據(jù)集,并對(duì)比了一維和二維CNN網(wǎng)絡(luò)、CNN網(wǎng)絡(luò)與傳統(tǒng)機(jī)器學(xué)習(xí)算法、CNN網(wǎng)絡(luò)與RNN網(wǎng)絡(luò)的分類準(zhǔn)確性與計(jì)算量。

J.Ren等提出了一種針對(duì)無(wú)線通信網(wǎng)絡(luò)的協(xié)議識(shí)別方法,首先利用一維卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行自動(dòng)化的特征提取,然后基于SVM對(duì)應(yīng)用層協(xié)議進(jìn)行分類。H.Lim等提出了使用深度學(xué)習(xí)的基于數(shù)據(jù)包的網(wǎng)絡(luò)流量分類,該方法提取網(wǎng)絡(luò)會(huì)話中的前幾個(gè)數(shù)據(jù)包處理成等長(zhǎng)的向量,然后利用CNN和ResNet進(jìn)行訓(xùn)練,進(jìn)行流量分類。

在以往的基于深度學(xué)習(xí)的加密網(wǎng)絡(luò)流量解析研究中,數(shù)據(jù)預(yù)處理都是只針對(duì)原始的網(wǎng)絡(luò)流量數(shù)據(jù)進(jìn)行變換處理,而忽略了數(shù)據(jù)包在傳輸過(guò)程中的時(shí)間特征。因此,在本研究中,將對(duì)加密網(wǎng)絡(luò)流量中的原始報(bào)文數(shù)據(jù)及數(shù)據(jù)包傳輸時(shí)間間隔進(jìn)行綜合預(yù)處理,并采用CNN網(wǎng)絡(luò)模型進(jìn)行實(shí)驗(yàn)驗(yàn)證。

02、基于CNN的加密網(wǎng)絡(luò)流量識(shí)別方法

本節(jié)將從流量采集、數(shù)據(jù)預(yù)處理、加密網(wǎng)絡(luò)流量識(shí)別模型等環(huán)節(jié)詳細(xì)介紹本文提出的基于深度學(xué)習(xí)的加密網(wǎng)絡(luò)流量解析方法。

2.1流量采集

為了獲得更加接近實(shí)際使用場(chǎng)景下的網(wǎng)絡(luò)流量,我們?cè)?a target="_blank">手機(jī)終端安裝了代理軟件,采集日常真實(shí)使用環(huán)境下的應(yīng)用網(wǎng)絡(luò)流量,并按照應(yīng)用名稱分別保存為不同的文件,共計(jì)14類,16.81GB。

2.2數(shù)據(jù)預(yù)處理

采集的網(wǎng)絡(luò)流量存儲(chǔ)為Pcap格式的文件,該格式的文件除了流量數(shù)據(jù)外,還有該文件協(xié)議額外添加的其他信息,而這些信息有可能干擾分類結(jié)果。因此需要對(duì)該文件的格式進(jìn)行解析,提取出有用的數(shù)據(jù)部分。

2.2.1 Pcap格式介紹

Pcap文件格式如圖1所示,最開始的24個(gè)字節(jié)為文件頭(Global Header),后面是抓取的包頭(Packet Header)和包數(shù)據(jù)(Packet Data)。此處的包頭為Pcap文件格式的固定部分,描述了后面緊跟著的包數(shù)據(jù)的捕獲時(shí)間、捕獲長(zhǎng)度等信息,原始網(wǎng)絡(luò)數(shù)據(jù)流量中不包含此部分信息。包數(shù)據(jù)為數(shù)據(jù)鏈路層到應(yīng)用層的所有數(shù)據(jù),包括每一層的包頭。

pIYBAGACTh6Aei2rAADBvd9MFp8545.png

圖1 Pcap文件格式

圖2描述了Global Header的具體內(nèi)容以及每部分的長(zhǎng)度。

pIYBAGACTiqAXDYuAACqwph4_3g468.png

圖2 Global Header格式

每個(gè)字段的含義如下:

(1)Magic:4Byte,標(biāo)記文件開始,并用來(lái)識(shí)別文件自己和字節(jié)順序。0xa1b2c3d4用來(lái)表示按照原來(lái)的順序讀取,0xd4c3b2a1表示下面的字節(jié)都要交換順序讀取。考慮到計(jì)算機(jī)內(nèi)存的存儲(chǔ)結(jié)構(gòu),一般會(huì)采用0xd4c3b2a1,即所有字節(jié)都需要交換順序讀取。

(2)Major:2Byte,當(dāng)前文件主要的版本號(hào)。

(3)Minor:2Byte,當(dāng)前文件次要的版本號(hào)。

(4)ThisZone:4Byte,當(dāng)?shù)氐臉?biāo)準(zhǔn)時(shí)間。

(5)SigFigs:4Byte,時(shí)間戳的精度。

(6)SnapLen:4Byte,最大的存儲(chǔ)長(zhǎng)度。

(7)LinkType:4Byte,數(shù)據(jù)鏈路類型。

圖3描述了Packet Header的具體內(nèi)容以及每部分的長(zhǎng)度。

o4YBAGACTjSAXvB5AABJcOYl-qY574.png

圖3 Packet Header格式

每個(gè)字段的含義如下:

(1)Timestamp:捕獲時(shí)間的高位,單位為秒。

(2)Timestamp:捕獲時(shí)間的低位,單位為微秒。

(3)Caplen:當(dāng)前數(shù)據(jù)區(qū)的長(zhǎng)度,單位為字節(jié)。

(4)Len:離線數(shù)據(jù)長(zhǎng)度,網(wǎng)絡(luò)中實(shí)際數(shù)據(jù)幀的長(zhǎng)度。

2.2.2預(yù)處理方法

通過(guò)圖3對(duì)Pcap文件格式的介紹,我們發(fā)現(xiàn),Pcap文件中除了原始流量數(shù)據(jù)之外還有Global Header和Packet Header這兩部分原始數(shù)據(jù)流量中不存在的部分。因此,在接下來(lái)的數(shù)據(jù)處理環(huán)節(jié)中,我們將剔除這部分?jǐn)?shù)據(jù)或者對(duì)這部分?jǐn)?shù)據(jù)進(jìn)行轉(zhuǎn)換。預(yù)處理流程如下:

首先對(duì)采集到的Pcap文件按協(xié)議進(jìn)行過(guò)濾,提取出經(jīng)過(guò)加密的網(wǎng)絡(luò)流量,然后對(duì)提取出的流量按五元組進(jìn)行劃分。劃分出來(lái)的每一個(gè)文件將在后續(xù)流程中轉(zhuǎn)化為一張圖片。對(duì)劃分出來(lái)的每一個(gè)Pcap文件做如下處理。

pIYBAGACTkCAAe1GAAAkw772-IM540.png

圖4每種應(yīng)用的對(duì)應(yīng)的圖片數(shù)量

設(shè)最后返回的字節(jié)數(shù)組為A,需要的長(zhǎng)度為L(zhǎng)EN。

(1)首先忽略前24個(gè)字節(jié)。

(2)然后讀取16個(gè)字節(jié)的Packet Header,將其中的時(shí)間轉(zhuǎn)換為整數(shù),利用其中的捕獲長(zhǎng)度讀取Packet data,忽略掉數(shù)據(jù)鏈路層和網(wǎng)絡(luò)層的包頭,將傳輸層的包頭和payload加入字節(jié)數(shù)組A。

(3)如果不是第一個(gè)數(shù)據(jù)包,則利用本數(shù)據(jù)包的捕獲時(shí)間減去上一個(gè)數(shù)據(jù)包的捕獲時(shí)間,得到時(shí)間差Δt,利用本數(shù)據(jù)包的捕獲長(zhǎng)度L除以Δt,向上取整得到N,向字節(jié)數(shù)組A中加入N個(gè)0xFF字節(jié)。

(4)重復(fù)(2)(3)直到文件尾,或者A的長(zhǎng)度大于等于LEN。

(5)若讀取到文件尾之前,A的長(zhǎng)度大于等于LEN,則截?cái)嗟絃EN返回;若讀到文件尾,A的長(zhǎng)度仍小于LEN,則在末尾填充0x00直到長(zhǎng)度為L(zhǎng)EN。

(6)將A數(shù)組轉(zhuǎn)化為長(zhǎng)、寬相同的單通道灰度圖片。

最終將生成好的圖片存儲(chǔ)為TFRecoder格式,以便于后面的實(shí)驗(yàn)驗(yàn)證。預(yù)處理后每種應(yīng)用得到的圖片數(shù)目如圖4所示。

2.3加密網(wǎng)絡(luò)流量識(shí)別模型

本文采用了二維CNN模型進(jìn)行流量分類,為了對(duì)比不同輸入對(duì)實(shí)驗(yàn)結(jié)果的影響,分別嘗試了圖片長(zhǎng)寬為32、40、48、56、64,其中當(dāng)長(zhǎng)寬為32時(shí)效果最佳。下面介紹本文最終采用的CNN模型。

在卷積神經(jīng)網(wǎng)絡(luò)中,大尺寸的卷積核可以帶來(lái)更大的感受視野,獲取更多的信息,但也會(huì)產(chǎn)生更多的參數(shù),從而增加網(wǎng)絡(luò)的復(fù)雜度。為了減少模型的參數(shù),本文采用兩個(gè)連續(xù)的3*3卷積層來(lái)代替單個(gè)的5*5卷積層,可以在保持感受視野范圍的同時(shí)減少參數(shù)量。卷積層的Padding方式使用SAME方式,激活函數(shù)使用RELU,每一層的參數(shù)如表1所示。

表1網(wǎng)絡(luò)模型參數(shù)

pIYBAGACTkyAKlSiAALRpyBusf0091.png

03、實(shí)驗(yàn)與結(jié)果分析

為了對(duì)上述加密網(wǎng)絡(luò)流量識(shí)別模型進(jìn)行驗(yàn)證,采用TensorFlow深度學(xué)習(xí)框架,在NVIDIA TESLA K80上進(jìn)行了實(shí)驗(yàn)驗(yàn)證。

3.1評(píng)價(jià)指標(biāo)

本文采用準(zhǔn)確率(accuracy)、精準(zhǔn)率(precision)、召回率(recall)和F1-Measure值(以下簡(jiǎn)稱F1值)四個(gè)評(píng)價(jià)指標(biāo)來(lái)對(duì)實(shí)驗(yàn)結(jié)果進(jìn)行評(píng)估,其中準(zhǔn)確率是對(duì)整體的評(píng)價(jià)指標(biāo),精準(zhǔn)率和召回率是用來(lái)對(duì)某種類別流量識(shí)別的評(píng)價(jià)指標(biāo),而F1值是對(duì)于精準(zhǔn)率和召回率兩個(gè)指標(biāo)的綜合評(píng)估。為了計(jì)算這四個(gè)指標(biāo),需要引入TP、FP、FN、TN四個(gè)參數(shù),每個(gè)參數(shù)的意義如表2混淆矩陣所示。

表2混淆矩陣

pIYBAGACTlWANVwoAAC2XWcxB9Q388.png

每個(gè)指標(biāo)的計(jì)算方法如公式(1)~(4)所示。

o4YBAGACTl6AKbd_AADBQiz5XkI683.png

3.2實(shí)驗(yàn)結(jié)果

將處理好的數(shù)據(jù)按4:1的比例分為訓(xùn)練集和測(cè)試集,由于采集的數(shù)據(jù)不均衡,因此在訓(xùn)練時(shí)對(duì)訓(xùn)練數(shù)據(jù)采用過(guò)采樣的方法來(lái)縮小數(shù)據(jù)量之間的差異。采用了Adam優(yōu)化器和動(dòng)態(tài)學(xué)習(xí)率來(lái)提高模型的訓(xùn)練速度。最終訓(xùn)練好的模型在測(cè)試集上的結(jié)果如表3所示。

表3測(cè)試集結(jié)果

pIYBAGACTnGAPV6GAALeNuKgDtk627.png

為了驗(yàn)證在預(yù)處理階段引入時(shí)間間隔對(duì)模型準(zhǔn)確率的影響,還做了一組對(duì)比實(shí)驗(yàn)。對(duì)比實(shí)驗(yàn)在預(yù)處理階段不對(duì)時(shí)間間隔做特殊處理,直接舍棄該字段,最終結(jié)果如表4所示。可以看出,利用時(shí)間間隔可以有效提高分類結(jié)果的準(zhǔn)確率。

表4不同預(yù)處理方式對(duì)應(yīng)的實(shí)驗(yàn)結(jié)果

o4YBAGACTn2AS6FXAADGq1L_1jU277.png

04、結(jié)語(yǔ)

本文提出了一種基于深度學(xué)習(xí)的加密網(wǎng)絡(luò)流量識(shí)別方法,該方法對(duì)采集到的流量進(jìn)行預(yù)處理,利用傳輸層數(shù)據(jù)及數(shù)據(jù)包之間的時(shí)間間隔,將時(shí)間間隔轉(zhuǎn)換為二進(jìn)制數(shù)據(jù)中的特殊值,然后將解析后的數(shù)據(jù)轉(zhuǎn)換為灰度圖片,采用卷積神經(jīng)網(wǎng)絡(luò)對(duì)采集到的14類應(yīng)用的加密流量進(jìn)行分類,最終識(shí)別準(zhǔn)確率為96.22%,可以滿足實(shí)際應(yīng)用。后續(xù)研究將關(guān)注流量類型的甄別,即對(duì)每種應(yīng)用流量中不同類型的流量進(jìn)行識(shí)別,如視頻流量、文本流量、圖片流量等,進(jìn)一步挖掘用戶行為。
編輯:hfy

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    完整教程:如何在樹莓派上配置防火墻?

    引言防火墻是任何網(wǎng)絡(luò)包括樹莓派網(wǎng)絡(luò)中必不可少的工具。本質(zhì)上,防火墻是內(nèi)部網(wǎng)絡(luò)(如樹莓派網(wǎng)絡(luò))與其他外部網(wǎng)絡(luò)(如互聯(lián)網(wǎng))之間的安全屏障。其主要
    的頭像 發(fā)表于 07-07 16:30 ?121次閱讀
    完整教程:如何在樹莓派上配置防火墻?

    第一章 W55MH32 高性能以太網(wǎng)單片機(jī)的學(xué)習(xí)方法概述

    本章介紹W55MH32的學(xué)習(xí)方法,建議先了解硬件資源,按基礎(chǔ)篇、入門篇循序漸進(jìn)學(xué)習(xí)。參考兩份手冊(cè),提供例程資料,還給出官網(wǎng)、github 等學(xué)習(xí)資料查找渠道。讓我們一起踏上W55MH32高性能以太網(wǎng)單片機(jī)的
    的頭像 發(fā)表于 05-26 09:07 ?78次閱讀
    第一章 W55MH32 高性能以太網(wǎng)單片機(jī)的<b class='flag-5'>學(xué)習(xí)方法</b>概述

    曙光網(wǎng)絡(luò)發(fā)布網(wǎng)絡(luò)流量回溯分析平臺(tái)SUNA

    AI時(shí)代,日益復(fù)雜的網(wǎng)絡(luò)環(huán)境正給運(yùn)維帶來(lái)嚴(yán)峻挑戰(zhàn)。業(yè)務(wù)系統(tǒng)卡頓、異常流量難溯源、故障定位如大海撈針等問(wèn)題頻發(fā),傳統(tǒng)運(yùn)維手段已難應(yīng)對(duì)海量數(shù)據(jù)洪流的需求。
    的頭像 發(fā)表于 05-22 14:28 ?415次閱讀

    使用MATLAB進(jìn)行無(wú)監(jiān)督學(xué)習(xí)

    無(wú)監(jiān)督學(xué)習(xí)是一種根據(jù)未標(biāo)注數(shù)據(jù)進(jìn)行推斷的機(jī)器學(xué)習(xí)方法。無(wú)監(jiān)督學(xué)習(xí)旨在識(shí)別數(shù)據(jù)中隱藏的模式和關(guān)系,無(wú)需任何監(jiān)督或關(guān)于結(jié)果的先驗(yàn)知識(shí)。
    的頭像 發(fā)表于 05-16 14:48 ?657次閱讀
    使用MATLAB進(jìn)行無(wú)監(jiān)督<b class='flag-5'>學(xué)習(xí)</b>

    一種無(wú)刷直流電機(jī)霍耳信號(hào)與定子繞組關(guān)系自學(xué)習(xí)方法

    的關(guān)系。提出了一種無(wú)刷直流電機(jī)霍耳信號(hào)與定子繞組關(guān)系自學(xué)習(xí)方法,該方法通過(guò)不同的繞組通電組合將電機(jī)轉(zhuǎn)子依次轉(zhuǎn)到6個(gè)不同的位置并記錄對(duì)應(yīng)的霍耳信號(hào),然后得出霍耳信號(hào)與定子繞組的對(duì)應(yīng)關(guān)系。所提出的方法快速
    發(fā)表于 03-25 15:15

    高效流量復(fù)制匯聚,構(gòu)建自主可控的網(wǎng)絡(luò)安全環(huán)境

    隨著大數(shù)據(jù)監(jiān)測(cè)、流量分析以及網(wǎng)絡(luò)安全監(jiān)管等核心業(yè)務(wù)需求的日益增長(zhǎng),網(wǎng)絡(luò)環(huán)境對(duì)高性能、高可靠性的流量監(jiān)控和分析提出了更高的要求。流量復(fù)制匯聚平
    的頭像 發(fā)表于 03-10 14:29 ?501次閱讀
    高效<b class='flag-5'>流量</b>復(fù)制匯聚,構(gòu)建自主可控的<b class='flag-5'>網(wǎng)絡(luò)</b>安全環(huán)境

    人工神經(jīng)網(wǎng)絡(luò)的原理和多種神經(jīng)網(wǎng)絡(luò)架構(gòu)方法

    在上一篇文章中,我們介紹了傳統(tǒng)機(jī)器學(xué)習(xí)的基礎(chǔ)知識(shí)和多種算法。在本文中,我們會(huì)介紹人工神經(jīng)網(wǎng)絡(luò)的原理和多種神經(jīng)網(wǎng)絡(luò)架構(gòu)方法,供各位老師選擇。
    的頭像 發(fā)表于 01-09 10:24 ?1174次閱讀
    人工神經(jīng)<b class='flag-5'>網(wǎng)絡(luò)</b>的原理和多種神經(jīng)<b class='flag-5'>網(wǎng)絡(luò)</b>架構(gòu)<b class='flag-5'>方法</b>

    網(wǎng)絡(luò)流量監(jiān)控與網(wǎng)關(guān)優(yōu)化

    在當(dāng)今數(shù)字化時(shí)代,網(wǎng)絡(luò)流量的監(jiān)控和管理對(duì)于任何組織來(lái)說(shuō)都是至關(guān)重要的。隨著數(shù)據(jù)量的激增和網(wǎng)絡(luò)攻擊的日益復(fù)雜,有效的網(wǎng)絡(luò)流量監(jiān)控和網(wǎng)關(guān)優(yōu)化變得尤為重要。 網(wǎng)絡(luò)流量監(jiān)控的重要性 1. 識(shí)別
    的頭像 發(fā)表于 01-02 16:14 ?626次閱讀

    傳統(tǒng)機(jī)器學(xué)習(xí)方法和應(yīng)用指導(dǎo)

    用于開發(fā)生物學(xué)數(shù)據(jù)的機(jī)器學(xué)習(xí)方法。盡管深度學(xué)習(xí)(一般指神經(jīng)網(wǎng)絡(luò)算法)是一個(gè)強(qiáng)大的工具,目前也非常流行,但它的應(yīng)用領(lǐng)域仍然有限。與深度學(xué)習(xí)相比
    的頭像 發(fā)表于 12-30 09:16 ?1164次閱讀
    傳統(tǒng)<b class='flag-5'>機(jī)器</b><b class='flag-5'>學(xué)習(xí)方法</b>和應(yīng)用指導(dǎo)

    VLAN 實(shí)施對(duì)網(wǎng)絡(luò)性能的影響

    的廣播域和沖突域。這樣,網(wǎng)絡(luò)中的廣播流量和沖突就被限制在每個(gè)VLAN內(nèi)部,減少了網(wǎng)絡(luò)擁塞,提高了網(wǎng)絡(luò)的整體性能。 優(yōu)化網(wǎng)絡(luò)流量 VLAN允許
    的頭像 發(fā)表于 11-19 09:35 ?1609次閱讀

    什么是機(jī)器學(xué)習(xí)?通過(guò)機(jī)器學(xué)習(xí)方法能解決哪些問(wèn)題?

    來(lái)源:Master編程樹“機(jī)器學(xué)習(xí)”最初的研究動(dòng)機(jī)是讓計(jì)算機(jī)系統(tǒng)具有人的學(xué)習(xí)能力以便實(shí)現(xiàn)人工智能。因?yàn)闆](méi)有學(xué)習(xí)能力的系統(tǒng)很難被認(rèn)為是具有智能的。目前被廣泛采用的
    的頭像 發(fā)表于 11-16 01:07 ?953次閱讀
    什么是<b class='flag-5'>機(jī)器</b><b class='flag-5'>學(xué)習(xí)</b>?通過(guò)<b class='flag-5'>機(jī)器</b><b class='flag-5'>學(xué)習(xí)方法</b>能解決哪些問(wèn)題?

    如何使用 PyTorch 進(jìn)行強(qiáng)化學(xué)習(xí)

    強(qiáng)化學(xué)習(xí)(Reinforcement Learning, RL)是一種機(jī)器學(xué)習(xí)方法,它通過(guò)與環(huán)境的交互來(lái)學(xué)習(xí)如何做出決策,以最大化累積獎(jiǎng)勵(lì)。PyTorch 是一個(gè)流行的開源
    的頭像 發(fā)表于 11-05 17:34 ?1017次閱讀

    IP地址如何進(jìn)行網(wǎng)絡(luò)監(jiān)測(cè)? ? 立即查看

    ?一、異常檢測(cè)的方法和技術(shù)有哪些? 目前常用的異常檢測(cè)方法技術(shù)主要有基于統(tǒng)計(jì)分析的方法、基于機(jī)器學(xué)習(xí)
    的頭像 發(fā)表于 09-14 15:15 ?645次閱讀

    【《時(shí)間序列與機(jī)器學(xué)習(xí)》閱讀體驗(yàn)】+ 了解時(shí)間序列

    學(xué)習(xí)方法對(duì)該序列數(shù)據(jù)進(jìn)行分析,可以得到結(jié)論或預(yù)測(cè)估計(jì),因此時(shí)間序列分析的用途是非常多的,比如: 可以反映社會(huì)經(jīng)濟(jì)現(xiàn)象的發(fā)展變化過(guò)程,描述現(xiàn)象的發(fā)展?fàn)顟B(tài)和結(jié)果。 可以研究社會(huì)經(jīng)濟(jì)現(xiàn)象的發(fā)展趨勢(shì)和發(fā)展速度
    發(fā)表于 08-11 17:55

    【「時(shí)間序列與機(jī)器學(xué)習(xí)」閱讀體驗(yàn)】全書概覽與時(shí)間序列概述

    本帖最后由 1653149838.791300 于 2024-8-12 20:18 編輯 [/td] [td]收到《時(shí)間序列與機(jī)器學(xué)習(xí)》這本書,很是欣喜,書籍內(nèi)容很詳實(shí)也是自己很感興趣
    發(fā)表于 08-07 23:03
    主站蜘蛛池模板: 激情福利网站 | 亚洲aⅴ久久久噜噜噜噜 | 国语自产自拍秒拍在线视频 | 亚洲视频一区 | 天天操天天摸天天爽 | 亚洲最新在线观看 | 亚洲最大成人网色 | 四虎国产精品永久在线播放 | 日日操夜夜操狠狠操 | 午夜视频在线观看www中文 | 黄色网址中文字幕 | 视频免费观看网址 | 男女无遮挡一进一出性视频 | 综合伊人 | 中国高清性色生活片 | 午夜免费福利网站 | 99色视频在线 | 婷婷久久综合 | 久久xxxx| 免费网站日本永久免费观看 | 亚欧成人中文字幕一区 | 国产视频一区二 | 91国内在线视频 | 欧美综合久久 | 日本a级精品一区二区三区 日本a级特黄三级三级三级 | 国产精品主播在线观看 | 超级碰碰青草久热国产 | 一级午夜 | 天堂在线免费视频 | 99久久99久久免费精品蜜桃 | 色135综合网| 欧美一级免费片 | 男生女生靠逼视频 | 最新日韩中文字幕 | 成年大片免费播放视频人 | 国产精品欧美久久久久天天影视 | 性在线视频 | 日韩啪啪电影 | 澳门色视频 | 丁香激情综合网 | 2021成人国产精品 |