在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

若干蒸餾方法之間的細(xì)節(jié)以及差異

深度學(xué)習(xí)自然語(yǔ)言處理 ? 來(lái)源:NLP日志 ? 作者:NLP日志 ? 2022-05-12 11:39 ? 次閱讀

1 簡(jiǎn)介

預(yù)訓(xùn)練模型BERT以及相關(guān)的變體自從問(wèn)世以后基本占據(jù)了各大語(yǔ)言評(píng)測(cè)任務(wù)榜單,不斷刷新記錄,但是,BERT龐大的參數(shù)量所帶來(lái)的空間跟時(shí)間開(kāi)銷限制了其在下游任務(wù)的廣泛應(yīng)用。基于此,人們希望能通過(guò)Bert得到一個(gè)更小規(guī)模的模型,同時(shí)基本具備Bert的能力,從而為下游任務(wù)的大規(guī)模應(yīng)用提供可能性。目前許多跟Bert相關(guān)的蒸餾方法被提出來(lái),本章節(jié)就來(lái)分析下這若干蒸餾方法之間的細(xì)節(jié)以及差異。

知識(shí)蒸餾由兩個(gè)模型組成,teacher模型跟student模型,一般teacher模型規(guī)模跟參數(shù)量都比較龐大,所以能力更強(qiáng),而student模型規(guī)模比較小,如果直接訓(xùn)練的話效果比較有限,所以是先訓(xùn)練teacher模型,讓它學(xué)到充足的知識(shí),然后用student模型去學(xué)習(xí)teacher模型的行為,從而實(shí)現(xiàn)將知識(shí)從teacher模型轉(zhuǎn)移到student模型,使得student模型能在較小的參數(shù)量的同時(shí)具備接近大模型的能力。在蒸餾過(guò)程中,最常見(jiàn)的student模型部分的loss,就是對(duì)于同一個(gè)數(shù)據(jù),將teacher模型的預(yù)測(cè)的soft概率作為ground truth,讓teacher模型去學(xué)習(xí)從而預(yù)測(cè)得到相同的結(jié)果,這部分teacher模型跟student模型預(yù)測(cè)的概率之間距離就是蒸餾最常見(jiàn)的loss(通常是交叉熵)。蒸餾學(xué)習(xí)希望student模型學(xué)到teacher模型的能力,從而預(yù)測(cè)的結(jié)果跟teacher模型預(yù)測(cè)的soft概率足夠接近,也就是希望這部分的loss盡可能的小。

2 DualTrain+SharedProj

以往的知識(shí)蒸餾雖然可以有效的壓縮模型尺寸,但很難將teacher模型的能力蒸餾到一個(gè)更小詞表的student模型中,而DualTrain+SharedProj解決了這個(gè)難題。它主要針對(duì)Bert的詞表大小跟嵌入緯度做了縮簡(jiǎn),其余部分,包括模型結(jié)構(gòu)跟層數(shù)保持跟teacher模型(Bert Base)一致,從而實(shí)現(xiàn)將知識(shí)從teacher模型遷移到student模型中。

590530ae-d19e-11ec-bce3-dac502259ad0.png

圖1: DualTrain+SharedProj框架

區(qū)別于其他蒸餾方法,DualTrain+SharedProj有兩個(gè)特別的地方,一個(gè)是Dual Training, 另一個(gè)是Shared Projection。Dual Training主要是為了解決teacher模型跟student模型不共用詞表的問(wèn)題,在蒸餾過(guò)程中,對(duì)于teacher模型,會(huì)隨機(jī)選擇teacher模型或者student模型的詞表去進(jìn)行分詞,可以理解就是混合了teacher模型跟student模型的詞表,這種方式可以對(duì)齊兩個(gè)規(guī)模不同的的詞表。例如圖中左邊部分,I和machine用的是teacher模型的分詞結(jié)果而其余token用的是student模型的分詞結(jié)果。第二部分是Shared Projection,這部分很好理解,因?yàn)閟tudent模型嵌入層緯度縮小了,導(dǎo)致每個(gè)transformer層的緯度都縮小了,但是我們希望student模型跟teacher模型的transformer層的參數(shù)足夠接近,所以這里需要一個(gè)可訓(xùn)練的矩陣將兩個(gè)不同維度的transformer層參數(shù)縮放到同一個(gè)維度才能進(jìn)行比較。如果是對(duì)teacher模型的參數(shù)進(jìn)行縮放,就叫做down projection,如果是對(duì)student模型參數(shù)進(jìn)行的縮放,就叫做up projection。同時(shí),12層的transformer參數(shù)共用同一個(gè)縮放矩陣,所以叫做shared projection。例如下圖,下標(biāo)t,s分別代表teacher模型跟student模型。

594e3984-d19e-11ec-bce3-dac502259ad0.png

圖2: up projection損失

595ece52-d19e-11ec-bce3-dac502259ad0.png

圖3: DualTrain+SharedProj的損失函數(shù)

在蒸餾過(guò)程中,會(huì)將teacher模型跟student模型都在監(jiān)督數(shù)據(jù)上進(jìn)行訓(xùn)練,將兩個(gè)模型預(yù)測(cè)結(jié)果的損失加上兩個(gè)模型之間transformer層的參數(shù)之間的距離的損失作為最終損失,去更新student模型的參數(shù)。最終實(shí)驗(yàn)效果可也表明,隨著student模型的隱藏層緯度縮減得越厲害,模型的效果也會(huì)逐漸變差。

59765b1c-d19e-11ec-bce3-dac502259ad0.png

圖4: DualTrain+SharedProj的實(shí)驗(yàn)效果

DualTrain+SharedProj是很少見(jiàn)的student模型跟teacher模型不共享詞表的一種蒸餾方式,通過(guò)縮小詞表跟縮減嵌入層緯度,可以很大程度的減少模型的尺寸。同時(shí)也要注意,尺寸縮小得厲害,student模型的效果也下降地越厲害。另外有一點(diǎn)我不太理解,只通過(guò)一個(gè)dual training過(guò)程就可以對(duì)齊兩個(gè)詞表了嗎?是不是要蒸餾開(kāi)始之前先對(duì)teacher模型,混合兩個(gè)詞表的分詞結(jié)果做下預(yù)訓(xùn)練會(huì)更加合理?

3DistillBERT

DistilBERT是通過(guò)一種比較常規(guī)的蒸餾方法得到的,它的teacher模型依舊是Bert Base,DistilBERT沿用了Bert的結(jié)構(gòu),但是transfromer層數(shù)只有6層(Bert Base有12層),同時(shí)還將嵌入層token-type embedding跟最后的pooling層移除。為了讓DistilBERT有一個(gè)更加合理的初始化,DistilBERT的transformer參數(shù)來(lái)源于Bert Base,每隔兩層transformer取其中一層的參數(shù)來(lái)作為DistilBERT的參數(shù)初始化。

在蒸餾過(guò)程中,除了常規(guī)的蒸餾部分的loss,還加入了一個(gè)自監(jiān)督訓(xùn)練的loss(MLM任務(wù)的loss),除此之外,實(shí)驗(yàn)還發(fā)現(xiàn)加入一個(gè)詞嵌入的loss有利于對(duì)齊teacher模型跟student模型的隱藏層表征。

DistilBERT是一種常見(jiàn)的通過(guò)蒸餾得到的方法,基本上是通過(guò)減少transformer的層數(shù)來(lái)減少模型尺寸,同時(shí)加速模型推理的。

4LSTM

蒸餾學(xué)習(xí)并不要求teacher模型跟student模型要隸屬于同一種模型架構(gòu),于是就有人腦洞大開(kāi),想用BiLSTM作為student模型來(lái)承載Bert Base龐大的能力。這里的teacher模型依舊是Bert Base,student模型分為三個(gè)部分,第一部分是詞嵌入層,第二部分是雙向LSTM+pooling,這里會(huì)將BiLSTM得到的隱藏層狀態(tài)通過(guò)max pooling生成句子的表征,第三部分是全連接層,直接輸出各個(gè)類別的概率。

在蒸餾開(kāi)始之前,需要先在特定任務(wù)的監(jiān)督數(shù)據(jù)集上對(duì)teacher模型進(jìn)行微調(diào),因?yàn)槭欠诸惾蝿?wù),所以Bert Base跟后面的全連接層會(huì)一起更新參數(shù),從而讓teacher模型適配下游任務(wù)。在蒸餾過(guò)程中,student模型的損失分為三部分,第一部分依舊是常規(guī)的根據(jù)teacher模型預(yù)測(cè)的soft概率跟student模型預(yù)測(cè)的概率之間的交叉熵?fù)p失。第二部分是在監(jiān)督數(shù)據(jù)下student模型預(yù)測(cè)的結(jié)果跟真實(shí)標(biāo)簽結(jié)果之間的交叉熵?fù)p失。第三部分是teacher模型跟student模型生成表征之間的KL距離,也就是BiLSTM+pooling跟Bert base最后一層狀態(tài)輸出之間的距離,但是由于這兩者可能維度不一樣,所以這里也需要引入一個(gè)全連接層來(lái)縮放。

59984d3a-d19e-11ec-bce3-dac502259ad0.png

圖5: BiLSTM的蒸餾過(guò)程

59b80468-d19e-11ec-bce3-dac502259ad0.png

圖6: BiLSTM蒸餾的效果對(duì)比

可以看得到通過(guò)蒸餾得到的BiLSTM明顯優(yōu)于直接finetune的,這里證明了蒸餾學(xué)習(xí)的有效性。除此之外,BiLSTM本身的準(zhǔn)確率就很高了,說(shuō)明任務(wù)比較簡(jiǎn)單(要不然蒸餾過(guò)后的BiLSTM準(zhǔn)確率比teacher模型Bert Base還高不是很詭異嘛?),所以并不能說(shuō)明把Bert Base蒸餾到BiLSTM是個(gè)合適的選擇。LSTM本身結(jié)構(gòu)的局限性導(dǎo)致了很難完全學(xué)習(xí)到transformer的知識(shí)跟能力,筆者以前也在一些比較難的數(shù)據(jù)集上嘗試過(guò)類似的做法,但是最終作為student模型的LSTM的效果跟teacher模型的之間的差距還是比較大,并且泛化能力比較差。

5 PDK

PKD想通過(guò)蒸餾學(xué)習(xí)將Bert Base的transformer層數(shù)進(jìn)行壓縮,但是常規(guī)的方式只學(xué)習(xí)teacher模型最后一層的結(jié)果,雖然能在訓(xùn)練集上取得可以媲美teacher模型的效果,但是在測(cè)試集的表現(xiàn)很快就收斂了。這種現(xiàn)象看起來(lái)像是在訓(xùn)練集上過(guò)擬合了,從而影響了student模型的泛化能力。基于此,PKD在原本的基礎(chǔ)上加上了新的約束項(xiàng),驅(qū)使student模型去學(xué)習(xí)模仿teacher模型的中間過(guò)程。具體的有兩種可能方式,第一種就是讓student模型去學(xué)習(xí)teacher模型transformer每隔幾層的結(jié)果,第二種是讓student模型去學(xué)習(xí)teacher模型最后幾層transformer的結(jié)果。

蒸餾過(guò)程的損失函數(shù)包括三個(gè)部分,第一部分還是常規(guī)的teacher模型預(yù)測(cè)的soft概率和student模型預(yù)測(cè)結(jié)果之間的交叉熵?fù)p失,第二部分是student模型預(yù)測(cè)概率跟真實(shí)標(biāo)簽之間的交叉熵?fù)p失,第三部分就是teacher模型跟student模型之間中間狀態(tài)的距離,這里用的[CLS]位置的表征。

6TinyBert

TinyBert的特別之處在于它的蒸餾過(guò)程分為兩個(gè)階段。第一階段是通用蒸餾,teacher model是預(yù)訓(xùn)練好的Bert, 可以幫助TinyBert學(xué)習(xí)到豐富的知識(shí),具備強(qiáng)大的通用能力,第二階段是特定任務(wù)蒸餾,teacher moder是經(jīng)過(guò)finetune的Bert, 使得TinyBert學(xué)習(xí)到特定任務(wù)下的知識(shí)。兩個(gè)蒸餾環(huán)節(jié)的設(shè)計(jì),能保證TinyBert強(qiáng)大的通用能力跟特定任務(wù)下的提升。

在每個(gè)蒸餾環(huán)節(jié)下,student模型的蒸餾分為三個(gè)部分,Embedding-layer Distillation,Transformer-layer Distillation, Prediction-layer Distillation。Embedding-layer Distillation是詞嵌入層的蒸餾,使得TinyBert更小維度的embedding輸出結(jié)果盡可能的接近Bert的embedding輸出結(jié)果。Transformer-layer Distillation是其中transformer層的蒸餾,這里的蒸餾采用的是隔k層蒸餾的方式。也就是,假如teacher model的Bert的transformer有12層,如果TinyBert的transformer設(shè)計(jì)有4層,那么就是就是每隔3層蒸餾,TinyBert的第1,2,3,4層transformer分別學(xué)習(xí)的是Bert的第3,6,9,12層transformer層的輸出。Prediction-layer Distillation主要是對(duì)齊TinyBert跟Bert在預(yù)測(cè)層的輸出,這里學(xué)習(xí)的是預(yù)測(cè)層的logit,也就是概率值。前面兩部分的損失都是MSE計(jì)算,因?yàn)閠eacher模型跟student模型在嵌入層跟隱藏層的維度不一致,所以這里需要相應(yīng)的線性映射將student模型的中間輸出映射到跟teacher 模型一樣的維度,最后一部分的損失是通過(guò)交叉熵?fù)p失計(jì)算的。通過(guò)這三部分的學(xué)習(xí),能保證TinyBert在中間層跟最后預(yù)測(cè)層都學(xué)習(xí)到Bert相應(yīng)的結(jié)果,進(jìn)而保證準(zhǔn)確率。

59f1469c-d19e-11ec-bce3-dac502259ad0.png

圖7: TinyBert框架

TinyBert的兩階段蒸餾過(guò)程能驅(qū)使student模型能學(xué)到teacher模型的通用知識(shí)和特定領(lǐng)域知識(shí),保證student模型在下游任務(wù)的表現(xiàn),是很值得借鑒的一種訓(xùn)練技巧。

7 MOBILEBERT

MOBILEBERT可能是目前性價(jià)比最高的一種蒸餾方式了(可能是筆者眼界有限),無(wú)論是從學(xué)習(xí)的目標(biāo),還是整個(gè)訓(xùn)練的方式,考慮都很周全。MOBILEBERT的student模型跟teacher模型的網(wǎng)絡(luò)層數(shù)保持一致,相關(guān)的模型結(jié)構(gòu)有所變化,首先是student模型跟teacher模型都新增了bottleneck,用于縮放內(nèi)部表示尺寸,在后面loss部分會(huì)展開(kāi)介紹,其次是student模型里將FFN改成堆疊的FFN,最后是移除了layer normalization跟將激活函數(shù)由gelu換成relu.

在蒸餾過(guò)程中,student模型的損失包括兩個(gè)部分。第一個(gè)部分是student模型和teacher模型之間的feature map的距離,這里的feature map指的是每一層transformer輸出的結(jié)果。在這里,為了能讓student模型的隱藏層維度比teacher模型的隱藏層維度更小從而實(shí)現(xiàn)模型壓縮,這里的student模型跟teacher模型的transformer結(jié)構(gòu)都加入了bottleneck,也就是圖中綠色梯形的部分,通過(guò)這些bottleneck可以對(duì)文本表征尺寸進(jìn)行縮放,從而實(shí)現(xiàn)teacher模型跟student模型各自在每一個(gè)transformer內(nèi)部表示尺寸不同,但是輸入和輸出尺寸一致,所以就可能用內(nèi)部表示尺寸小的student模型去學(xué)習(xí)內(nèi)部表示尺寸大的teacher模型的能力跟知識(shí)。第二部分是兩個(gè)模型每一層transformer中attention的距離,這部分loss是為了利用self attention從teacher模型中學(xué)習(xí)到相關(guān)內(nèi)容從而更好得學(xué)習(xí)到第一部分的feature map。

5a0d3fdc-d19e-11ec-bce3-dac502259ad0.png

圖8: MOBILEBERT相關(guān)的網(wǎng)絡(luò)結(jié)構(gòu)

MOBILEBERT的蒸餾過(guò)程是漸近式的,在蒸餾學(xué)習(xí)第L層的參數(shù)時(shí)會(huì)固定L層以下的參數(shù),一層一層的學(xué)習(xí)teacher模型的,直到學(xué)完全部層數(shù)。

5a2e92d6-d19e-11ec-bce3-dac502259ad0.png

圖9: MOBILEBERT的漸近式知識(shí)遷移過(guò)程

在完成蒸餾學(xué)習(xí)后,MOBILEBERT還會(huì)在做進(jìn)一步的預(yù)訓(xùn)練,預(yù)訓(xùn)練有三部分的loss,第一部分跟第二部分是BERT預(yù)訓(xùn)練的MLM跟NSP任務(wù)的loss,第三部分是teacher模型跟student模型在[MASK]位置的預(yù)測(cè)概率之間的交叉熵?fù)p失。

8總結(jié)

為了直觀的對(duì)比上面提及的蒸餾方法的壓縮效率和模型效果,我們匯總了若干種模型的具體信息以及在MRPC數(shù)據(jù)集上的表現(xiàn)。總體來(lái)說(shuō),有以下一些相關(guān)結(jié)論。

a)壓縮效率越高往往會(huì)伴隨著模型效果的持續(xù)下降。

b)Student模型的上限就是teacher模型。對(duì)于同一個(gè)student模型,并不是teacher模型越大student模型效果就會(huì)越好。因?yàn)樵酱蟮膖eacher模型,意味著更大的壓縮效率,也意味著更嚴(yán)重的性能下降。

c)只學(xué)習(xí)teacher模型最后的預(yù)測(cè)的soft概率是遠(yuǎn)遠(yuǎn)不夠的,需要對(duì)teacher模型中間的表征或者參數(shù)也進(jìn)行學(xué)習(xí),才能進(jìn)一步保證student模型的效果。

d)縮減transformer層數(shù)或者縮減隱藏層狀態(tài)緯度都可以壓縮模型,對(duì)于縮減隱藏層狀態(tài)維度,用MOBILEBERT那種bottleneck的方式優(yōu)于常規(guī)的通過(guò)一個(gè)額外的映射來(lái)對(duì)齊模型尺寸的方式。縮減隱藏層狀態(tài)維度的方式的模型壓縮效率的上限更高。

e)漸進(jìn)性學(xué)習(xí)方式是有效的。也就是固定下層的參數(shù),只更新當(dāng)前層的參數(shù),依次迭代直至更新完student模型全部層。

f)分階段蒸餾是有效的。先學(xué)習(xí)通用的teacher模型,然后再學(xué)習(xí)特定任務(wù)下finetune的teacher模型。

g)跨模型結(jié)構(gòu)的蒸餾是有效的。用BiLSTM來(lái)學(xué)習(xí)Bert Base的能力比直接finetune BiLSTM的效果要好。

Model type Compress Factor MRPC(f1)
Bert Base 1 88.9
DualTrain+SharedProjUp 192
96
48
5.74
19.41
61.94
84.9
84.9
79.3
DistilBERT 1.67 87.5
PKD 6
3
1.64
2.40
85.0
80.7
TinyBert 4 7.50 86.4
MOBILEBERT 4.30 88.8

參考文獻(xiàn)

1.(2020) EXTREME LANGUAGE MODEL COMPRESSION WITH OPTIMAL SUBWORDS AND SHARED PROJECTIONS

https://openreview.net/pdf?id=S1x6ueSKPr

2. (2020) DistilBERT, a distilled version of BERT: smaller, faster, cheaper and lighter

https://arxiv.org/abs/1910.01108

3. (2020) DISTILLING BERT INTO SIMPLE NEURAL NETWORKS WITH UNLABELED TRANSFER DATA

https://arxiv.org/pdf/1910.01769.pdf

4. (2019) Patient Knowledge Distillation for BERT Model Compression

https://arxiv.org/pdf/1908.09355.pdf

5.(2020)TINYBERT: DISTILLING BERT FOR NATURAL LAN- GUAGE UNDERSTANDING

https://openreview.net/attachment?id=rJx0Q6EFPB&name=original_pdf

6. (2020) MOBILEBERT: TASK-AGNOSTIC COMPRESSION OF BERT BY PROGRESSIVE KNOWLEDGE TRANSFER

https://openreview.net/pdf?id=SJxjVaNKwB

審核編輯 :李倩

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3313

    瀏覽量

    49227
  • LSTM
    +關(guān)注

    關(guān)注

    0

    文章

    59

    瀏覽量

    3793

原文標(biāo)題:Bert系列之知識(shí)蒸餾

文章出處:【微信號(hào):zenRRan,微信公眾號(hào):深度學(xué)習(xí)自然語(yǔ)言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    摩爾線程宣布成功部署DeepSeek蒸餾模型推理服務(wù)

    近日,摩爾線程智能科技(北京)有限責(zé)任公司在其官方渠道發(fā)布了一則重要消息,宣布公司已經(jīng)成功實(shí)現(xiàn)了對(duì)DeepSeek蒸餾模型推理服務(wù)的部署。這一技術(shù)突破,標(biāo)志著摩爾線程在人工智能領(lǐng)域邁出了堅(jiān)實(shí)的一步
    的頭像 發(fā)表于 02-06 13:49 ?59次閱讀

    大連理工提出基于Wasserstein距離(WD)的知識(shí)蒸餾方法

    的機(jī)制,應(yīng)用于中間層蒸餾時(shí)存在問(wèn)題,其無(wú)法處理不重疊的分布且無(wú)法感知底層流形的幾何結(jié)構(gòu)。 為了解決這些問(wèn)題,大連理工大學(xué)的研究人員提出了一種基于 Wasserstein 距離(WD)的知識(shí)蒸餾方法。所提出
    的頭像 發(fā)表于 01-21 09:45 ?109次閱讀

    ESD HBM測(cè)試差異較大的結(jié)果分析

    ESD HBM測(cè)試結(jié)果差異較大的原因,通常包括設(shè)備/儀器差異、?校準(zhǔn)和維護(hù)水平不同、?環(huán)境條件差異、?測(cè)試樣本差異、?測(cè)試操作員技能和經(jīng)驗(yàn)差異
    的頭像 發(fā)表于 11-18 15:17 ?587次閱讀
    ESD HBM測(cè)試<b class='flag-5'>差異</b>較大的結(jié)果分析

    DDC264 CONV信號(hào)高低轉(zhuǎn)換差異過(guò)大怎么解決?

    目前我們?cè)谡{(diào)試DDC264的數(shù)據(jù)采集,發(fā)現(xiàn)奇行或者偶行本身的噪聲都挺小的,在1.1到2.2之間,但是奇行和偶行之間差異比較大,合在一起計(jì)算噪聲就在1到7之間了。 也就是說(shuō)CONV
    發(fā)表于 11-14 06:00

    TPS65950和TPS65951之間的功能差異

    電子發(fā)燒友網(wǎng)站提供《TPS65950和TPS65951之間的功能差異.pdf》資料免費(fèi)下載
    發(fā)表于 10-29 10:03 ?0次下載
    TPS65950和TPS65951<b class='flag-5'>之間</b>的功能<b class='flag-5'>差異</b>

    UCC3813 PWM系列和UCC3800 PWM系列之間差異

    電子發(fā)燒友網(wǎng)站提供《UCC3813 PWM系列和UCC3800 PWM系列之間差異.pdf》資料免費(fèi)下載
    發(fā)表于 10-22 10:21 ?0次下載
    UCC3813 PWM系列和UCC3800 PWM系列<b class='flag-5'>之間</b>的<b class='flag-5'>差異</b>

    MSP430F67xx和MSP430F67-xxA器件之間差異

    電子發(fā)燒友網(wǎng)站提供《MSP430F67xx和MSP430F67-xxA器件之間差異.pdf》資料免費(fèi)下載
    發(fā)表于 09-14 10:14 ?0次下載
    MSP430F67xx和MSP430F67-xxA器件<b class='flag-5'>之間</b>的<b class='flag-5'>差異</b>

    60V 容差板和標(biāo)準(zhǔn) TPS272C45 評(píng)估模塊之間差異

    電子發(fā)燒友網(wǎng)站提供《60V 容差板和標(biāo)準(zhǔn) TPS272C45 評(píng)估模塊之間差異.pdf》資料免費(fèi)下載
    發(fā)表于 09-12 10:58 ?0次下載
    60V 容差板和標(biāo)準(zhǔn) TPS272C45 評(píng)估模塊<b class='flag-5'>之間</b>的<b class='flag-5'>差異</b>

    光學(xué)和磁性增量編碼器之間差異應(yīng)用說(shuō)明

    電子發(fā)燒友網(wǎng)站提供《光學(xué)和磁性增量編碼器之間差異應(yīng)用說(shuō)明.pdf》資料免費(fèi)下載
    發(fā)表于 09-12 10:07 ?0次下載
    光學(xué)和磁性增量編碼器<b class='flag-5'>之間</b>的<b class='flag-5'>差異</b>應(yīng)用說(shuō)明

    開(kāi)關(guān)柜和環(huán)網(wǎng)柜之間有哪什么差異

    開(kāi)關(guān)柜、環(huán)網(wǎng)柜之間差異分析
    的頭像 發(fā)表于 07-16 15:37 ?643次閱讀
    開(kāi)關(guān)柜和環(huán)網(wǎng)柜<b class='flag-5'>之間</b>有哪什么<b class='flag-5'>差異</b>?

    直流伺服電機(jī)和交流伺服電機(jī)的差異

    直流伺服電機(jī)和交流伺服電機(jī)在多個(gè)方面存在顯著的差異。以下是它們之間區(qū)別的詳細(xì)闡述。
    的頭像 發(fā)表于 06-19 18:24 ?1142次閱讀

    逆變器電池用蒸餾水理由,金屬觸點(diǎn)完全浸沒(méi)

    如果不使用正確的水,逆變器電池將損壞且無(wú)法使用。因此,保持其加滿正確的水非常重要。在本文中,我們將介紹逆變器電池中使用的水、為什么它很重要以及“給電池澆水”的頻率。逆變器電池使用蒸餾水您應(yīng)始終在
    的頭像 發(fā)表于 06-07 11:52 ?377次閱讀
    逆變器電池用<b class='flag-5'>蒸餾</b>水理由,金屬觸點(diǎn)完全浸沒(méi)

    QNX與Linux基礎(chǔ)差異對(duì)比

    對(duì)于QNX系統(tǒng)和Linux系統(tǒng)的內(nèi)核差異,我們拋開(kāi)宏內(nèi)核、微內(nèi)核之類的爭(zhēng)議不談。單純從開(kāi)發(fā)應(yīng)用的角度而言,QNX和Linux系統(tǒng)的差異到底有多大,在開(kāi)發(fā)的時(shí)候需要注意哪些細(xì)節(jié)問(wèn)題?
    發(fā)表于 04-17 10:52 ?929次閱讀

    UWB技術(shù)的內(nèi)部工作原理和窄帶定位方法之間差異概述

    我們可以說(shuō)UWB是當(dāng)今最好、最先進(jìn)的定位技術(shù),但證據(jù)呢?要回答這個(gè)問(wèn)題,我們需要透過(guò)現(xiàn)象看本質(zhì)。本文將探討UWB技術(shù)的內(nèi)部工作原理,并概述UWB和窄帶定位方法之間差異
    的頭像 發(fā)表于 03-26 11:37 ?1168次閱讀
    UWB技術(shù)的內(nèi)部工作原理和窄帶定位<b class='flag-5'>方法</b><b class='flag-5'>之間</b>的<b class='flag-5'>差異</b>概述

    PLC和工控電腦之間存在哪些差異呢?

    PLC(可編程邏輯控制器)和工控電腦(工業(yè)控制計(jì)算機(jī))都是工業(yè)自動(dòng)化領(lǐng)域中的重要組成部分,但它們之間存在一些顯著的差異
    的頭像 發(fā)表于 03-14 09:24 ?1299次閱讀
    主站蜘蛛池模板: 午夜福利毛片 | 天天爱天天操天天射 | 亚洲国产丝袜精品一区杨幂 | 婷婷亚洲综合五月天小说在线 | 国产成人精品亚洲日本在线观看 | 日韩特黄毛片 | 视频一区二区不卡 | 丁香六月色婷婷综合网 | 91精品国产免费久久久久久青草 | 色综合社区| 特级一级毛片视频免费观看 | 大色视频 | 国模私拍在线 | 国模掰开| 国产免费高清福利拍拍拍 | 午夜激情小视频 | 亚洲视频一区在线观看 | 中日韩免费视频 | 日本在线免费 | 亚洲成人在线网 | 国产情侣出租屋露脸实拍 | 免费观看黄网站 | 天天色天天色天天色 | 在线欧美视频免费观看国产 | 夜夜操夜夜骑 | 亚洲人成网站在线观看妞妞网 | 天天干在线影院 | 国产成人午夜精品影院游乐网 | 萌白酱香蕉白丝护士服喷浆 | 99久久99久久精品免费看子伦 | 婷婷国产 | 爽好舒服快受不了了老师 | 午夜视频在线观看国产www | 天天做.天天爱.天天综合网 | 国产裸体美女视频全黄 | 婷婷午夜影院 | 窝窝午夜在线观看免费观看 | 最新色网站 | 四虎影视在线观看 | 天天操天天干天天射 | 亚洲狠狠狠一区二区三区 |