在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

面向?qū)嶓w對(duì)象的文本描述情感極性及色彩強(qiáng)度分析

深度學(xué)習(xí)自然語(yǔ)言處理 ? 來(lái)源:ChallengeHub ? 作者:ChallengeHub ? 2022-07-05 14:11 ? 次閱讀

之前沒(méi)認(rèn)真打過(guò)煉丹的比賽,這次機(jī)緣巧合碰上了三個(gè)牛逼又靠譜的隊(duì)友,就堅(jiān)持把這次比賽打完了。剛開(kāi)始的時(shí)候沒(méi)想到這次能拿下第一,趁著剛答辯完就順帶把這次NLP賽道的方案開(kāi)源出來(lái),歡迎各位同學(xué)參考和討論。

賽題分析

賽題介紹

這次的比賽由NLP和推薦兩部分組成,推薦的特征工程實(shí)在是做不明白,這次主要還是做NLP的部分。

抄一下官網(wǎng)的NLP賽題介紹:面向?qū)嶓w對(duì)象的文本描述情感極性及色彩強(qiáng)度分析。情感極性和強(qiáng)度分為五種情況:極正向、正向、中立、負(fù)向、極負(fù)向。選手需要針對(duì)給定的每一個(gè)實(shí)體對(duì)象,從文本描述的角度,分析出對(duì)該實(shí)體的情感極性和強(qiáng)度。

NLP任務(wù)的評(píng)價(jià)指標(biāo)為macro-F1,在計(jì)算準(zhǔn)確和召回的時(shí)候,是按照分析的實(shí)體數(shù)進(jìn)行計(jì)數(shù)的,而非樣本數(shù)。

拿一條數(shù)據(jù)來(lái)舉例子(截取部分文本):

{ "content": "離婚之后的林慶昆本以為會(huì)有一番更大的天地,沒(méi)想到離開(kāi)了吳敏自己什么都不是......", "entity": {"吳敏": 1, "林慶昆": -1} }

這條數(shù)據(jù)里有一段文本和兩個(gè)實(shí)體,需要預(yù)測(cè)出這兩個(gè)實(shí)體在文本中的情感極性,情感標(biāo)簽為-2, -1, 0, 1, 2五個(gè)。

簡(jiǎn)單分析可以知道這題可以定義為Aspect-level Sentiment Classification。

數(shù)據(jù)分析

在正式建模之前需要進(jìn)行一些簡(jiǎn)單的數(shù)據(jù)分析來(lái)挖掘賽題的特點(diǎn)。在這里截取一張和隊(duì)友一起做的PPT的圖:

e1d7f98e-fc23-11ec-ba43-dac502259ad0.jpg

數(shù)據(jù)分析

我們對(duì)數(shù)據(jù)中的文本長(zhǎng)度、實(shí)體數(shù)量和標(biāo)簽分布進(jìn)行了簡(jiǎn)單的分析,這提示我們:

有部分文本長(zhǎng)度超過(guò)BERT的512最大長(zhǎng)度,或許可以考慮長(zhǎng)文本處理的常用技巧;

實(shí)體的情感標(biāo)簽分布不平衡,最少的類(lèi)只有2%左右,或許可以考慮不平衡分類(lèi)問(wèn)題的技巧。

但實(shí)驗(yàn)證明上面這些考慮最后都只會(huì)成為掉分點(diǎn),具體的思考在后文論述。

模型構(gòu)建

Baseline

官方公布了賽題的Baseline,NLP賽道的Baseline大致是如下思路:將一段文本和文本中的一個(gè)實(shí)體拼成一條數(shù)據(jù),一段文本對(duì)應(yīng)N個(gè)實(shí)體就會(huì)有N條數(shù)據(jù)。將一條數(shù)據(jù)輸入BERT-based分類(lèi)器后輸出一個(gè)實(shí)體。

仍然以上一節(jié)的case為例,按Baseline的做法這條數(shù)據(jù)會(huì)被拆成兩條數(shù)據(jù)輸入到BERT:

[CLS] 吳敏 [SEP] 離婚之后的林慶昆本以為會(huì)有一番更大的天地,沒(méi)想到離開(kāi)了吳敏自己什么都不是... [SEP] [CLS] 林慶昆 [SEP] 離婚之后的林慶昆本以為會(huì)有一番更大的天地,沒(méi)想到離開(kāi)了吳敏自己什么都不是... [SEP]

然后以BERT輸出的[CLS]位置的語(yǔ)義向量通過(guò)MLP分類(lèi)器得到情感極性。

實(shí)際上我想思路的時(shí)候我還沒(méi)看到Baseline,看到Baseline的做法之后我就搖頭。

這里再截一張PPT的圖說(shuō)明Baseline有什么問(wèn)題:

e1f8fae4-fc23-11ec-ba43-dac502259ad0.jpg

就是說(shuō),一方面預(yù)期效果不好,因?yàn)锽aseline構(gòu)造數(shù)據(jù)的方式使分布發(fā)生了變化(有一個(gè)實(shí)體的文本模型會(huì)看它一次,有30個(gè)實(shí)體的文本模型就會(huì)看它30次,但是這點(diǎn)也存疑,因?yàn)榇疝q過(guò)程中有選手表示發(fā)現(xiàn)了數(shù)據(jù)的leak,后續(xù)的方法可能是使用了這個(gè)leak所以效果才會(huì)好的);另一方面把一段文本復(fù)制了好多遍顯然會(huì)導(dǎo)致效率大大下降;還有一點(diǎn)在PPT里沒(méi)說(shuō)的是沒(méi)有考慮到實(shí)體之間可能存在的潛在關(guān)系。

設(shè)計(jì)思路

再?gòu)腜PT里截一張圖:

e20777a4-fc23-11ec-ba43-dac502259ad0.jpg

在做這題的時(shí)候我就會(huì)思考如何做得優(yōu)雅,最好方法是simple yet effective的。最好就是使用以預(yù)訓(xùn)練BERT為backbone的分類(lèi)器,不對(duì)模型結(jié)構(gòu)做太大修改,而且還要能在一次輸入之內(nèi)就并行分類(lèi)所有實(shí)體。

除了BERT還考慮使用XLNet,因?yàn)閄LNet使用了相對(duì)位置編碼,可以原生支持超長(zhǎng)文本的輸入,而且XLNet的Tokenizer是字詞結(jié)合的,可以適應(yīng)本次比賽文本長(zhǎng)度較長(zhǎng)的情況。

模型架構(gòu)

大概想了不到一個(gè)小時(shí),想到了如下的方案:

e21221ea-fc23-11ec-ba43-dac502259ad0.jpg

如圖所示,模型的整體架構(gòu)就是一個(gè)普通的分類(lèi)模型,在預(yù)訓(xùn)練的BERT或XLNet模型基礎(chǔ)上增加了簡(jiǎn)單的MLP分類(lèi)器。這個(gè)思路的要點(diǎn)在于改變數(shù)據(jù)輸入的方式,利用BERT和XLNet作為Masked Language Model的性質(zhì),以[SEP]符號(hào)為界,第一段為文本輸入,第二段按順序輸入所有實(shí)體,實(shí)體之間以[MASK]進(jìn)行分隔,這個(gè)[MASK]標(biāo)簽通過(guò)BERT Encoder得到的語(yǔ)義向量就代表對(duì)應(yīng)實(shí)體的情感極性。將所有[MASK]位置的語(yǔ)義向量通過(guò)分類(lèi)器即可并行對(duì)所有的實(shí)體進(jìn)行分類(lèi)。

這套思路不加Trick的情況下線上F1就可以到69+,讓我在比賽前期就能超過(guò)大部分使用Baseline的團(tuán)隊(duì)。

另外根據(jù)線下指標(biāo)推測(cè)最終Accuracy在90+,說(shuō)明這題訓(xùn)練和測(cè)試集基本上同分布。

一些補(bǔ)充的思考

要說(shuō)這個(gè)方法為什么會(huì)有用,我一開(kāi)始推測(cè)是因?yàn)榭紤]了實(shí)體之間的潛在關(guān)系,而且對(duì)數(shù)據(jù)分布的假設(shè)更加合理。

后來(lái)決賽答辯的時(shí)候聽(tīng)到有選手提到這個(gè)數(shù)據(jù)存在leak,也就是在數(shù)據(jù)中標(biāo)簽非0的實(shí)體會(huì)被排在前面,標(biāo)簽為0的實(shí)體會(huì)被排在后面。我突然就覺(jué)得這可能就是這個(gè)方法提升巨大的真正原因,用了這個(gè)方法之后,相當(dāng)于模型從中學(xué)到了一個(gè)bias,就是靠近文本末尾的實(shí)體,標(biāo)簽為0的可能性更大。

另外,在比賽中期,“靈境”組在討論區(qū)公開(kāi)了一個(gè)方案,我們發(fā)現(xiàn)該方案的核心思路和我們不謀而合。在該方案公開(kāi)后很多隊(duì)伍的分?jǐn)?shù)都追上來(lái)了,在決賽答辯過(guò)程中我也發(fā)現(xiàn)很多高分團(tuán)隊(duì)都搬運(yùn)了這套方案。公開(kāi)的方案和我們做法基本一致,不過(guò)使用了一個(gè)含有MLM的全套BERT類(lèi)模型,第二段文本(在該方案中被稱為Prompt)的形式為:“在這句話中,<實(shí)體1>是[MASK],<實(shí)體2>是[MASK]......”,然后MLM頭輸出詞表大小維度(21128)的向量,取五個(gè)Token作為Verbalizer(壞、差、平、行、好),分別對(duì)應(yīng)五個(gè)情感極性標(biāo)簽,忽略其他的Token。

然而,這套方案和我們的做法還存在一定差別,這也是我認(rèn)為該方案在這個(gè)任務(wù)上存在的一些問(wèn)題:

我們不稱輸入的第二段文本為"Prompt",因?yàn)檫@容易和Prompt Tuning概念中的Prompt混淆。該任務(wù)并不適合Prompt Tuning范式,而仍然是采用普通的對(duì)全模型進(jìn)行參數(shù)更新的Full Tuning范式。因此在該題中,“Prompt”的形式如何并不重要,增加一些沒(méi)什么用的詞反而會(huì)擠占第一段文本的輸入長(zhǎng)度。

該方案使用了BERT的MLM頭進(jìn)行分類(lèi),21128維的詞表中只有五個(gè)Token映射到有效標(biāo)簽,其余Token都被忽略。這和我們的方案在結(jié)構(gòu)上基本等價(jià),唯一的區(qū)別是該方案有MLM頭的參數(shù)初始化而我們的分類(lèi)層為隨機(jī)初始化,這個(gè)區(qū)別是否會(huì)帶來(lái)性能提升不知道,但是直觀的是模型增加了至少768*21123=16M(或者1024*21123=22M)的無(wú)用參數(shù)量,在題目有模型總大小限制的情況下這意味著可以融合的模型變少了。

模型優(yōu)化

針對(duì)上述提出的模型,我們進(jìn)行了很多優(yōu)化嘗試,下面主要討論上分較多的技巧,沒(méi)什么用的東西就在最后放一小節(jié)補(bǔ)充說(shuō)明。很多優(yōu)化技巧都會(huì)導(dǎo)致訓(xùn)練或測(cè)試階段時(shí)空開(kāi)銷(xiāo)大大提升,比賽時(shí)還是應(yīng)該視情況使用。

線下數(shù)據(jù)劃分方式

隊(duì)友發(fā)現(xiàn),初賽階段使用前90%數(shù)據(jù)訓(xùn)練,后10%驗(yàn)證,可以取得最好的線上效果,隨機(jī)10%效果會(huì)變差一些,增加訓(xùn)練數(shù)據(jù)也不能使效果變好。復(fù)賽階段使用了同樣的數(shù)據(jù)劃分方式。

對(duì)抗訓(xùn)練(FGM)

在各類(lèi)文本分類(lèi)任務(wù)中,常用的提升NLP模型訓(xùn)練魯棒性和泛化能力的有效方法。簡(jiǎn)單來(lái)說(shuō)是在Embedding層的參數(shù)有一定程度擾動(dòng)時(shí)也盡量保證模型能分類(lèi)正確。事后估計(jì)初賽線上提升1%左右。

參考了這篇知乎文章的實(shí)現(xiàn)方法:Nicolas:【煉丹技巧】功守道:NLP中的對(duì)抗訓(xùn)練 + PyTorch實(shí)現(xiàn)

模型平均 (SWA)

對(duì)訓(xùn)練過(guò)程中的多個(gè)checkpoint進(jìn)行權(quán)重平均,或許可以有助于模型收斂到loss landscape平坦區(qū)域的中心,提升模型的泛化能力。具體而言,我們?cè)隍?yàn)證指標(biāo)的最高點(diǎn)開(kāi)始,將這一輪和到Early Stopping之前的各輪驗(yàn)證時(shí),驗(yàn)證指標(biāo)與最高點(diǎn)差值小于一定值的模型權(quán)重放進(jìn)來(lái)平均。事后估計(jì)初賽線上提升1%左右。

模型融合

沒(méi)什么好說(shuō)的,幾個(gè)模型預(yù)測(cè)的logits平均得到最終結(jié)果。值得注意的是這題有2G的模型總大小限制,因此我們需要考慮融合模型的異構(gòu)度不能盲目做K折,最后融合了2個(gè)稍微異構(gòu)的XLNet-Mid + 1個(gè)MacBERT-Large + 1個(gè)RoBERTa-Large,全部保存為FP16格式,模型文件總大小2043M正好小于2G。估計(jì)初賽提升大約1%,復(fù)賽提升大約2%。

偽標(biāo)簽

在模型融合的基礎(chǔ)上,使用融合模型預(yù)測(cè)的測(cè)試集標(biāo)簽作為偽標(biāo)簽,將測(cè)試集數(shù)據(jù)加入訓(xùn)練集中再次訓(xùn)練模型。在復(fù)賽中,我們?yōu)榱吮苊舛嗄P驮跍y(cè)試集上的預(yù)測(cè)結(jié)果失去異構(gòu)性,我們沒(méi)有把全部測(cè)試數(shù)據(jù)都加入訓(xùn)練集,而是四個(gè)模型預(yù)測(cè)結(jié)果投票,大于等于三個(gè)模型預(yù)測(cè)一致的數(shù)據(jù)才會(huì)被加入訓(xùn)練集。這個(gè)訓(xùn)練集會(huì)重新被用于訓(xùn)練四個(gè)模型,然后重新進(jìn)行融合。復(fù)賽在模型融合基礎(chǔ)上還有1%左右的提升。

復(fù)賽數(shù)據(jù)適配

e22e019e-fc23-11ec-ba43-dac502259ad0.jpg

如圖所示。在復(fù)賽開(kāi)始的時(shí)候,起初我們使用初賽訓(xùn)練集+復(fù)賽訓(xùn)練集的全量訓(xùn)練數(shù)據(jù)對(duì)模型進(jìn)行訓(xùn)練,結(jié)果發(fā)現(xiàn)效果不好。后來(lái)發(fā)現(xiàn)復(fù)賽數(shù)據(jù)相比初賽數(shù)據(jù)的分布可能發(fā)生了較大的偏移,因此我們考慮用初賽訓(xùn)練好的模型的權(quán)重來(lái)對(duì)模型進(jìn)行初始化,然后只在復(fù)賽數(shù)據(jù)集上訓(xùn)練。相比全量數(shù)據(jù)訓(xùn)練提升近3%,驗(yàn)證了我們的猜想。

沒(méi)什么用的

R-Drop:在有了FGM,SWA等東西的情況下沒(méi)有什么提升,而且還慢。

PGD:慢而且相比FGM沒(méi)什么提升。

EMA:有了SWA之后也顯得沒(méi)用。

數(shù)據(jù)增強(qiáng):嘗試了EDA和AEDA,本來(lái)以為會(huì)有用實(shí)際上沒(méi)用。

長(zhǎng)文本處理:估計(jì)是沒(méi)有什么用,某次偶然發(fā)現(xiàn)設(shè)置最大長(zhǎng)度512的XLNet和最大長(zhǎng)度800的XLNet相比效果基本沒(méi)有差別,用MacBERT和RoBERTa訓(xùn)的模型和XLNet比效果也相差不大。推測(cè)可能是因?yàn)榍鞍攵挝谋镜男畔⒘恳呀?jīng)足夠?qū)^大多數(shù)實(shí)體正確分類(lèi)了。

標(biāo)簽不平衡處理:嘗試過(guò)Focal Loss和類(lèi)別重加權(quán),也沒(méi)有什么用。猜測(cè)可能是因?yàn)閿?shù)據(jù)中2和-2的數(shù)據(jù)量也相對(duì)充足(各有幾千個(gè)實(shí)體),在普通Cross Entropy下充分學(xué)習(xí)也可以對(duì)這些類(lèi)大部分樣本正確分類(lèi)了,而修改Loss反而會(huì)扭曲模型學(xué)習(xí)到的分布,對(duì)于訓(xùn)練和測(cè)試同分布的情況下反而不利。

評(píng)測(cè)結(jié)果

初賽、復(fù)賽和決賽評(píng)測(cè)均為NLP賽道第一。

審核編輯 :李倩

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 數(shù)據(jù)分析
    +關(guān)注

    關(guān)注

    2

    文章

    1470

    瀏覽量

    34838
  • nlp
    nlp
    +關(guān)注

    關(guān)注

    1

    文章

    490

    瀏覽量

    22516

原文標(biāo)題:競(jìng)賽 | Aspect-based的情感分析任務(wù)第一名方法解讀 -- 2022搜狐校園算法大賽

文章出處:【微信號(hào):zenRRan,微信公眾號(hào):深度學(xué)習(xí)自然語(yǔ)言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    特勵(lì)達(dá)的INFINITY色彩預(yù)設(shè)實(shí)現(xiàn)色彩精度,幫助工業(yè)相機(jī)捕捉精準(zhǔn)、可靠的圖像

    色彩精度對(duì)于明場(chǎng)顯微鏡至關(guān)重要,無(wú)論是分析蘇木精和伊紅(H&E)染色切片、開(kāi)發(fā)AI輔助診斷模型,還是進(jìn)行全片成像。然而,實(shí)現(xiàn)真實(shí)的色彩保真度并非易事。不同傳感器捕捉色彩的方式存在差異,
    的頭像 發(fā)表于 06-06 17:08 ?332次閱讀
    特勵(lì)達(dá)的INFINITY<b class='flag-5'>色彩</b>預(yù)設(shè)實(shí)現(xiàn)<b class='flag-5'>色彩</b>精度,幫助工業(yè)相機(jī)捕捉精準(zhǔn)、可靠的圖像

    高精度焊接強(qiáng)度分析儀的應(yīng)用與優(yōu)勢(shì)探析

    高精度焊接強(qiáng)度分析儀作為一種先進(jìn)的檢測(cè)工具,在現(xiàn)代制造業(yè)中扮演著至關(guān)重要的角色。它不僅能夠精確地評(píng)估焊接接頭的強(qiáng)度和質(zhì)量,還能夠在很大程度上預(yù)防因焊接缺陷導(dǎo)致的產(chǎn)品失效,從而保障生產(chǎn)安全
    的頭像 發(fā)表于 01-16 14:14 ?363次閱讀

    超級(jí)電容是極性電容還是無(wú)極性電容

    電容器有極性和無(wú)極性之分,極性電容如電解電容需按正負(fù)極連接,否則可能損壞;無(wú)極性電容如陶瓷電容可任意方向連接。超級(jí)電容通常是有極性的,屬于
    的頭像 發(fā)表于 12-23 11:00 ?736次閱讀
    超級(jí)電容是<b class='flag-5'>極性</b>電容還是無(wú)<b class='flag-5'>極性</b>電容

    超級(jí)電容是極性電容還是無(wú)極性電容?

    電容器有極性和無(wú)極性之分,極性電容如電解電容需按正負(fù)極連接,否則可能損壞;無(wú)極性電容如陶瓷電容可任意方向連接。超級(jí)電容通常是有極性的,屬于
    的頭像 發(fā)表于 12-23 10:27 ?512次閱讀
    超級(jí)電容是<b class='flag-5'>極性</b>電容還是無(wú)<b class='flag-5'>極性</b>電容?

    如何使用自然語(yǔ)言處理分析文本數(shù)據(jù)

    使用自然語(yǔ)言處理(NLP)分析文本數(shù)據(jù)是一個(gè)復(fù)雜但系統(tǒng)的過(guò)程,涉及多個(gè)步驟和技術(shù)。以下是一個(gè)基本的流程,幫助你理解如何使用NLP來(lái)分析文本數(shù)據(jù): 1. 數(shù)據(jù)收集 收集
    的頭像 發(fā)表于 12-05 15:27 ?1417次閱讀

    圖紙模板中的文本變量

    “ ?文本變量和系統(tǒng)自帶的內(nèi)置變量,可以幫助工程師靈活、高效地配置標(biāo)題欄中的信息,而不用擔(dān)心模板中的文字對(duì)象被意外修改。 ? ” 文本變量的語(yǔ)法 文本變量以?${VARIABLENAM
    的頭像 發(fā)表于 11-13 18:21 ?568次閱讀
    圖紙模板中的<b class='flag-5'>文本</b>變量

    基于LSTM神經(jīng)網(wǎng)絡(luò)的情感分析方法

    情感分析是自然語(yǔ)言處理(NLP)領(lǐng)域的一項(xiàng)重要任務(wù),旨在識(shí)別和提取文本中的主觀信息,如情感傾向、情感強(qiáng)度
    的頭像 發(fā)表于 11-13 10:15 ?1186次閱讀

    如何在文本字段中使用上標(biāo)、下標(biāo)及變量

    在KiCad的任何文本字段中,都可以通過(guò)以下的方式實(shí)現(xiàn)上標(biāo)、下標(biāo)、上劃線以及顯示變量及字段值的描述文本變量“文本變量”可以在 原理圖設(shè)置->工程->
    的頭像 發(fā)表于 11-12 12:23 ?551次閱讀
    如何在<b class='flag-5'>文本</b>字段中使用上標(biāo)、下標(biāo)及變量

    淺談?dòng)来烹姍C(jī)與磁感應(yīng)強(qiáng)度的關(guān)系

    永磁電機(jī) 是以磁場(chǎng)為“橋梁”的能量轉(zhuǎn)換裝置,其通過(guò)磁場(chǎng)的變化產(chǎn)生力和運(yùn)動(dòng)。 磁感應(yīng)強(qiáng)度****B ?是指描述磁場(chǎng)強(qiáng)弱和方向的矢量。 永磁電機(jī)運(yùn)行時(shí)離不開(kāi)磁場(chǎng),磁感應(yīng)強(qiáng)度是決定磁場(chǎng)強(qiáng)度
    的頭像 發(fā)表于 10-11 09:26 ?631次閱讀

    極性Buck-Boost電路分析

    極性Buck-Boost電路是一種特殊的DC/DC變換電路,其輸出電壓的極性與輸入電壓的極性相反,同時(shí)輸出電壓既可以低于輸入電壓,也可以高于輸入電壓。這種電路因其獨(dú)特的電壓變換能力和輸出電壓的
    的頭像 發(fā)表于 10-10 15:27 ?2247次閱讀

    極性電容怎么變成無(wú)極性電容

    將有極性電容轉(zhuǎn)變?yōu)闊o(wú)極性電容是一個(gè)涉及電路設(shè)計(jì)和電容器使用策略的復(fù)雜過(guò)程。由于有極性電容和無(wú)極性電容在結(jié)構(gòu)、特性和使用場(chǎng)合上存在顯著差異,直接將有
    的頭像 發(fā)表于 09-27 10:53 ?1333次閱讀

    極性電容和無(wú)極性電容可以通用嗎

    極性電容和無(wú)極性電容在結(jié)構(gòu)、特性、使用場(chǎng)合等方面存在較大差異,因此 通常不能通用 。以下是關(guān)于兩者是否可以通用的分析: 一、結(jié)構(gòu)差異 有極性電容 :又稱為電解電容,主要由兩層金屬箔(
    的頭像 發(fā)表于 09-27 10:48 ?1728次閱讀

    spwm單極性和雙極性的區(qū)別是什么

    SPWM(Sinusoidal Pulse Width Modulation,正弦脈寬調(diào)制)技術(shù)中,單極性和雙極性調(diào)制方式在多個(gè)方面存在顯著差異。以下是兩者之間的主要區(qū)別: 一、波形特性 單極性
    的頭像 發(fā)表于 08-14 11:27 ?4870次閱讀

    【《大語(yǔ)言模型應(yīng)用指南》閱讀體驗(yàn)】+ 基礎(chǔ)知識(shí)學(xué)習(xí)

    收集海量的文本數(shù)據(jù)作為訓(xùn)練材料。這些數(shù)據(jù)集不僅包括語(yǔ)法結(jié)構(gòu)的學(xué)習(xí),還包括對(duì)語(yǔ)言的深層次理解,如文化背景、語(yǔ)境含義和情感色彩等。 自監(jiān)督學(xué)習(xí):模型采用自監(jiān)督學(xué)習(xí)策略,在大量無(wú)標(biāo)簽文本數(shù)據(jù)
    發(fā)表于 08-02 11:03

    如何學(xué)習(xí)智能家居?8:Text文本實(shí)體使用方法

    沒(méi)來(lái)得及給大家寫(xiě)使用教程! 不過(guò)在寫(xiě)教程之前,有必要給大家看看上周的成果: Text 實(shí)體介紹 Text 實(shí)體,也就是文本實(shí)體,它支持在 HomeAssistant 輸入文字之后,通過(guò)
    的頭像 發(fā)表于 07-15 14:06 ?1965次閱讀
    如何學(xué)習(xí)智能家居?8:Text<b class='flag-5'>文本</b><b class='flag-5'>實(shí)體</b>使用方法
    主站蜘蛛池模板: 天天做天天看夜夜爽毛片 | 97黄网| 亚洲欧美强伦一区二区另类 | 国产精品va一区二区三区 | 黄色日屁| 天天操电影| 亚洲qingse中文字幕久久 | 女色专区 | 国内a级毛片免费··· | 亚洲最新黄色网址 | 狠狠狠狼鲁欧美综合网免费 | 亚洲www美色 | 日本不卡一区二区三区在线观看 | 久久午夜网 | 5252a我爱haose01亚洲 | a级毛片网站 | 淫香色香 | 男男之h啪肉np文 | 香港澳门a级三级三级全黄 香港经典a毛片免费观看爽爽影院 | 毛片在线看免费版 | 四虎色影院 | 日韩免费观看的一级毛片 | 日本免费观看完整视频 | 免费观看一区二区 | 天天射天天操天天 | 一区二区3区免费视频 | 国产主播一区二区 | a毛片基地免费全部香蕉 | 午夜视频在线观看完整高清在线 | 免费能直接在线观看黄的视频 | 一级做a爱片特黄在线观看 一级做a爱片特黄在线观看免费看 | 欧美最猛黑人xxxx黑人猛交69 | 国产手机在线观看视频 | 亚洲婷婷综合网 | 欧美香蕉在线 | 丁香视频在线 | 午夜精品久久久久蜜桃 | 国产精品天天看大片特色视频 | 99久久精品免费看国产免费 | 日本一级成人毛片免费观看 | 男人的天堂久久精品激情 |