在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

電子發燒友App

硬聲App

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示
電子發燒友網>電子資料下載>電子資料>PyTorch教程16.2之情感分析:使用遞歸神經網絡

PyTorch教程16.2之情感分析:使用遞歸神經網絡

2023-06-05 | pdf | 0.20 MB | 次下載 | 免費

資料介紹

與詞相似度和類比任務一樣,我們也可以將預訓練詞向量應用于情感分析。由于第 16.1 節中的 IMDb 評論數據集 不是很大,使用在大規模語料庫上預訓練的文本表示可能會減少模型的過度擬合。作為圖 16.2.1所示的具體示例 ,我們將使用預訓練的 GloVe 模型表示每個標記,并將這些標記表示輸入多層雙向 RNN 以獲得文本序列表示,并將其轉換為情感分析輸出 Maas,2011對于相同的下游應用程序,我們稍后會考慮不同的架構選擇。

https://file.elecfans.com/web2/M00/A9/CD/poYBAGR9PJyAB1TZAAKGTdnYvUk151.svg

圖 16.2.1本節將預訓練的 GloVe 提供給基于 RNN 的架構進行情緒分析。

import torch
from torch import nn
from d2l import torch as d2l

batch_size = 64
train_iter, test_iter, vocab = d2l.load_data_imdb(batch_size)
from mxnet import gluon, init, np, npx
from mxnet.gluon import nn, rnn
from d2l import mxnet as d2l

npx.set_np()

batch_size = 64
train_iter, test_iter, vocab = d2l.load_data_imdb(batch_size)

16.2.1。用 RNN 表示單個文本

在文本分類任務中,例如情感分析,變長的文本序列將被轉換為固定長度的類別。在下面的BiRNN類中,雖然文本序列的每個標記都通過嵌入層 ( self.embedding) 獲得其單獨的預訓練 GloVe 表示,但整個序列由雙向 RNN ( self.encoder) 編碼。更具體地說,雙向 LSTM 在初始和最終時間步的隱藏狀態(在最后一層)被連接起來作為文本序列的表示。然后通過具有兩個輸出(“正”和“負”)的全連接層 ( self.decoder) 將該單一文本表示轉換為輸出類別。

class BiRNN(nn.Module):
  def __init__(self, vocab_size, embed_size, num_hiddens,
         num_layers, **kwargs):
    super(BiRNN, self).__init__(**kwargs)
    self.embedding = nn.Embedding(vocab_size, embed_size)
    # Set `bidirectional` to True to get a bidirectional RNN
    self.encoder = nn.LSTM(embed_size, num_hiddens, num_layers=num_layers,
                bidirectional=True)
    self.decoder = nn.Linear(4 * num_hiddens, 2)

  def forward(self, inputs):
    # The shape of `inputs` is (batch size, no. of time steps). Because
    # LSTM requires its input's first dimension to be the temporal
    # dimension, the input is transposed before obtaining token
    # representations. The output shape is (no. of time steps, batch size,
    # word vector dimension)
    embeddings = self.embedding(inputs.T)
    self.encoder.flatten_parameters()
    # Returns hidden states of the last hidden layer at different time
    # steps. The shape of `outputs` is (no. of time steps, batch size,
    # 2 * no. of hidden units)
    outputs, _ = self.encoder(embeddings)
    # Concatenate the hidden states at the initial and final time steps as
    # the input of the fully connected layer. Its shape is (batch size,
    # 4 * no. of hidden units)
    encoding = torch.cat((outputs[0], outputs[-1]), dim=1)
    outs = self.decoder(encoding)
    return outs
class BiRNN(nn.Block):
  def __init__(self, vocab_size, embed_size, num_hiddens,
         num_layers, **kwargs):
    super(BiRNN, self).__init__(**kwargs)
    self.embedding = nn.Embedding(vocab_size, embed_size)
    # Set `bidirectional` to True to get a bidirectional RNN
    self.encoder = rnn.LSTM(num_hiddens, num_layers=num_layers,
                bidirectional=True, input_size=embed_size)
    self.decoder = nn.Dense(2)

  def forward(self, inputs):
    # The shape of `inputs` is (batch size, no. of time steps). Because
    # LSTM requires its input's first dimension to be the temporal
    # dimension, the input is transposed before obtaining token
    # representations. The output shape is (no. of time steps, batch size,
    # word vector dimension)
    embeddings = self.embedding(inputs.T)
    # Returns hidden states of the last hidden layer at different time
    # steps. The shape of `outputs` is (no. of time steps, batch size,
    # 2 * no. of hidden units)
    outputs = self.encoder(embeddings)
    # Concatenate the hidden states at the initial and final time steps as
    # the input of the fully connected layer. Its shape is (batch size,
    # 4 * no. of hidden units)
    encoding = np.concatenate((outputs[0], outputs[-1]), axis=1)
    outs = self.decoder(encoding)
    return outs

讓我們構建一個具有兩個隱藏層的雙向 RNN 來表示用于情感分析的單個文本。

embed_size, num_hiddens, num_layers, devices = 100, 100, 2, d2l.try_all_gpus()
net = BiRNN(len(vocab), embed_size, num_hiddens, num_layers)

def init_weights(module):
  if type(module) == nn.Linear:
    nn.init.xavier_uniform_(module.weight)
  if type(module) == nn.LSTM:
    for param in module._flat_weights_names:
      if "weight" in param:
        nn.init.xavier_uniform_(module._parameters[param])
net.apply(init_weights);
embed_size, num_hiddens, num_layers, devices = 100, 100, 2, d2l.try_all_gpus()
net = BiRNN(len(vocab), embed_size, num_hiddens, num_layers)

net.initialize(init.Xavier(), ctx=devices)

16.2.2。加載預訓練詞向量

embed_size下面我們為詞匯表中的標記加載預訓練的 100 維(需要與 一致)GloVe 嵌入。

glove_embedding = d2l.TokenEmbedding('glove.6b.100d')
Downloading ../data/glove.6B.100d.zip from http://d2l-data.s3-accelerate.amazonaws.com/glove.6B.100d.zip...
glove_embedding = d2l.TokenEmbedding('glove.6b.100d')

打印詞匯表中所有標記的向量形狀。

embeds = glove_embedding[vocab.idx_to_token]
embeds.shape
torch.Size([49346, 100])
embeds = glove_embedding[vocab.idx_to_token]
embeds.shape
(49346, 100)

我們使用這些預訓練的詞向量來表示評論中的標記,并且不會在訓練期間更新這些向量。

net.embedding.weight.data.copy_(embeds)
net.embedding.weight.requires_grad = False
net.embedding.weight.set_data(embeds)
net.embedding.collect_params().setattr('grad_req', 'null')

16.2.3。訓練和評估模型

現在我們可以訓練雙向 RNN 進行情感分析。

lr, num_epochs = 0.01, 5
trainer = torch.optim.Adam(net.parameters(), lr=lr)
loss = nn.CrossEntropyLoss(reduction="none")
d2l.train_ch13(net, train_iter, test_iter, loss, trainer, num_epochs, devices)
loss 0.311, train acc 0.872, test acc 0.850
574.5 examples/sec on [device(type='cuda', index=0), device(type='cuda', index=1)]
https://file.elecfans.com/web2/M00/A9/CD/poYBAGR9PJ6AJIk8AAECA4Wy71Y322.svg
lr, num_epochs = 0.01, 5
trainer = gluon.Trainer(net.collect_params(), 'adam', {'learning_rate': lr})
loss = gluon.loss.SoftmaxCrossEntropyLoss()
d2l.train_ch13(net, train_iter, test_iter, loss, trainer, num_epochs, devices)
loss 0.428, train acc 0.806, test acc 0.791
488.5 examples/sec on [gpu(0), gpu(1)]
https://file.elecfans.com/web2/M00/AA/48/pYYBAGR9PKGAE9v0AAEB8Qpd38M668.svg

我們定義了以下函數來使用經過訓練的模型預測文本序列的情緒net


下載該資料的人也在下載 下載該資料的人還在閱讀
更多 >

評論

查看更多

下載排行

本周

  1. 1U盤一鍵制作
  2. 23.84 MB   |  3次下載  |  免費
  3. 2ch341驅動
  4. 0.18 MB   |  1次下載  |  免費
  5. 3貼片電阻阻值代號
  6. 0.08 MB   |  1次下載  |  1 積分
  7. 4DS-CM5A H24-CN-V2
  8. 524.28 KB  |  1次下載  |  免費
  9. 5基于Linux的液晶顯示屏驅動技術的研究與應用
  10. 14.59 MB   |  次下載  |  1 積分
  11. 6研華AIMB-218工控主板用戶手冊
  12. 4.45 MB   |  次下載  |  1 積分
  13. 7研華AIMB-275工控主板用戶手冊
  14. 3.11 MB   |  次下載  |  1 積分
  15. 8ST NPI 新上架產品【DCP0606Y】
  16. 1.35 MB  |  次下載  |  免費

本月

  1. 1人形機器人電機驅動和傳感報告
  2. 4.27 MB   |  60次下載  |  免費
  3. 2晶體三極管的電流放大作用詳細說明
  4. 0.77 MB   |  32次下載  |  2 積分
  5. 3九陽豆漿機高清原理圖
  6. 2.47 MB   |  31次下載  |  1 積分
  7. 4雙極型三極管放大電路的三種基本組態的學習課件免費下載
  8. 4.03 MB   |  25次下載  |  1 積分
  9. 5多級放大電路的學習課件免費下載
  10. 1.81 MB   |  21次下載  |  2 積分
  11. 6Altium Designer元件庫
  12. 17.11 MB   |  11次下載  |  免費
  13. 7STM32F10xxx單片機編程手冊
  14. 0.29 MB   |  5次下載  |  免費
  15. 8HT8691R內置BOOST升壓模塊的D類音頻功率放大器中文手冊
  16. 1.77 MB   |  4次下載  |  免費

總榜

  1. 1matlab軟件下載入口
  2. 未知  |  935127次下載  |  10 積分
  3. 2開源硬件-PMP21529.1-4 開關降壓/升壓雙向直流/直流轉換器 PCB layout 設計
  4. 1.48MB  |  420063次下載  |  10 積分
  5. 3Altium DXP2002下載入口
  6. 未知  |  233089次下載  |  10 積分
  7. 4電路仿真軟件multisim 10.0免費下載
  8. 340992  |  191382次下載  |  10 積分
  9. 5十天學會AVR單片機與C語言視頻教程 下載
  10. 158M  |  183339次下載  |  10 積分
  11. 6labview8.5下載
  12. 未知  |  81586次下載  |  10 積分
  13. 7Keil工具MDK-Arm免費下載
  14. 0.02 MB  |  73814次下載  |  10 積分
  15. 8LabVIEW 8.6下載
  16. 未知  |  65988次下載  |  10 積分
主站蜘蛛池模板: 天天爽夜夜爽夜夜爽 | 日韩色天使综合色视频 | 中文字幕久久精品波多野结 | 中国美女毛片 | 色噜噜狠狠色综合欧洲selulu | 一级片在线播放 | 色窝视频| 性日韩精品 | 日韩特级毛片免费观看视频 | 欧美zooz人与禽交 | 又粗又长又色又爽视频 | 韩日成人 | 四虎新网址 | 日产乱码免费一卡二卡在线 | 天堂网色 | 中文字幕色综合久久 | 天天干天天干天天色 | 一级特色黄色片 | 一区二区三区午夜 | 欧美日韩精品乱国产 | 色婷婷一区二区三区四区成人网 | 日日夜夜操操 | 四虎在线免费播放 | 97影院午夜在线观看视频 | 啪啪激情综合 | 亚洲色图 第一页 | 成人在线网 | 狂野欧美性猛交xxxx免费 | 天天操天天操天天操香蕉 | 午夜欧美视频 | 婷婷丁香在线观看 | 亚洲色图久久 | 午夜日韩精品 | 国模精品视频 | 伊人免费网 | 天天操天天插天天干 | 亚洲阿v天堂2018在线观看 | 2018天天操夜夜操 | 久久手机看片你懂的日韩1024 | 一女被多男玩很肉很黄文 | 色www永久免费 |