在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

電子發燒友App

硬聲App

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示
電子發燒友網>電子資料下載>電子資料>PyTorch教程6.5之自定義圖層

PyTorch教程6.5之自定義圖層

2023-06-05 | pdf | 0.12 MB | 次下載 | 免費

資料介紹

深度學習成功背后的一個因素是廣泛的層的可用性,這些層可以以創造性的方式組合以設計適合各種任務的架構。例如,研究人員發明了專門用于處理圖像、文本、循環順序數據和執行動態規劃的層。遲早,您會遇到或發明深度學習框架中尚不存在的層。在這些情況下,您必須構建自定義層。在本節中,我們將向您展示如何操作。

import torch
from torch import nn
from torch.nn import functional as F
from d2l import torch as d2l
from mxnet import np, npx
from mxnet.gluon import nn
from d2l import mxnet as d2l

npx.set_np()
import jax
from flax import linen as nn
from jax import numpy as jnp
from d2l import jax as d2l
No GPU/TPU found, falling back to CPU. (Set TF_CPP_MIN_LOG_LEVEL=0 and rerun for more info.)
import tensorflow as tf
from d2l import tensorflow as d2l

6.5.1. 沒有參數的圖層

首先,我們構建一個自定義層,它自己沒有任何參數。如果您還記得我們在第 6.1 節中對模塊的介紹,這應該看起來很熟悉。以下 CenteredLayer類只是從其輸入中減去平均值。要構建它,我們只需要繼承基礎層類并實現前向傳播功能。

class CenteredLayer(nn.Module):
  def __init__(self):
    super().__init__()

  def forward(self, X):
    return X - X.mean()
class CenteredLayer(nn.Block):
  def __init__(self, **kwargs):
    super().__init__(**kwargs)

  def forward(self, X):
    return X - X.mean()
class CenteredLayer(nn.Module):
  def __call__(self, X):
    return X - X.mean()
class CenteredLayer(tf.keras.Model):
  def __init__(self):
    super().__init__()

  def call(self, X):
    return X - tf.reduce_mean(X)

讓我們通過提供一些數據來驗證我們的層是否按預期工作。

layer = CenteredLayer()
layer(torch.tensor([1.0, 2, 3, 4, 5]))
tensor([-2., -1., 0., 1., 2.])
layer = CenteredLayer()
layer(np.array([1.0, 2, 3, 4, 5]))
array([-2., -1., 0., 1., 2.])
layer = CenteredLayer()
layer(jnp.array([1.0, 2, 3, 4, 5]))
Array([-2., -1., 0., 1., 2.], dtype=float32)
layer = CenteredLayer()
layer(tf.constant([1.0, 2, 3, 4, 5]))
<tf.Tensor: shape=(5,), dtype=float32, numpy=array([-2., -1., 0., 1., 2.], dtype=float32)>

我們現在可以將我們的層合并為構建更復雜模型的組件。

net = nn.Sequential(nn.LazyLinear(128), CenteredLayer())
net = nn.Sequential()
net.add(nn.Dense(128), CenteredLayer())
net.initialize()
net = nn.Sequential([nn.Dense(128), CenteredLayer()])
net = tf.keras.Sequential([tf.keras.layers.Dense(128), CenteredLayer()])

作為額外的健全性檢查,我們可以通過網絡發送隨機數據并檢查均值實際上是否為 0。因為我們處理的是浮點數,由于量化,我們可能仍然會看到非常小的非零數。

Y = net(torch.rand(4, 8))
Y.mean()
tensor(0., grad_fn=<MeanBackward0>)
Y = net(np.random.rand(4, 8))
Y.mean()
array(3.783498e-10)

Here we utilize the init_with_output method which returns both the output of the network as well as the parameters. In this case we only focus on the output.

Y, _ = net.init_with_output(d2l.get_key(), jax.random.uniform(d2l.get_key(),
                               (4, 8)))
Y.mean()
Array(5.5879354e-09, dtype=float32)
Y = net(tf.random.uniform((4, 8)))
tf.reduce_mean(Y)
<tf.Tensor: shape=(), dtype=float32, numpy=1.8626451e-09>

6.5.2. 帶參數的圖層

現在我們知道如何定義簡單的層,讓我們繼續定義具有可通過訓練調整的參數的層。我們可以使用內置函數來創建參數,這些參數提供了一些基本的內務處理功能。特別是,它們管理訪問、初始化、共享、保存和加載模型參數。這樣,除了其他好處之外,我們將不需要為每個自定義層編寫自定義序列化例程。

現在讓我們實現我們自己的全連接層版本。回想一下,該層需要兩個參數,一個代表權重,另一個代表偏差。在此實現中,我們將 ReLU 激活作為默認值進行烘焙。該層需要兩個輸入參數: in_unitsunits,分別表示輸入和輸出的數量。

class MyLinear(nn.Module):
  def __init__(self, in_units, units):
    super().__init__()
    self.weight = nn.Parameter(torch.randn(in_units, units))
    self.bias = nn.Parameter(torch.randn(units,))

  def forward(self, X):
    linear = torch.matmul(X, self.weight.data) + self.bias.data
    return F.relu(linear)

接下來,我們實例化該類MyLinear并訪問其模型參數。

linear = MyLinear(5, 3)
linear.weight
Parameter containing:
tensor([[-1.2894e+00, 6.5869e-01, -1.3933e+00],
    [ 7.2590e-01, 7.1593e-01, 1.8115e-03],
    [-1.5900e+00, 4.1654e-01, -1.3358e+00],
    [ 2.2732e-02, -2.1329e+00, 1.8811e+00],
    [-1.0993e+00, 2.9763e-01, -1.4413e+00]], requires_grad=True)
class MyDense(nn.Block):
  def __init__(self, units, in_units, **kwargs):
    super().__init__(**kwargs)
    self.weight = self.params.get('weight', shape=(in_units, units))
    self.bias = self.params.get('bias', shape=(units,))

  def forward(self, x):
    linear = np.

下載該資料的人也在下載 下載該資料的人還在閱讀
更多 >

評論

查看更多

下載排行

本周

  1. 1晶體三極管的電流放大作用詳細說明
  2. 0.77 MB   |  30次下載  |  2 積分
  3. 2雙極型三極管放大電路的三種基本組態的學習課件免費下載
  4. 4.03 MB   |  23次下載  |  1 積分
  5. 3多級放大電路的學習課件免費下載
  6. 1.81 MB   |  20次下載  |  2 積分
  7. 4九陽豆漿機高清原理圖
  8. 2.47 MB   |  8次下載  |  1 積分
  9. 5AIWA J470維修手冊 (可直接打印)
  10. 3.16 MB   |  2次下載  |  10 積分
  11. 6基于51/32單片機按鍵控制步進電機正反轉,A4988驅動
  12. 2.05 MB   |  1次下載  |  1 積分
  13. 7STM32F10xxx單片機編程手冊
  14. 0.29 MB   |  1次下載  |  免費
  15. 8STM32英文參考手冊
  16. 13.17 MB   |  1次下載  |  免費

本月

  1. 1晶體三極管的電流放大作用詳細說明
  2. 0.77 MB   |  30次下載  |  2 積分
  3. 2雙極型三極管放大電路的三種基本組態的學習課件免費下載
  4. 4.03 MB   |  23次下載  |  1 積分
  5. 3第十一屆 藍橋杯 單片機設計與開發項目 省賽 程序設計試題及源碼
  6. 90.88KB   |  23次下載  |  3 積分
  7. 4Python從入門到精通背記手冊
  8. 18.77 MB   |  22次下載  |  1 積分
  9. 5多級放大電路的學習課件免費下載
  10. 1.81 MB   |  20次下載  |  2 積分
  11. 6STM32F103C8T6開發板最小系統原理圖
  12. 0.78 MB   |  17次下載  |  免費
  13. 7東芝彩色電視機29SF6C維修說明書
  14. 4.86 MB   |  8次下載  |  1 積分
  15. 8九陽豆漿機高清原理圖
  16. 2.47 MB   |  8次下載  |  1 積分

總榜

  1. 1matlab軟件下載入口
  2. 未知  |  935127次下載  |  10 積分
  3. 2開源硬件-PMP21529.1-4 開關降壓/升壓雙向直流/直流轉換器 PCB layout 設計
  4. 1.48MB  |  420063次下載  |  10 積分
  5. 3Altium DXP2002下載入口
  6. 未知  |  233089次下載  |  10 積分
  7. 4電路仿真軟件multisim 10.0免費下載
  8. 340992  |  191382次下載  |  10 積分
  9. 5十天學會AVR單片機與C語言視頻教程 下載
  10. 158M  |  183337次下載  |  10 積分
  11. 6labview8.5下載
  12. 未知  |  81585次下載  |  10 積分
  13. 7Keil工具MDK-Arm免費下載
  14. 0.02 MB  |  73814次下載  |  10 積分
  15. 8LabVIEW 8.6下載
  16. 未知  |  65988次下載  |  10 積分
主站蜘蛛池模板: 天天干妹子 | 人人草草 | 午夜在线免费观看 | 激情视频综合网 | 久久精品国产亚洲aa | 美女扒开腿让男生桶爽网站 | 国产伦子一区二区三区四区 | 伊人网站在线 | 天天色影综合网 | 欧美午夜精品一区二区三区 | 日夜操在线视频 | 国色天香网在线 | 欧美伊人 | 亚瑟 国产精品 | 国产主播在线播放 | 亚洲码在线 | 日本免费三级网站 | 天天操女人 | 68日本xxxⅹxxxxx18| 日本黄色小视频在线观看 | 日本xxwwxxww视频免费丝袜 | 久久青草精品一区二区三区 | 国产在线免 | 欧美黑人性受xxxx喷水 | 天天操夜夜干 | 亚洲天天做日日做天天欢毛片 | 欧美一级视频高清片 | 欧美精品成人a多人在线观看 | 天天射天天拍 | 五月激情综合丁香色婷婷 | 欧美亚洲h在线一区二区 | 最新人妖shemaletube人妖 最新日本免费一区二区三区中文 | 99精品视频在线播放2 | 天天搞夜夜操 | 色干干| 性色小视频| 午夜免费理论片在线看 | 久久草在线精品 | 四虎comwww最新地址 | 五月婷婷丁香六月 | 国产精品久久久久久久久久妇女 |