在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

Python的矩陣傳播機制

Linux愛好者 ? 來源:SimpleAI ? 作者:Beyond ? 2021-09-30 16:53 ? 次閱讀

一、Python的矩陣傳播機制(Broadcasting)

我們知道在深度學習中經(jīng)常要操作各種矩陣(matrix)。

回想一下,我們在操作數(shù)組(list)的時候,經(jīng)常習慣于用**for循環(huán)(for-loop)**來對數(shù)組的每一個元素進行操作。例如:

my_list = [1,2,3,4]

new_list = []

for each in my_list:

new_list.append(each*2)

print(new_list) # 輸出 [2,3,4,5]

如果是矩陣呢:

my_matrix = [[1,2,3,4],

[5,6,7,8]]

new_matrix = [[],[]]

for i in range(2):

for j in range(4):

new_matrix[i].append(my_matrix[i][j]*2)

print(new_matrix)# 輸出 [[2, 4, 6, 8], [10, 12, 14, 16]]

實際上,上面的做法是十分的低效的!數(shù)據(jù)量小的話還不明顯,如果數(shù)據(jù)量大了,尤其是深度學習中我們處理的矩陣往往巨大,那用for循環(huán)去跑一個矩陣,可能要你幾個小時甚至幾天。

Python考慮到了這一點,這也是本文主要想介紹的**“Python的broadcasting”即傳播機制**。

先說一句,python中定義矩陣、處理矩陣,我們一般都用numpy這個庫。

二、下面展示什么是python的傳播機制

import numpy as np# 先定義一個3×3矩陣 A:

A = np.array(

[[1,2,3],

[4,5,6],

[7,8,9]])

print(“A:

”,A)

print(“

A*2:

”,A*2) # 直接用A乘以2print(“

A+10:

”,A+10) # 直接用A加上10

運行結(jié)果:

A:

[[1 2 3]

[4 5 6]

[7 8 9]]

A*2:

[[ 2 4 6]

[ 8 10 12]

[14 16 18]]

A+10:

[[11 12 13]

[14 15 16]

[17 18 19]]

接著,再看看矩陣×(+)矩陣:

#定義一個3×1矩陣(此時也可叫向量了)

B = np.array([[10],

[100],

[1000]])

print(“

B:

”,B)

print(“

A+B:

”,A+B)

print(“

A*B:

”,A*B)

運行結(jié)果:

B:

[[ 10]

[ 100]

[1000]]

A+B:

[[ 11 12 13]

[ 104 105 106]

[1007 1008 1009]]

A*B:

[[ 10 20 30]

[ 400 500 600]

[7000 8000 9000]]

可見,雖然A和B的形狀不一樣,一個是3×3,一個是3×1,但是我們在python中可以直接相加、相乘,相減相除也可以。

也許看到這,大家都對broadcasting有感覺了。

用一個圖來示意一下:

所謂“傳播”,就是把一個數(shù)或者一個向量進行“復制”,從而作用到矩陣的每一個元素上。

有了這種機制,那進行向量和矩陣的運算,就太方便了!理解了傳播機制,就可以隨心所欲地對矩陣進行各種便捷的操作了。

利用numpy的內(nèi)置函數(shù)對矩陣進行操作:

numpy內(nèi)置了很多的數(shù)學函數(shù),例如np.log(),np.abs(),np.maximum()等等上百種。直接把矩陣丟進去,就可以算出新矩陣!示例:

print(np.log(A))

輸出把A矩陣每一個元素求log后得到的新矩陣:

array([[0. , 0.69314718, 1.09861229],

[1.38629436, 1.60943791, 1.79175947],

[1.94591015, 2.07944154, 2.19722458]])

再比如深度學習中常用的ReLU激活函數(shù),就是y=max(0,x),

也可以對矩陣直接運算:

X = np.array([[1,-2,3,-4], [-9,4,5,6]])Y = np.maximum(0,X)print(Y)

得到:

[[1 0 3 0] [0 4 5 6]]

更多的numpy數(shù)學函數(shù),可以參見文檔:https://docs.scipy.org/doc/numpy-1.13.0/reference/routines.math.html

三、定義自己的函數(shù)來處理矩陣

其實這才是我寫下本文的目的。。。前面扯了這么多,只是做個鋪墊(/ω\)

我昨天遇到個問題,就是我要對ReLU函數(shù)求導,易知,y=max(0,x)的導函數(shù)是:y’ = 0 if x《0y’ = 1 if x》0但是這個y’(x)numpy里面沒有定義,需要自己構(gòu)建。即,我需要將矩陣X中的小于0的元素變?yōu)?,大于0的元素變?yōu)?。搞了好久沒弄出來,后來在StackOverflow上看到了解決辦法:

def relu_derivative(x):

x[x《0] = 0

x[x》0] = 1

return x

X = np.array([[1,-2,3,-4],

[-9,4,5,6]])

print(relu_derivative(X))

輸出:

[[1 0 1 0]

[0 1 1 1]]

**居然這么簡潔就出來了!!!**ミ?Д?彡 (?Д?#)

這個函數(shù)relu_derivative中最難以理解的地方,就是**x[x》0]**了。于是我試了一下:

X = np.array([[1,-2,3,-4],

[-9,4,5,6]])

print(X[X》0])

print(X[X《0])

輸出:

[1 3 4 5 6]

[-2 -4 -9]

它直接把矩陣X中滿足條件的元素取了出來!原來python對矩陣還有這種操作!

震驚了我好久~

所以可以這么理解,X[X》0]相當于一個“選擇器”,把滿足條件的元素選出來,然后直接全部賦值。

用這種方法,我們便可以定義各種各樣我們需要的函數(shù),然后對矩陣整體進行更新操作了!

四、綜上

可以看出,python以及numpy對矩陣的操作簡直神乎其神,方便快捷又實惠。其實上面忘了寫一點,那就是計算機進行矩陣運算的效率要遠遠高于用for-loop來運算,

不信可以用跑一跑:

# vetorization vs for loop# define two arrays a, b:

a = np.random.rand(1000000)

b = np.random.rand(1000000)

# for loop version:

t1 = time.time()

c = 0

for i in range(1000000):

c += a[i]*b[i]

t2 = time.time()

print(c)

print(“for loop version:”+str(1000*(t2-t1))+“ms”)

time1 = 1000*(t2-t1)

# vectorization version:

t1 = time.time()

c = np.dot(a,b)

t2 = time.time()

print(c)

print(“vectorization version:”+str(1000*(t2-t1))+“ms”)

time2 = 1000*(t2-t1)

print(“vectorization is faster than for loop by ”+str(time1/time2)+“ times!”)

運行結(jié)果:

249765.8415288075

for loop version:627.4442672729492ms

249765.84152880745

vectorization version:1.5032291412353516ms

vectorization is faster than for loop by 417.39762093576525 times!

可見,用for方法和向量化方法,計算結(jié)果是一樣,但是后者比前者快了400多倍!

因此,在計算量很大的時候,我們要盡可能想辦法對數(shù)據(jù)進行Vectorizing,即“向量化”,以便讓計算機進行矩陣運算。

責任編輯:haq

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • for
    for
    +關(guān)注

    關(guān)注

    0

    文章

    44

    瀏覽量

    16051
  • python
    +關(guān)注

    關(guān)注

    56

    文章

    4825

    瀏覽量

    86300
  • 深度學習
    +關(guān)注

    關(guān)注

    73

    文章

    5555

    瀏覽量

    122539

原文標題:消滅 for 循環(huán)!Python 的矩陣傳播機制和矩陣運算

文章出處:【微信號:LinuxHub,微信公眾號:Linux愛好者】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦
    熱點推薦

    什么是BP神經(jīng)網(wǎng)絡的反向傳播算法

    BP神經(jīng)網(wǎng)絡的反向傳播算法(Backpropagation Algorithm)是一種用于訓練神經(jīng)網(wǎng)絡的有效方法。以下是關(guān)于BP神經(jīng)網(wǎng)絡的反向傳播算法的介紹: 一、基本概念 反向傳播算法是BP
    的頭像 發(fā)表于 02-12 15:18 ?668次閱讀

    JCMsuite—單模光纖傳播模式

    在本教程項目中,我們計算了帶有摻雜二氧化硅芯的圓柱形光纖的基本傳播模式。 磁芯具有相對介電常數(shù)?core=2.113和直徑dcore=8.2μm。包層具有相對介電常數(shù)?cladding
    發(fā)表于 01-09 08:57

    通過微透鏡陣列的傳播

    使用最新發(fā)布的版本中引入的一個新的MLA組件來設置和模擬這樣的系統(tǒng),允許對微透鏡組件后面的近場以及遠場和焦點區(qū)域的傳輸場進行徹底的研究。 微透鏡陣列后光傳播的研究 本用例研究微透鏡陣列后傳播的光。給出并
    發(fā)表于 01-08 08:49

    通過微透鏡陣列的傳播

    使用最新發(fā)布的版本中引入的一個新的MLA組件來設置和模擬這樣的系統(tǒng),允許對微透鏡組件后面的近場以及遠場和焦點區(qū)域的傳輸場進行徹底的研究。 微透鏡陣列后光傳播的研究 本用例研究微透鏡陣列后傳播的光。給出并
    發(fā)表于 12-11 11:32

    【每天學點AI】前向傳播、損失函數(shù)、反向傳播

    在深度學習的領(lǐng)域中,前向傳播、反向傳播和損失函數(shù)是構(gòu)建和訓練神經(jīng)網(wǎng)絡模型的三個核心概念。今天,小編將通過一個簡單的實例,解釋這三個概念,并展示它們的作用。前向傳播:神經(jīng)網(wǎng)絡的“思考”過程前向
    的頭像 發(fā)表于 11-15 10:32 ?1153次閱讀
    【每天學點AI】前向<b class='flag-5'>傳播</b>、損失函數(shù)、反向<b class='flag-5'>傳播</b>

    MATLAB(6)--特殊矩陣

    通用的特殊矩陣 zero函數(shù):產(chǎn)生全是0矩陣,即零矩陣。 ones函數(shù):產(chǎn)生全是1矩陣,即幺矩陣。 eyes函數(shù):產(chǎn)生對角線為1的
    發(fā)表于 09-06 10:24

    MATLAB(2)--MATLAB矩陣的表示

    矩陣的建立 利用直接輸入法建立矩陣:將矩陣的元素用中括號括起來,按矩陣的順序輸入各元素,同一行的各元素之間用逗號或者空格分隔,不同的元素之間用分號分隔。 利用已建好的
    發(fā)表于 09-06 10:05

    MATLAB中的矩陣索引

    矩陣進行索引是從矩陣中選擇或修改部分元素的一種方式。MATLAB 有幾種索引樣式,它們不僅功能強大、靈活,而且可讀性強、表現(xiàn)力強。矩陣是 MATLAB 用來組織和分析數(shù)據(jù)的一個核心組件,索引是以可理解的方式有效操作
    的頭像 發(fā)表于 09-05 09:28 ?994次閱讀
    MATLAB中的<b class='flag-5'>矩陣</b>索引

    XLT開關(guān)矩陣

    開關(guān)矩陣 蘇州新利通 系列化開關(guān)矩陣是提高被測件測試效率、實現(xiàn)自動化測試的核心設備,是基于標準控制平臺可進行定制化設計的產(chǎn)品。系列化開關(guān)矩陣工作頻率范圍覆蓋DC~67GHz,可通過LAN、GPIB
    的頭像 發(fā)表于 08-06 17:15 ?430次閱讀
    XLT開關(guān)<b class='flag-5'>矩陣</b>

    pytorch和python的關(guān)系是什么

    在當今的人工智能領(lǐng)域,Python已經(jīng)成為了最受歡迎的編程語言之一。Python的易學易用、豐富的庫和框架以及強大的社區(qū)支持,使其成為了數(shù)據(jù)科學、機器學習和深度學習等領(lǐng)域的首選語言。而在深度學習領(lǐng)域
    的頭像 發(fā)表于 08-01 15:27 ?3114次閱讀

    盛顯科技:混合矩陣和拼接處理器的區(qū)別

    在視頻顯示與控制系統(tǒng)集成項目中,拼接處理器與混合矩陣作為兩大關(guān)鍵組件,各自扮演著不可或缺的角色。盡管它們都是信號管理與分配的重要工具,但它們在運作機制與功能特性上展現(xiàn)出了顯著的不同。 運作機制之別
    的頭像 發(fā)表于 07-25 11:43 ?655次閱讀
    盛顯科技:混合<b class='flag-5'>矩陣</b>和拼接處理器的區(qū)別

    opencv-python和opencv一樣嗎

    不一樣。OpenCV(Open Source Computer Vision Library)是一個開源的計算機視覺和機器學習軟件庫,它提供了大量的圖像和視頻處理功能。OpenCV-Python
    的頭像 發(fā)表于 07-16 10:38 ?1969次閱讀

    用pycharm進行python爬蟲的步驟

    以下是使用PyCharm進行Python爬蟲的步驟: 安裝PyCharm和Python 首先,您需要安裝PyCharm和Python。PyCharm是一個流行的Python集成開發(fā)環(huán)境
    的頭像 發(fā)表于 07-11 10:11 ?1359次閱讀

    BP神經(jīng)網(wǎng)絡的學習機制

    BP神經(jīng)網(wǎng)絡(Backpropagation Neural Network),即反向傳播神經(jīng)網(wǎng)絡,是一種基于梯度下降算法的多層前饋神經(jīng)網(wǎng)絡,其學習機制的核心在于通過反向傳播算法
    的頭像 發(fā)表于 07-10 15:49 ?1140次閱讀

    神經(jīng)網(wǎng)絡前向傳播和反向傳播區(qū)別

    神經(jīng)網(wǎng)絡是一種強大的機器學習模型,廣泛應用于各種領(lǐng)域,如圖像識別、語音識別、自然語言處理等。神經(jīng)網(wǎng)絡的核心是前向傳播和反向傳播算法。本文將詳細介紹神經(jīng)網(wǎng)絡的前向傳播和反向傳播的區(qū)別,以
    的頭像 發(fā)表于 07-02 14:18 ?1402次閱讀
    主站蜘蛛池模板: 免费观看激色视频网站bd | 好黄好硬好爽好刺激 | 国产一卡二卡3卡4卡四卡在线视频 | 欧美二级黄色片 | 99热久久精品免费精品 | 成人国产亚洲欧美成人综合网 | 国产精品久久女同磨豆腐 | 躁天天躁中文字幕在线 | 无毒不卡在线播放 | 中文字幕在线观看日剧网 | 国产午夜视频在线观看网站 | 天天玩天天操 | 免费中国一级啪啪片 | 国产一级毛片午夜福 | 国产成人精品高清免费 | 欧美一区二区三区不卡免费观看 | 久久在草 | 黄色avav | 四虎影院一级片 | 一级毛片在线看在线播放 | 综合免费一区二区三区 | 欧美成人免费全部观看天天性色 | 干干干操操操 | 亚洲乱码卡一卡二卡三永久 | 四虎永久免费在线观看 | 欧美亚洲天堂网 | 美女一区二区三区 | 久久精品美女 | 4480yy私人午夜a级国产 | 视频色版| 天天操免费视频 | 色视视频 | 日韩免费 | 91无毒不卡 | tom影院亚洲国产日本一区 | 久久婷五月综合 | 天天摸天天操免费播放小视频 | 爱爱免费小视频 | 色多多福利网站老司机 | 亚洲婷婷综合色高清在线 | 国产吧在线视频 |