在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

Python性能優化的20條招數

馬哥Linux運維 ? 來源:未知 ? 作者:李倩 ? 2018-05-01 17:38 ? 次閱讀

優化算法時間復雜度

算法的時間復雜度對程序的執行效率影響最大,在 Python 中可以通過選擇合適的數據結構來優化時間復雜度,如 list 和 set 查找某一個元素的時間復雜度分別是O(n)和O(1)。不同的場景有不同的優化方式,總得來說,一般有分治,分支界限,貪心,動態規劃等思想。

減少冗余數據

如用上三角或下三角的方式去保存一個大的對稱矩陣。在0元素占大多數的矩陣里使用稀疏矩陣表示。

合理使用 copy 與 deepcopy

對于 dict 和 list 等數據結構的對象,直接賦值使用的是引用的方式。而有些情況下需要復制整個對象,這時可以使用 copy 包里的 copy 和 deepcopy,這兩個函數的不同之處在于后者是遞歸復制的。效率也不一樣:(以下程序在 ipython 中運行)

import copya = range(100000)%timeit -n 10 copy.copy(a) # 運行10次 copy.copy(a)%timeit -n 10 copy.deepcopy(a)10 loops, best of 3: 1.55 ms per loop10 loops, best of 3: 151 ms per loop

timeit 后面的-n表示運行的次數,后兩行對應的是兩個 timeit 的輸出,下同。由此可見后者慢一個數量級。

使用 dict 或 set 查找元素

python dict 和 set 都是使用 hash 表來實現(類似c++11標準庫中unordered_map),查找元素的時間復雜度是O(1)

a = range(1000)s = set(a)d = dict((i,1) for i in a)%timeit -n 10000 100 in d%timeit -n 10000 100 in s10000 loops, best of 3: 43.5 ns per loop10000 loops, best of 3: 49.6 ns per loop

dict 的效率略高(占用的空間也多一些)。

合理使用生成器(generator)和 yield

%timeit -n 100 a = (i for i in range(100000))%timeit -n 100 b = [i for i in range(100000)]100 loops, best of 3: 1.54 ms per loop100 loops, best of 3: 4.56 ms per loop

使用()得到的是一個 generator 對象,所需要的內存空間與列表的大小無關,所以效率會高一些。在具體應用上,比如 set(i for i in range(100000))會比 set([i for i in range(100000)])快。

但是對于需要循環遍歷的情況:

%timeit -n 10 for x in (i for i in range(100000)): pass%timeit -n 10 for x in [i for i in range(100000)]: pass10 loops, best of 3: 6.51 ms per loop10 loops, best of 3: 5.54 ms per loop

后者的效率反而更高,但是如果循環里有 break,用 generator 的好處是顯而易見的。yield 也是用于創建 generator:

def yield_func(ls): for i in ls: yield i+1def not_yield_func(ls): return [i+1 for i in ls]ls = range(1000000)%timeit -n 10 for i in yield_func(ls):pass%timeit -n 10 for i in not_yield_func(ls):pass10 loops, best of 3: 63.8 ms per loop10 loops, best of 3: 62.9 ms per loop

對于內存不是非常大的 list,可以直接返回一個 list,但是可讀性 yield 更佳(人個喜好)。

python2.x 內置 generator 功能的有 xrange 函數、itertools 包等。

優化循環

循環之外能做的事不要放在循環內,比如下面的優化可以快一倍:

a = range(10000)size_a = len(a)%timeit -n 1000 for i in a: k = len(a)%timeit -n 1000 for i in a: k = size_a1000 loops, best of 3: 569 μs per loop1000 loops, best of 3: 256 μs per loop

優化包含多個判斷表達式的順序

對于 and,應該把滿足條件少的放在前面,對于 or,把滿足條件多的放在前面。如:

a = range(2000) %timeit -n 100 [i for i in a if 10 < i < 20 or 1000 < i < 2000]%timeit -n 100 [i for i in a if 1000 < i < 2000 or 100 < i < 20] ? ? %timeit -n 100 [i for i in a if i % 2 == 0 and i > 1900]%timeit -n 100 [i for i in a if i > 1900 and i % 2 == 0]100 loops, best of 3: 287 μs per loop100 loops, best of 3: 214 μs per loop100 loops, best of 3: 128 μs per loop100 loops, best of 3: 56.1 μs per loop

使用 join 合并迭代器中的字符串

In [1]: %%timeit ...: s = '' ...: for i in a: ...: s += i ...:10000 loops, best of 3: 59.8 μs per loopIn [2]: %%timeits = ''.join(a) ...:100000 loops, best of 3: 11.8 μs per loop

join 對于累加的方式,有大約5倍的提升。

選擇合適的格式化字符方式

s1, s2 = 'ax', 'bx'%timeit -n 100000 'abc%s%s' % (s1, s2)%timeit -n 100000 'abc{0}{1}'.format(s1, s2)%timeit -n 100000 'abc' + s1 + s2100000 loops, best of 3: 183 ns per loop100000 loops, best of 3: 169 ns per loop100000 loops, best of 3: 103 ns per loop

三種情況中,%的方式是最慢的,但是三者的差距并不大(都非??欤?。(個人覺得%的可讀性最好)

不借助中間變量交換兩個變量的值

In [3]: %%timeit -n 10000 a,b=1,2 ....: c=a;a=b;b=c; ....:10000 loops, best of 3: 172 ns per loopIn [4]: %%timeit -n 10000a,b=1,2a,b=b,a ....:10000 loops, best of 3: 86 ns per loop

使用a,b=b,a而不是c=a;a=b;b=c;來交換a,b的值,可以快1倍以上。

使用 if is

a = range(10000)%timeit -n 100 [i for i in a if i == True]%timeit -n 100 [i for i in a if i is True]100 loops, best of 3: 531 μs per loop100 loops, best of 3: 362 μs per loop

使用if is True比if == True將近快一倍。

使用級聯比較x < y < z

x, y, z = 1,2,3%timeit -n 1000000 if x < y < z:pass%timeit -n 1000000 if x < y and y < z:pass1000000 loops, best of 3: 101 ns per loop1000000 loops, best of 3: 121 ns per loop

x < y < z效率略高,而且可讀性更好。

while 1比while True更快

def while_1(): n = 100000 while 1: n -= 1 if n <= 0: breakdef while_true(): ? ?n = 100000 ? ?while True: ? ? ? ?n -= 1 ? ? ? ?if n <= 0: break ? ?m, n = 1000000, 1000000 %timeit -n 100 while_1()%timeit -n 100 while_true()100 loops, best of 3: 3.69 ms per loop100 loops, best of 3: 5.61 ms per loop

while 1 比 while true 快很多,原因是在 python2.x 中,True 是一個全局變量,而非關鍵字。

使用**而不是 pow

%timeit -n 10000 c = pow(2,20)%timeit -n 10000 c = 2**2010000 loops, best of 3: 284 ns per loop10000 loops, best of 3: 16.9 ns per loop

**就是快10倍以上!

使用 cProfile, cStringIO 和 cPickle 等用c實現相同功能(分別對應profile, StringIO, pickle)的包

import cPickleimport picklea = range(10000)%timeit -n 100 x = cPickle.dumps(a)%timeit -n 100 x = pickle.dumps(a)100 loops, best of 3: 1.58 ms per loop100 loops, best of 3: 17 ms per loop

由c實現的包,速度快10倍以上!

使用最佳的反序列化方式

下面比較了 eval, cPickle, json 方式三種對相應字符串反序列化的效率:

import jsonimport cPicklea = range(10000)s1 = str(a)s2 = cPickle.dumps(a)s3 = json.dumps(a)%timeit -n 100 x = eval(s1)%timeit -n 100 x = cPickle.loads(s2)%timeit -n 100 x = json.loads(s3)100 loops, best of 3: 16.8 ms per loop100 loops, best of 3: 2.02 ms per loop100 loops, best of 3: 798 μs per loop

可見 json 比 cPickle 快近3倍,比 eval 快20多倍。

使用C擴展(Extension)

目前主要有 CPython(python最常見的實現的方式)原生API, ctypes,Cython,cffi三種方式,它們的作用是使得 Python 程序可以調用由C編譯成的動態鏈接庫,其特點分別是:

CPython 原生 API: 通過引入 Python.h 頭文件,對應的C程序中可以直接使用Python 的數據結構。實現過程相對繁瑣,但是有比較大的適用范圍。

ctypes: 通常用于封裝(wrap)C程序,讓純 Python 程序調用動態鏈接庫(Windows 中的 dll 或 Unix 中的 so 文件)中的函數。如果想要在 python 中使用已經有C類庫,使用 ctypes 是很好的選擇,有一些基準測試下,python2+ctypes 是性能最好的方式。

Cython: Cython 是 CPython 的超集,用于簡化編寫C擴展的過程。Cython 的優點是語法簡潔,可以很好地兼容 numpy 等包含大量C擴展的庫。Cython 的使得場景一般是針對項目中某個算法或過程的優化。在某些測試中,可以有幾百倍的性能提升。

cffi: cffi 的就是 ctypes 在 pypy(詳見下文)中的實現,同進也兼容 CPython。cffi提供了在 python 使用C類庫的方式,可以直接在 python 代碼中編寫C代碼,同時支持鏈接到已有的C類庫。

使用這些優化方式一般是針對已有項目性能瓶頸模塊的優化,可以在少量改動原有項目的情況下大幅度地提高整個程序的運行效率。

并行編程

因為 GIL 的存在,Python 很難充分利用多核 CPU 的優勢。但是,可以通過內置的模塊 multiprocessing 實現下面幾種并行模式:

多進程:對于 CPU 密集型的程序,可以使用 multiprocessing 的 Process,Pool 等封裝好的類,通過多進程的方式實現并行計算。但是因為進程中的通信成本比較大,對于進程之間需要大量數據交互的程序效率未必有大的提高。

多線程:對于 IO 密集型的程序,multiprocessing.dummy 模塊使用 multiprocessing 的接口封裝 threading,使得多線程編程也變得非常輕松(比如可以使用 Pool 的 map 接口,簡潔高效)。

分布式:multiprocessing 中的 Managers 類提供了可以在不同進程之共享數據的方式,可以在此基礎上開發出分布式的程序。

不同的業務場景可以選擇其中的一種或幾種的組合實現程序性能的優化。

終級大殺器:PyPy

PyPy 是用 RPython(CPython 的子集)實現的 Python,根據官網的基準測試數據,它比 CPython 實現的 Python 要快6倍以上??斓脑蚴鞘褂昧?Just-in-Time(JIT)編譯器,即動態編譯器,與靜態編譯器(如gcc,javac等)不同,它是利用程序運行的過程的數據進行優化。由于歷史原因,目前 pypy 中還保留著 GIL,不過正在進行的 STM 項目試圖將 PyPy 變成沒有 GIL 的 Python。

如果 python 程序中含有C擴展(非cffi的方式),JIT 的優化效果會大打折扣,甚至比 CPython 慢(比 Numpy)。所以在 PyPy 中最好用純 Python 或使用 cffi 擴展。

隨著 STM,Numpy 等項目的完善,相信 PyPy 將會替代 CPython。

使用性能分析工具

除了上面在 ipython 使用到的 timeit 模塊,還有 cProfile。cProfile 的使用方式也非常簡單:python -m cProfile filename.py,filename.py是要運行程序的文件名,可以在標準輸出中看到每一個函數被調用的次數和運行的時間,從而找到程序的性能瓶頸,然后可以有針對性地優化。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 冗余
    +關注

    關注

    1

    文章

    112

    瀏覽量

    20298
  • 編程
    +關注

    關注

    88

    文章

    3637

    瀏覽量

    93990
  • python
    +關注

    關注

    56

    文章

    4807

    瀏覽量

    85042

原文標題:Python 性能優化的20條招數

文章出處:【微信號:magedu-Linux,微信公眾號:馬哥Linux運維】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    分享50經典的Python一行代碼

    今天浩道跟大家分享python學習過程中非常經典的50一行代碼,讓大家體驗它簡潔而功能強大的特點。同時給大家分享號主收集到的所有關于python的電子書籍,所有電子書以網盤打包,免費分享給大家學習!福利在文末喔~
    發表于 08-16 15:00 ?1092次閱讀

    使用Rust優化Python性能

    在數據分析領域Python無疑是最流行的編程語言,但是Python有一個硬傷就是作為一個編譯語言在性能上有些微的欠缺。而同樣最流行的語言Rust則在性能方面表現優秀。本文我們一起學習一
    的頭像 發表于 11-01 15:59 ?984次閱讀
    使用Rust<b class='flag-5'>優化</b><b class='flag-5'>Python</b><b class='flag-5'>性能</b>

    新手Python學習該學Python2還是Python3

    2與Python3到底有何區別呢?1.性能Py3.0運行 pystone benchmark的速度比Py2.5慢30%。Guido認為Py3.0有極大的優化空間,在字符串和整形操作上可以取得很好的
    發表于 04-17 16:11

    成都-急招數字驗證/Leader:

    成都-急招數字驗證/Leader:崗位一(學習平臺大):需要無線通信類驗證崗位,團隊芯片驗證大牛多(大企業10-20多年經驗),學習和進步空間大,薪資范圍40-50W;崗位二(晉升平臺大):需要數字
    發表于 09-29 10:56

    linux網絡發包性能優化方法

    對于網絡的行為,可以簡單劃分為 3 路徑:1) 發送路徑,2) 轉發路徑,3) 接收路徑,而網絡性能優化則可基于這 3 路徑來考慮。
    發表于 07-16 06:05

    AN0004—AT32 性能優化

    本帖最后由 貪玩 于 2022-2-16 21:42 編輯 AN0004—AT32 性能優化這篇應用筆記描述了如何通過軟件方法提高AT32的運行效能。AT32 性能優化概述
    發表于 08-15 14:38

    內存配置優化SQL Server服務器性能

    內存配置優化SQL Server服務器性能  Microsoft SQL Server 2000 的 內存管理組件消除了對 SQL Server 可用的內存進行手工管理的需要。SQL Serv
    發表于 01-11 11:00 ?1074次閱讀

    Python性能優化

    Python性能優化20建議2016-07-05 17:38 1、優化算法時間復雜度 算法的
    發表于 10-10 10:31 ?0次下載

    Python應用與優化所必備的6個基本庫

    無論你是想快速入手Python還是想為Python應用程序構建本地UI,亦或者對Python代碼進行優化,本文列舉的6個庫,都有可能會幫到你。 由于具有易于使用的優勢,
    發表于 11-15 11:40 ?2752次閱讀

    python性能之服務優化的方法解析

    怎樣發揮Python語言的最高性能?
    的頭像 發表于 12-31 01:04 ?3634次閱讀
    <b class='flag-5'>python</b><b class='flag-5'>性能</b>之服務<b class='flag-5'>優化</b>的方法解析

    使用英特爾MKL提升Python性能

    滿足Intel?Distributionfor Python *,這是一種易于安裝,優化Python發行版,可幫助您優化應用程序的性能。
    的頭像 發表于 11-09 07:00 ?5806次閱讀

    Python 3.8.1有什么新功能和優化

    距離 Python 3.8.1 rc1發布沒多久的時間,目前,Python 3.8.1 也已正式發布。Python 3.8.1是Python 3.8的第一個維護版本,
    的頭像 發表于 12-23 10:56 ?3344次閱讀

    52SQL語句性能優化策略

    本文會提到52SQL語句性能優化策略。 ? 1、對查詢進行優化,應盡量避免全表掃描,首先應考慮在where及order by涉及的列上建立索引。 2、應盡量避免在where子句中對字
    的頭像 發表于 12-14 11:14 ?1623次閱讀

    python基礎知識點(四)

    字符串類型作為Python中最常用的數據類型之一,Python解釋器為了提高字符串使用的效率和使用性能,做了很多優化。
    的頭像 發表于 04-02 15:51 ?1196次閱讀

    優化Python代碼有哪些工具

    Python是一種強大的編程語言,但在面對復雜項目和緊迫的時間要求時,提高Python的使用效率變得至關重要。為此,以下是詳細介紹十大工具,它們可以幫助您加速開發流程、提高編程體驗并優化Pyt
    的頭像 發表于 07-24 09:28 ?1417次閱讀
    主站蜘蛛池模板: 免费黄色成人 | 香蕉视频啪啪 | 欧美亚洲综合另类成人 | 最好免费高清视频观看韩国 | 97精品伊人久久大香线蕉 | 亚洲色播永久网址大全 | 天天色综合6| 国内一区二区 | 天天操人人射 | 国产日韩一区二区三区 | 免费视频播放 | 天天精品视频在线观看资源 | 人人人人凹人人爽人人澡 | 国产日本特黄特色大片免费视频 | 亚洲第一区视频 | 免费一级欧美片在线观免看 | 在线小视频你懂的 | 在线黄色网 | 国产精品久久久久aaaa | 一级做a爰片久久毛片人呢 一级做a爰片久久毛片图片 | 天天色综合6| 5g影院天天爽 | 国产精品福利视频手机免费观看 | 色多多视频在线观看免费大全 | 激情久久久久久久久久 | 91色在线播放 | 妇少香港三日本三级视频 | 国产一卡二卡≡卡四卡无人 | vr性资源在线观看 | 国产 日韩 欧美 高清 | 美女写真mm爽爽爽 | 特级淫片aaaa毛片aa视频 | 国产农村一级特黄α真人毛片 | 色香焦 | 国产精品片 | 欧洲综合网 | 天堂资源 | 色噜噜亚洲男人的天堂 | 男人午夜视频在线观看 | 色老头综合免费视频 | 亚洲精品午夜久久aaa级久久久 |