京公网安备 11010802034615号
经营许可证编号:京B2-20210330
20个小招数教你如果快速完成Python 性能优化升级
使用python时,你是不是需要性能优化?今天C君给大家带来python性能优化的20条招数,建议收藏~
1.优化算法时间复杂度
算法的时间复杂度对程序的执行效率影响最大,在 Python 中可以通过选择合适的数据结构来优化时间复杂度,如 list 和 set 查找某一个元素的时间复杂度分别是O(n)和O(1)。不同的场景有不同的优化方式,总得来说,一般有分治,分支界限,贪心,动态规划等思想。
2.减少冗余数据
如用上三角或下三角的方式去保存一个大的对称矩阵。在0元素占大多数的矩阵里使用稀疏矩阵表示。
3.合理使用 copy 与 deepcopy
对于 dict 和 list 等数据结构的对象,直接赋值使用的是引用的方式。而有些情况下需要复制整个对象,这时可以使用 copy 包里的 copy 和 deepcopy,这两个函数的不同之处在于后者是递归复制的。效率也不一样:(以下程序在 ipython 中运行)
1import copy
2a = range(100000)
3%timeit -n 10 copy.copy(a) # 运行10次 copy.copy(a)
4%timeit -n 10 copy.deepcopy(a)
510 loops, best of 3: 1.55 ms per loop
610 loops, best of 3: 151 ms per loop
timeit 后面的-n表示运行的次数,后两行对应的是两个 timeit 的输出,下同。由此可见后者慢一个数量级。
4.使用 dict 或 set 查找元素
python dict 和 set 都是使用 hash 表来实现(类似c++11标准库中unordered_map),查找元素的时间复杂度是O(1)
1a = range(1000)
2s = set(a)
3d = dict((i,1) for i in a)
4%timeit -n 10000 100 in d
5%timeit -n 10000 100 in s10000 loops, best of 3: 43.5 ns per loop10000 loops, best of 3: 49.6 ns per loop
dict 的效率略高(占用的空间也多一些)。
5.合理使用生成器(generator)和 yield
1%timeit -n 100 a = (i for i in range(100000))
2%timeit -n 100 b = [i for i in range(100000)]100 loops, best of 3: 1.54 ms per loop100 loops, best of 3: 4.56 ms per loop
使用()得到的是一个 generator 对象,所需要的内存空间与列表的大小无关,所以效率会高一些。在具体应用上,比如 set(i for i in range(100000))会比 set([i for i in range(100000)])快。
但是对于需要循环遍历的情况:
1%timeit -n 10 for x in (i for i in range(100000)): pass
2%timeit -n 10 for x in [i for i in range(100000)]: pass10 loops, best of 3: 6.51 ms per loop10 loops, best of 3: 5.54 ms per loop
后者的效率反而更高,但是如果循环里有 break,用 generator 的好处是显而易见的。yield 也是用于创建 generator:
1def yield_func(ls):
2 for i in ls:
3 yield i+1
4def not_yield_func(ls):
5 return [i+1 for i in ls]
6ls = range(1000000)
7%timeit -n 10 for i in yield_func(ls):pass
8%timeit -n 10 for i in not_yield_func(ls):pass
910 loops, best of 3: 63.8 ms per loop
1010 loops, best of 3: 62.9 ms per loop
对于内存不是非常大的 list,可以直接返回一个 list,但是可读性 yield 更佳(人个喜好)。
python2.x 内置 generator 功能的有 xrange 函数、itertools 包等。
6.优化循环
循环之外能做的事不要放在循环内,比如下面的优化可以快一倍:
1a = range(10000)
2size_a = len(a)
3%timeit -n 1000 for i in a: k = len(a)
4%timeit -n 1000 for i in a: k = size_a
51000 loops, best of 3: 569 µs per loop
61000 loops, best of 3: 256 µs per loop
7.优化包含多个判断表达式的顺序
对于 and,应该把满足条件少的放在前面,对于 or,把满足条件多的放在前面。如:
1a = range(2000)
2%timeit -n 100 [i for i in a if 10 < i < 20 or 1000 < i < 2000]
3%timeit -n 100 [i for i in a if 1000 < i < 2000 or 100 < i < 20]
4%timeit -n 100 [i for i in a if i % 2 == 0 and i > 1900]
5%timeit -n 100 [i for i in a if i > 1900 and i % 2 == 0]
6100 loops, best of 3: 287 µs per loop
7100 loops, best of 3: 214 µs per loop
8100 loops, best of 3: 128 µs per loop
9100 loops, best of 3: 56.1 µs per loop
8.使用 join 合并迭代器中的字符串
1In [1]: %%timeit
2 ...: s = ''
3 ...: for i in a:
4 ...: s += i
5 ...:10000 loops, best of 3: 59.8 µs per loopIn [2]: %%timeit
6s = ''.join(a)
7 ...:100000 loops, best of 3: 11.8 µs per loop
join 对于累加的方式,有大约5倍的提升。
9.选择合适的格式化字符方式
1s1, s2 = 'ax', 'bx'
2%timeit -n 100000 'abc%s%s' % (s1, s2)
3%timeit -n 100000 'abc{0}{1}'.format(s1, s2)
4%timeit -n 100000 'abc' + s1 + s2
5100000 loops, best of 3: 183 ns per loop
6100000 loops, best of 3: 169 ns per loop
7100000 loops, best of 3: 103 ns per loop
三种情况中,%的方式是最慢的,但是三者的差距并不大(都非常快)。
10.不借助中间变量交换两个变量的值
1In [3]: %%timeit -n 10000
2 a,b=1,2
3 ....: c=a;a=b;b=c;
4 ....:10000 loops, best of 3: 172 ns per loop
5In [4]: %%timeit -n 10000
6a,b=1,2
7a,b=b,a
8 ....:
910000 loops, best of 3: 86 ns per loop
使用a,b=b,a而不是c=a;a=b;b=c;来交换a,b的值,可以快1倍以上。
11.使用 if is
1a = range(10000)
2%timeit -n 100 [i for i in a if i == True]
3%timeit -n 100 [i for i in a if i is True]
4100 loops, best of 3: 531 µs per loop
5100 loops, best of 3: 362 µs per loop
使用 if is True 比 if == True 将近快一倍。
12使用级联比较x < y < z
1x, y, z = 1,2,3
2%timeit -n 1000000 if x < y < z:pass
3%timeit -n 1000000 if x < y and y < z:pass
41000000 loops, best of 3: 101 ns per loop
51000000 loops, best of 3: 121 ns per loop
x < y < z效率略高,而且可读性更好。
13.while 1 比 while True 更快
1def while_1():
2 n = 100000
3 while 1:
4 n -= 1
5 if n <= 0: break
6def while_true():
7 n = 100000
8 while True:
9 n -= 1
10 if n <= 0: break
11m, n = 1000000, 1000000
12%timeit -n 100 while_1()
13%timeit -n 100 while_true()
14100 loops, best of 3: 3.69 ms per loop
15100 loops, best of 3: 5.61 ms per loop
while 1 比 while true 快很多,原因是在 python2.x 中,True 是一个全局变量,而非关键字。
14.使用**而不是 pow
1%timeit -n 10000 c = pow(2,20)
2%timeit -n 10000 c = 2**2010000 loops, best of 3: 284 ns per loop10000 loops, best of 3: 16.9 ns per loop
**就是快10倍以上!
15.使用 cProfile, cStringIO 和 cPickle 等用c实现相同功能(分别对应profile, StringIO, pickle)的包
1import cPickle
2import pickle
3a = range(10000)
4%timeit -n 100 x = cPickle.dumps(a)
5%timeit -n 100 x = pickle.dumps(a)
6100 loops, best of 3: 1.58 ms per loop
7100 loops, best of 3: 17 ms per loop
由c实现的包,速度快10倍以上!
16.使用最佳的反序列化方式
下面比较了 eval, cPickle, json 方式三种对相应字符串反序列化的效率:
1import json
2import cPickle
3a = range(10000)
4s1 = str(a)
5s2 = cPickle.dumps(a)
6s3 = json.dumps(a)
7%timeit -n 100 x = eval(s1)
8%timeit -n 100 x = cPickle.loads(s2)
9%timeit -n 100 x = json.loads(s3)
10100 loops, best of 3: 16.8 ms per loop
11100 loops, best of 3: 2.02 ms per loop
12100 loops, best of 3: 798 µs per loop
可见 json 比 cPickle 快近3倍,比 eval 快20多倍。
17.使用C扩展(Extension)
目前主要有 CPython(python最常见的实现的方式)原生API, ctypes,Cython,cffi三种方式,它们的作用是使得 Python 程序可以调用由C编译成的动态链接库,其特点分别是:
CPython 原生 API: 通过引入 Python.h 头文件,对应的C程序中可以直接使用Python 的数据结构。实现过程相对繁琐,但是有比较大的适用范围。
ctypes: 通常用于封装(wrap)C程序,让纯 Python 程序调用动态链接库(Windows 中的 dll 或 Unix 中的 so 文件)中的函数。如果想要在 python 中使用已经有C类库,使用 ctypes 是很好的选择,有一些基准测试下,python2+ctypes 是性能最好的方式。
Cython: Cython 是 CPython 的超集,用于简化编写C扩展的过程。Cython 的优点是语法简洁,可以很好地兼容 numpy 等包含大量C扩展的库。Cython 的使得场景一般是针对项目中某个算法或过程的优化。在某些测试中,可以有几百倍的性能提升。
cffi: cffi 的就是 ctypes 在 pypy(详见下文)中的实现,同进也兼容 CPython。cffi提供了在 python 使用C类库的方式,可以直接在 python 代码中编写C代码,同时支持链接到已有的C类库。
使用这些优化方式一般是针对已有项目性能瓶颈模块的优化,可以在少量改动原有项目的情况下大幅度地提高整个程序的运行效率。
18.并行编程
因为 GIL 的存在,Python 很难充分利用多核 CPU 的优势。但是,可以通过内置的模块 multiprocessing 实现下面几种并行模式:
多进程:对于 CPU 密集型的程序,可以使用 multiprocessing 的 Process,Pool 等封装好的类,通过多进程的方式实现并行计算。但是因为进程中的通信成本比较大,对于进程之间需要大量数据交互的程序效率未必有大的提高。
多线程:对于 IO 密集型的程序,multiprocessing.dummy 模块使用 multiprocessing 的接口封装 threading,使得多线程编程也变得非常轻松(比如可以使用 Pool 的 map 接口,简洁高效)。
分布式:multiprocessing 中的 Managers 类提供了可以在不同进程之共享数据的方式,可以在此基础上开发出分布式的程序。
不同的业务场景可以选择其中的一种或几种的组合实现程序性能的优化。
19.终级大杀器:PyPy
PyPy 是用 RPython(CPython 的子集)实现的 Python,根据官网的基准测试数据,它比 CPython 实现的 Python 要快6倍以上。快的原因是使用了 Just-in-Time(JIT)编译器,即动态编译器,与静态编译器(如gcc,javac等)不同,它是利用程序运行的过程的数据进行优化。由于历史原因,目前 pypy 中还保留着 GIL,不过正在进行的 STM 项目试图将 PyPy 变成没有 GIL 的 Python。
如果 python 程序中含有C扩展(非cffi的方式),JIT 的优化效果会大打折扣,甚至比 CPython 慢(比 Numpy)。所以在 PyPy 中最好用纯 Python 或使用 cffi 扩展。
随着 STM,Numpy 等项目的完善,相信 PyPy 将会替代 CPython。
20.使用性能分析工具
除了上面在 ipython 使用到的 timeit 模块,还有 cProfile。cProfile 的使用方式也非常简单: python -m cProfile filename.py,filename.py 是要运行程序的文件名,可以在标准输出中看到每一个函数被调用的次数和运行的时间,从而找到程序的性能瓶颈,然后可以有针对性地优化。
数据分析咨询请扫描二维码
若不方便扫码,搜微信号:CDAshujufenxi
主讲人简介 张冲,海归统计学硕士,CDA 认证数据分析师,前云南白药集团资深数据分析师,自媒体 Python 讲师,全网课程播放量破 ...
2026-04-10在数据可视化与业务分析中,同比分析是衡量业务发展趋势、识别周期波动的核心手段,其核心逻辑是将当前周期数据与上年同期数据进 ...
2026-04-10在机器学习模型的落地应用中,预测精度并非衡量模型可靠性的唯一标准,不确定性分析同样不可或缺。尤其是在医疗诊断、自动驾驶、 ...
2026-04-10数据本身是沉默的,唯有通过有效的呈现方式,才能让其背后的规律、趋势与价值被看见、被理解、被运用。统计制图(数据可视化)作 ...
2026-04-10在全球化深度发展的今天,跨文化传播已成为连接不同文明、促进多元共生的核心纽带,其研究核心围绕“信息传递、文化解读、意义建 ...
2026-04-09在数据可视化领域,折线图是展示时序数据、趋势变化的核心图表类型之一,其简洁的线条的能够清晰呈现数据的起伏规律。Python ECh ...
2026-04-09在数据驱动的时代,数据分析早已不是“凭经验、靠感觉”的零散操作,而是一套具备固定逻辑、标准化流程的系统方法——这就是数据 ...
2026-04-09长短期记忆网络(LSTM)作为循环神经网络(RNN)的重要改进模型,凭借其独特的门控机制(遗忘门、输入门、输出门),有效解决了 ...
2026-04-08在数据分析全流程中,数据质量是决定分析结论可靠性的核心前提,而异常值作为数据集中的“异类”,往往会干扰统计检验、模型训练 ...
2026-04-08在数字经济飞速发展的今天,数据已渗透到各行各业的核心场景,成为解读趋势、优化决策、创造价值的核心载体。而数据分析,作为挖 ...
2026-04-08在数据分析全流程中,数据处理是基础,图形可视化是核心呈现手段——前者负责将杂乱无章的原始数据转化为干净、规范、可分析的格 ...
2026-04-07在数据分析与统计推断中,p值是衡量假设检验结果显著性的核心指标,其本质是在原假设(通常为“无效应”“无差异”)成立的前提 ...
2026-04-07在数字经济深度渗透的今天,数据已成为企业生存发展的核心资产,企业的竞争本质已转变为数据利用能力的竞争。然而,大量来自生产 ...
2026-04-07Python凭借简洁的语法、丰富的生态库,成为算法开发、数据处理、机器学习等领域的首选语言。但受限于动态类型、解释性执行的特性 ...
2026-04-03在深度学习神经网络中,卷积操作是实现数据特征提取的核心引擎,更是让模型“看懂”数据、“解读”数据的关键所在。不同于传统机 ...
2026-04-03当数字化转型从企业的“战略口号”落地为“生存之战”,越来越多的企业意识到,转型的核心并非技术的堆砌,而是数据价值的深度挖 ...
2026-04-03在日常办公数据分析中,数据透视表凭借高效的汇总、分组功能,成为Excel、WPS等办公软件中最常用的数据分析工具之一。其中,“计 ...
2026-04-02在数字化交互的全场景中,用户的每一次操作都在生成动态的行为轨迹——电商用户的“浏览商品→点击详情→加入购物车”,内容APP ...
2026-04-02在数字化转型深度推进的今天,企业数据已成为驱动业务增长、构建核心竞争力的战略资产,而数据安全则是守护这份资产的“生命线” ...
2026-04-02在数据驱动决策的浪潮中,数据挖掘与数据分析是两个高频出现且极易被混淆的概念。有人将二者等同看待,认为“做数据分析就是做数 ...
2026-04-01