Python并发编程让脚本性能提升十倍的实际技巧【教学】

19次阅读

python并发性能提升关键在于匹配任务类型:I/O密集用asyncio,CPU密集用multiprocessing,混合任务需拆分处理;识别“等”或“算”是优化起点,避免GIL陷阱与盲目并发。

Python并发编程让脚本性能提升十倍的实际技巧【教学】

Python并发编程不是靠线程或进程数量,而是选对模型、避开GIL陷阱、减少等待时间。真正提升十倍性能的关键,在于匹配任务类型——I/O密集用asyncio或threading,CPU密集必须上multiprocessing,再配合合理调度和资源控制。

识别任务类型:先分清是“等”还是“算”

这是所有优化的起点。I/O密集型(比如发http请求、读写文件、数据库查询)大部分时间在等响应,CPU几乎空闲;CPU密集型(比如数值计算、图像处理、加密解密)则持续占用CPU核心。

  • time.time()粗略测:如果脚本总耗时中,CPU使用率长期低于30%,大概率是I/O密集
  • psutil.cpu_percent(interval=1)实时观察,对比单任务和多任务下的波动
  • 别凭感觉判断——下载100个网页看着慢,其实是I/O密集;但用Python做矩阵乘法慢,就是CPU密集

I/O密集任务:优先用asyncio,别急着开线程

asyncio在单线程内通过事件循环调度协程,开销远低于线程,且无锁竞争问题。requests不支持异步?换httpxaiohttp就行。

  • 把阻塞调用全换成async版本:比如await httpx.AsyncClient().get(url)
  • 并发数别盲目设高,通常10–100足够;太多反而触发服务端限流或本地端口耗尽
  • 加简单错误重试+退避:asyncio.sleep(0.1 * (2 ** attempt)),避免雪崩

CPU密集任务:multiprocessing是唯一正解

threading在CPU密集场景几乎无效——CPython的GIL会让多线程变成轮流执行。必须用multiprocessing真正并行,但要注意数据传递成本。

Python并发编程让脚本性能提升十倍的实际技巧【教学】

Hugging Face

Hugging Face AI开源社区

Python并发编程让脚本性能提升十倍的实际技巧【教学】 270

查看详情 Python并发编程让脚本性能提升十倍的实际技巧【教学】

立即学习Python免费学习笔记(深入)”;

  • concurrent.futures.ProcessPoolExecutor比原始Process更易管理
  • 函数必须可序列化(不能是Lambda或嵌套函数),参数尽量轻量;大数组用shared_memorynumpy.memmap
  • 进程数建议设为os.cpu_count() – 1,留一个核给系统和其他任务

混合任务:拆开处理,别混在一起跑

真实脚本常既有网络请求又有本地计算(比如下载图片→缩略图处理)。强行用一种并发模型会拖垮整体效率。

  • 先用asyncio批量下载,保存到临时目录
  • 再用ProcessPoolExecutor批量处理本地文件
  • 中间结果用文件或redis暂存,避免进程间传大量数据
  • 必要时用asyncio.to_thread()(Py3.9+)包裹短时阻塞操作,不阻塞事件循环

基本上就这些。没有银弹,但只要分清任务性质、选对工具、控住并发度,十倍提升不是夸张——很多脚本卡在串行等API响应,一改成asyncio,耗时直接从2分钟降到12秒。

text=ZqhQzanResources