Python多线程适合I/O密集型任务(如网络请求、文件读写),因GIL限制对CPU密集型任务提速有限;应据任务类型选ThreadPoolExecutor或ProcessPoolExecutor,并控制并发数、避免共享状态。

Python中多线程对I/O密集型任务(如文件读写、网络请求、数据库查询)能明显提速,但对CPU密集型任务效果有限——因为全局解释器锁(GIL)会限制同一时刻只有一个线程执行Python字节码。
明确任务类型,选对并发模型
判断你的数据处理属于哪一类:
-
I/O密集型:比如批量下载网页、读取上百个CSV文件、调用API获取JSON数据 → 用
threading或concurrent.futures.ThreadPoolExecutor很合适 -
CPU密集型:比如数值计算、图像处理、加密解密 → 应改用
multiprocessing或concurrent.futures.ProcessPoolExecutor
用ThreadPoolExecutor管理线程更安全省心
比手动创建Thread对象更推荐使用高层接口,自动管理线程生命周期和异常:
from concurrent.futures import ThreadPoolExecutor, as_completed
import requests
<p>def fetch_url(url):
try:
return requests.get(url, timeout=5).status_code
except Exception as e:
return f"Error: {e}"</p><p>urls = ["<a href="https://www.php.cn/link/5f69e19efaba426d62faeab93c308f5c">https://www.php.cn/link/5f69e19efaba426d62faeab93c308f5c</a>"] * 10
with ThreadPoolExecutor(max_workers=5) as executor:</p><h1>提交所有任务</h1><pre class="brush:php;toolbar:false;">futures = [executor.submit(fetch_url, url) for url in urls]
# 按完成顺序获取结果
for future in as_completed(futures):
print(future.result())登录后复制
立即学习“Python免费学习笔记(深入)”;
标签: python js json 字节 csv 解决方法 csv文件
版权声明:除非特别标注,否则均为本站原创文章,转载时请以链接形式注明文章出处。
还木有评论哦,快来抢沙发吧~