处理大文件应避免一次性加载,优先逐行读取(for line in file_obj),其次分块读取二进制内容;写入宜批量缓冲并及时刷新;善用csv、gzip、shutil等标准库优化IO。

处理大文件时,核心是避免一次性把全部内容加载到内存。Python默认的read()或readlines()在GB级文件上极易导致内存溢出。关键思路是:流式读取、分块处理、及时释放、按需写入。
逐行读取,不加载全文
用for line in file_obj:最省内存,Python内部做了缓冲优化,比readline()更简洁可靠。
- ✅ 正确写法:with open("huge.log", "r", encoding="utf-8") as f:
for line in f:
if "ERROR" in line:
process_error(line) - ❌ 避免:
f.readlines()(全读进列表)、f.read()(全读成字符串)
按固定大小分块读取二进制内容
适合处理视频、日志压缩包、数据库导出文件等非文本或超长行场景。每次只读几MB,可控且稳定。
- 设置合理块大小(如8192字节):chunk_size = 8192
with open("data.bin", "rb") as f:
while True:
chunk = f.read(chunk_size)
if not chunk:
break
handle_chunk(chunk) - 注意:文本模式下分块可能切开一行,如需完整行,优先用逐行读;若必须分块解析,需手动拼接末尾不完整行
高效写入:批量+缓冲+及时刷新
频繁调用write()会产生大量I/O开销。合并小写入、利用系统缓冲、必要时手动flush()更稳。
版权声明:除非特别标注,否则均为本站原创文章,转载时请以链接形式注明文章出处。
还木有评论哦,快来抢沙发吧~