Python多进程并行解析XML文件需用multiprocessing.Pool分发路径,各子进程独立调用parse_one_xml()并用iterparse流式处理防OOM,避免全局状态,主进程统一汇总结果、写库和日志。

用 Python 多进程并行处理大量 XML 文件,核心是把文件列表分给多个子进程各自解析,避免单进程串行卡在 I/O 或解析上。关键点:别让 XML 解析器(如 xml.etree.ElementTree)跨进程共享,每个进程独立加载和解析;用 multiprocessing.Pool 管理任务分发;注意大文件或内存敏感场景要流式解析(iterparse)。
用 Pool.map 分发文件路径
最直接的方式:把所有 XML 文件路径组成列表,用 Pool.map 并行调用解析函数。每个子进程拿到一个路径,自己打开、解析、提取数据,返回结果(比如字典或结构化记录)。
示例逻辑:
- 先用
glob.glob("*.xml")或pathlib.Path().rglob("*.xml")收集全部路径 - 定义一个顶层函数,如
parse_one_xml(filepath),内部用ET.parse()或ET.iterparse() - 创建进程池:
with Pool(processes=4) as pool:,然后results = pool.map(parse_one_xml, file_list) - 结果是按输入顺序返回的列表,可直接汇总或写入 CSV/数据库
用 iterparse 流式处理大 XML,防内存爆炸
单个 XML 文件很大(几百 MB 以上)时,ET.parse() 会一次性载入整个树,容易 OOM。改用 ET.iterparse() 边读边清空已处理节点,大幅降低内存占用。
立即学习“Python免费学习笔记(深入)”;
在多进程里照样可用,只需确保每个子进程独立调用:
版权声明:除非特别标注,否则均为本站原创文章,转载时请以链接形式注明文章出处。
还木有评论哦,快来抢沙发吧~