Python怎么用多进程并行处理大量XML文件

admin 百科 11
Python多进程并行解析XML文件需用multiprocessing.Pool分发路径,各子进程独立调用parse_one_xml()并用iterparse流式处理防OOM,避免全局状态,主进程统一汇总结果、写库和日志。

Python怎么用多进程并行处理大量XML文件-第1张图片-佛山资讯网

用 Python 多进程并行处理大量 XML 文件,核心是把文件列表分给多个子进程各自解析,避免单进程串行卡在 I/O 或解析上。关键点:别让 XML 解析器(如 xml.etree.ElementTree)跨进程共享,每个进程独立加载和解析;用 multiprocessing.Pool 管理任务分发;注意大文件或内存敏感场景要流式解析(iterparse)。

用 Pool.map 分发文件路径

最直接的方式:把所有 XML 文件路径组成列表,用 Pool.map 并行调用解析函数。每个子进程拿到一个路径,自己打开、解析、提取数据,返回结果(比如字典或结构化记录)。

示例逻辑:

  • 先用 glob.glob("*.xml")pathlib.Path().rglob("*.xml") 收集全部路径
  • 定义一个顶层函数,如 parse_one_xml(filepath),内部用 ET.parse()ET.iterparse()
  • 创建进程池:with Pool(processes=4) as pool:,然后 results = pool.map(parse_one_xml, file_list)
  • 结果是按输入顺序返回的列表,可直接汇总或写入 CSV/数据库

用 iterparse 流式处理大 XML,防内存爆炸

单个 XML 文件很大(几百 MB 以上)时,ET.parse() 会一次性载入整个树,容易 OOM。改用 ET.iterparse() 边读边清空已处理节点,大幅降低内存占用。

立即学习“Python免费学习笔记(深入)”;

在多进程里照样可用,只需确保每个子进程独立调用:

标签: python app csv 内存占用

发布评论 0条评论)

还木有评论哦,快来抢沙发吧~