批量文件处理的核心是理清“谁在什么时候对什么文件做了什么”,需明确处理边界、分层解耦逻辑、提供可控执行反馈、以配置驱动替代硬编码。

用Python做批量文件处理,核心不是写多少代码,而是理清“谁在什么时候对什么文件做了什么”。系统性不强,脚本容易变成一次性玩具;流程不优化,小任务也会卡在IO、路径、编码或异常上。
明确处理边界:从“所有文件”到“该处理的文件”
盲目遍历整个目录树是常见误区。真正需要处理的往往只是特定类型、特定时间范围、或满足命名规则的文件。
- 用
pathlib.Path.rglob()替代os.walk(),链式调用更清晰,比如list(p.rglob("*.log"))直接获取所有日志文件 - 加时间过滤:读取
stat().st_mtime,转为datetime后对比,避免用os.listdir()再手动筛选 - 支持白名单/黑名单模式:配置一个
include_patterns = ["report_2024*.csv", "data_v2_*.xlsx"],用fnmatch或正则匹配,比硬编码路径更灵活
分层处理逻辑:解耦读、转、写、验
把“打开→解析→修改→保存→校验”揉成一个函数,调试难、复用差、出错难定位。应拆成可单独测试的小单元。
-
读取层:统一用
with open(...)或pandas.read_*(),自动处理编码(如encoding="utf-8-sig"防BOM)、空文件、权限错误 - 转换层:纯数据操作,不碰文件系统。例如清洗Excel列名、补全缺失日期、标准化手机号格式——输入DataFrame或字典,输出同结构数据
-
写入层:生成目标路径(建议用
target_dir / f"processed_{p.name}"),检查父目录是否存在(target_dir.mkdir(parents=True, exist_ok=True)),再保存 - 校验层:写完立刻验证行数是否一致、关键字段有无空值、MD5是否与预期模板匹配,失败则记录并跳过后续步骤
可控执行与进度反馈:别让脚本“黑着跑”
批量处理动辄几百个文件,没反馈=没掌控。用户需要知道卡在哪、还剩多久、哪些失败了。
标签: excel python js json 编码 csv 黑名单
还木有评论哦,快来抢沙发吧~