批量处理文件需兼顾高效、健壮与可复用:用glob+pathlib安全遍历,try/except单文件容错,pandas.concat合并CSV并分块读取,tqdm添加进度反馈,joblib并行加速I/O密集任务。

批量处理文件是机器学习项目中高频且刚需的操作——读取成百上千张图片、加载多个CSV特征表、统一清洗日志文本,都绕不开它。关键不在“会不会写for循环”,而在于高效、健壮、可复用:避免内存爆掉、跳过损坏文件、自动识别编码、按需分块加载。
用glob+pathlib安全遍历文件
别再硬写os.listdir()拼路径了。glob支持通配符,pathlib让路径操作直观又跨平台:
- 用
Path("data/images").glob("*.jpg")代替os.listdir()+ 字符串判断后缀 - 调用
.resolve()自动展开相对路径和符号链接,防止后续open报错 - 加
try/except包裹单个文件处理逻辑,出错只跳过当前文件,不中断整个批次
用pandas.concat高效合并多个CSV
100个同结构CSV?别一个个pd.read_csv再append。concat能一次对齐列、自动忽略缺失列、控制索引:
- 先用列表推导式生成DataFrame列表:
dfs = [pd.read_csv(f) for f in files] - 再用
pd.concat(dfs, ignore_index=True, sort=False)合并;ignore_index重置行号,sort=False避免列名自动排序打乱顺序 - 大文件加
chunksize参数分块读取,边读边concat,省内存
用tqdm给循环加进度条,一眼看卡点
处理几千个文件时,光等没反馈容易误判卡死。tqdm一行就能嵌入任何迭代器:
版权声明:除非特别标注,否则均为本站原创文章,转载时请以链接形式注明文章出处。
还木有评论哦,快来抢沙发吧~