批量文件处理的核心是可控、可追踪、可恢复的执行流程,需分四层实现:服务端流式分片上传与校验、异步队列调度任务、单文件原子化错误隔离、前端实时进度反馈。

批量文件处理在Web开发中很常见,比如上传多个图片自动压缩、日志文件归档、用户提交的CSV批量导入数据库等。核心不在于“一次选多个”,而在于可控、可追踪、可恢复的执行流程。
服务端接收:别卡在单次请求里
浏览器表单默认一次请求只能传一批文件,但若数量大或单个文件大,容易超时或内存溢出。更稳妥的做法是前端分片上传 + 后端流式接收。
- 前端用
FileReader或fetch分块读取,每块固定大小(如2MB),附带文件名、总块数、当前序号 - 后端用临时目录按文件ID存碎片,收到最后一块后合并,同时校验
md5或sha256 - 避免把所有文件一次性读进内存——Node.js用
fs.createReadStream,Python用iter_content或StreamingHttpResponse
任务调度:交给队列,别堵主线程
文件解压、转码、解析这类操作耗CPU或IO,直接在HTTP请求里执行会拖慢整个服务。必须剥离到异步任务中。
- 用Redis + RQ(Python)或Bull(Node.js)管理任务队列,每个文件或每批文件生成一个独立job
- job中记录进度(如“已处理127/500行”),状态存入数据库或Redis Hash,供前端轮询或WebSocket推送
- 设置超时和重试机制(例如失败3次后转入error队列,人工介入)
错误隔离:一个失败,不影响其余
批量处理最怕“连坐”——一个文件格式错,整批回滚。实际应默认单文件原子性处理。
标签: python redis js 前端 node.js node 浏览器 websocket 后端 csv 栈 解压 st
还木有评论哦,快来抢沙发吧~