SQL批量写入慢的核心在于频繁事务提交与单行操作开销,优化需聚焦减少事务次数、合并多值INSERT、禁用非必要约束索引、优先使用LOAD DATA INFILE或COPY。

SQL批量写入慢,核心问题往往不是单条语句性能差,而是频繁提交事务、逐条插入、网络往返过多或锁竞争激烈。优化关键在于“减少事务开销”和“提升单位时间吞吐量”,而非单纯调优单条INSERT。
用一个大事务替代N个小事务
默认情况下,每执行一条INSERT就自动提交(autocommit=on),相当于每次写入都经历一次日志刷盘(fsync)、锁释放、事务清理。1000条记录 = 1000次事务开销。关闭自动提交,显式BEGIN/COMMIT,能把1000次开销压缩为1次。
- MySQL:执行SET autocommit = 0;后,用START TRANSACTION;开始,最后COMMIT;
- PostgreSQL:直接用BEGIN;和COMMIT;包裹批量INSERT
- 注意:事务不宜过大(如百万级),否则可能触发锁升级、回滚段膨胀或超时;建议每1万~5万条提交一次
合并多条INSERT为一条多值INSERT
把INSERT INTO t(a,b) VALUES (1,2); INSERT INTO t(a,b) VALUES (3,4);改成INSERT INTO t(a,b) VALUES (1,2), (3,4), ...;。这能显著降低SQL解析、权限校验、网络包数量和客户端-服务端交互次数。
标签: mysql session csv stream sql注入
还木有评论哦,快来抢沙发吧~