高效抽样应避免全量加载:一、流式用蓄水池抽样(O(n)时间、O(k)空间);二、Pandas分块+概率采样;三、超大文件用Dask/Vaex延迟计算;四、数据库优先SQL抽样。

面对海量数据,直接加载到内存抽样容易导致内存溢出或耗时过长。Python 中高效抽样核心在于:不全量读入、按需处理、利用概率或分块策略控制资源开销。
一、流式随机抽样(Reservoir Sampling)
适用于无法预知总行数、且只能遍历一次的数据源(如超大CSV、日志文件、数据库游标)。经典算法 蓄水池抽样(Reservoir Sampling) 时间复杂度 O(n),空间复杂度 O(k),k 为样本量。
示例:从10亿行文本中随机抽取1000行
import random
<p>def reservoir_sample(file_path, k):
sample = []
with open(file_path, 'r', encoding='utf-8') as f:
for i, line in enumerate(f):
if i < k:
sample.append(line.rstrip('\n'))
else:
j = random.randint(0, i)
if j < k:
sample[j] = line.rstrip('\n')
return sample</p><h1>调用</h1><p>my_sample = reservoir_sample('huge_data.txt', k=1000)
登录后复制
✅ 优势:单次扫描、内存恒定、无需知道总行数
⚠️ 注意:需确保每行独立可读;若文件含多行记录(如JSONL),需按逻辑记录而非物理行处理。
立即学习“Python免费学习笔记(深入)”;
二、Pandas 分块 + 随机筛选(适合结构化大文件)
当数据是 CSV/Parquet 等格式,且需保留列操作能力时,用 chunksize 分批读取 + 概率采样,比全量读入快且省内存。
示例:从 5GB CSV 中按 0.1% 比例随机抽样约 10 万行
import pandas as pd
import random
<p>def sample_csv_by_ratio(file_path, ratio=0.001, random_state=42):
random.seed(random_state)
chunks = []
for chunk in pd.read_csv(file_path, chunksize=50000):</p><h1>对每块按比例随机保留</h1><pre class="brush:php;toolbar:false;"> sampled_chunk = chunk.sample(frac=ratio, random_state=random_state)
chunks.append(sampled_chunk)
return pd.concat(chunks, ignore_index=True)登录后复制
调用(实际中建议设更小 chunksize 防爆内存)
df_sample = sample_csv_by_ratio('big_data.csv', ratio=0.001)
✅ 优势:兼容 Pandas 生态,支持类型推断与简单清洗
⚠️ 注意:frac 是近似比例,最终样本量可能浮动;如需精确 k 行,可在合并后二次 .sample(n=k)。
标签: mysql python js json 大数据 app csv
还木有评论哦,快来抢沙发吧~