小样本数据增广的核心是“变准”而非“变多”,需围绕判别性特征做可控扰动,保留关键结构、抑制背景干扰,并结合领域感知的几何与色彩组合增广、自监督伪标签及严格验证策略。

小样本下数据增广的核心目标不是“变多”,而是“变准”
训练集只有几十或几百张图时,简单堆叠随机旋转、翻转往往无效,甚至引入噪声。真正有效的增广,是围绕类别判别性特征做可控扰动:保留关键纹理、边缘、局部结构,抑制无关背景干扰。比如医学细胞图像,要保细胞核形态不变;花卉识别则需稳定花瓣轮廓与色块分布。
优先用领域感知的几何+色彩组合增广
不建议直接套用 torchvision 的默认 RandomAugment。应分步设计:
- 几何层面:限制旋转角度(±10°内),禁用大幅缩放(避免失真),启用弹性形变(适用于组织切片、手写字符等有连续形变合理性的场景)
- 色彩层面:关闭全局亮度/对比度抖动,改用 HSV 空间微调——仅在 S(饱和度)和 V(明度)通道施加 ±0.05 范围扰动,H(色相)保持固定(防止苹果变橙子)
-
叠加方式:用 Albumentations 的
Compose(..., p=1.0)强制每轮必应用一组协同变换,而非多个独立随机操作
少样本专用:自监督引导的伪标签增广
当标注极少但有同源未标注数据(如同一设备拍的额外图像),可用轻量自监督模型(如 SimCLR 小网络)先提取特征,对近邻样本做一致性增强:
- 对一张原图生成 2 种不同增广视图(如一种裁剪+色彩扰动,一种旋转+高斯模糊)
- 用冻结主干网络提取二者特征,约束其 cosine 相似度 >0.85
- 把高置信伪标签(来自教师模型预测)加入训练集,仅用于损失计算中的 soft-target 部分
这比纯生成式增广(如 GAN)更稳定,且不依赖生成质量。
版权声明:除非特别标注,否则均为本站原创文章,转载时请以链接形式注明文章出处。
还木有评论哦,快来抢沙发吧~