密集特征学习是通过深度网络自动提取高维连续向量表示,常用预训练模型(如ResNet、BERT)直接提取;标注少时可用对比学习等自监督方法增强判别力;需L2归一化、PCA降维等后处理提升下游效果。

什么是密集特征学习
密集特征学习指的是从原始数据中自动提取出高维、连续、信息丰富的表示,而不是依赖人工设计的稀疏规则或离散统计量。在图像、文本、时序等任务中,它通常通过深度神经网络(如CNN、Transformer、MLP)实现,输出的是每个样本对应的稠密向量(例如 128 维、512 维浮点数组),能更好捕捉语义、结构和上下文关系。
用预训练模型快速提取密集特征
不从头训练,直接复用成熟模型的中间层输出是最高效的方式。比如:
-
图像:用
torchvision.models.resnet50(pretrained=True),去掉最后分类层,取avgpool或某一层的特征图展平成向量 -
文本:用
transformers.AutoModel.from_pretrained("bert-base-chinese"),取last_hidden_state[:, 0, :]([CLS] 向量)作为句向量 - 音频/时序:可用 Wav2Vec2、TS-TCC 等模型提取帧级或序列级嵌入
注意冻结主干参数(model.eval() + torch.no_grad())可大幅提速且避免干扰原模型分布。
自监督学习提升特征判别力
当标注数据少时,密集特征容易过拟合或泛化差。可引入自监督策略增强表达能力:
立即学习“Python免费学习笔记(深入)”;
版权声明:除非特别标注,否则均为本站原创文章,转载时请以链接形式注明文章出处。
还木有评论哦,快来抢沙发吧~