多标签分类是同时预测多个标签,需用MultiLabelBinarizer编码、Binary Cross-Entropy损失、Hamming Loss/F1等评估指标,并为各标签单独调优阈值。

多标签分类不是“选一个”,而是“选多个”——比如一张图里同时有猫、狗、沙发,模型要同时输出三个标签。Python生态(scikit-learn + PyTorch/TensorFlow)完全支持,关键不在框架本身,而在数据准备、损失设计和评估逻辑的调整。
标签编码必须用MultiLabelBinarizer
不能直接用LabelEncoder或OneHotEncoder:前者把[“猫”,“狗”]变成单个整数,后者默认按样本而非标签维度处理。正确做法是:
- 用sklearn.preprocessing.MultiLabelBinarizer将原始标签列表(如[["猫","窗"], ["狗","沙发"]])转为二值矩阵(每行一个样本,每列一个标签,值为0/1)
- fit_transform时传入list of list,不是一维数组;预测后用inverse_transform还原可读标签
- 注意冷启动:新标签出现时MLB默认报错,可设sparse=True或提前用fit()固定classes_
损失函数必须用Binary Cross-Entropy(BCE)
多标签本质是N个独立的二分类问题,不是softmax+交叉熵。常见错误是沿用单标签写法,导致梯度冲突和概率和不为1:
- PyTorch中用nn.BCEWithLogitsLoss()(自动加sigmoid+数值稳定),输出层不要加sigmoid
- TensorFlow/Keras用loss='binary_crossentropy',activation设为'sigmoid'(最后一层)
- sklearn中若用LogisticRegression等,需配合MultiOutputClassifier包装,底层自动对每个标签拟合独立二分类器
评估指标不能只看准确率
准确率(exact match ratio)要求所有标签全对才计1分,对部分正确很不友好。实际应组合使用:
标签: python git 编码 mac ai pytorch red
还木有评论哦,快来抢沙发吧~