典型痛点
直接使用BERT等预训练模型处理多源异构数据时,存在文本长度差异大、噪声多等问题影响分类效果。
Programa de otimização
- 动态分词:
- 对数学类数据设置
max_length=256
- 对小红书短文本启用
truncation='only_first'
- 对数学类数据设置
- 噪声过滤:
- 使用数据集自带的category字段进行样本加权
- aprovar (um projeto de lei ou inspeção etc.)
texthero.preprocessing.remove_digits
清理数字噪声
- 增强表示:
- 在BERT最后一层后添加领域适配层(DomainAdaptation)
- 对知乎长文本采用
MaxPooling
substituto deCLS
Seja diplomático
Recomendações para a prática
Uso recomendadodatasets.DatasetDict
划分训练/验证集时,保持8:1:1比例,验证集应覆盖所有数据类别(math/logic/general)。
Essa resposta foi extraída do artigoConjunto de dados de destilação DeepSeek-R1 de sangue puro baseado na China, compatível com o conjunto de dados SFT de destilação R1 chinêsO