模型调优是围绕数据、特征、结构、训练策略和评估反馈的系统性迭代过程;需清洗文本噪声(html、空格、编码等),统一UTF-8编码并过滤极短文本。

模型调优不是“调个学习率就完事”,而是围绕数据、特征、结构、训练策略和评估反馈的系统性迭代过程。核心目标是让模型在验证集上稳定泛化,同时避免过拟合或欠拟合。
检查并清洗输入文本数据
原始文本常含噪声:HTML标签、多余空格、特殊符号、乱码、非UTF-8编码字符。这些会干扰分词和向量化效果。
- 用re.sub()清理常见噪声(如
r']+>'去HTML,r's+'合并空白) - 统一编码为UTF-8,对无法解码字符设
errors='ignore' - 过滤极短文本(如长度
- 查看类别分布——若严重不均衡(如95%负样本),需考虑过采样(SMOTE+文本)或类别权重
合理设计文本表示与特征工程
表示方式直接影响模型上限。别一上来就用BERT嵌入,先从轻量级方法验证基线。
- 传统方法:TF-IDF + n-gram(n=1~2),配合TfidfVectorizer的
max_features=10000和min_df=2防稀疏噪声 - 词向量:Word2Vec/GloVe平均池化比单个词向量更鲁棒;注意对OOV词用零向量或随机初始化代替报错
- 预训练模型:用transformers加载
distilbert-base-uncased等轻量版,冻结前几层加快微调;句子长度超512时用滑动窗口截断+平均池化
控制模型复杂度与正则化强度
尤其在小数据集(
立即学习“Python免费学习笔记(深入)”;
- 全连接层:Dropout设0.3~0.5,比0.1更有效;隐藏层维度建议≤输入维度的1.5倍
- LSTM/GRU:层数≤2,hidden_size≤128;加torch.nn.utils.rnn.pack_padded_sequence提升效率
- 预训练模型微调:只解冻最后1~2层Transformer块;学习率设为
2e-5(底层)和5e-5(分类头),用分层学习率 - 早停(Early Stopping):监控验证F1而非准确率,patience=3~5轮,保存最佳模型权重
用交叉验证+错误分析驱动调参
单次train/val划分可能偶然性大。错误分析能暴露模型“卡在哪”,比盲目扫超参更高效。
- 用StratifiedKFold(n_splits=5)做分层K折,确保每折类别比例一致
- 记录每折的混淆矩阵,聚焦高频误判类型(如“抱怨”被当成“咨询”)
- 人工抽样100条预测错误样本,看是否共性:是标注意外?领域术语未覆盖?还是否定句式识别失败?
- 根据发现反向优化:加规则后处理、扩充对应领域词典、构造对抗样本增强训练
基本上就这些。调优不是一步到位,而是“改一点、测一点、想一点”的闭环。每次只动一个变量,记录结果,比同时调10个参数更靠谱。