
构建推荐系统不一定要从复杂的模型开始,文本处理是其中最实用、最容易上手的切入点。关键在于:把用户行为、物品描述、上下文信息这些非结构化文本,转化成能被算法理解的向量,并让相似性计算真正反映业务逻辑。
用TF-IDF+余弦相似度快速搭建内容推荐基线
这是最经典也最有效的文本推荐起点。适合新闻、商品详情页、短视频标题等以文本描述为主的场景。
- 对物品(如文章)的标题、摘要、标签做分词,过滤停用词,保留有意义的关键词
- 用TF-IDF将每篇文档转为固定长度的稀疏向量(sklearn的TfidfVectorizer可直接实现)
- 离线预计算所有物品两两之间的余弦相似度,存为邻接表或FaiSS索引
- 给用户推荐时,取其最近点击/收藏物品的Top-K相似物品,去重合并后按相似度加权排序
注意:TF-IDF本身不理解语义,但胜在稳定、可解释、训练快。上线前建议人工抽检10条推荐结果,看是否“看起来合理”——这是比AUC更早发现问题的方式。
引入用户行为序列提升个性化程度
纯内容相似容易陷入“标题党推荐”,加入用户真实交互行为能显著纠偏。
- 把用户近期点击/停留/分享的物品ID序列,映射为对应TF-IDF向量的平均值,得到“用户兴趣向量”
- 也可用word2Vec或Sentence-bert对物品文本做嵌入,再用简单rnn或Attention聚合用户行为序列
- 推荐时不再只匹配物品-物品相似度,而是计算“用户向量 vs 候选物品向量”的内积,更贴近个体偏好
例如:一个用户连续看了3篇“python爬虫入门”“Requests库详解”“XPath语法总结”,系统应优先推“scrapy框架实战”,而不是仅靠标题相似度推“java网络编程”。
轻量融合规则与统计特征防badcase
纯向量计算容易忽略业务约束。加几条硬规则和统计信号,效果立竿见影。
- 冷启动物品:没有交互数据?用类目热度+发布时间衰减因子临时打分
- 过滤机制:屏蔽用户已读/已购/黑名单类目;限制单日同主题推荐不超过2条
- 多样性控制:用MMR(Maximal Marginal Relevance)在相关性和新颖性间折中,避免连推5条“iphone15评测”
- 实时反馈:用户跳过某推荐?下一轮立即降低该物品及其语义近邻的权重
这些不是“锦上添花”,而是上线第一天就该有的兜底能力。
逐步过渡到微调小模型,不追求大而全
当TF-IDF+规则方案稳定跑通且有明确瓶颈(比如长尾物品推荐不准、多语言混杂),再考虑升级。
- 优先试Sentence-BERT微调:用业务内的点击日志构造正样本(用户点击A→B)、负样本(随机采样未曝光物品),在公开中文SBERT基础上继续训练
- 不急着上Graph Neural Network或双塔dnn——多数中小团队80%的收益来自把文本清洗、分词、停用词表、向量归一化这些细节做扎实
- 上线前务必做AB测试:新模型只需在5%流量上对比老策略的CTR、完播率、停留时长,而非盲目追求离线指标提升
基本上就这些。文本推荐的本质不是堆模型,而是让机器读懂你写的那几行标题、简介和用户留下的那串点击痕迹。