1、DataFunSummit#2024从BERT到LLM:360广告推荐业务中语言模型的应用探索唐燕琳资深算法专家 奇虎360广告推荐业务的需求语言模型如何助力推荐系统广告业务的应用探索总结和展望目录 CONTENTDataFunSummit#202401广告推荐业务的需求广告推荐业务背景 广告产品场景橱窗信息流搜索页屏保广告推荐业务背景 广告推荐建模要求根据多源用户行为和上下文进行跨域广告推荐regression指标要求高,影响收益和效果系统延时要求高,50ms内粗排日志DSP投放设置target_cpa召回广告主重排PID调价精排 ecpm=ctr*bid实时CVR模型离线CVR预估调价控制
2、出价 bid=cpa*pcvr*kCTR模型CTR预估lookalike兴趣标签流量竞价平台ADX浏览器媒体其它DSP搜索页信息流屏保广告推荐系统架构问题背景 个性化精准投放非常依赖用户兴趣建模,各个环节都会进行用户特征建模用户兴趣标签不能完全满足建模需求 标签粒度和投放需求对齐困难 人工维护成本高多来源用户浏览行为无标签 行为意图隐式 行为id稀疏,特征难学线上兴趣建模不能过于复杂 线上延时要求高 简单建模方式信息损失严重用户表征建模和业务指标预估解耦,全局通用用户表征预训练+微调现有兴趣标签各产品用户数据线上服务需求如何利用用户自然行为数据建模用户通用表征 用户关系隐式 新用户很难通过增量
3、训练完成图嵌入语言模型 transformer建模用户兴趣 适合大规模时序数据DataFunSummit#202402语言模型如何助力推荐系统语言模型助力下的推荐系统进化transformerPLM(BERT、GPT、T5)LLM(GPT-3、LLaMA)行为序列建模特征提取/编码推荐预测推荐预测Bert4rec、S3-REC、RecformerP5、M6-RECONCE、KAR、NOTELLM行为序列建模TALLREC、CTRL、RLM4RECHSTU、RECGPT文本生成,知识推理能力文本理解和表示语言模型推荐系统应用方式相关工作特征提取/编码U-BERT2017年2018年2022年 两
4、个阶段三种方式特征提取/编码(引入外部知识)直接或协助推荐预测(推荐和语义能力对齐)训练范式建模用户行为(训练范式)Ber4Rec:双向结构捕捉行为顺序中的随机性,实验证实比单向结构效果好PLM借鉴BERT对行为序列建模Sun,Fei,et al.BERT4Rec:Sequential recommendation with bidirectional encoder representations from transformer.CIKM.2019.应用局限性itemid字典动态变化行为稀疏 改进:RecformerText-only语言理解和商品推荐联合训练 适用场景计算量比LLM少,直
5、接推理低延时场景,构建user表征和item表征LLM特征提取/编码 KAR:利用in-context learning选择内容提取关键子因素和信息提取,利用BERT等进行特征编码Yunjia Xi et al.Towards Open-World Recommendation with Knowledge Augmentation from Large Language Models RecSys 2023.适用场景文本表示的特征提取线上延时无影响LLM特征提取/编码 NOTELLM:利用笔记对比学习和SFT标签和类目生成任务帮助增强笔记 embedding的质量Chao Zhang et
6、al.NoteLLM:A Retrievable Large Language Model for Note Recommendation WWW 24 Companion.适用场景提取item编码内容标签提取LLM直接推荐预测 用未微调或者instruction微调的LLM生成prompt直接打分排序给定候选集对item打分排序物品生成,任务拆解 应用局限性语义空间很难表示用户复杂的偏好关系,无法预估准“值”生成物品需要映射回物品空间输入长度限制,延时高,幻觉问题,未有工业成熟方案Tuned LLM提示词模版用户历史行为候选集打分排序生成推荐物品真实物品空间LLM协助推荐预测 CTRL:通过