V
主页
京东 11.11 红包
排序02:Multi-gate Mixture-of-Experts (MMoE)
发布人
Multi-gate Mixture-of-Experts (MMoE) 是一种多目标排序模型。MMoE 用多个独立的塔提取特征,并对多塔提取的特征向量做加权平均,然后送入多头。MMoE 的训练容易出现极化现象(polarize),可以用 dropout 解决。 课件地址: https://github.com/wangshusen/RecommenderSystem
打开封面
下载高清视频
观看高清视频
视频下载器
排序03:预估分数融合
排序01:多目标模型
行为序列01:用户历史行为序列建模
特征交叉04:SENet 和 Bilinear 交叉
召回01:基于物品的协同过滤(ItemCF)
排序05:排序模型的特征
物品冷启02:简单的召回通道
召回12:曝光过滤 & Bloom Filter
召回05:矩阵补充、最近邻查找
概要03:推荐系统的AB测试
概要02:推荐系统的链路
召回06:双塔模型——模型结构、训练方法
行为序列03:SIM模型(长序列建模)
召回03:基于用户的协同过滤(UserCF)
排序04:视频播放建模
重排02:MMR 多样性算法(Maximal Marginal Relevance)
物品冷启01:优化目标 & 评价指标
重排01:物品相似性的度量、提升多样性的方法
召回09:双塔模型+自监督学习
特征交叉03:LHUC (PPNet)
召回10:Deep Retrieval 召回
召回08:双塔模型——线上服务、模型更新
推荐系统涨指标的方法01:概述
特征交叉02:DCN 深度交叉网络
推荐系统涨指标的方法03:排序模型
召回07:双塔模型——正负样本
面试时如何介绍MMoE?推荐算法进!
特征交叉01:Factorized Machine (FM) 因式分解机
概要01:搜索引擎的基本概念
排序06:粗排模型
行为序列02:DIN模型(注意力机制)
召回04:离散特征处理
【多任务学习MMOE】Multi-gate Mixture-of-Experts
AI论文精读之ESMM
AI论文精读之PLE
企业推荐系统算法-MMOE精讲
AI论文精读之MMoE