Warning: Undefined variable $main_title in /www/wwwroot/msbd/wp-content/themes/onenav/sidebar-sitestop.php on line 26
AI交流(进群备注:)

HoME是快手开发的一种创新多任务学习模型,旨在解决推荐系统中的Mixture of Experts(MoE)范式中的专家崩溃、退化和欠拟合问题。通过引入专家归一化和Swish机制、层次掩码机制以及特征门和自门机制,显著提高了模型的稳定性和效率。该模型已广泛应用于快手的短视频推荐服务,每天服务4亿活跃用户。
HoME(Hierarchy of Multi-Gate Experts)的特点:
- 1. 专家归一化和Swish机制:通过替换ReLU为Swish,调整专家输出分布,解决专家崩溃问题。
- 2. 层次掩码机制:通过任务分组和元专家网络,增强任务间共享效率,减少专家退化。
- 3. 特征门和自门机制:确保稀疏任务的梯度流动,支持更深层次的MoE训练,解决专家欠拟合。
HoME(Hierarchy of Multi-Gate Experts)的功能:
- 1. 部署在快手的短视频服务中,每天服务4亿活跃用户。
- 2. 线下实验显示AUC和GAUC指标较基准模型有显著提升。
- 3. 线上AB测试显示播放时间和互动指标改善,如点击、点赞、评论、收藏等。
相关导航
暂无评论...