所有AI工具AI学习网站AI开发框架

广义Kullback-Leibler(GKL)散度损失论文 – 优化KL散度的机器学习损失函数

该项目是Kullback-Leibler(KL)散度的扩展版本,通过数学证明将其解耦为加权均方误差损失和带软标签的交叉熵损失。 主要解决了传统KL损失在知识蒸馏中的不对称优化问题,引入类别...

标签:

Warning: Undefined variable $main_title in /www/wwwroot/msbd/wp-content/themes/onenav/sidebar-sitestop.php on line 26

AI交流(进群备注:)

该项目是Kullback-Leibler(KL)散度的扩展版本,通过数学证明将其解耦为加权均方误差损失和带软标签的交叉熵损失。
主要解决了传统KL损失在知识蒸馏中的不对称优化问题,引入类别全局信息减少样本偏差,显著提升了模型训练的稳定性和对抗鲁棒性。
在RobustBench排行榜上达到最先进水平,并在CIFAR-10/100、ImageNet等数据集的知识蒸馏任务中表现优异。

广义Kullback-Leibler(GKL)散度损失的特点:

  • 1. 打破KL损失的不对称优化特性
  • 2. 采用平滑权重函数缓解高预测得分类别的收敛问题
  • 3. 在RobustBench上实现SOTA对抗鲁棒性
  • 4. 提升跨模态知识蒸馏性能(如CLIP模型)
  • 5. 支持CIFAR/ImageNet/视觉语言多类数据集

广义Kullback-Leibler(GKL)散度损失的功能:

  • 1. 对抗训练中增强模型鲁棒性
  • 2. 教师模型到学生模型的知识蒸馏
  • 3. 视觉语言模型的零样本分类优化
  • 4. 医疗/金融等高安全性场景的模型训练
  • 5. 跨模态学习任务中的损失函数改进

相关导航

暂无评论

暂无评论...