Warning: Undefined variable $main_title in /www/wwwroot/msbd/wp-content/themes/onenav/sidebar-sitestop.php on line 26
AI交流(进群备注:)

Toolformer是训练语言模型学会使用API的研究,展示了如何通过流动的语言结构来实现API调用的学习。
Toolformer的特点:
1. 通过自然语言输入生成API调用
2. 过滤与预测API执行成功的高质量示例
3. 使用特殊token显性嵌入API调用
Toolformer的功能:
1. 根据用户的自然语言问题调用相应的API
2. 通过fintune技术提升模型对API的调用能力
3. 生成示例以训练模型识别何时、如何调用API
相关导航

MiniMind 是一个开源 AI 项目,旨在从零开始,以极低的成本和极短的时间训练出超小语言模型。项目涵盖了从数据集清洗到模型训练的全过程,并提供了多种先进的算法和模型结构。通过仅需 3 块钱成本和 2 小时,即可训练出 25.8M 的超小语言模型,最小版本体积是 GPT-3 的 1/7000,适合普通个人 GPU 快速训练。项目还拓展了视觉多模态的 VLM: MiniMind-V,所有核心算法代码均从 0 使用 PyTorch 原生重构,不依赖第三方库提供的抽象接口。这不仅是大语言模型的全阶段开源复现,也是一个入门 LLM 的教程。

DPO(Direct Preference Optimization,直接偏好优化)是一种离线优化方法,直接利用偏好数据训练策略,无需显式奖励模型。该项目是基于论文《Direct Preference Optimization: Your Language Model is Secretly a Reward Model》的参考实现,支持因果 HuggingFace 模型和自定义数据集,提供了一种无需显式奖励模型的离线优化方法。特别适合语言模型对齐任务,研究表明其在控制生成情感、摘要质量和单轮对话响应上表现不亚于或优于现有方法。