AI交流(进群备注:LLMs-Zero-to-Hero)

LLMs-Zero-to-Hero 是一个系统化学习大模型训练全流程的项目,旨在帮助用户从零开始掌握大模型训练的核心技术。项目提供了详细的教程和配套视频讲解,用户可以通过B站同步更新的视频内容加深理解。该项目对硬件要求亲民,最小仅需3090显卡即可进行训练,适合初学者和有一定经验的开发者使用。
LLMs-Zero-to-Hero的特点:
- 1. 完全从零手写,系统化学习大模型训练全流程
- 2. 配套视频讲解,B站同步更新
- 3. 最小仅需3090显卡即可训练,亲民配置轻松上手
LLMs-Zero-to-Hero的功能:
- 1. 用于系统化学习大模型训练全流程
- 2. 通过配套视频讲解加深理解
- 3. 在亲民配置下进行大模型训练
相关导航

adapter-transformers开源项目 – 轻量级Transformer适配器工具库
adapter-transformers是一个开源工具库,支持在Transformer模型中添加和训练适配器(Adapter)。适配器是一种轻量级的模块,可以在不修改原始模型参数的情况下,对模型进行微调。该工具库支持多种任务,包括文本分类、命名实体识别等,并且可以与Hugging Face的Transformers库无缝集成。它提供了统一的接口,支持高效微调和模块化迁移学习,支持多种适配器方法,如Bottleneck Adapters、AdapterFusion、LoRA等,并支持适配器合并和组合,为NLP任务的参数高效迁移学习提供了强大的工具。
暂无评论...