AI交流(进群备注:LLM-zero2hero)

LLM-zero2hero是一个高度解耦的微调项目,旨在支持大语言模型的自定义训练、验证和推理过程。它提供了全量微调和LoRA微调的能力,使用户能够灵活地调整模型以满足特定需求。
LLM-zero2hero的特点:
1. 高度解耦的微调过程
2. 支持自定义训练和验证
3. 实现全量微调
4. 支持LoRA微调
LLM-zero2hero的功能:
1. 进行大语言模型的全量微调
2. 使用LoRA进行高效微调
3. 自定义训练和验证流程
相关导航

COMPACTER开源项目 – 高效低秩超复数适配器
COMPACTER是一种用于大语言模型微调的技术,通过引入适配器、低秩优化和参数化超复数乘法层,在任务性能和可训练参数数量之间取得更好的平衡。它通过低秩超复数适配器减少内存占用,并在GLUE和SuperGLUE基准测试上达到了与标准微调相当或更好的性能。COMPACTER在机器翻译、文本摘要等领域能有效增强模型的泛化能力。技术原理包括在预训练模型中插入特定于任务的权重矩阵,通过共享的“慢”权重和每个COMPACTER层定义的“快”秩一矩阵之间的Kronecker积降低参数复杂度,利用超复数乘法层(PHM)和低秩参数化来减少模型参数,同时保持或提高模型性能。
暂无评论...