LOMO是一种新的优化器,旨在降低大型语言模型(LLM)训练的门槛,促进全参数微调在有限资源下的应用。它通过将梯度计算和参数更新融合在一个步骤中,显著降低了内存使用,最高可节省10.8%。这使得在资源有限的环境中也能进行大规模模型的训练。
WizardLLM 是由北大和微软亚研院提出的一种高效训练大型语言模型的方法,旨在通过利用小规模数据集,借助GPT生成更大且难度逐步提升的数据集,从而显著降低训练成本。该方法适用于数据稀缺的场景,帮助研究人员和开发者在资源有限的条件下仍能训练出高性能的语言模型。
Petals是一个开源工具,旨在通过团队协作运行大型语言模型。用户可以加载模型的一小部分,与其他人合作以提供模型的其他部分,从而实现推理或微调。
大型语言模型显著推动了自然语言处理领域的发展,引发了人们对利用其潜力处理各种自然、社会和应用科学领域中特定任务的极大兴趣。
Audiocraft是Meta(原Facebook)发布的一个基于PyTorch的深度学习库,专注于音频生成研究。它提供了MusicGen模型,能够通过文本描述或旋律提示生成高质量的音乐。MusicGen采用单级自回归Transformer架构,并使用32kHz EnCodec分词器进行训练,支持高效的音乐生成。模型经过2万小时正版授权音乐的训练,生成的曲子旋律、节奏和音色自然流畅,适用于多种场景。