Fallen-Llama-3.3-R1-70B-v1是一个刚发布不久的高性能语言模型,具体用途尚不明确,但适用于多种自然语言处理任务。
Cohere 提供可定制的高性能语言模型,支持公共、私有或混合云,确保数据安全和卓越的支持服务。
WizardLLM 是由北大和微软亚研院提出的一种高效训练大型语言模型的方法,旨在通过利用小规模数据集,借助GPT生成更大且难度逐步提升的数据集,从而显著降低训练成本。该方法适用于数据稀缺的场景,帮助研究人员和开发者在资源有限的条件下仍能训练出高性能的语言模型。
LOMO是一种新的优化器,旨在降低大型语言模型(LLM)训练的门槛,促进全参数微调在有限资源下的应用。它通过将梯度计算和参数更新融合在一个步骤中,显著降低了内存使用,最高可节省10.8%。这使得在资源有限的环境中也能进行大规模模型的训练。
Megatron-LLM是一个专为大规模分布式训练设计的库,旨在高效支持语言模型的预训练和微调。它提供灵活的模型架构配置,并支持多种优化算法,使得用户可以根据需求进行优化和扩展,同时易于与其他深度学习框架集成。
智能优化版Llama.cpp:基于原版Llama.cpp的克隆项目,它增加了最先进的量化技术,并针对CPU性能进行了改进,使得在处理大型语言模型时更加高效
LMQL是一种专门为大型语言模型(LLMs)设计的查询语言,结合了自然语言提示和Python的表达能力。它提供了约束、调试、检索和控制流等功能,以便于与LLMs的交互。
基于 MLX 框架的 Silicon LLM 训练和推理工具包,简化了在 Apple Silicon 上训练和运行大语言模型的过程,旨在为开发者提供高效、易用的工具,以应对资源有限的设备上的大语言模型需求。
这是国内第一个真正的开源、可下载、可运行的 LLaMA2 模型,提供中文版 Llama2模型及中英文 SFT 数据集,兼容适配所有针对原版 llama-2-chat 模型的优化。
用 Groq API 实现 Deeplearning.ai 定义的 4 种从头实现的 agentic 模式的项目,提升大型语言模型(LLM)的响应性能,支持自定义工具访问外部信息,规划复杂任务的执行步骤,以及多代理协作完成任务。
旨在探索一种新的实验性模型训练流程,以训练高性能的特定任务模型,将训练过程的复杂性抽象化,使从想法到性能优越的完全训练模型的过程尽可能简单。用户只需输入任务描述,系统将从头开始生成数据集,将其解析为正确格式,并微调LLaMA 2模型。