Differentiable Adaptive Merging (DAM) 自动化合并多个具有独特能力的大语言模型(LLM),优化模型间的平衡,以提高数据效率和降低计算成本。DAM 超越传统和进化方法,提供可扩展的解决方案,适用于多样化的 AI 系统。
Deita旨在为大型语言模型(LLM)的指令微调提供自动数据选择工具和高质量的对齐数据集,Deita模型能通过比其他SOTA LLM少10倍的指令微调数据进行训练,达到与它们相媲美的性能。
Megatron-LLM是一个专为大规模分布式训练设计的库,旨在高效支持语言模型的预训练和微调。它提供灵活的模型架构配置,并支持多种优化算法,使得用户可以根据需求进行优化和扩展,同时易于与其他深度学习框架集成。
智能优化版Llama.cpp:基于原版Llama.cpp的克隆项目,它增加了最先进的量化技术,并针对CPU性能进行了改进,使得在处理大型语言模型时更加高效
该项目汇集了关于大型语言模型(LLM)规划能力的重要文献,提供对LLM规划能力的深入理解,支持研究人员和开发者了解最新的研究动态,为相关领域的学习和研究提供参考资料。
一种无需标签的图像分类方法,通过利用大型语言模型和预训练的视觉模型,提升图像分类的准确性,无需大量标注数据,降低了成本
liteLLM是一个开源库,旨在简化LLM(大语言模型)的完成和嵌入调用。它提供了一个方便易用的接口,使得调用不同的LLM模型变得更加简单。用户只需导入'litellm'库并设置必要的环境变量(如OPENAI_API_KEY和COHERE_API_KEY),即可创建Python函数并使用liteLLM进行LLM完成调用。此外,liteLLM还提供了一个演示平台,用户可以在其中编写Python代码并查看输出,从而比较不同的LLM模型。
本文调查了快速发展的指令调优 (IT) 领域的研究工作,这是增强大型语言模型 (LLM) 功能和可控性的关键技术。
一个用于端到端架构和大语言模型(LLM)的项目,旨在简化和优化开发过程。
LMQL是一种专门为大型语言模型(LLMs)设计的查询语言,结合了自然语言提示和Python的表达能力。它提供了约束、调试、检索和控制流等功能,以便于与LLMs的交互。
Web LLM 是一个可以在浏览器中直接运行大型语言模型的工具,支持通过 WebGPU 加速。它支持多种大型语言模型,包括 Llama 2 7B/13B、Mistral 7B 和 WizadMath,并能够在设备内存为 64GB 的情况下运行 Llama 2 70B 模型。利用 WebGPU 提供更快、更流畅的模型运行体验,仅需约 6GB 的显存即可运行 Llama 7B 和 Vicuna-7B。
Grok-1是xAI推出的开源大语言模型,拥有3140亿参数,适用于NLP任务,并提供JAX示例代码,便于加载、运行和微调。
StackAI是一个综合平台,致力于为用户提供最新的AI技术。它提供了一系列精心挑选的AI工具,并定期更新新发布的AI。
为视觉-语言模型(例如CLIP)提供精心策划的Prompt/Adapter学习方法列表,包含最新的研究进展和代码实现,促进模型的高效学习和应用
Embedditor 是一款先进的 AI 工具,旨在通过嵌入优化提升向量搜索的能力,类似于嵌入领域的 Microsoft Word。该工具为专业人士和开发者量身定制,提供强大的元数据和令牌增强功能,帮助用户提升大型语言模型(LLM)应用的效率和准确性。
FLASK是一个专门用于评估语言模型在语法、语义、推理和生成等任务上表现的工具,旨在提供更准确的评估结果,揭示模型的强项和弱点,并指导语言模型的进一步发展。
EasyEdit 是一个用于编辑大型语言模型的 Python 框架,支持多种模型如 GPT-J、Llama、GPT-NEO、GPT2、T5 等。其目标是在特定领域或知识上高效地修改语言模型的行为,而不会对其他输入的性能产生负面影响。该框架易于使用且易于扩展,适合用于研究和开发语言模型。