指令回译是一种可扩展的方法,通过自动为人类编写的文本添加相应的指令标签,从而构建一个高质量的指令跟随语言模型。该方法在生成和筛选训练样例方面表现出色,并且可以微调现有模型以提高性能。
斯坦福开发的一种遵循指令的 LLaMA 模型,基于 Meta 的 LLaMA 7B 模型进行微调,性能接近 OpenAI 的 text-davinci-003,支持在单个 GPU 或 CPU 上运行。
LiteRT是Google AI Edge团队推出的高性能、可信赖的边缘AI运行时,旨在继承TensorFlow Lite的优势,并拓展其愿景,支持多种AI框架并优化资源利用率,方便集成和部署。
基于GPT-2模型的中文文本生成项目,旨在为中文自然语言处理提供强大的文本生成能力,支持预训练和fine-tuning,适用于多种场景,如创作、对话等。
MIMIC-IT:多模态上下文指令调优,展示了一个包含 280 万个多模态指令-响应对的数据集,以及从图像和视频中派生的 220 万个独特指令。
这个项目展示了如何借助MLX在Mac上运行微软的2.7B小语言模型Phi-2以及Mixtral 8x7B混合专家模型,支持在Apple M2 Ultra上进行高效的模型训练和推理,提供简化的模型权重下载和加载流程,同时兼容Python环境。
由AI2开发的开源LLM评估系统,用于对基础模型和指令微调模型进行全面评估。
深度求索发布的开源代码大模型,33B版的性能显着优于现有的开源代码LLM。该项目包含多个规模的代码语言模型,从10亿到330亿标记不等,经过预训练,使用16,000标记的窗口大小和额外的填空任务,支持项目级别的代码补全和填充,在多种编程语言和各种基准测试中取得最先进性能。
OneDiff是一个用于加速扩散模型的工具,提供了一种新的免训练、几乎无损的范式,显著提升模型的迭代速度。
Raspberry是一个旨在为微调具有推理能力的LLM创建开源玩具数据集的项目,特色在于通过合成复杂用户查询和自我批评数据来提升模型的推理能力。
Fast Stable Diffusion CPU是一款专为CPU优化的快速稳定扩散模型,在Core i7-12700上生成一张512x512的图片仅需21秒,具有优越的性能和广泛的兼容性,适合各种计算环境。
testIT 是一个利用人工智能为模型仿真和仿真建模提供样本的工具。它通过聊天和模型创建机器人来实现更复杂的仿真,同时注重用户驱动的创新。
Jargon是一种由大型语言模型(如GPT-4)指定和执行的自然语言编程语言,旨在简化编程过程并降低使用门槛。
专注于训练和微调中等大小 GPT 模型的最简仓库,是 karpathy/nanoGPT 的一个分支,并提供了最大更新参数化(muP)的最小实现,旨在简化用户的使用体验和模型的优化过程。
miniLLMFlow是一个极简的LLM框架,仅用100行代码实现,旨在使大型语言模型能够进行自我编程。该框架提供了简洁易用的接口,并支持高效的模型训练和推理,适合研究和应用开发。
Amazon Foundation Model Evaluations Library,用于评估大型语言模型(LLMs),帮助选择最适合您用例的LLM。该库提供多种评估功能,覆盖开放式生成、文本摘要、问答和分类任务,旨在帮助用户全面了解不同模型在特定任务上的表现。
灵活、健壮和高效的Python软件包,用于支持MLOps(机器学习运维)项目,提供多种工作流支持,优化性能,加速模型部署和监控,易于与其他工具集成,同时提供用户友好的API,确保模型和数据集的版本控制。
Verifast AI 是一个先进的平台,旨在提高软件开发中代码验证的效率和准确性。它利用先进的人工智能技术简化验证过程,帮助开发者和质量保证团队确保代码的稳健性和可靠性。通过与现有开发环境无缝集成,Verifast AI 简化了代码质量管理,使其成为现代软件项目的宝贵工具。