Moxin是一个纯Rust编写的AI大型语言模型平台,展示了Makepad UI工具包和Project Robius框架在多平台Rust应用开发中的强大能力,当前处于Beta测试阶段。
Zeno Build旨在帮助开发人员快速构建、比较和迭代使用大型语言模型应用的工具,提供简单的代码示例和实验管理功能。
llama2.zig是一个用纯Zig编写的项目,旨在提供Llama 2模型的推理功能。它的设计强调高性能和易用性,所有功能都封装在一个文件中,方便用户直接运行或集成到其他Zig项目中。
一个专注于视觉自回归建模的资源汇总,展示如何让GPT风格的自回归模型在图像生成上超越扩散transformer,适合研究和开发图像生成模型的人员使用。
我们维护的NLP开源工具包,致力于自然语言处理的研究与应用,提供多种功能以支持学术研究和实际应用。
指令回译是一种可扩展的方法,通过自动为人类编写的文本添加相应的指令标签,从而构建一个高质量的指令跟随语言模型。该方法在生成和筛选训练样例方面表现出色,并且可以微调现有模型以提高性能。
出门问问提供的超大规模语言模型,基于其通用的表示与推理能力,支持多轮交互,能够大幅度提高生产效率和数据处理能力,被广泛应用于问答系统、自然语言处理、机器翻译、文本摘要等领域
MInference是一种高效的长上下文大型语言模型(LLM)推理加速工具,采用动态稀疏注意力机制和稀疏计算方法,显著加速长序列处理的预填充过程。它能够在保持高准确性的同时,将LLM处理百万上下文的时间提速10倍,适用于A100等硬件平台。MInference可直接应用于现有的LLM,无需预训练或额外微调,已在多个基准模型上验证其性能。
UI Sketcher是一个VSCode插件,借助GPT-4V的多模态能力,在插件中画出界面草图,就能生成一个基于ReactNative的UI界面。
一个合并预训练大型语言模型的工具,能够将多个模型组合成一个独特的、性能更优的模型。
PyTorch是一个开源的深度学习框架,广泛用于计算机视觉和自然语言处理等领域。
利用torchao和diffusers优化扩散模型的端到端方案,支持推理和FP8训练,旨在提升模型的性能和效率。
建立在HuggingFace模型和PyTorch Fully Sharded Data Parallelism基础上的训练套件,旨在优化吞吐量,简化在资源受限环境中训练中型模型的分布式方案设置工作流程,尤其适用于学术集群。
ai-gradio 是一个基于 Gradio 的 Python 库,旨在简化开发者与多种 AI 模型和服务的集成。它支持 15+ AI 提供商,包括 OpenAI、Google Gemini、Anthropic 等,提供文本、语音、视频交互以及浏览器自动化等多功能支持。无论是初学者还是专业人士,都可以通过 ai-gradio 快速创建和部署机器学习应用,无需复杂配置。
NODE GAM是一个可微分的广义加法模型,旨在为深度学习提供可解释性。它结合了深度学习的强大性能与可解释模型的透明性,帮助用户理解模型的决策过程。
一个探索Flux Dev模型层级效果的工具,允许用户通过修改不同层的强度来研究模型行为,支持注意力层、双重块、单一块等多种层级的调整与实验
基于llama-cpp-python的Mac平台辅助工具,提供90%代码重用,优化Python解决方案,实现个性化需求的自动化。
遥感基础模型(RSFM)是一个开源的遥感应用开发框架,旨在支持快速评估和微调各类模型在不同数据集上的表现,为遥感社区提供便捷的工具和资源。
TorchScale 包含我们在Transformers稳定性(DeepNet)、通用性(Magneto/Foundation Transformers)和效率性(X-MoE)的一系列研究的官方实现。我们希望通过基础本质的研究探索AI(尤其是大模型)的通用结构,并在NLP,CV,Speech和多模态等领域的任务和基础模型中广泛验证,欢迎大家使用、交流、合作开发。
智能优化版Llama.cpp:基于原版Llama.cpp的克隆项目,它增加了最先进的量化技术,并针对CPU性能进行了改进,使得在处理大型语言模型时更加高效
Noisy-Model-Learning项目旨在理解和缓解在下游任务中预训练过程中的标签噪声影响,从而提高模型在实际应用中的性能。该项目通过分析标签噪声对模型学习的影响,提出有效的策略和方法,以帮助研究人员和开发者在处理带有噪声标签的数据集时,提升模型的准确性和可靠性。
Web-LLM Assistant是一个基于Python的网络辅助大型语言模型(LLM)搜索助手,使用Llama.cpp技术提供信息丰富且上下文感知的回答,能够处理复杂查询并返回准确结果,适用于多种应用场景。
一个交互式指南,涵盖了提示工程和最佳实践,专为与大型语言模型(LLM)工作的开发者、研究人员和爱好者设计。
JFLUX是Black Forest Labs的Flux.1系列模型的JAX实现,支持FLUX.1的多个变体,并鼓励社区参与进一步的性能优化和功能增强。
FinRobot是一个开源AI Agent平台,专为金融应用设计,利用大型语言模型和多种AI技术,提供全面的解决方案,旨在超越传统的金融GPT应用。
Tenere是一个用于大型语言模型(LLM)的TUI界面,使用Rust编写,具备多种功能,如语法高亮、聊天历史记录、保存聊天记录到文件、Vim键绑定和复制文本到/从剪贴板。支持多个后端LLM,包括ChatGPT、llama.cpp和ollama。
专门用于大型语言模型微调和对齐的库,它提供了一系列高效和可扩展的技术,以及广泛的支持方法和指标,旨在简化模型的训练和部署过程
该项目旨在提供快速体验,允许用户一键部署多种Github开源AI项目,简化了部署过程,减少了用户的配置时间,并提供易于使用的界面和文档,同时定期更新以添加新的项目和功能。
Arch是一个智能Layer 7网关,旨在保护、监控和个性化各种LLM应用(如Agent、助手、copilot)与API之间的交互。该项目提供了快速构建AI代理的能力,同时增强了安全性,并支持多种LLM应用,通过监控API交互和提供个性化功能,为开发者和企业提供了强大的支持。
nanotron是一个开源工具,旨在简化大型语言模型的训练过程,提供了一种高效的3D并行训练方法,从而更好地利用计算资源。