该项目旨在实现稀疏和稳健的预训练语言模型,以提高语言理解的能力和效率。
开源的一站式AI网关和API开发者门户,帮助开发者和企业轻松管理、集成和部署AI服务,支持商用。提供用户友好的界面,支持服务的集成与定制,适合各种商业应用场景。
Griffin是一种将门控线性RNN与局部注意力混合在一起的新模型架构,表现优于以往模型,能够处理长上下文并扩展到14B参数。该模型在训练数据量减少的情况下,仍能保持优异的表现,显著改善预测能力,并保留了Transformer架构在合成任务上的许多优点。
PySpur是一个可视化大型语言模型推理路径的图形界面,旨在帮助开发者构建、测试和部署复杂的计算图,从而增强模型的思考能力。
awesome-demos是一个集成了多个有趣的Gradio演示项目,旨在为开发者提供灵感和学习资源,覆盖多个机器学习领域的应用,方便开发者了解和实现新功能。
EricLLM是一个快速批处理API,旨在为各种大语言模型提供高效的服务,支持多种模型配置和资源管理,方便用户进行批量文本处理和集成到现有应用中。
开源的提示工程平台,旨在帮助开发者和产品团队更容易地构建和管理 AI 特性,提供协作管理、测试、性能分析和实时评估等功能,支持云端和自托管两种部署方式
一个为AI聊天设计的React组件库,能帮助开发者轻松搭建聊天界面,支持多种AI模型,让聊天应用的开发更简单快捷
Nexa SDK是一款全面支持ONNX和GGML模型的工具包,具备文本生成、图像生成、视觉-语言模型(VLM)、自动语音识别(ASR)和文本到语音(TTS)功能,提供OpenAI兼容的API服务器,支持JSON模式调用函数和流媒体,配备用户友好的Streamlit UI,方便开发者使用和集成。
flux-fine-tuner是一个为ostris/ai-toolkit提供Cog封装的项目,支持flux模型的后训练Cog推理,旨在简化模型推理流程,并与现有工具高度兼容。
ReALM是苹果发布的一种新模型,通过重构屏幕上的信息为纯文本表示,使大型语言模型能够理解屏幕上的内容。该模型比ChatGPT-4更快、更小,能够理解屏幕上的内容而不需要直接看到图像,通过实体识别和位置记录生成文本化表示,减少模型参数,同时保持与GPT-4相似的性能。
一个用于在互联网上高效、全球分布式训练人工智能模型的框架,具备弹性设备网络、异步分布式检查点、实时检查点恢复等特性,旨在优化全球范围内的AI模型训练过程
来自清华团队开源的一个 AI 项目,通过强化学习技术训练出一个 7B 模型,在数学推理能力上超越 GPT-4o 以及 Llama-3.1 70B。
一个用于非因果建模的双向线性注意力实现项目,通过Triton优化模型性能,特别适合需要高效处理大量数据的AI应用
Coinbase CDP Agentkit是一个为AI Agent提供上链服务的工具包,使每个AI Agent都能够拥有自己的加密钱包。该工具包实现了框架无关的AI Agent原语,支持与LangChain和Twitter的无缝集成,同时允许多种链上操作,旨在简化AI Agents的上链过程。
最小化的分布式训练框架,专为教育目的设计,让你轻松学习并实验预训练Llama类模型
一款开源的Swift语言包,让你轻松与OpenAI的公共API进行交互,支持Azure、AIProxy和Assistant流API。该项目旨在简化与OpenAI服务的集成,提高开发者的工作效率,并提供多种灵活的使用方式。
一个开源免费的跨平台 ChatGPT/Gemini 应用,通过一键部署轻松拥有自己的 ChatGPT 网页应用,支持多种 GPT 模型。
modelkit是一个极简但功能强大的Python MLOps库,方便将机器学习模型快速部署到产品中,兼容多种框架,提供模型版本控制和多种数据源支持。
一个基于ComfyUI的控制视频生成的下一代SVD工具,提供自动下载模型和示例代码,支持视频内容的定制化生成和编辑。
一个用于构建声明式、可组合的AI驱动大型语言模型(LLM)产品的框架,支持在本地机器上开发AI代理管道,并集成了Agent工具和记忆(RAG)。
该项目汇聚了最新的大型视频模型相关论文、代码及数据集,为研究者提供便捷的资源获取途径,促进视频理解领域的发展。
DinkyTrain是普林斯顿大学NLP团队基于fairseq构建的预训练库,集成了DeepSpeed内核,旨在提供高效的模型训练和简化的训练过程,支持灵活的配置选项。
旨在复制Anthropic的Crosscoders,用于模型差异分析,通过训练模型对比不同版本间的细微差别。该项目提供了易于使用的接口和工具,可以帮助研究人员和开发者深入理解模型的变化。
本项目对零阶优化技术进行了基准研究,重点关注在微调大型语言模型时的内存效率。
NeMo-Skills是一个专注于提升大型语言模型在数学问题解决能力的项目,同时支持多种任务的优化和改进,利用深度学习技术增强模型表现,且为开源项目,便于社区贡献和扩展。
Stick-breaking Attention 是一种基于 Triton 的变长序列注意力机制实现,旨在通过优化计算方式提升在 GPU 上的性能,适合多种深度学习任务,易于与现有框架集成。
Repomix 是一款高效的工具,专门用于将代码库打包成 AI 友好的格式,便于输入到大型语言模型中进行处理。它支持多种功能,包括遵循 .gitignore 规则、远程仓库处理、Token 计数、安全检测等,确保代码打包过程高效且安全。此外,Repomix 还提供智能 Token 计数模块、安全扫描引擎、多格式解析器、依赖关系可视化和增量式打包等高级功能,适用于多种应用场景。
LLM-Geo是一个自动地理信息系统(GIS),利用大型语言模型(LLM)进行空间问题的自动数据收集、分析和可视化。该项目采用GPT-4 API,实现了在Python环境中自动生成、自组织、自验证、自执行和自增长的自主GIS,旨在提高地理数据处理的效率和准确性。
ArxivDigest是一个利用GPT进行相关性评分的工具,旨在根据用户的研究兴趣和描述,为新发布的arXiv论文提供更精准的每日摘要。该项目能够筛选和排序论文摘要,帮助研究者更高效地获取相关信息。