从零开始实现 Stable Diffusion,系统性讲解其工作原理和背后的数学,并提供训练一个扩散模型的步骤。
这是一个基于PyTorch的库,旨在加速在分布外(OOD)检测方面的研究,支持多种检测方法,并提供易用的API设计。该项目结合深度学习模型进行OOD任务,提供数据集和基准测试,且可与PyTorch深度学习框架无缝集成。
openai-api-proxy是一个代理工具,旨在简化对OpenAI API的访问和管理,提供便捷的接口和功能,帮助开发者更高效地使用OpenAI的服务。
Multipack Sampler是一种专门为大型语言模型设计的分布式采样器,旨在实现快速的无填充训练,提升训练效率同时优化资源使用。
一个开源的本地RAG系统,支持多种大模型集成方案。可通过本地Ollama部署、ChatGPT自定义GPT或Anthropic Claude进行本地文件查询。
一个用于安装其他MCP服务器的工具,支持通过Claude来帮助安装来自npm或PyPi的MCP服务器。通过简单的提示命令完成安装配置,使得MCP服务器的部署变得更加便捷,只需安装npx和uv作为前置依赖即可使用。
一个 Python 优先的工具包,旨在简化 AI 编译器、运行时和复合 AI 系统的开发,提供多种功能以提高开发效率和系统性能。
vLLM Endpoint | Serverless Worker是一个用于提供大型语言模型端点的RunPod工作模板,基于VLLM技术,支持高效的模型加载与推理,具有极强的扩展性,适合在云环境下快速部署。
LLMPlus是一个Python包,旨在帮助开发者使用本地的大型语言模型(LLMs)来构建AI应用。它提供了简洁的接口,以便进行提示工程,支持加载LLM模型、嵌入模型和向量数据库的类。通过自定义提示工程和RAG技术,开发者可以轻松创建LLM应用。
LLMOps是一个灵活、稳健且高效的Python工具包,专为大型语言模型(LLM)的运营设计。它提供了模型注册、实验跟踪和实时推理等关键功能,帮助开发者和研究人员更好地管理和优化他们的模型。该工具包支持高效的操作,并具备灵活的集成能力,适用于各种机器学习工作流。
river是一个用于在线机器学习的Python库,支持增量学习和数据流处理,适合实时预测系统的构建。它具有多种机器学习算法和模型,易于与现有的数据处理管道集成,同时支持模型评估和性能监控。
VectorHub是一个免费的、开源的学习网站,旨在为那些希望将向量检索技术融入到机器学习工作流程中的开发人员提供丰富的学习资源和支持。该平台支持多种机器学习框架,适合从软件开发人员到高级机器学习架构师的广泛用户群体,鼓励用户参与开源项目,分享知识与经验。
一个全面的企业级RAG系统教程项目,涵盖从入门到精通的完整知识体系。包括文档问答、检索优化、评估方法、Agent实现等多个模块,提供详细的实践示例和优化方案,帮助开发者构建高质量的RAG应用
FAMIE是一个快速的主动学习框架,专注于多语言信息抽取,旨在提高数据处理和模型优化的效率。它支持多种语言的信息抽取,提供用户友好的界面和灵活的模型配置,结合高效的数据标注工具,适用于快速迭代和评估不同的学习策略。
使用最新的AI工具驱动的视频搜索引擎,利用视频转录和向量搜索技术,让用户能根据问题快速找到相关的视频片段。
通过单个视频生成实时、交互式、逼真且与浏览器兼容的游戏环境。该项目利用神经辐射场(NeRF)模块高效捕获现实世界场景的几何形状和视觉外观,并通过网格模块和物理模块实现快速渲染和物体之间的相互作用。支持室内和大型室外场景的基准测试,用户可以轻松创建高质量的虚拟环境。
本课程将教你使用 Hugging Face 生态系统中的库进行自然语言处理 (NLP)。课程涵盖了使用 Transformer 进行文本处理、数据集训练模型、文本分词及提高计算效率等多方面内容。
AskUI Vision Agent 是一个基于 Python 的计算机任务自动化框架,通过集成 Agent OS 和强大的模型如 Anthropic 的 Claude Sonnet 3.5 v2 和 AskUI 的 Prompt-to-Action 系列,实现了复杂场景的自动化。
在APL语言中实现自回归transformer(如GPT2)的项目,支持反向传播和使用Adam优化算法进行训练,旨在结合高性能和简洁代码的优势。
一个使用简单、原始的 C/CUDA 进行LLM培训的项目,旨在提供轻量级的实现,减少对大型库的依赖。
GeminiCoder是一个基于Gemini API的代码生成工具,只需一个提示词即可生成小应用。它结合了Sandpack提供的代码沙箱环境,基于Next.js app router构建,并使用Tailwind进行样式处理。用户可以通过简单的描述生成应用,并实时预览效果。
允许用户通过统一的 API 访问多平台的生成式模型,litellm的国内版,旨在简化模型调用和集成流程,提升开发效率。
snake-diffusion是一个基于扩散模型的贪吃蛇游戏实现,展示了如何利用扩散模型构建实时游戏。它结合了经典贪吃蛇玩法与AI技术,为玩家提供创新的游戏体验。该项目支持多种游戏模式,具有低训练成本,适合学习和实验。
Spio是一个专为PyTorch设计的高效工具,利用优化的CUDA内核显著提升卷积神经网络的训练效率,特别是在分组卷积的性能方面。
为大型语言模型(LLMs)提供高质量、大量数据的搜索、选择和合成,以优化模型的后期训练
该项目汇集了精选的扩散模型推理论文,涵盖了多种技术,包括采样、缓存以及多GPU支持,为研究者和开发者提供了丰富的学习和应用资源。
NeuralClothSim结合了神经变形场和薄壳理论,实现了高效的服装模拟,能够生成逼真的服装动态效果,适用于动画、游戏和虚拟现实等多个领域。
一个轻量级LLM应用开发框架,类似于Python requests库的简洁设计理念,提供了90%必需的LLM开发功能。
一款可平替v0、Cursor、Cline的AI全栈构建工具,通过简单提示即可生成带有界面、前端、后端、数据库的网站
专注于训练和微调中等大小 GPT 模型的最简仓库,是 karpathy/nanoGPT 的一个分支,并提供了最大更新参数化(muP)的最小实现,旨在简化用户的使用体验和模型的优化过程。