FastGPT 是一个免费、开源且功能强大的 AI 知识库平台,旨在通过提供数据处理、模型调用、RAG(检索增强生成)检索以及可视化 AI 工作流等功能,帮助用户快速构建和部署复杂的 LLM(大型语言模型)应用。它支持多种文档格式,自动处理文本预处理、向量化及问答分割,兼容多种 LLM 模型,并提供 API 集成和调试功能,适合开发者、企业和研究人员使用。
Dify on AWS with CDK 是一个在AWS上轻松自建Dify的项目,Dify是一个强大的LLM应用开发平台。该项目利用AWS托管服务,显著减少维护工作量,具有高成本效益,支持NAT实例和Fargate Spot容量,能够快速部署,初始部署仅需20分钟。
Ape是一个前沿的AI工具,旨在通过追踪、数据集策划、批量测试和评估等高级功能,优化大型语言模型的提示工程。它为希望通过真实数据提升LLM应用的专业人士和组织提供支持,并通过CI/CD集成防止性能回归。
Rig是一个用Rust开发的LLM应用开发框架,旨在构建可扩展、模块化的全栈AI应用,支持多种LLM提供商和向量数据库的整合,极大简化开发流程。
课程聚焦于如何使用ChatGPT相关API(可使用国内大模型API)创造新的功能和应用。内容主要为介绍ChatGPT原理、使用和应用,降低使用门槛,让更多感兴趣的非NLP或算法专业人士能够无障碍使用LLM创造价值。
检索增强生成 (RAG) 及其他:关于如何让你的 LLM 更明智地使用外部数据的全面调查
该项目提供了一个关于LLM应用开发的电子书,涵盖了理论学习及实践代码,帮助理解和整合信息处理系统。
LLMPlus是一个Python包,旨在帮助开发者使用本地的大型语言模型(LLMs)来构建AI应用。它提供了简洁的接口,以便进行提示工程,支持加载LLM模型、嵌入模型和向量数据库的类。通过自定义提示工程和RAG技术,开发者可以轻松创建LLM应用。
permchain 是一个用于使用 LLM 构建有状态的多参与者应用的开发库,扩展了 LangChain 表达式语言,能够跨多个计算步骤协调多个链(或参与者)。
AutoGen UI是一个支持使用多个代理来开发大型语言模型(LLM)应用的框架。这些代理能够相互对话,以协同解决复杂任务,极大地简化了LLM应用的开发流程,同时具有强大的可扩展性和用户友好的Web界面。
面向生产的大语言模型构建指南配套代码,提供丰富的Jupyter笔记本,帮助开发者深入理解和实践LLM的应用开发。该项目旨在帮助开发者通过实际操作掌握大语言模型的构建与应用,通过示例代码和文档支持自学和项目开发。
PromptPoint 是一个无代码平台,旨在快速设计、测试和部署提示,提供自动化提示测试,帮助用户创建和管理提示,评估其有效性,并进行版本控制和部署。它能够测量提示的速度和成本,降低生产部署的风险,释放团队的专业知识。
Teammate Lang是针对LLM应用开发与运营的全能解决方案,通过无代码应用构建器、提示管理器、内置多模态AI及A/B测试与分析等功能,提高LLM应用的价值交付、可靠性和投资回报率。
Boss Copilot是一个基于AI的应用,作为您的助手,帮助创建大型语言模型应用。它使用多个代理相互协作,处理各种任务。用户只需安装Chrome扩展并启用即可,激活后可以提示AI代理执行工作流程、任务和代码,同时可以与ChatGPT沟通,利用GPT4的强大功能来完成项目。
aisuite是吴恩达开源的Python库,旨在提供一个统一接口,让开发者可以轻松使用来自多个提供商的大型语言模型。支持OpenAI、Anthropic、Azure、Google等主流AI服务,使用类似OpenAI的接口设计,使得开发者能够无缝切换不同的LLM提供商进行测试和对比,无需修改代码。
iX 是一个自主的GPT-4智能体平台,旨在设计和部署半自主LLM智能体,提供了一种可扩展和响应迅速的解决方案,用于将任务委派给AI驱动的智能体。
llama-node是一个基于Node.js的项目,旨在提供对LLaMA和Alpaca语言模型的支持。该项目允许用户在本地CPU上高效运行这些模型,适合个人计算机使用。它基于llama-rs构建,旨在促进AI技术的民主化,使更多开发者能够轻松访问和使用大语言模型。
Embedditor 是一款先进的 AI 工具,旨在通过嵌入优化提升向量搜索的能力,类似于嵌入领域的 Microsoft Word。该工具为专业人士和开发者量身定制,提供强大的元数据和令牌增强功能,帮助用户提升大型语言模型(LLM)应用的效率和准确性。