总结如何更好地集成 ChatGPT 的相关模式,方便于我们后续在其它 LLM(大语言模型)中使用。
RAGchain是一个用于开发支持大型语言模型(LLM)的高级检索增强生成(RAG)工作流的框架,提供了灵活的开发选项和易于集成的特点,帮助开发者构建高效的智能应用。
Epochraft是一个数据加载器库,专注于即时标记化和检查点功能,特别用于流畅训练语言模型(LLM),旨在提高数据处理的效率和训练过程的灵活性。
TurboPilot 是一个自托管的类似 GitHub Copilot 的代码生成工具,使用 LLaMA.cpp 代码运行 Salesforce Codegen6B 模型,支持多种编程语言的代码生成,旨在提高开发效率。
用于与Copilot(之前叫Bing Chat)进行交互的Python客户端,支持连接到Copilot、进行对话、提问问题、附加图片和网页内容等功能,以及支持异步操作和流式响应等特点
Nebulgym是一款深度网络训练加速框架,用户只需增加几行代码即可显著提升AI模型的训练速度,且无需对现有训练设置进行修改。它支持多种深度学习框架,便于用户快速集成和使用。
ML-NLP项目涵盖了机器学习和自然语言处理领域的基本知识点,并提供相应的代码实现,旨在帮助用户准备面试和学习相关内容。项目包含常见的算法与模型实现,适合各类学习者与求职者使用。
Rigging是一个轻量级的LLM交互框架,旨在简化生产代码中语言模型的应用。它提供了结构化Pydantic模型与非结构化文本输出之间的互操作性,支持LiteLLM等多种语言模型。用户可以通过Python函数定义提示,进行异步批处理和快速迭代,非常适合大规模生成任务。
LLamaFlow是一个基于TypeScript的工具包,旨在与基于聊天的大型语言模型(LLM)进行高效交互。它在标准聊天完成API的基础上增加了结构化支持,并提供类型安全性验证、自定义内容验证hook,以及改进的发送和接收聊天消息API。同时,LLamaFlow还具备文本分割功能,以便有效处理Token限制,确保与模型的交互更加流畅和准确。
GPT_Vuln-analyzer是一个利用ChatGPT API、Bard API和Llama2,通过Nmap扫描数据和DNS扫描信息生成漏洞报告的项目,具备广泛的子域名枚举能力,能够帮助用户识别和分析潜在的安全漏洞。
MosaicML 提供的示例项目,旨在帮助用户更好地理解和使用其机器学习工具和框架。该项目包含多种模型训练示例,特别是针对大型语言模型(LLM)的应用。通过高效的资源管理和优化建议,集成了 FSDP(Fully Sharded Data Parallel)以提升训练性能,并提供详细的文档和使用指南,方便开发者快速上手。
Deita旨在为大型语言模型(LLM)的指令微调提供自动数据选择工具和高质量的对齐数据集,Deita模型能通过比其他SOTA LLM少10倍的指令微调数据进行训练,达到与它们相媲美的性能。
StarCoder 的 C++ 版本,可以在没有GPU的环境中高效运行,专为CPU用户设计,提供智能代码补全和多语言兼容功能,极大提升开发效率。
Optimum-NVIDIA将NVIDIA平台与Hugging Face结合,提供卓越的推理性能,通过简单的代码修改,使LLaMA 2模型达到每秒1,200个token的处理速度,比其他框架快28倍。
LLaMA_MPS是一个专门为Apple Silicon GPU优化的项目,旨在高效地运行LLaMA模型的推理过程。该项目充分利用苹果硬件的加速能力,提供简洁的API接口,优化内存管理,确保用户能够快速高效地进行自然语言处理任务。
HammerLLM是一个具有1.4B参数的语言模型,提供了简洁高效的训练代码库,同时完全开源了模型权重、环境、代码库和超参数,支持中英文的生成和理解,具有高效的训练和推理能力,适合多种自然语言处理任务。
Gigastep是一个高效的多智能体强化学习框架,能够每秒处理高达10亿步的训练,支持灵活的配置选项,并且易于与现有的强化学习算法集成。
RouteLLM 是一个用于服务和评估 LLM 路由器的框架,旨在在不影响模型质量的情况下显著节省 LLM 的使用成本。它提供了一个 OpenAI 兼容的 API,能够根据请求自动路由到最佳模型,同时开箱即用的训练路由器功能使得成本降低高达 85%,且性能保持在 95% 的 GPT-4 水平。RouteLLM 还支持轻松扩展,以便添加新的路由器和基准,并通过单个命令比较所有路由器的性能。
Obsidian编辑器与GitHub Copilot服务之间的桥梁,实现代码智能补全功能,提升编程效率。该项目通过插件形式集成了Copilot的智能建议,支持多种编程语言,帮助开发者在编写代码时更加高效。
GPT-4 是一种多模态生成的人工智能系统,具备写代码、数学能力以及与世界和人类交互的能力。
smoltropix是为xjdr的entropix采样器提供MLX端口的项目,旨在模仿JAX的实现,支持高效的采样,并且易于集成和使用。
Stable Fast 是一个超轻量级的推断性能优化库,专为在 NVIDIA GPU 上优化 HuggingFace Diffusers 库的性能而设计。
从零开始构建自己的大型语言模型,提供详细教程和代码实现,覆盖编码、预训练和微调过程,适用于对自然语言处理和人工智能领域感兴趣的开发者和研究者
CaptainFunction是一个Python包,能够动态加载函数至OpenAI助手,提供了一种简单而灵活的方式来集成自定义函数,便于用户根据需求扩展助手的功能。
星辰语义大模型TeleChat2是由中国电信人工智能研究院研发训练的大语言模型,是首个完全国产算力训练并开源的千亿参数模型,包含大约1150亿个参数。
轩辕模型是一种开源的自然语言处理模型,旨在提供高效的文本生成和理解能力,支持多种语言,并可定制化模型参数,适用于多种文本处理任务。
MeZO是一个通过正向传递实现语言模型微调的工具,无需反向传播,极大地简化了训练过程,同时支持多种预训练语言模型,提升了训练效率和资源利用率。
llm-cmd 是一个能在终端中使用LLM生成并执行命令的工具,帮助用户快速编写复杂的命令行指令,从而提高操作系统的操作效率和便捷性。
Punica 是一个工具,旨在将多个经过 LoRA 微调的语言模型整合在一起,简化管理和调用,提供灵活的模型组合和优化的性能响应。
Code Llama 是一个针对代码任务的开源大型语言模型(LLM),旨在提升开发者的工作效率并降低学习编码的门槛。它基于先进的语言模型技术,提供精准的代码补全、生成和调试功能,支持多种编程语言,并提供了不同参数量的模型以适应不同需求。Code Llama 完全开源,适用于研究和商业用途,能够根据自然语言提示生成代码,并提供代码的自然语言解释。