llm-numbers是一个每个LLM开发人员都应该了解的工具,提供关键的统计数据和指标,帮助开发者深入理解模型性能。它支持多种语言模型的评估,并易于集成到现有的机器学习工作流中。此外,llm-numbers还提供可视化工具,以便展示模型数据,让开发者更直观地分析结果。
Salute是一个简单的声明式控制大型语言模型(LLM)的方法的JavaScript库,旨在简化与LLM的交互,使开发者能够轻松管理和配置语言模型的行为。
一个基于 Realtime API 的参考实现,帮助开发者快速构建和协调多代理模式的语音应用。该项目支持灵活的多代理协调机制,能够在客户服务、前台接待等场景中展示实际应用案例,并通过定义状态机提高模型的指令遵循能力。开发者可以在20分钟内快速原型化语音应用,使用更新的 WebRTC 接口实现低延迟的实时交互,同时享受开源带来的实现细节与工具集分享。
一个专注于从NLP和计算机视觉(CV)的基础知识到视觉语言模型(VLM)前沿技术的系列教程,提供学习路线图,涵盖Word2Vec等基础知识,并逐步深入视觉语言模型技术,适合初学者和有经验的开发者。
基于Gradio的WebRTC实时流媒体组件,支持网络摄像头视频流处理、服务器到客户端的视频/音频流传输、双向音频对话等功能,可用于构建实时对象检测、语音对话等AI应用,支持视频实时处理和音频流交互
数字人Live2D项目:提供模块化扩展和Live2D人物模型控制,支持Docker快速部署和多平台访问,旨在创建具有互动性的数字人应用。
针对特定用例、数据和查询智能适应的 RAG(Retrieval-Augmented Generation)框架,旨在提供可解释、高精度、高效的代理驱动检索工作流程。
这本书教你如何构建高效、成本平衡的大型语言模型(LLM)、计算机视觉和生成式AI系统,通过RAG技术提高输出的准确性和相关性。
一个简单的银行客户支持聊天机器人的实现示例,使用了 RAG(Retrieval-Augmented Generation)技术,旨在展示如何使用 LangChain 平台构建可靠的生成人工智能(GenAI)应用程序。通过全面的测试和评估展示了如何防止AI幻觉,提供了用户友好的聊天界面和灵活的配置选项。
Menagerie是由DeepMind策划的高质量MuJoCo物理引擎模型集合,包含多种类型的模型,适用于不同的应用场景,易于集成并提供丰富的文档和示例,帮助研究人员和开发者更好地进行物理仿真和机器人控制。
AI搜索助手是一个基于AI大语言模型的对话式搜索引擎基本实现,使用Node.js和Vue3构建,旨在帮助初学者入门AI开发。
EETQ是针对transformer模型的量化工具,使用Flash-Attention V2优化attention的推理性能,简单易用,只需一行代码即可适配您的PyTorch模型。
一个基于HuggingFace开发的大语言模型训练、测试工具。支持各模型的webui、终端预测,低参数量及全参数模型训练和融合、量化。
cl-waffe2是一个基于Common Lisp的图和张量抽象的深度学习框架,具有可扩展性、内联优化、图优化、可视化和调试等特点,旨在为研究和开发提供强大的工具支持。
快速入门Llama 3.1的最小化方案库,支持本地推理和API推理,适用于不同模型大小和权重精度配置,提供多样化的笔记本和工具使用示例
一个正在开发中的 SQLite 扩展,提供了轻量、足够快的向量搜索功能,可以在任何支持 SQLite 的平台上运行
Magnetron是自制的迷你版PyTorch,从零开始构建,旨在提供一个简单而强大的深度学习框架,适合研究和生产使用。它的设计初衷是帮助用户更好地理解深度学习的基本原理,并在此基础上进行模型的构建与训练。
这是一个关于几何生成模型(GGM)的教程资料,旨在帮助用户理解和实现各种生成模型。它提供了理论背景、实际应用示例,并支持多种模型的实现,同时包含易于使用的代码示例以及最新的研究进展。
基于大型语言模型的软件工程Agent资源集,提供基于大型语言模型(LLM)的Agent技术,通过增强LLM的外部资源和工具利用能力,显著扩展了其在软件工程任务中的应用范围和有效性。
一个轻量级自动微分框架,为希望深入理解深度学习底层原理的开发者设计,帮助用户从零掌握神经网络梯度计算、计算图构建及参数优化的底层逻辑。
Token.js是一个集成了200多个大型语言模型(LLM)的TypeScript SDK,采用OpenAI格式,支持在客户端运行,无需代理服务器,且为免费开源项目,得到了社区的广泛支持。
OpenAI兼容的API,用于TensorRT LLM triton backend,提供了与langchain集成的功能,支持高效推理和灵活后端配置。
使用Reflex框架开发的ChatGPT克隆应用,完全基于Python构建包括UI在内的全部功能。
PatrickStar使得更大、更快、更环保的预训练模型在自然语言处理领域成为可能,推动AI的普及。
Modular Diffusion 是一个易于使用的模块化 API,旨在使用 PyTorch 设计和训练自定义扩散模型,适合多种应用场景,包括图像生成和去噪处理。
通过统一简单的 API,让你轻松快速接入 100 多种大语言模型,如 OpenAI、Anthropic、Mistral、LLama2、Google Gemini 等。
LaMini-LM是一个对多个迷你大语言模型进行微调的项目,旨在提升模型的性能,其中包括经过微调的GPT-2,其性能可与LLaMa的Alpaca-7B相媲美。
kimi-k1.5 是月之暗面发布的多模态思考模型,具有强大的数学、代码、视觉多模态和通用能力,在短思考和长思考模式下均超越了多个 SOTA 模型。
Seait 是一个在 Windows 11 上安装和配置 AI 项目的工具,支持自动处理常用 AI 项目的依赖和配置,旨在提高用户体验,减少手动干预的需求。
ExLlamaV2是一个高效的推理库,旨在让用户能够在现代消费级GPU上本地运行各种大型语言模型(LLMs),并优化内存使用,以实现快速推理。