EET是一个针对大型NLP模型的可扩展推理解决方案,旨在提供高性能的推理支持,特别是针对Transformer结构的大模型,同时支持长序列的场景,易于集成和使用。
SciPhi旨在支持大型语言模型(LLMs)的训练和评估,提供了数据生成和模型输出评估两个关键功能,帮助用户高效地生成合成数据,并对模型的性能进行稳健的评估。
中科闻歌研发的新一代开源大语言模型,采用了超过 2 万亿 Tokens 的高质量、多语言语料进行预训练。
LLM App是一个用于构建和服务AI应用以及支持LLM的实时数据管道的生产框架,旨在简化AI管道,集成各种功能,提升开发效率。
FinRL-Meta 是一个为数据驱动金融强化学习提供多种市场环境的框架,支持多种算法,并集成数据处理和特征工程工具,具有良好的可扩展性,方便用户自定义环境,提供丰富的示例和文档,易于上手。
一个开源扩展,允许用户在本地环境中使用容器与大型语言模型(LLM)进行交互,支持AI模型下载、推理服务器启动、本地实验场以及AI应用开发
Weaviate Recipes是一个为使用Weaviate而设计的食谱和示例集合,重点关注不同类型的向量嵌入,以支持AI应用。
AutoGGUF是一个自动化GGUF模型量化工具,提供友好的图形用户界面,利用llama.cpp库实现模型的高效量化。该工具支持多种后端管理,能够进行模型量化、参数配置以及资源监控等多种功能,旨在提升模型性能和资源利用率。
开源GPU集群管理器,用于运行大型语言模型(LLM),支持多种硬件平台,提供轻量Python包和OpenAI兼容API,简化用户和API密钥管理,实时监控GPU性能和利用率
Ditto是一个允许用户通过自然语言描述生成多文件Flask应用程序的工具,旨在简化编码过程并提高开发效率。
LLaMA-O1 是一个大型推理模型框架,专为 PyTorch 和 HuggingFace 设计,支持训练、推理和评估。它集成了蒙特卡洛树搜索(MCTS)、自我对弈强化学习、PPO 和类似 AlphaGo Zero 的双策略范式,适用于大型语言模型的开发和应用。
一个极简的图像处理和GPT/Diffusion模型训练工具,专注于快速实验和简洁操作,提供从初始化到图像生成的高效路径
一个关于金融领域大语言模型应用的知识库,涵盖生成式AI、智能代理、RAG检索增强等技术在金融领域的实践。包含了各类金融场景下的LLM应用案例、论文资料、数据集以及多模态金融分析等内容,适合研究金融科技与AI结合的开发者参考。
ChatLLaMA 是一个实验性的聊天机器人界面,用于与 Facebook 的 LLaMA 变体进行交互,使用在Alpaca数据集上微调的 70 亿参数变体。
一个纯Python实现的库,专注于流式生成LLM的JSON片段,便于前端展示,且不依赖任何第三方库。它支持高效的JSON流解析,用户友好的接口,实时数据处理,灵活的配置选项,并兼容大规模数据流。
灵活、健壮和高效的Python软件包,用于支持MLOps(机器学习运维)项目,提供多种工作流支持,优化性能,加速模型部署和监控,易于与其他工具集成,同时提供用户友好的API,确保模型和数据集的版本控制。
一个强大的AI智能体框架,基于树搜索算法提升AI代理的决策能力。支持多种搜索算法如蒙特卡洛树搜索(MCTS)、A*和贪心最佳优先搜索,可帮助AI代理探索和评估不同的工具使用路径,避免错误并做出更好的决策。仅需两行代码即可为代理添加搜索功能
Yolov7 Flask是一个美观的Flask Web API,支持Yolov7及自定义模型的推理,用户可以方便地上传图片并进行实时物体检测,适用于本地和云环境的部署。
LLMBox是一个用于实现大型语言模型的综合库,提供统一的训练流程和全面的模型评估,支持多种训练策略和数据集构建策略,以及高效的数据预处理工具。其可扩展的插件系统使得用户可以根据需求灵活定制,适用于多种大语言模型架构。
rgbx 是一个开源模型,能够根据输入的图片自动生成环境光遮蔽(AO)、法线图和粗糙度图,从而实现从单张照片反推出多层图像的功能,方便用于3D建模和游戏开发。
Eureka是一个程序,能够自动生成算法来训练机器人,使它们能够更快地学习复杂的技能。生成的奖励程序在超过80%的任务上表现优于由专家编写的人工程序。
一个用于与Model Context Provider服务器交互的命令行工具,支持OpenAI和Ollama等多个提供商和模型。
LLMTuner 是一个专为大语言模型设计的指令调优工具,支持全量参数微调、LoRA 和 QLoRA,旨在提升模型的指令响应能力和优化微调过程。
Prajna是一种专门为构建更加模块化、自动化和智能化的人工智能基础设施而研发的开源编程语言,旨在提高AI系统的开发效率与灵活性,促进AI技术的广泛应用与创新。
一个关于使用大语言模型 (LLM) 在软件测试中的应用和研究的项目,旨在提供相关工具和资源。
一个专注于挖掘多模态视觉语言模型潜力的开源项目,支持从2B到34B不同规模的密集和MoE大型语言模型,具备图像理解、推理和生成的能力。
LLaVA-CoT是第一个能够进行自发、系统推理的视觉语言模型,类似于GPT-01,具有强大的多模式处理能力。该模型通过11B参数的强大架构,支持复杂的视觉语言任务,并在多模式基准测试中表现优于多个现有模型。
AndesGPT-7B是OPPO研究院基于Baichuan2项目继续训练得到的70亿参数规模中文语言模型,采用800B中文语料进行微调,能够有效处理多种中文自然语言处理任务。
RAGFoundry是一个专注于增强大型语言模型在检索增强生成任务中表现的专业框架,通过微调技术实现快速原型设计与实验,旨在提高模型的生成质量和适应性。
voltaML-fast-stable-diffusion是一个轻量级库,通过简单的一行代码实现对Stable Diffusion模型的加速,速度提升可达10倍,支持Dreambooth的快速推理,方便用户进行机器学习和深度学习项目的快速部署和集成。