一个开源免费的跨平台 ChatGPT/Gemini 应用,通过一键部署轻松拥有自己的 ChatGPT 网页应用,支持多种 GPT 模型。
辅助用户测试和优化大型语言模型(LLM)的提示工具,支持多模型测试、模板保存、动态生成提示、模型配置管理及并排比较输出结果,适用于开发者、研究人员和内容创作者。
MAP-NEO/document-convert是一个高效的转换管道,能够将PDF或扫描图像转换为类似Markdown格式,保留文档结构和格式,适用于多模态艺术投影项目。
《自然语言处理:基于预训练模型的方法》随书代码,提供多种基于预训练模型的自然语言处理方法,支持文本分类、命名实体识别、问答等任务,包含详细的使用示例和文档,易于扩展和集成到其他项目中。
WaveCoder是一个广泛且多才的项目,专注于增强指令调优和精炼数据生成,采用经过精心调优的代码语言模型和生成器-判别器框架,从开源代码中生成高质量、非重复的指令数据,显著提升大型语言模型在与代码相关任务中的表现和泛化能力。
DinkyTrain是普林斯顿大学NLP团队基于fairseq构建的预训练库,集成了DeepSpeed内核,旨在提供高效的模型训练和简化的训练过程,支持灵活的配置选项。
Stick-breaking Attention 是一种基于 Triton 的变长序列注意力机制实现,旨在通过优化计算方式提升在 GPU 上的性能,适合多种深度学习任务,易于与现有框架集成。
一个用于生成文本和语言处理的示例项目,结合了LangChain和Google的Gemini模型,提供了多种语言生成和处理功能。
gptcommit是一个利用GPT-3帮助开发者撰写更好提交信息的工具。它生成基于代码更改的描述性提交信息,并支持多种编程语言,集成于现有的Git工作流程中,用户可以自定义提交信息模板。
Repomix 是一款高效的工具,专门用于将代码库打包成 AI 友好的格式,便于输入到大型语言模型中进行处理。它支持多种功能,包括遵循 .gitignore 规则、远程仓库处理、Token 计数、安全检测等,确保代码打包过程高效且安全。此外,Repomix 还提供智能 Token 计数模块、安全扫描引擎、多格式解析器、依赖关系可视化和增量式打包等高级功能,适用于多种应用场景。
llm.mojo是Andrjey Karpathy将大型语言模型(LLM)最小化代码移植到Mojo编程语言的版本,旨在提供高效的模型推理和简化的学习体验。
EvalGPT是一个基于GPT-4、CodeLlama和Claude 2等大型语言模型的代码解释器框架,允许用户编写任务,协助编写和执行代码,并交付结果。它支持多种编程语言和任务类型,提供用户友好的接口,便于任务输入和结果输出。
Moxin是一个纯Rust编写的AI大型语言模型平台,展示了Makepad UI工具包和Project Robius框架在多平台Rust应用开发中的强大能力,当前处于Beta测试阶段。
Zeno Build旨在帮助开发人员快速构建、比较和迭代使用大型语言模型应用的工具,提供简单的代码示例和实验管理功能。
一项研究,探讨如何将视觉设计直接转换为代码,实现前端工程的自动化。该项目利用多模式理解和生成能力,能够高效地将设计转化为可用的网页代码,并通过全面的基准测试验证其性能,特别是与其他模型的比较。
该项目深入介绍了Transformer模型的背景、关键组件及其实现细节,旨在帮助开发者理解并实现Transformer架构。
llama2.zig是一个用纯Zig编写的项目,旨在提供Llama 2模型的推理功能。它的设计强调高性能和易用性,所有功能都封装在一个文件中,方便用户直接运行或集成到其他Zig项目中。
Judi.jl是一个用于对向量、矩阵和张量表达式进行微分的库,支持高效的符号微分,提供简单易用的接口,适用于科学计算和机器学习领域的自动微分需求。
一套全新的轻量级、多语种支持的语言模型,专为推理、编程和工具使用设计,可在计算资源受限的环境中运行,适合企业使用和定制
由阿里云团队开发的编程语言模型,支持多种编程语言,旨在提升代码编写效率和学习编程技能。该模型结合了先进的人工智能技术,能够理解和生成多种编程语言的代码,为开发者和学习者提供智能辅助。
指令回译是一种可扩展的方法,通过自动为人类编写的文本添加相应的指令标签,从而构建一个高质量的指令跟随语言模型。该方法在生成和筛选训练样例方面表现出色,并且可以微调现有模型以提高性能。
MInference是一种高效的长上下文大型语言模型(LLM)推理加速工具,采用动态稀疏注意力机制和稀疏计算方法,显著加速长序列处理的预填充过程。它能够在保持高准确性的同时,将LLM处理百万上下文的时间提速10倍,适用于A100等硬件平台。MInference可直接应用于现有的LLM,无需预训练或额外微调,已在多个基准模型上验证其性能。
UI Sketcher是一个VSCode插件,借助GPT-4V的多模态能力,在插件中画出界面草图,就能生成一个基于ReactNative的UI界面。
一个合并预训练大型语言模型的工具,能够将多个模型组合成一个独特的、性能更优的模型。
PyTorch是一个开源的深度学习框架,广泛用于计算机视觉和自然语言处理等领域。
建立在HuggingFace模型和PyTorch Fully Sharded Data Parallelism基础上的训练套件,旨在优化吞吐量,简化在资源受限环境中训练中型模型的分布式方案设置工作流程,尤其适用于学术集群。
一种利用自我学习原则的度量学习方法,无需标签。
Doctran是一个文档转换框架,旨在通过使用大型语言模型(LLM)和开源自然语言处理(NLP)库,将原始文本转换为干净、结构化、信息密集的文档,从而优化向量空间检索的效果。该框架能够有效地处理非结构化文本数据,提升文档的可读性和检索效率。
智能优化版Llama.cpp:基于原版Llama.cpp的克隆项目,它增加了最先进的量化技术,并针对CPU性能进行了改进,使得在处理大型语言模型时更加高效
IBM开发的声明式提示编程语言,专为创建可靠、可组合的LLM提示而设计。