JAXSeq建立在Huggingface的Transformers库之上,可用JAX训练非常大的语言模型,目前支持GPT2,GPTJ,T5和OPT模型。它结合了JAX的高效计算能力与Huggingface的丰富模型资源,提供了一个灵活且高效的训练平台,适用于不同规模和类型的语言模型的训练与微调。
TokenHawk是一个基于WebGPU的工具,旨在通过手写LLaMA模型进行高效的LLM推理,支持多种输入格式,并提供实时推理性能优化,适用于各种应用场景。
Nanbeige-16B(南北阁-16B)是南北阁大模型实验室研发的160亿参数规模的大语言模型,采用了2.5T Tokens进行预训练,数据包含大量互联网高质量语料、各类书籍、代码等领域脱敏文本,在各个权威测评数据集上都取得了不错的效果。本次发布包含有 Base、Chat 以及扩展上下文长度的 Base-32k、Chat-32k 版本。
一项关于代码大语言模型的调研报告,系统地回顾了语言模型在代码处理方面的最新进展。
Enchanted 是一款开源的本地大模型 Mac 客户端,类似于 ChatGPT 客户端,需搭配 Ollama 使用,轻松连接本地部署的私有模型,如 Llama2、Mistral 和 Vicuna 等。它支持多模态功能,提供无过滤、安全和私密的使用体验,并兼容 iOS 生态系统,包括 macOS、iOS、Watch 和 Vision Pro。
nanoChatGPT是在nanoGPT基础上,结合了人类反馈的强化学习层,使用Gumbel-Softmax技巧以提高训练效率,适合进行小型模型的快速实验。
Shell AI 是一种新的开源 CLI,允许您直接在终端中运行自然语言查询,利用先进的语言模型,简化用户与命令行的交互。它构建在 InquirerPy 之上,提供了一个友好的交互式界面,使得命令行操作变得更加直观和易用。
用于复杂JSON数组的自然语言搜索模块,具备AI快速入门功能,提供了更好的搜索体验和多种模型适配,帮助用户轻松进行JSON数据的查询和过滤
MathGLM是清华大学发布的一款数学计算大语言模型,专注于加减乘除、小数和分数的计算,拥有接近100%的成功率,性能优于GPT-4,能够满足用户在各种数学计算上的需求。
OpenTextClassification是一个全面的开源文本分类项目,支持中英双语,提供多种模型和适用于多种文本分类任务的解决方案。该项目易于使用和修改,具备友好的用户界面,旨在帮助用户高效地进行文本分类任务。
Meta 的应用强化学习团队带来了可投入生产的强化学习 AI 代理库,支持多种算法和高效的样本利用率,适用于不同的应用场景。
Nuggt是一个在Wizcoder-15B上运行的自主LLM智能体,旨在使LLM智能体大众化,利用强大的开源LLM模型和4-bit量化技术,自动化各种任务并简化用户与智能体的交互。
vLLM是一个开源的高效语言大模型服务系统,专注于提升推理速度和效率。它通过创新的内存管理和调度技术,优化了键值缓存(KV cache)的动态增缩和碎片化问题,显著提高了吞吐量并降低了延迟。vLLM支持多种语言模型,适用于高吞吐量的深度学习任务和大规模语言模型的部署。其设计简洁,开源社区支持强大,文档友好,特别适合需要高效推理能力的项目。
Octogen是一个开源代码解释器,基于GPT3.5/4和Codellama,支持多种编程语言,便于社区贡献和扩展,提供用户友好的界面,简化开发流程。
vim-ai是一个为Vim和Neovim提供的AI驱动代码助手,支持OpenAI和ChatGPT插件,能够提供智能代码补全及回答编程相关问题。
Flair是一个非常简单的框架,旨在提供最先进的自然语言处理技术,支持多种预训练模型,并拥有简单易用的API,适用于多种语言的文本处理,同时可以与其他深度学习框架(如PyTorch)无缝集成。
Mojo语言相关资源列表,Mojo是一门新的编程语言,将Python的易用性与C++和Rust的性能结合在一起,同时允许用户利用Python库的庞大生态系统。
一个中文低资源的llama+lora方案,基于LLaMA与instruction数据构建的中文羊驼模型,旨在帮助用户快速引入自己的数据并训练出属于自己的小羊驼(Vicuna)。
这个项目展示了如何借助MLX在Mac上运行微软的2.7B小语言模型Phi-2以及Mixtral 8x7B混合专家模型,支持在Apple M2 Ultra上进行高效的模型训练和推理,提供简化的模型权重下载和加载流程,同时兼容Python环境。
一个简洁、易于修改的GraphRAG实现,提供了小型化、快速、清晰的GraphRAG核心功能,同时保持了可扩展性、异步处理和全面类型化
ERNIE是百度开发的自然语言处理框架,旨在通过持续学习和预训练技术提升语言理解与生成能力。它支持多种自然语言处理任务,包括文本分类、问答系统、文本生成等,并在多种任务中实现了最先进的性能。ERNIE基于Transformer架构,具备高效的模型优化和训练策略,支持多语言处理,适用于中文及其他语言的自然语言处理任务。
llama.vim是一个强大的Vim插件,旨在为开发者和文本编辑人员提供智能的代码和文本补全功能。它不仅支持自动建议,还允许用户手动切换建议,以便选择最合适的选项。此外,用户可以通过快捷键快速接受建议,并且插件还提供性能统计显示,帮助用户优化编辑体验。
clueai是一个开源的自然语言处理工具,用户可以在短时间内快速定制和部署自己的NLP API,旨在简化自然语言处理的集成过程,支持多种语言和模型,适合开发者和研究人员使用。
codeqai是一个本地优先的语义代码搜索和聊天工具,利用矢量嵌入和大型语言模型(LLMs)来提供高效的代码查询和理解。
NanoGPT是一个开源的轻量级语言模型训练工具,专为语言模型爱好者打造,适合在普通电脑上进行GPT架构的训练和实验。它通过精简架构、优化梯度计算和内存管理,使得在普通硬件上也能高效训练语言模型。
Plandex是一个开源的、基于终端的AI编程引擎,专为解决复杂任务而设计。它利用长期运行的代理来完成跨越多个文件并需要多步骤的任务,能够将大型任务分解为更小的子任务,帮助处理积压的工作,并支持使用不熟悉的技术进行开发,减少在枯燥事务上的时间消耗。
metaseq是一个用于训练和评估大型序列模型的框架,旨在简化和加速大规模模型的开发过程。
ReactAgent是一个开源项目,旨在为React.js应用提供自主交互能力,支持多种大型语言模型,便于设置和自定义,能够实现实时用户交互。
Megatron-LLM是一个专为大规模分布式训练设计的库,旨在高效支持语言模型的预训练和微调。它提供灵活的模型架构配置,并支持多种优化算法,使得用户可以根据需求进行优化和扩展,同时易于与其他深度学习框架集成。
该项目旨在使用Rust语言在CPU上运行大型语言模型的推理。它不仅实现了快速的推理速度,还能在低能耗的情况下提供高效的性能。适用于本地推理和Rust项目集成,适合研究新语言模型应用。