在MiniGPT4的基础上对齐了Qwen-Chat语言模型,使用高质量的指令微调数据,通过单阶段预训练达到了很好的效果。
本项目基于Meta发布的可商用大模型Llama-2开发,开源了中文LLaMA-2基座模型和Alpaca-2指令精调大模型。这些模型在原版Llama-2的基础上扩充并优化了中文词表,使用了大规模中文数据进行增量预训练,进一步提升了中文基础语义和指令理解能力,相比一代相关模型获得了显著性能提升。相关模型支持4K上下文并可通过NTK方法最高扩展至18K+。
Orca是一个基于GPT-4复杂解释轨迹的渐进式学习模型,旨在推动自然语言理解与生成的前沿。它设计高效且智能的最先进语言模型,能够与OpenAI的GPT-4和PALM相媲美。
MBZUAI Bactrian-X是一个多语言可复制的指令遵循模型,使用了3.4M条指令从52种语言训练而成,提供52种单语言模型和1种多语言模型。
在线故障排除机器人聊天机器人可以在24/7提供快速、便利和专家级的汽车故障援助,为管理车辆维护和健康提供用户友好的解决方案。
ChatGPT Web 是一个基于 express 和 vue3 搭建的 GPT-3 模型演示网页,提供用户友好的界面,支持多种语言的实时对话。该项目响应快速,能够轻松部署到多种平台,用户可以通过该网页与 GPT-3 模型进行自然语言交流。
这个开源项目的目的是模拟 openai api 并将其移植到手机端,使得用户可以更方便地利用该功能,实现物尽其用的效果。
corpus是一个包含多种自然语言处理和知识图谱相关语料的大列表,旨在为研究人员和开发者提供丰富的语料资源。它支持多种自然语言处理任务,并且开源,易于使用和扩展。
PromptSpark是由OpenPrompts开发的工具,可以将用户的创意和想法转化为可用于GPT-3的功能性提示。它的工作原理类似于为GPT-3提供翻译服务,使得用户能够更有效地与这一强大的语言模型进行交互。
Fine-Tuner AI是一款强大的工具,利用尖端的微调技术提升您的自然语言处理(NLP)模型性能。它可以在更少的数据下以极短的时间内实现更好的结果。用户只需将NLP模型和数据上传到平台,Fine-Tuner将应用其先进的微调算法,优化模型以提高性能。优化后的模型可以轻松集成回现有工作流程中。
nGPT是NVIDIA开发的标准化Transformer模型,基于nanoGPT进行改进,旨在提升训练效率和处理能力。它通过在超球面上的表示学习和标准化过程,实现了对低精度运算的更好鲁棒性,并在不同的上下文长度设置中提供了显著的训练加速。
基于Triton语言实现的Flash Attention, 采用OpenAI团队发布的Fused Attention代码,优化了注意力机制,适用于大规模数据处理,支持快速训练和推理,兼容多种深度学习框架。
一个开源的终端 AI 助手,可以通过自然语言转换为对应的 Shell 命令,支持多种语言和命令格式,简化复杂命令的执行过程,提供便捷的命令行交互体验。
一个包含大约4675本中文科幻小说的语料库,可以用于中文科幻小说的人工智能研究。
由TII(Technology Innovation Institute)构建的一个40B参数的因果解码器模型,训练在精选语料库增强的1000B tokens的RefinedWeb上。
semchunk是一个快速且轻量的纯Python库,旨在将文本拆分成语义上有意义的区块,方便进行自然语言处理和文本分析。
EmailMagic AI是一款人工智能工具,帮助用户以十倍的速度撰写电子邮件。它分析用户的邮件数据,匹配写作风格,让用户能够快速轻松地创建邮件。使用EmailMagic AI,您可以自信地发送看起来像是自己撰写的邮件。
StickyBrand是一个帮助用户基于关键词和描述来生成项目名称的工具,同时可以快速检查域名的可用性,消除品牌命名的猜测过程。