AntiFraudChatBot是一个基于wechaty框架和微调NLP模型的简单聊天AI,旨在提供防诈骗智能响应。它通过预训练的大模型进行自然语言处理,支持中文,并能够与用户通过微信进行互动,提供有效的防诈骗建议。
SimPO 通过将强化学习转变为有监督的成对损失,提供了一种新的方法来处理序列生成任务。
Orca是一个基于GPT-4复杂解释轨迹的渐进式学习模型,旨在推动自然语言理解与生成的前沿。它设计高效且智能的最先进语言模型,能够与OpenAI的GPT-4和PALM相媲美。
Biblos项目利用最新的自然语言处理技术,提供圣经段落的语义搜索和自动摘要生成功能,帮助用户更好地理解和探索圣经内容。
AURORA是一个免费的API,基于GPT-3.5模型,旨在提供易于集成和高效的文本生成服务,支持多种语言,适用于多种应用场景。
Gorilla是一个擅长调用各类API的大语言模型,能够通过自然语言查询生成语义和语法正确的API调用。
BlindChat是一个在浏览器中完全运行的私有对话式AI,旨在保护用户隐私,确保对话内容不被存储,同时提供多种自然语言处理功能,用户可以轻松与AI进行互动。
代表性LLM文本数据集大列表,包括预训练语料库、微调指令数据集、偏好数据集、评估数据集和传统NLP数据集
Luna AI 是一个全自动的 AI 直播系统,由多种 AI 模型驱动的虚拟主播,能够实时与观众互动并聊天。它支持多种直播平台,能够生成自然语言的回答并进行语音交流。
VERSE-65B 是由深圳元象科技自主研发的支持多语言的大语言模型,参数规模为 650 亿,开源的底座模型。
Bilibot是一个基于B站用户评论微调训练的本地聊天机器人,支持文字聊天和通过questions.txt生成针对特定问题的语音对话,旨在提供更加自然的互动体验。
LLaMA_MPS是一个专门为Apple Silicon GPU优化的项目,旨在高效地运行LLaMA模型的推理过程。该项目充分利用苹果硬件的加速能力,提供简洁的API接口,优化内存管理,确保用户能够快速高效地进行自然语言处理任务。
HammerLLM是一个具有1.4B参数的语言模型,提供了简洁高效的训练代码库,同时完全开源了模型权重、环境、代码库和超参数,支持中英文的生成和理解,具有高效的训练和推理能力,适合多种自然语言处理任务。
星辰语义大模型TeleChat2是由中国电信人工智能研究院研发训练的大语言模型,是首个完全国产算力训练并开源的千亿参数模型,包含大约1150亿个参数。
哈佛大学出品的新论文,旨在提升LLM在TrucefulQA数据集上的正确率。该项目通过改进模型的输出和修正机制,使得大型语言模型在处理特定数据集时表现更佳。
nGPT是NVIDIA开发的标准化Transformer模型,基于nanoGPT进行改进,旨在提升训练效率和处理能力。它通过在超球面上的表示学习和标准化过程,实现了对低精度运算的更好鲁棒性,并在不同的上下文长度设置中提供了显著的训练加速。
UFO是由微软开发的专注于Windows操作系统交互的UI代理框架。它能够理解用户的自然语言指令和屏幕的视觉内容,自动执行复杂任务。UFO支持跨应用程序操作,自动化控制交互,以及多模态输入处理,旨在提供无缝的操作体验。此外,UFO还支持高度可定制的UI交互方式,易于集成和扩展,适用于自动化测试、自定义UI交互脚本的创建、以及集成到现有的Windows应用程序中。
Annotation Tools是一个面向计算机视觉和自然语言处理任务的开源标注工具列表,旨在提供多种标注类型和功能以满足不同项目的需求。用户可以通过友好的界面轻松选择和使用各种标注工具,同时支持团队协作和项目管理,提升工作效率。
Aurora是中文版MoE模型,具有强大的自然语言处理能力,基于Mixtral-8x7B的进一步工作,激活了该模型在中文开放域的聊天能力。
LLaMA Server结合了LLaMA C++的强大功能与美观的聊天界面,提供高效的自然语言处理解决方案,支持多种语言并易于扩展和自定义,具有实时响应能力。
基于PyTorch的GPT-2模型训练器,优化效率和代码简化,实现现代技术如旋转嵌入,以更少的token达到相同验证损失。该项目专注于提升模型训练的效率,使得用户能够在多种深度学习任务中更便捷地使用GPT-2架构。
Wikipedia-Utils是一个专门为自然语言处理设计的工具,旨在高效地对维基百科文本进行预处理。它支持多种文本处理功能,能够处理大规模的维基百科数据,并且易于集成到现有的自然语言处理工作流中。该工具还提供丰富的API接口,方便用户根据需求进行定制化操作。
PAI-RAG是一个基于大语言模型和多向量数据库的知识库问答系统,提供灵活定制的高效信息检索功能,适用于各种自然语言处理任务,具有良好的扩展性。
Transformers相关文献资源大列表,包含了各种各样的Transformer模型,例如BERT、GPT、Transformer-XL等,这些模型已经在许多自然语言处理任务中得到了广泛应用。此外,该列表还提供了这些模型的相关论文和代码链接,为自然语言处理领域的研究人员和开发者提供了很好的参考资源。
针对特定用例、数据和查询智能适应的 RAG(Retrieval-Augmented Generation)框架,旨在提供可解释、高精度、高效的代理驱动检索工作流程。
手把手带你实战 Huggingface Transformers 课程视频和资料,帮助学习者掌握自然语言处理技术。
LLM Hosting Container 是一个用于部署和托管大型语言模型的解决方案,具备与AWS服务的无缝集成,提供易于使用的API接口,并支持自动扩展和负载均衡,优化性能以满足高并发需求。
PatrickStar使得更大、更快、更环保的预训练模型在自然语言处理领域成为可能,推动AI的普及。
kimi-k1.5 是月之暗面发布的多模态思考模型,具有强大的数学、代码、视觉多模态和通用能力,在短思考和长思考模式下均超越了多个 SOTA 模型。
ThinkGPT是一种基于LLM的自主智能体,旨在增强大型语言模型的能力,支持多种任务,并提供灵活的架构设计和强大的可扩展性。