该项目是一个利用Diffbot和Neo4j技术构建的新闻知识图谱聊天机器人。它能够从海量新闻文章中提取关键信息,并将其转化为结构化的知识图谱。通过聊天界面,用户可以输入与新闻相关的问题,机器人能够快速检索知识图谱并给出精准答案。该项目结合了自然语言处理技术,提升了用户交互体验,适用于新闻阅读、信息检索等场景。
Hypercharge AI: Parallel Chats 允许用户同时访问多达10个独立的聊天线程,每个线程涉及不同的系统提示和多种大型语言模型(LLMs)。它提供了首个以卡片式UI展示线程对话的移动聊天机器人界面,提升了用户的交互体验。
用于零-shot智能手机GUI导航的多模态大模型,成功地利用多模态大模型在智能手机上执行,展示出在理解和执行iOS屏幕指令方面的高准确性。
Bellva Labs使任何开发者能够轻松地将AI驱动的电话呼叫集成到他们的平台中。只需大约5行代码,您就可以派遣一个智能代理执行几乎任何任务,包括那些可能需要导航电话树的任务。
ChatGLM-6B是清华大学开发的一个开源双语对话语言模型,基于General Language Model (GLM)架构,具有62亿参数。它支持中英双语对话,并具备图像理解的多模态功能。模型经过约1T标识符的中英双语训练,辅以监督微调、反馈自助、人类反馈强化学习等技术,旨在提供高质量的对话生成和自然语言处理能力。结合模型量化技术,可在消费级显卡上本地部署(INT4量化级别下最低只需6GB显存),并针对中文问答和对话进行了优化。
ChatTTS-OpenVoice是一款结合ChatTTS和OpenVoice技术的开源个性化语音生成项目。它允许用户上传10秒的参考音频,通过先进的技术克隆出自然且个性化的语音。项目旨在提供高质量的语音合成解决方案,适用于多种应用场景。
femtoGPT 是一个使用纯 Rust 编写的最小生成预训练 Transformer 实现,旨在提供轻量级、高效的自然语言生成能力,易于集成和扩展,适合各种机器学习应用。
FastChat是一个基于Llama-2构建的对话生成项目,支持32k的上下文长度,旨在提供高效的对话生成能力,适用于多种应用场景。它是一个开源项目,易于自定义和扩展,适合开发聊天机器人和进行自然语言处理任务。
ERNIE是百度开发的自然语言处理框架,旨在通过持续学习和预训练技术提升语言理解与生成能力。它支持多种自然语言处理任务,包括文本分类、问答系统、文本生成等,并在多种任务中实现了最先进的性能。ERNIE基于Transformer架构,具备高效的模型优化和训练策略,支持多语言处理,适用于中文及其他语言的自然语言处理任务。
Chinese LLaVA是一个支持中英文双语的开源多模态模型,能够进行视觉与文本的结合对话,具备高效的理解能力和灵活的应用场景,适合商用开发。
Chinese LLaMA-Alpaca是一个专注于中文的LLaMA-Alpaca模型,旨在推动中文自然语言处理的研究和应用。该模型基于先进的LLaMA架构,适用于多种中文任务,帮助用户在中文环境中实现更智能的交互与分析。
LAVIS是一个一站式的语言-视觉智能库,支持多种语言-视觉任务,集成多种预训练模型,提供简单易用的API,以及自定义模型的训练和评估,具备高效的推理速度和性能。
GPT-3 是一个具有 1750 亿参数的强大语言模型,展示了更大的模型在多种实际任务中表现更好的现象。它在自然语言处理领域具有显著的优势,能够理解和生成多种形式的文本。
ChatGPT Online 是一个基于最新AI技术的平台,用户可以在不登录的情况下,免费使用增强版的GPT-4,获取最新的信息和服务。
Yi是一个专为高效语言模型设计的开源框架,支持从零开始训练的大型语言模型。它包含两款双语模型Yi-6B及Yi-34B,均自研训练,参数规模分别为6B和34B。Yi通过优化算法与资源管理,提供从实验到部署的完整流程,支持多种语言的文本生成、对话系统和问答任务。
Aurora是中文版MoE模型,具有强大的自然语言处理能力,基于Mixtral-8x7B的进一步工作,激活了该模型在中文开放域的聊天能力。
VisualGLM-6B 是一个开源的,支持图像、中文和英文的多模态对话语言模型,基于 ChatGLM-6B,具有 62 亿参数,整体模型共78亿参数。该模型可以在消费级显卡上本地部署,适用于多种视觉任务,具备生成诗歌、评论图像的能力,并且支持低显存需求的量化技术。
StableVicuna是第一个通过强化学习人类反馈(RHLF)进行训练的大型开源聊天机器人,基于Meta的LLaMA模型,利用从ShareGPT收集的用户共享对话进行训练,旨在提供更自然和人性化的对话体验。