VisualGLM-6B 是一个开源的,支持图像、中文和英文的多模态对话语言模型,基于 ChatGLM-6B,具有 62 亿参数,整体模型共78亿参数。该模型可以在消费级显卡上本地部署,适用于多种视觉任务,具备生成诗歌、评论图像的能力,并且支持低显存需求的量化技术。
ApyHub是一个为开发者和团队提供强大实用API的平台。开发者可以从目录中发现、测试和管理API,找到最适合自己应用的API,并将其集成到项目中。
收录各种各样的指令数据集,用于训练 ChatLLM 模型,支持多种自然语言处理任务。
cuanto是一个使用create-react-app构建的网络应用,利用人工智能算法执行各种任务,用户无需安装或设置,简单易用。
GPT-3 是一个具有 1750 亿参数的强大语言模型,展示了更大的模型在多种实际任务中表现更好的现象。它在自然语言处理领域具有显著的优势,能够理解和生成多种形式的文本。
ChatGLM-6B是清华大学开发的一个开源双语对话语言模型,基于General Language Model (GLM)架构,具有62亿参数。它支持中英双语对话,并具备图像理解的多模态功能。模型经过约1T标识符的中英双语训练,辅以监督微调、反馈自助、人类反馈强化学习等技术,旨在提供高质量的对话生成和自然语言处理能力。结合模型量化技术,可在消费级显卡上本地部署(INT4量化级别下最低只需6GB显存),并针对中文问答和对话进行了优化。
哔哩哔哩自研大语言模型,提供多样化的对话和角色扮演功能,支持多种评测基准,具有领先的性能表现
LAVIS是一个一站式的语言-视觉智能库,支持多种语言-视觉任务,集成多种预训练模型,提供简单易用的API,以及自定义模型的训练和评估,具备高效的推理速度和性能。
Qwen2.5是由阿里云Qwen团队开发的超大型语言模型系列,专注于提供智能、易用、decoder only的语言模型,支持多语言和长文本生成。
StableVicuna是第一个通过强化学习人类反馈(RHLF)进行训练的大型开源聊天机器人,基于Meta的LLaMA模型,利用从ShareGPT收集的用户共享对话进行训练,旨在提供更自然和人性化的对话体验。
Paper QA是一个基于GPT-3的开源项目,旨在通过自然语言处理技术帮助用户解读学术论文。用户可以通过提出具体问题,获取对论文内容的深入解读和分析。该项目具有开放性,用户可以根据需要进行修改和扩展,且每次问答的成本相对较低,适合学术研究和学习使用。