LLaMA-2是一个对中文语言模型LLaMA进行改进的AI开源项目。它的目标是开发出一个可以在本地CPU/GPU上进行训练和部署的大型中文语言模型。使用LLaMA-2,用户可以进行中文文本的生成...
Open-ChatGPT是一个开源项目,由Robin在GitHub上进行维护。它包括了ChatGPT、Alpaca、Vicuna和RLHF Pipeline等功能的实现。
这个开源项目的功能是寻找ChatGPT和GPT4的开源替代版本并进行汇总。该项目主要关注于开源和机器学习方面。
这个开源项目将k8s和gpt(生成式预训练模型)整合到一起,提供了命令行接口。
ChatPiXiu 是一个开源的聊天机器人项目,其目的在于研究、复制和适应开源聊天机器人 ChatGPT 的替代方案或实现。该项目采用机器学习技术,旨在提供人机交互的聊天服务,其名称“PiXiu”表示“貔貅”,寓意带来好运。
这个开源项目结合了ChatGPT,提供了网址进行演示,实现了强大的聊天功能的复现。
这个开源项目使用LoRA和RLHF技术,在消费级硬件上对Alpaca LLM进行微调。它基于Alpaca架构实现了RLHF,类似于ChatGPT系统但采用了Alpaca技术。
这个开源项目利用LangchainJS来构建自定义LLM流程。用户可以通过拖拽UI来创建ChatGPT处理流。
CodeCapybara是一个基于LLaMA模型的开源项目,它可以根据指令调整代码生成。该项目由FSoft AI4Code团队开发,采用了机器学习技术。
这个开源项目是关于ChatGPT(对话生成AI)、生成式AI和LLM(语言模型)的时间线,通过GitHub展示。该项目的功能是用开源的机器学习技术来展示这些相关技术的演进历程。
这个开源项目的主要功能是收集各种指令数据集,目的是为了训练 ChatLLM,也就是一种聊天式语言模型,例如chatgpt。
这个开源项目是为了在普通消费级硬件上进行Vicuna LLM的微调而提供的一个完整的流程。它结合了LoRA和RLHF,并在Vicuna架构的基础上实现了RLHF(强化学习与人类反馈)。它基本上是一个类似于ChatGPT的项目,但具有Vicuna的功能。
这个开源项目的目的是实现和扩展ChatGPT及其类似模型,旨在开发与机器学习相关的技术。
开源项目 "BELLE" 是一个基于Stanford Alpaca的中文对话大模型引擎,共有70亿参数,经过优化。该项目只使用由ChatGPT生产的数据进行模型调优,不包含任何其他数据。
这个开源项目的功能是训练医疗大模型,包括二次预训练、有监督微调、奖励建模和强化学习训练。使用ChatGPT Training Pipeline可用于训练医疗GPT模型,适用于机器学习领域。
llama-node是一个基于Node.js的大型语言模型,可以在本地的笔记本电脑CPU上运行,支持llama/alpaca模型,旨在促进AI的民主化。该项目是机器学习领域的开源项目。
这个开源项目是一个汇集了关于大规模预训练语言模型工具使用和代码生成的论文集合。它包括了在ACL教程中涉及到的复杂推理的LLM工具使用和代码生成的内容。通过这个项目,研究人员和开发者可以学习如何使用大规模预训练语言模型工具进行代码生成和复杂推理。
LLaVA是一种轻量级、多模式的语言和视觉助理,类似于GPT-4。它具有语言和图像处理的功能,并在llava-vl.github.io上提供了官方演示。相关论文可以在O网页链接中获取。
这个开源项目的功能总结如下:它提供了一个完整的流程,可以在消费级硬件上对ChatGLM LLM进行微调,使用了LoRA和RLHF。该项目在ChatGLM架构的基础上实现了RLHF(人类反馈强化学习)。基本上,它是一个使用ChatGLM替代了ChatGPT的工具。