Orca是一个基于GPT-4复杂解释轨迹的渐进式学习模型,旨在推动自然语言理解与生成的前沿。它设计高效且智能的最先进语言模型,能够与OpenAI的GPT-4和PALM相媲美。
AgentLabs是一个开源的全功能UI服务,旨在快速构建基于聊天的AI助手。它的SDK与后端无关,易于使用,提供内置的实时、异步I/O、对话持久化等功能,帮助开发者高效创建智能助手。
UltraChat是由清华团队基于Scalable Diverse方法构建的开源对话语言模型,凭借其在多轮对话中的卓越表现,在斯坦福大学的评测榜单中脱颖而出,成为得分超过80的唯一开源模型。该模型利用大规模、高质量、高度多样化的多轮指令数据进行训练,并在AlpacaEval评测集及自建评测集上表现出色,最高胜率可达98%。UltraChat致力于推动大模型对齐技术的发展,为各种自然语言处理任务提供强有力的支持。
在MiniGPT4的基础上对齐了Qwen-Chat语言模型,使用高质量的指令微调数据,通过单阶段预训练达到了很好的效果。
Lit-LLaMA是一个独立实现的LLaMA,完全开源,遵循Apache 2.0许可证,基于nanoGPT构建,旨在解决原始LLaMA代码在GPL许可证下的限制,以支持更广泛的学术和商业应用。
基于LLaMA衍生的本地模型,风格偏向ChatGPT的聊天模式,能够接入流行的ChatGPT开源界面Chatbot UI。该项目旨在提供高效的自然语言处理功能,支持多种语言的输入和输出,可在本地运行,无需依赖互联网,特别适合低资源环境。
Chatpad AI是一个提供免费、开源和流畅用户界面的ChatGPT网站,用户可以通过简单的输入与AI进行互动对话。
MinT 是一个轻量级、可扩展的Transformer库,专为自然语言处理任务而设计,提供易于使用的API,支持多种预训练模型,能够高效地进行模型训练和推理。
InternLM 是一个高效的语言模型开源平台,旨在为开发者提供构建高性能模型的便捷工具,支持从研究到应用的完整生命周期。最新版本书生·浦语2.0(InternLM2)经过2.6万亿token高质量语料训练,包含7B及20B两种参数规格,支持超长上下文和优秀的数学推理能力。
Eternity AI是印度理工学院帕特纳分校的一个研究项目,旨在构建一个以人为本的语言模型,能够通过访问实时互联网来模拟人类行为,减少幻觉,并在超过10万个行为参数上进行训练。
TinyStories是一个参数量小于1000万的大语言模型,能够流利地讲英语,表明较小的模型在经过微调后也可以胜任单一任务。
实时、精细的大型语言模型合成数据资源列表,专注于为大型语言模型(LLM)提供数据支持,包括数据生成、优化和应用。
GPTsHub是一个一站式的GPT应用商店,提供多种前沿AI工具,旨在提升生产力和创造力。用户可以访问网站浏览各类GPT驱动的工具,搜索特定应用,阅读客户评价,购买或下载所需工具。
PalyPDF是一个易于使用的聊天应用,帮助用户存储和组织文件,支持与单个或多个PDF文件进行聊天,并提供语义、关键字和混合搜索功能。
OpenAI 新发布的 TTS 文字转语音,效果太棒了!支持多种语言的混合输入,提供多种声音选择,无需安装,在线免费使用。
LLM-Blender是一个通过配对排名和生成融合技术来集成多个语言模型的项目,旨在提升文本生成的准确性和质量。它结合了不同语言模型的输出,以提高性能,适用于需要高质量文本生成的多种应用场景。
EdgeVLA是一个开源的边缘视觉-语言-行动模型,旨在增强机器人对视觉信息的理解和执行指令的能力。该项目专为边缘计算环境设计,支持社区贡献和改进。
MathPile是一个多样化且高质量的以数学为中心的语料库,包含约95亿个tokens,数据来源广泛,适用于教育和研究。