大型语言模型微调用高质量数据集大列表,帮助提升模型的准确性和多样性,使其更好地理解和执行指令。该项目提供了丰富的高质量数据集,支持不同语言模型的微调需求,适合研究人员和开发者使用。
Alpaca 是斯坦福大学基于 LLaMa-7B 训练的开源语言模型,其性能可与 173B 的 GPT-3.5 媲美。通过优化数据集,Alpaca 能够在微调 7B 和 13B 参数的语言模型时显著提高效果。
LLM微调中心,用于将各种大型语言模型进行微调,以适应个性化用例,提供丰富的微调脚本和最新研究成果,支持模型部署及自定义微调,旨在提高模型在特定数据集上的性能。
该项目旨在研究微调语言大模型可能导致的安全性对齐问题,并探讨潜在的安全风险。它关注微调过程中可能出现的安全隐患,寻求改善现有安全基础设施的方法。
一个关于大语言模型(LLMs)的实用指南和食谱,旨在帮助用户更好地理解和使用这些模型。
LLM-zero2hero是一个高度解耦的微调项目,旨在支持大语言模型的自定义训练、验证和推理过程。它提供了全量微调和LoRA微调的能力,使用户能够灵活地调整模型以满足特定需求。
JudgeLM是经过微调的语言大模型,旨在有效、高效地在开放式基准测试中评估语言大模型(LLM),提供系统化的模型能力和行为分析,解决多种偏见问题,并在新旧基准测试中展示出色的评判性能。
一种特殊的神经网络架构,可以在不增加推理成本的情况下,为语言大模型(LLM)增加可学习的参数。该研究发现模型比密集模型更能从指令调优中获益,因此提出将MoE和指令调优结合起来。
Defined.ai是一个提供高质量、伦理收集的数据集的平台,用户可以在此购买、销售或委托数据集,以满足AI训练的需求。
该研究开发了一种简化的自我训练方法,称为ReST^EM,该方法使用期望最大化(expectation maximization)来微调语言大模型(LLM),表现优于仅依赖人类数据进行微调的策略。
Anyscale是一个统一的计算平台,旨在利用Ray简化可扩展AI和Python应用的开发、部署和管理。用户可以轻松地开始使用Anyscale端点进行服务和微调开源大型语言模型(LLMs)。
Acquire AI是一个AI市场和平台,用户可以发现、购买、构建和出售创新且可扩展的AI项目。它为AI爱好者、开发者和企业提供了一个全面的生态系统,以便探索、获取和协作AI项目。
一个用于促进和支持链式思考的工具库,旨在提高模型推理能力和理解力。
一个开放的生物医学图像-标题档案库、数据集和从科学文献中衍生的视觉-语言模型,旨在帮助研究人员更好地理解和利用生物医学图像及相关文献信息
synthesis.ai是一个前沿平台,专注于生成高质量的合成数据,用于训练机器学习模型,解决传统数据收集中的隐私和伦理问题,提供多样化的定制数据集,满足不同需求。
GPT-Minus1是一个通过随机替换文本中的单词为同义词来帮助迷惑GPT的工具。它旨在通过引入微妙的变化来增强文本生成模型的性能和准确性。用户只需输入文本并点击'Scramble'按钮,该工具就会随机替换单词,从而创建修改后的文本版本,用户可以使用该文本来迷惑GPT或其他文本生成模型。
katakomba是一个专为NetHack游戏设计的数据驱动的基准测试工具,提供超过30个标准化数据集,并支持多种基于循环的离线强化学习基线模型,旨在促进研究和开发中的基准测试。
该项目提供多种大语言模型微调数据集,旨在帮助用户训练和优化自己的ChatGPT模型,涵盖了多个领域和主题,资源易于访问和使用,适合研究和教育目的。