Griffin-Jax是基于Google DeepMind论文的JAX实现项目,专注于通过门控线性注意力(GLA)内核和混合门控线性递归技术,为长序列处理提供高效解决方案。该项目结合了门控线性递归与局部注意力机制,显著提升了语言模型在训练和推理阶段的效率,尤其擅长处理超长上下文序列。
Open Inference Engines - 语言模型推理引擎比较。该项目旨在通过比较vLLM、TensorRT-LLM、llama.cpp、TGI、LightLLM、Fastgen和ExLlamaV2等多种引擎,帮助用户理解并选择最适合其需求的语言模型推理引擎。
nanoGRPO是一个轻量的Group Relative Policy Optimization (GRPO) 实现,专为语言模型优化设计,提供高效的解决方案。它能够在资源有限的硬件环境中运行,仅需8GB显存即可适配RTX 4060显卡。通过独特的GRPO损失函数,nanoGRPO在120步训练内即可显著提升模型表现,适用于需要快速优化语言模型的场景。
Self-Consistency是Google提出的一种方法,通过对单一模型进行多次采样和结果融合,显著提升大规模语言模型的推理能力和输出结果的可信度。该方法特别适用于大模型,能够生成高质量的训练数据,从而优化模型的训练过程。
betterprompt是一个全面的提示测试工具,旨在帮助用户评估和优化不同语言模型的提示效果。它支持多种语言模型,提供易于使用的界面和可视化分析功能,用户可以自定义测试用例以获得更准确的测试结果。
关于如何有效蒸馏大型语言模型的最佳实践实用指南,提供了一系列的最佳实践,帮助工程师和机器学习从业者在生产应用中更高效地蒸馏和使用语言模型。
RAGoon是一个用于批量生成嵌入、极速基于Web的RAG和量化索引处理的高级库,旨在提升语言模型的性能。它通过搜索查询、网页抓取和数据增强技术,为用户提供上下文相关的信息,帮助更好地理解和利用数据。
高级文本生成工具,旨在提高语言模型输出的质量和多样性,通过动态调整和回溯机制来减少指定的过度使用词汇和短语(即 'GPT slop')的生成概率
QA-LoRA: 语言大模型的量化感知低秩适应。旨在量化和适应之间存在的不平衡自由度,通过组内操作符增加量化自由度,减少适应自由度,易于实施且性能显著提升。
Prompt Refine是一个旨在帮助用户进行提示实验以提高语言模型性能的工具,提供用户友好的界面,方便运行和分析实验。
AI交互技术大全,提供了从基础到高级的提示工程(Prompt Engineering)技术的全面教程和实现,旨在帮助用户掌握有效地与大型语言模型交流和应用的艺术
PromptStacks是一个社区驱动的平台,用户可以分享和发现生成式AI的技巧、窍门和资源,旨在帮助用户在AI领域保持领先。提供免费审核的提示和全面的课程,用户可以参与讨论、分享提示并获得反馈。
Rompt是一个帮助开发者和公司通过对提示进行A/B测试实验来优化其AI驱动产品的平台。用户可以创建不同的提示并进行实验,以确定哪些提示表现最佳。
PromptLocker是一个基于网页的工具,帮助用户存储、分类和检索用于MidJourney、Stable Diffusion、Bard和ChatGPT等AI模型的提示。用户可以通过注册账户,创建分类来组织提示,从而快速存取,提升AI模型的使用效率。
glideprompt 是一个能够编写系统提示并在流行语言模型(如 Llama、Mistral、OpenAI、Claude、Gemini)上测试的工具,帮助用户更好地决定哪个语言模型最适合他们的任务。用户只需输入任务,即可获得针对语言模型的系统级提示。该工具比较不同语言模型的性能,以辅助用户为特定任务选择最佳模型。
MVMT_ZERO电动车数据库提供全面、最新的电动车数据资源,涵盖关键电动车规格、立法、趋势和见解等多个领域。
汇总人工反馈强化学习(RLHF)算法的资料库,旨在整理RLHF相关论文和博客,帮助理解如何通过人工反馈优化大型语言模型
ai-o是一个功能强大的网页AI助手,支持GPT-4 Turbo与视觉功能。它可以进行聊天、写作、翻译等多种操作,用户可以导入ChatGPT的聊天记录,创建文件夹,保存自定义提示,并在设备间同步数据。该项目还支持完整的Markdown格式,语音输入和文本转语音功能。