openlogprobs是一个Python API,旨在通过语言模型API提取完整的下一token概率。它通过使用logit偏置来逆向工程标记的对数概率,支持topk搜索和精确解算法,从而有效提取语言模型API的完整概率向量。
glideprompt 是一个能够编写系统提示并在流行语言模型(如 Llama、Mistral、OpenAI、Claude、Gemini)上测试的工具,帮助用户更好地决定哪个语言模型最适合他们的任务。用户只需输入任务,即可获得针对语言模型的系统级提示。该工具比较不同语言模型的性能,以辅助用户为特定任务选择最佳模型。
Branches是一个基于图的高级算法原型工具,专为大型语言模型(LLM)的推理和规划设计,旨在提升模型的推理能力和优化决策过程。
一个包含多个样本的基准测试项目,用于大语言模型的测试和评估,旨在帮助研究者和开发者了解模型的性能表现。该项目提供多种语言的测试样本,支持自定义测试用例,易于与现有AI项目集成,方便进行系统性评估。
liteLLM是一个开源库,旨在简化LLM(大语言模型)的完成和嵌入调用。它提供了一个方便易用的接口,使得调用不同的LLM模型变得更加简单。用户只需导入'litellm'库并设置必要的环境变量(如OPENAI_API_KEY和COHERE_API_KEY),即可创建Python函数并使用liteLLM进行LLM完成调用。此外,liteLLM还提供了一个演示平台,用户可以在其中编写Python代码并查看输出,从而比较不同的LLM模型。
一个通过模拟面试过程来评估大型语言模型(LLMs)能力的框架,让一个LLM扮演面试官的角色,通过提供反馈和追问问题来全面评估其他LLMs的能力。
该项目汇集了关于大型语言模型有害微调的研究论文,旨在提供攻击与防御策略的最新进展和深入讨论,促进对语言模型安全性问题的关注与理解。
Model Royale是一个允许用户比较各种语言模型(LLMs)的平台,帮助用户识别最适合其特定需求的模型。用户可以在不同模型中输入相同的提示,并根据响应时间、token使用量和响应质量分析结果。
大语言模型自我纠错相关论文的精选集合,涵盖内在自我纠错、外部工具辅助纠错、信息检索辅助纠错等多个研究方向,包含详细的论文分类和引用信息,是研究LLM自我纠错能力的重要参考资源
这项工作从表达能力的角度,为仅解码器的 Transformer 提供了 CoT 的强大功能的理论理解,旨在提高大型语言模型在算术和符号推理任务上的表现,特别是那些固有串行的计算问题。
lite_llama是一个轻量级推理框架,旨在优化大型语言模型的性能,提供高达3.4倍的推理加速,支持最新的模型和流式输出功能,基于Triton实现,适用于各种需要高效推理的应用场景。
该项目研究大型语言模型(LLMs)在推理过程中如何可能侵犯用户隐私,分析潜在的隐私泄露风险,并提供对隐私保护的讨论和建议。