一个旨在模拟OpenAI新发布的O1模型推理能力的项目,通过思维链和迭代推理来改进问题解决方案。它允许用户在复杂的推理任务上进行试验,提供有效的解决方案和概念验证。
在Auto-GPT基础上的一个分支,增加了对本地运行llama模型的支持,该项目主要是一个概念验证,速度较慢,但有时会得到很不错的结果。
这是一个与Llama2相关资源的集合,包括教程、论文和工具,旨在为用户提供全面的信息和支持。该项目还接受社区贡献并定期更新,所有资源都经过分类,便于用户浏览和查找。
这是一个基于Mojo编写的Llama 2实现,旨在显著提升推理速度,充分利用Mojo语言的优势,支持Llama 2模型,并采用优化的内存管理,便于在各种环境中使用。
利用一种新的方法回答医学问题时已经超过了。通过利用三种先进的提示策略,GPT-4在数据集上取得了惊人的90.2%准确率。
一个通过PyTorch从头开始训练Llama 2 LLM架构模型的项目,支持将权重保存到原始二进制文件并在简单的C文件中推断模型。
一个可以在笔记本电脑运行的LLM试炼场,支持来自多个机构的任意模型,包括OpenAI、Anthropic、Cohere、Forefront、HuggingFace、Aleph Alpha和llama.cpp等。
中文Guanaco(原驼)大语言模型,支持QLora量化训练,可在本地CPU/GPU上高效部署,旨在优化大语言模型的效率,适用于低资源环境的训练和应用。