Logic-of-Thought(LoT)旨在通过将逻辑注入上下文,提升大型语言模型的推理能力。该项目利用命题逻辑生成扩展的逻辑信息,并与现有的提示方法无缝集成,显著提升了多种提示方法在复杂任务中的性能。
本书旨在概述大型语言模型的基本概念并介绍相关技术,重点在于大型语言模型的基础方面,而不是全面覆盖所有前沿方法。
这是一个与大型语言模型评估相关的论文和资源集合,旨在为研究人员和从业者提供全面的参考资料,定期更新新发现和资源。
一个关于大型语言模型系统相关论文的综合性列表,旨在为研究人员和开发者提供有价值的资源和参考。
该项目探讨了在不同位精度下的语言模型(LLM)性能比较,尤其是4位和8位精度模型的精度表现。
关于大规模预训练语言模型工具使用和代码生成的论文集合,涵盖了相关研究和复杂推理的内容,提供对当前研究趋势的深入分析。
多语言大模型资源库:汇集多语言大模型研究资料,提供丰富的数据资源和论文列表,助力跨语言AI研究
该项目根据我们的调查整理了评估大型语言模型的文献,提供了全面的评价方法和研究资料。
一种无需标签的图像分类方法,通过利用大型语言模型和预训练的视觉模型,提升图像分类的准确性,无需大量标注数据,降低了成本
从零开始构建自己的大型语言模型,提供详细教程和代码实现,覆盖编码、预训练和微调过程,适用于对自然语言处理和人工智能领域感兴趣的开发者和研究者
KRAGEN结合知识图谱、检索增强生成(RAG)和高级提示技术,旨在通过将知识图谱转换为向量数据库,利用RAG技术检索相关事实,并辅以图思考(GoT)技术动态分解问题,最终提供高效的解决方案。
最小化的分布式训练框架,专为教育目的设计,让你轻松学习并实验预训练Llama类模型
一个精心策划的大语言模型自一致性相关文献资源列表,涵盖最新研究,提供详细引用和链接,分类整理不同方法和应用,鼓励社区贡献。
一本关于如何有效提示后训练大型语言模型(LLMs)的指南,适合希望提升提示词编写技巧的用户。