Logic-of-Thought(LoT)旨在通过将逻辑注入上下文,提升大型语言模型的推理能力。该项目利用命题逻辑生成扩展的逻辑信息,并与现有的提示方法无缝集成,显著提升了多种提示方法在复杂任务中的性能。
StreamingLLM 是一种语言模型,能够顺利处理无尽的文本而不会失去上下文信息流,从而实现与人工智能助手的深度对话和长文本总结。
检索增强生成(RAG)是指在大型语言模型回答问题之前,从外部知识库中检索相关信息,以提高答案的准确性和减少模型的幻觉现象。该方法结合了参数化知识与非参数化外部知识库,能够引用来源,从而增加答案的透明度,并支持知识的更新和特定领域知识的引入。
一个开源框架,专为大型语言模型提供高级推理能力,支持数据生成、策略训练和多种搜索策略,让机器更聪明地理解和解决问题。
这项工作从表达能力的角度,为仅解码器的 Transformer 提供了 CoT 的强大功能的理论理解,旨在提高大型语言模型在算术和符号推理任务上的表现,特别是那些固有串行的计算问题。
一份全面的Solar模型提示工程指南,提供了系统化的教程从基础到高级的提示技巧。
为在强化学习(RL)智能体中嵌入和利用语言模型的能力,本文设计了一个以语言为核心推理工具的框架,探索了如何通过语言能力解决中的一系列挑战,包括高效探索、重用经验数据、调度技能和从观察中学习等。
GalLama是一个专注于本地agentic任务优化的LLM推理API服务后端,提供实验性特性和模型下载功能,能够支持多模型并发运行及负载均衡,旨在提升推理效率和灵活性。