为在强化学习(RL)智能体中嵌入和利用语言模型的能力,本文设计了一个以语言为核心推理工具的框架,探索了如何通过语言能力解决中的一系列挑战,包括高效探索、重用经验数据、调度技能和从观察中学习等。
斯坦福大学的研究者提出了一种名为Backpack的模型,以解决语言大模型中存在的偏见问题。该模型通过调整(sense vector)来干预模型的输出,使模型的行为更容易预测和控制,同时保持丰富的表现力。
OpenICL是一个开源的框架,旨在支持上下文学习,提供多种算法和灵活的接口,便于集成到现有的自然语言处理模型中。
Logic-of-Thought(LoT)旨在通过将逻辑注入上下文,提升大型语言模型的推理能力。该项目利用命题逻辑生成扩展的逻辑信息,并与现有的提示方法无缝集成,显著提升了多种提示方法在复杂任务中的性能。
Semantic Router用于LLM(语言模型)和Agent的超快决策层,利用语义向量空间的能力来做出决策,通过语义意义来路由请求,支持定义不同的决策对象,并使用相应的编码器模型进行语义决策。
用大型语言模型重新思考自动驾驶,使用GPT-3.5作为默认的大型语言模型(LLM),介绍了LLM在驾驶场景中的闭环交互能力以及通过记忆能提升性能的方法
该项目允许用户在CPU上运行MPT-30B模型的推理,具有低训练和运行成本的特点。用户只需32G内存即可进行模型推理,适合各种文本生成和评估任务。