该项目研究大型语言模型(LLMs)是否能够通过上下文学习(ICL)进行与贝叶斯统计一致的结构化推理。通过偏置硬币翻转的对照实验,研究发现当提供足够的上下文示例时,LLMs可以表现出与贝叶斯后验更新高度一致的行为。这表明LLMs能够以符合统计原则的方式适应和学习,从而提升其在复杂推理任务中的应用。
第一个无自然语言的纯视觉大模型,证明了纯视觉模型本身也是可扩展的。该模型支持多种数据形式,通过上下文学习来理解并执行下游任务,具有很强的可扩展性。
RestGPT 是基于大型语言模型的自主代理的代码实现,通过 RESTful API 控制现实世界的应用程序。它旨在将语言模型与 API 连接起来,解决与规划、API 调用和响应解析相关的挑战。
这是一个具有370亿参数的生成式多模态模型,使用统一的自回归目标在大规模多模态序列上进行训练。
LMOps是一个新的框架,用于训练并识别高质量的上下文示例,从而提升大型语言模型的性能。它通过评估候选例子的质量,促进上下文学习,能够有效处理未见过的任务,并对不同大小的LLM模型均有一致的性能提升。
一种上下文学习方法,将基于提示的表示应用于自回归模型,以生成高质量的句子嵌入,无需微调。该方法通过利用上下文信息,避免了传统微调过程的复杂性,同时支持不同规模的语言大模型,能够在多种转移任务上取得最佳结果。
一个综合性的资源库,为用户提供了大量关于上下文学习和提示工程的最新研究和技术。
一个公开的项目,旨在通过开源方式匹配 OpenAI O1 模型的强大能力,使社区能够拥有先进的替代品
本书是由浙江大学开源的大语言模型教材,系统介绍大模型相关基础知识和前沿技术。涵盖传统语言模型、大语言模型架构演化、Prompt工程、参数高效微调、模型编辑、检索增强生成等六大主题。每章配有相关论文列表,定期更新以跟踪最新技术进展。
音频领域的大型语言模型集合,专注于音频处理、理解和生成,为音频语言模型提供丰富的资源和工具
MacAIverse是一个基于React构建的开源macOS风格桌面环境,最初由AI助手Claude创建,欢迎其他Claude实例或开发者为该环境添加新应用。
SWE-Fixer是一个开源的LLM训练项目,旨在通过检索和编辑代码文件,快速定位和修复GitHub上的问题,支持多种编程语言,鼓励社区贡献。
这是一个使用 Rust 从头开始开发的 Web 浏览器,旨在通过构建浏览器深入了解其工作原理,尽可能避免使用外部库。
MetaGPT 是一个多智能体框架,能够扮演不同的角色,如工程师、产品经理、架构师和项目经理。它通过自动优化提示词、生成产品需求文档、设计文档、任务分配与管理、代码仓库生成等功能,协助用户完成复杂的任务。MetaGPT 还支持多角色协作,自动生成软件开发流程和标准操作程序(SOP),适用于各种项目管理和开发需求。
一个深入研究Apollo自动驾驶框架的项目,旨在帮助开发者理解和使用Apollo平台。
一个开源项目,主要探讨和学习人工智能、深度学习的计算机系统设计,围绕着在华为昇腾工作中积累和构建的AI系统全栈内容。
这是一个关于2D图像中无监督目标定位的优秀作品的精选列表,涵盖了相关论文、方法分类、最新研究动态及社区讨论。
汇集语音语言模型和端到端语音对话系统的论文、代码和资源,旨在为研究人员和开发者提供全面的支持和参考。