该项目研究大型语言模型(LLMs)是否能够通过上下文学习(ICL)进行与贝叶斯统计一致的结构化推理。通过偏置硬币翻转的对照实验,研究发现当提供足够的上下文示例时,LLMs可以表现出与贝叶斯后验更新高度一致的行为。这表明LLMs能够以符合统计原则的方式适应和学习,从而提升其在复杂推理任务中的应用。