该研究通过分析34个训练检查点和8种不同模型规模,深入探讨了大型语言模型(LLM)与人类语言网络脑区的对齐驱动因素及其语言学意义。研究发现,LLM的脑区对齐更多与形式语言能力(语法和句法知识)相关,而非功能语言能力(世界知识和推理)。脑区对齐在训练早期阶段(约40亿标记)趋于稳定,而功能语言能力在训练后期继续发展,但其与脑区对齐的相关性较弱。这一发现为理解LLM的语言能力发展提供了重要见解。