CAPA 是一种新型的概率性语言模型相似性度量指标,旨在解决随着语言模型能力提升,评估和监督这些模型变得越来越困难的问题。CAPA 通过调整因模型准确率导致的偶然一致性,并结合输出概率,量化模型之间的功能相似性。它揭示了 LLM-as-a-Judge 场景中的亲和性偏见,并显示模型错误随能力提升而变得更加相似,强调了模型多样性在 AI 监管中的关键作用。