一个研究LLM生成的误导信息如何影响开放域问答的项目,旨在分析AI生成错误信息对信息检索的挑战,并提供开放域问答的测试与评估。
本文评估了LLM自动生成特征归因解释的能力,研究不同方式触发自我解释的可信度,并与传统解释方法进行了比较。
用于实验、评估和部署基于检索增强生成 (RAG) 的系统的工具包,支持各种大语言模型 (LLM),旨在减少 LLM 幻觉风险并提高可靠性。