Selective Contextual Reasoning (SCR)论文 – 无需修改参数的知识更新方法
Selective Contextual Reasoning (SCR) 是一种用于大型语言模型(LLMs)知识更新的方法,无需修改模型参数。它通过上下文学习和外部知识的动态集成来更新模型的知识。SCR采用两步策略:首先进行语义过滤以检索相关知识,然后利用LLM确认知识的准确性和相关性。实验表明,SCR在特定数据集(如WikiData)上优于其他十种模型编辑方法,展示了其可扩展性和鲁棒性。