用于稳健弹道预报的可解释自感知神经网络,旨在提高神经网络对分布外数据的认知不确定性估计,以适应安全关键型应用,如自动驾驶汽车。
这是一个关于大型语言模型(LLM)可解释性的资源精选列表,涵盖工具、研究论文和教程,并定期更新以反映该领域的最新进展,便于用户进行导航和探索。
xLSTM是由LSTM发明者创造的新架构,旨在实现与Transformer类似的规模和性能,同时缩小与现有最先进LLMs的差距。
Thermostat是一个集合,提供多种自然语言处理(NLP)模型的解释及其分析工具,帮助用户深入理解模型的决策过程及性能评估。
论文介绍了通过边缘修剪找到变压器电路的技术,旨在有效识别和分析变压器电路,从而提高模型的可解释性。该技术可以帮助研究人员和开发者更好地理解变压器模型的结构及其工作原理。
思想克隆训练框架:人工智能代理通过模仿人类在行动时大声思考的思想和行动,学习像人类一样“思考”和行动,从而提高性能、效率、泛化性、人工智能安全性和可解释性。
ACT-Bench是一个用于评估自动驾驶世界模型行动可控性的框架,帮助研究者量化模型在特定轨迹下生成驾驶场景的能力。