本文评估了LLM自动生成特征归因解释的能力,研究不同方式触发自我解释的可信度,并与传统解释方法进行了比较。
Thermostat是一个集合,提供多种自然语言处理(NLP)模型的解释及其分析工具,帮助用户深入理解模型的决策过程及性能评估。
imodelsX是一个专注于自然语言处理的可解释性模型,利用大型语言模型为数据集提供自然语言解释,增强NLP任务的透明度,并支持多种提示和模型选择。
BertViz是一个用于可视化各种自然语言处理模型(如BERT、GPT2、BART等)中注意力机制的工具,提供交互式界面,用户可以探索和分析模型的注意力分布,支持自定义输入文本以查看对应的注意力模式。
用于稳健弹道预报的可解释自感知神经网络,旨在提高神经网络对分布外数据的认知不确定性估计,以适应安全关键型应用,如自动驾驶汽车。
针对特定用例、数据和查询智能适应的 RAG(Retrieval-Augmented Generation)框架,旨在提供可解释、高精度、高效的代理驱动检索工作流程。
最小 PyTorch 实现的 GPT-2 和 Llama,旨在简化代码以便更容易理解和使用,并且能够在短时间内训练出性能良好的自然语言生成系统。
Weights & Biases是一个专为机器学习开发者设计的平台,提供工具来跟踪、可视化和优化机器学习实验,简化结果再现和模型迭代的过程。
OneDiff是一个用于加速扩散模型的工具,提供了一种新的免训练、几乎无损的范式,显著提升模型的迭代速度。
该项目旨在对GPT-4-128K进行压力测试,通过简单的检索操作在不同的上下文长度下评估其准确性,适用于多种文档格式和内容。