Warning: Undefined variable $main_title in /www/wwwroot/msbd/wp-content/themes/onenav/sidebar-sitestop.php on line 26
AI交流(进群备注:)

该项目研究多代理大型语言模型(MoA)架构在面对欺骗性代理时的脆弱性,并提出了多种无监督防御机制(如“Dropout & Cluster”和“Cluster & Filter”)以恢复性能损失。研究通过基准测试(如AlpacaEval 2.0和QuALITY)评估了欺骗性代理对系统的影响,并分析了欺骗性代理类型、数量、聚合器模型强度等因素。项目旨在提高多代理LLM系统的鲁棒性和安全性,适用于需要高可靠性的应用场景。
This Is Your Doge, If It Please You: Exploring Deception and Robustness in Mixture of LLMs的特点:
- 1. 评估MoA在AlpacaEval 2.0和QuALITY等基准上的鲁棒性
- 2. 分析欺骗性代理类型(如Promoter和Opposer)及其影响
- 3. 提出无监督防御机制(如Dropout & Cluster和Cluster & Filter)
- 4. 研究欺骗性代理数量、聚合器模型强度和信息传播对系统的影响
- 5. 提供开源代码,便于进一步研究和应用
This Is Your Doge, If It Please You: Exploring Deception and Robustness in Mixture of LLMs的功能:
- 1. 改进MoA架构的鲁棒性,适用于自动问答系统
- 2. 增强决策支持系统对欺骗性代理的抗性
- 3. 为研究人员提供多代理LLM系统安全性的理论基础
- 4. 在需要高可靠性的场景中应用防御机制
- 5. 扩展防御机制以应对更复杂的欺骗策略
相关导航

Intel Extension for Transformers
Intel Extension for Transformers 是一个开源项目,旨在使客户端 CPU 上的大型语言模型(LLM)微调成为可能,特别是在没有 GPU 的情况下。它支持在 CPU 上进行 QLoRA 微调,适用于笔记本电脑环境,并通过优化的性能提升模型训练效率。该项目与 HuggingFace Transformers 兼容,支持 4 位推理,并利用 Intel 神经压缩器提供丰富的模型压缩技术,如量化、剪枝和蒸馏,显著提高了英特尔平台上的推理效率。此外,它还支持自动化的仅限权重的 INT4 量化流程,兼容多个流行的大语言模型,如 Llama2、Llama 和 GPT-NeoX。
暂无评论...