多模态大语言模型(MLLM)安全性相关论文资源列表,旨在阻止模型遵循恶意指令和生成有毒内容。该项目聚合了多种安全性相关的研究成果,帮助研究人员和开发者深入了解MLLM的潜在风险,并促进对安全性的讨论和研究。
该项目汇集了关于大型语言模型有害微调的研究论文,旨在提供攻击与防御策略的最新进展和深入讨论,促进对语言模型安全性问题的关注与理解。
Dropbox LLM Security研究代码和结果,主要用于展示攻击大型语言模型的技术,特别是针对文本提示注入的攻击。该项目提供了相关的研究代码和结果,使研究人员能深入分析大型语言模型的安全性,并测试不同攻击方法的效果。
shellLM是一个基于大型语言模型(LLM)的蜜罐,旨在解决传统蜜罐在网络安全中的局限性,如确定性响应和缺乏适应性。它通过高准确率和动态响应能力,有效应对多种网络攻击模式。
OpenML Guide是一个广泛的免费AI资源库,包含书籍、课程、论文、指南、文章、教程、笔记本等多种资源,旨在支持AI领域的学习和发展。
JailbreakBench 是一个开源的鲁棒性基准,旨在评估对大型语言模型(LLM)进行大规模越狱的进展,提供丰富的数据集和评估工具,以支持研究人员和开发者在这个领域的探索。
一个收集了多种MCP客户端的资源库,帮助用户快速找到适合自己的AI模型交互工具。
遥感基础模型(RSFM)是一个开源的遥感应用开发框架,旨在支持快速评估和微调各类模型在不同数据集上的表现,为遥感社区提供便捷的工具和资源。
一个开源项目,主要探讨和学习人工智能、深度学习的计算机系统设计,围绕着在华为昇腾工作中积累和构建的AI系统全栈内容。
该项目研究大型语言模型(LLMs)在推理过程中如何可能侵犯用户隐私,分析潜在的隐私泄露风险,并提供对隐私保护的讨论和建议。