首款利用大型语言模型(LLM)进行零样本漏洞发现的工具,能自动分析代码,检测远程可利用的安全漏洞,帮助开发者及时发现和修复潜在的安全隐患。
Vuls 是一个适用于 Linux、FreeBSD、容器、WordPress、编程语言库、网络设备的无代理漏洞扫描程序,可用于内部网络和主机层安全检测。
PentestGPT 是一个利用 GPT 技术进行渗透测试的工具,能够智能识别和扫描漏洞,自动生成测试报告,并支持多种攻击向量,旨在提升渗透测试的效率和准确性。
K8sGPT是一款创新的AI工具,专门用于扫描Kubernetes集群、诊断和处理问题,利用简单的英语进行交流。它独特地结合了SRE(网站可靠性工程)专业知识,简化了识别集群中关键问题的过程,并将复杂信号转化为易于理解的建议,是负载健康分析、快速问题处理和深入AI分析的重要资产。
Lintrule 是一款命令行工具,旨在革新代码审查流程。它利用大语言模型(LLM)来强化政策执行和发现漏洞,显著提升代码质量和效率。Lintrule 超越传统的代码检查工具,能够处理一般工具无法管理的政策,同时捕捉测试可能遗漏的错误。
RepoAI是一个在线平台,帮助开发者管理和分析他们的软件仓库。用户可以注册账户并连接他们的仓库,利用各种功能深入了解代码库,从而做出更好的决策。
TestPilot 是一个利用大语言模型 (LLM) 自动为用 JavaScript/TypeScript 编写的 npm 包生成单元测试的工具,旨在提高开发效率,简化测试编写流程。
Mitigated.io是一个将渗透测试和风险评估报告转化为协作工作空间的平台,用户可以导入报告,邀请团队成员,并跟踪进度,以有效解决安全漏洞。
llm-attacks是一个针对对齐语言模型的通用可迁移对抗攻击工具,旨在通过附加对抗性后缀诱导模型产生不良内容。该项目支持多种语言模型的攻击,结合贪心和基于梯度的离散优化,能够自动生成对抗性后缀,以评估模型的鲁棒性和安全性。
一款用于评估和红队任何大型语言模型(LLM)应用的简单且模块化工具,由AI验证基金会开发,集成了基准测试和红队测试,帮助AI开发者、合规团队和AI系统所有者评估LLMs和LLM应用。
ArtPrompt是一个基于ASCII艺术的越狱攻击项目,旨在绕过具有安全机制的语言模型(LLM)。通过利用ASCII艺术形式,该项目能够进行黑盒攻击,测试和评估LLM对非语义提示的识别能力,揭示其脆弱性和局限性。