garak 是一款用于扫描大型语言模型(LLM)漏洞的开源工具,旨在发现 LLM 中的安全漏洞和弱点。它通过静态、动态和自适应探测技术,全面评估 LLM 的安全性,探测生成式 AI 模型的幻觉、数据泄露、提示注入、错误信息生成、毒性生成、越狱等弱点。garak 支持多种 LLM,包括 Hugging Face、Replicate、OpenAI、litellm 等,适用于安全研究人员、模型开发人员和用户识别和缓解 LLM 中的安全风险。