rebuff是一个专门用于检测和防止大语言模型(LLM)注入攻击的工具,能够实时监控和分析输入数据,提供详细的安全报告和警告,支持多种语言模型的集成,确保应用程序的安全性。
INSINTO 是一个通过最新的语言数据和趋势,提供87%准确率和实时分析的AI语言分析工具,旨在帮助个人抵御在线危害。它可以独立识别和解决有害内容,确保平台安全和合规。
LangFair是一个Python库,旨在评估大型语言模型(LLM)在具体用例中的偏见和公平性。它提供超过20种评估指标,支持多种LLM用例,并配备自动化评估工具,简化了评估流程。
MobiHeals是由Cyber Heals开发的强大移动应用SAST工具,旨在保护移动应用免受安全漏洞和网络威胁。它结合了静态分析和动态分析的力量,全面分析移动应用源代码,是DevSecOps团队的宝贵资产。
Algomax是一个平台,旨在简化您的LLM和RAG模型评估,提升提示开发效率,并通过独特的定性指标洞察加速开发过程。该平台提供直观的仪表盘,便于您轻松集成到工作流程中,评估模型性能,评估引擎设计精准,能够深入洞察模型行为。
基于线性回归和神经网络的空气污染预测系统,利用传感器数据进行实时分析与可视化,帮助用户了解空气质量变化趋势。
一个研究完全规避开源LLM对齐的对抗性后缀的项目,旨在探索如何识别和利用对抗性后缀,以评估和提高开源LLM模型的鲁棒性和安全性。该项目适用于多种流行的开源模型,包括ChatGPT、Claude、Bard和LLaMA-2,并提供了相关研究文献链接,以便深入了解当前的研究动态。
BlenderBot 3x是BlenderBot 3的更新版,通过使用参与系统的用户的真实对话和反馈数据进行训练,旨在提升模型的技能和安全性。它能够有效避免从敌对用户那里学习,同时在对话中表现得更受欢迎,产生更安全的回应,具备通过不断用户互动进行优化的潜力。