
Lakera AI 是一个专注于生成式人工智能安全的平台,为企业提供实时威胁防护、安全测试和合规治理等解决方案。
该平台主要针对生成式AI应用特有的风险进行防护,例如提示注入攻击、敏感数据泄露、数据投毒以及有害内容输出等。
通常通过其提供的标准化API或SDK进行集成,支持SaaS或自行托管方式,旨在以少量代码实现快速部署。
Gandalf 是一个游戏化的交互式安全挑战平台,用户可以通过模拟攻击来测试AI应用的安全性,其收集的数据用于增强威胁情报。
平台设计注重低延迟运行,旨在最小化对应用性能的影响,但实际影响取决于具体集成环境与流量负载。
其解决方案设计为与主流AI模型及自建系统兼容,例如GPT、Claude、LLaMA等,并支持多模态与多语言环境。
平台提供安全监控、审计跟踪和策略管理功能,可协助组织管理AI交互风险,以支持满足相关的数据安全与治理要求。
信息显示其采用免费增值模式,具体的企业级定价需要联系其销售团队获取定制报价。
主要面向AI开发者、企业安全团队、产品经理以及任何负责部署和维护生成式AI应用的组织与人员。

Fiddler AI 是一个面向企业级AI智能体和预测性AI应用的控制平面平台,专注于提供统一的可观测性、安全性与治理解决方案。它帮助工程、风险与合规团队监控、理解并控制AI系统的行为,旨在提升AI部署的透明度、可靠性与可控性,支持从开发到生产环境的全流程管理。