
综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
谷歌于10月24日发布了一款名为SAIF的风险评估工具,旨在帮助AI开发者和组织评估安全态势,识别潜在风险并采取更强的安全措施。该工具涵盖了AI系统训练、调优和评估,对模型和数据集的访问控制,防止攻击和对抗性输入,以及生成性AI的安全设计与编码框架等多个主题。用户在完成问题回答后,会立即获得一份报告,指出具体风险,如数据中毒、提示注入和模型源篡改等,并附有详细的解释和缓解措施建议。此工具是谷歌去年推出的“安全人工智能框架”(SAIF)的一部分,旨在促进更安全、负责任地部署AI模型,同时谷歌还与行业伙伴成立了“安全人工智能联盟”(CoSAI)来推动关键的AI安全措施。该工具现已在新网站SAIF.Google上线,助力AI开发过程中的风险管理。
原文链接
加载更多

暂无内容