谷歌于10月24日发布了一款名为SAIF的风险评估工具,旨在帮助AI开发者和组织评估安全态势,识别潜在风险并采取更强的安全措施。该工具涵盖了AI系统训练、调优和评估,对模型和数据集的访问控制,防止攻击和对抗性输入,以及生成性AI的安全设计与编码框架等多个主题。用户在完成问题回答后,会立即获得一份报告,指出具体风险,如数据中毒、提示注入和模型源篡改等,并附有详细的解释和缓解措施建议。此工具是谷歌去年推出的“安全人工智能框架”(SAIF)的一部分,旨在促进更安全、负责任地部署AI模型,同时谷歌还与行业伙伴成立了“安全人工智能联盟”(CoSAI)来推动关键的AI安全措施。该工具现已在新网站SAIF.Google上线,助力AI开发过程中的风险管理。
原文链接
本文链接:https://kx.umi6.com/article/7892.html
转载请注明文章出处
相关推荐
.png)
换一换
OpenAI放弃商业架构计划,软银投资或减50%,奥尔特曼:非营利组织仍掌控一切
2025-05-06 09:48:22
顶流AI,人设崩了!6小时被攻破,泄露高危品指南,惨遭网友举报
2025-06-09 11:24:31
从照相、互联网到VR、AI:为什么总是黄色产业最积极
2025-05-23 18:18:06
467 文章
83446 浏览
24小时热文
更多

-
2025-07-21 11:21:54
-
2025-07-21 11:20:45
-
2025-07-21 11:19:36