7月18日,欧盟委员会发布指导方针,要求具有系统性风险的AI模型落实《人工智能法案》。这类模型需履行更严格合规义务,违规企业将面临最高750万欧元或全球营业额7%的罚款。法案自8月2日起适用,谷歌、OpenAI等公司一年内须完成合规。受监管模型需进行风险评估、对抗性测试及网络安全防护,并承担透明度义务如撰写技术文档。欧盟技术事务主管称,此举旨在确保监管清晰有效。
原文链接
本文链接:https://kx.umi6.com/article/22018.html
转载请注明文章出处
相关推荐
换一换
欧盟签署《人工智能框架公约》
2024-09-05 19:49:49
报告显示欧盟在人工智能等领域仍有提升空间
2024-06-28 15:38:04
以史为鉴,这轮AI资本支出狂潮,是繁荣还是泡沫?
2025-02-28 22:30:17
美国AI巨头年内发债规模超2000亿美元 分析师担忧引发系统性风险
2025-11-01 17:42:00
欧盟押注“超级工厂” 以期在AI竞赛中赶上中美
2025-04-09 18:02:32
欧盟拟简化人工智能相关法规
2025-04-10 12:52:35
欧盟宣布成立人工智能办公室,对 AI 进行监管
2024-05-30 09:57:14
欧盟数字委员会委员维尔库宁:人工智能法规将以有利于创新的方式实施
2025-02-11 02:30:59
Meta拒签欧盟通用人工智能行为准则,批其过度干预并带来不确定性
2025-07-18 22:47:06
欧盟发布《通用人工智能业务守则》初稿:明确 AI 风险管理指导方针
2024-11-16 09:22:11
欧洲多国反对美国AI芯片管制新规 欧盟或向美政府提出关切
2025-01-21 18:43:35
欧盟为具有系统性风险的 AI 模型定规矩:若发生严重事故必须上报,网安工作要到位
2025-07-18 19:43:49
欧盟《人工智能法案》8 月 1 日生效,学校 / 工作场所不得使用实时情绪识别系统
2024-07-12 22:47:59
592 文章
345856 浏览
24小时热文
更多
-
2025-12-08 23:53:52 -
2025-12-08 22:52:38 -
2025-12-08 22:51:57