Meta发布了一项新的人工智能框架,称为“前沿人工智能框架”,规定在某些情况下可能会限制高性能AI系统的发布。根据Meta的定义,存在“高风险”和“关键风险”两类系统,前者可能增加攻击的易实施性,后者可能导致不可缓解的灾难性后果。Meta表示,他们将根据内外部研究及高级别决策者的审查来评估系统风险,而非单一实证测试。对于高风险系统,Meta将限制其内部访问并实施风险缓解措施;对于关键风险系统,则暂停开发直至风险降低。Meta强调,此框架将随AI领域发展而更新,并在本月的法国人工智能行动峰会上提前发布。
原文链接
本文链接:https://kx.umi6.com/article/12521.html
转载请注明文章出处
相关推荐
.png)
换一换
两部门:推动建立人工智能风险等级测试评估体系 完善人工智能产业计量测试基础保障体系
2025-07-09 15:10:18
小扎砸14亿从苹果挖走庞若鸣,上交校友成Meta AI梦之队第9位华人
2025-07-10 10:15:30
工信部:实施“人工智能+制造”行动 支持企业在重点场景应用通用大模型、行业大模型和智能体
2025-07-11 19:43:51
409 文章
58508 浏览
24小时热文
更多

-
2025-07-21 11:21:54
-
2025-07-21 11:20:45
-
2025-07-21 11:19:36