7月18日,由微软、英伟达、英特尔、谷歌等科技巨头组成的OASIS Open非营利组织宣布成立CoSAI安全联盟,致力于设计标准化的人工智能框架,旨在提升AI软件供应链、网络和治理安全性。联盟将与学术界及AI安全组织如Frontier Model Forum等合作,通过共享安全方法和工具,打造认证的“安全”AI系统,减少模型攻击风险,为B端市场提供安全解决方案。OASIS强调,AI领域的安全也需要集体行动,倡导通用安全标准在AI生态中的应用。
原文链接
本文链接:https://kx.umi6.com/article/3714.html
转载请注明文章出处
相关推荐
换一换
昇思原生模型成果发布
2024-12-14 11:47:17
OpenAI 发现 AI 模型隐藏特征:可调控“毒性”行为,助力开发更安全 AI
2025-06-19 09:49:12
欺骗大模型有多容易,只需画一个流程图?
2024-07-05 18:46:48
致力设计标准化人工智能框架,微软 / 英伟达 / 英特尔 / 谷歌等厂商联手组建 CoSAI 安全联盟
2024-07-21 12:37:07
15 个 AI 模型只有 3 个得分超 50%,SIUO 跑分被提出:评估多模态 AI 模型的安全性
2024-06-25 10:40:35
AI完败于人类医生,研究发现:大模型临床决策草率且不安全,最低正确率仅13%
2024-07-29 11:14:08
中国顶流无人驾驶提速出海:安全久经考验,外国big name实名好评
2025-03-26 22:10:59
研究称 GPT-5“有害回答”比 GPT-4o 更多,不回避“自杀”相关话题
2025-10-17 12:15:56
GPT-4o更容易越狱?北航&南洋理工上万次测试给出详细分析
2024-06-12 15:09:32
ChatGPT被人类骗得团团转
2024-12-27 18:10:46
OpenAI 推出 ChatGPT Gov:专为美国政府机构打造的高安全 AI 平台
2025-01-28 23:55:46
人形机器人离我们还有多远?王兴兴:2025年人形机器人会达到“新量级”
2025-02-18 18:34:50
微软将对AI模型的“安全性”进行排名
2025-06-09 14:28:33
610 文章
346306 浏览
24小时热文
更多
-
2025-12-08 22:52:38 -
2025-12-08 22:51:57 -
2025-12-08 22:51:33