
综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
7月14日,世界数字科学院(WDTA)在联合国日内瓦总部发布全球首个《AI智能体运行安全测试标准》。该标准由蚂蚁集团、清华大学、中国电信牵头,联合普华永道、新加坡南洋理工大学等20余家机构共同编制。标准针对智能体跨越“语言墙”带来的行为风险,首次构建全链路风险分析框架,涵盖输入输出、大模型、RAG、记忆和工具五大关键链路,并创新提出模型检测、网络通信分析等测试方法,填补了智能体安全测试技术空白。目前,部分标准已在金融、医疗领域落地应用。此前,WDTA已发布3项AI相关安全标准,参与单位包括OpenAI、谷歌、微软等数十家机构。
原文链接
2025年7月,世界数字科学院(WDTA)在联合国日内瓦总部发布全球首个《AI智能体运行安全测试标准》,由蚂蚁集团、清华大学等二十余家机构联合编制。该标准针对智能体“行为”风险,构建全链路风险分析框架,创新提出模型检测等测试方法,填补了技术空白。随着2025年被称为“智能体元年”,AI从“我说AI答”进化为“我说AI做”,但超70%从业者担忧幻觉决策与数据泄露等问题。WDTA执行理事长李雨航强调,AI STR系列标准旨在嵌入伦理责任,确保技术服务于人类利益。目前,标准已在金融、医疗领域应用,未来将向多智能体治理生态发展。
原文链接
7月14日,OpenAI CEO Sam Altman宣布,原定于下周发布的开源模型将无限期推迟,以进行额外安全测试和高风险场景评估。这是该模型自今年夏季以来第三次延期发布。Altman强调,模型一旦发布便不可撤回,公司需确保其在安全性和能力上达到高标准。OpenAI研究副总裁Aidan Clark表示,尽管团队对模型性能满意,但开源标准更高,仍需时间完善细节。此次调整反映了OpenAI对模型开源的谨慎态度及对技术安全性的高度重视。
原文链接
4月12日消息,金融时报报道显示,OpenAI大幅缩减最新大型语言模型(LLM)的安全测试时间,从以往的数月压缩至几天。这一变化引发担忧,因竞争压力导致安全评估不足。此前GPT-4的安全测试历时六个月,而即将发布的o3模型测试时间不足一周。多位知情人士指出,缩短测试周期可能忽略潜在风险,例如某些危险能力可能未被及时发现。目前全球缺乏统一的AI安全测试标准,尽管欧盟《AI法案》即将出台,要求严格测试强模型,但当前行业仍存在监管空白。前OpenAI安全研究员批评称,未兑现测试承诺或需向公众解释。此外,OpenAI的安全测试多基于早期“检查点”,而非最终发布模型,其安全性通过自动化测试保障,但前技术人员质疑此举是否足够严谨。
原文链接
财联社4月11日讯,OpenAI因竞争压力大幅削减了新模型o3的安全测试时间和资源,引发外界对产品安全保障的担忧。o3模型原计划解决复杂任务,但测试时间从以往的数月缩短至几天。知情人士称,这种仓促做法可能带来安全隐患,且当前缺乏全球统一的人工智能安全测试标准。对比GPT-4,其测试周期长达半年。OpenAI前研究员警告,忽视安全测试可能低估模型潜在风险。尽管欧盟人工智能法案或成行业先例,但短期内全球仍无统一规范。OpenAI正争取下周发布o3,留给测试的时间不足一周。
原文链接
据英国《金融时报》报道,《科创板日报》11日获悉,OpenAI近期大幅减少了对最新大型语言模型的安全性和性能测试所需时间与资源。此前此类评估需耗时数月,如今仅要求工作人员及第三方团队在几天内完成测试。OpenAI计划最早于下周推出新款机型o3,但具体发布时间可能调整。公司称已优化评估流程,通过引入自动化测试手段提升效率,从而压缩了测试周期。
原文链接
美国知名脱口秀主持人奥普拉·温弗瑞录制了一期关于AI与未来的45分钟特别节目,节目嘉宾包括OpenAI CEO萨姆·阿尔特曼、微软联合创始人比尔·盖茨、科技博主马库斯·布朗利及现任FBI局长克里斯托弗·雷伊。阿尔特曼在节目中首次公开露面,介绍了OpenAI最新模型OpenAI o1的部分预览版,展示...
原文链接
加载更多

暂无内容