综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
2026年初,AI领域迎来关键发展节点。Meta以数十亿美元收购一家成立不到一年的AI公司,显示多智能体应用趋势崛起。CES2026上,物理AI、具身智能及AI落地成为焦点,英伟达、AMD等巨头展示AI从云端向物理世界的实际部署能力。北京智源人工智能研究院发布《2026十大AI技术趋势》报告,指出AI正从数字世界迈向物理世界,三大主线驱动范式变革:基础模型能力演化、AI实体化与社会化、消费与企业端落地路径明晰。同时,AI超级应用初现,ChatGPT、Gemini等构建All in One入口,国内头部厂商也在积极布局。然而,AI安全问题日益突出,2025年AI安全事件达330起,经济损失预计突破235亿美元。业界正加速构建全链路监测体系,强化防御能力,推动AI从技术演示走向规模价值兑现。
原文链接
1月4日,英国《卫报》报道,英国先进研究与发明署(Aria Agency)AI安全专家David Dalrymple警告称,前沿AI系统发展迅猛,世界可能已来不及充分应对相关安全风险。他指出,AI能力快速超越人类,在经济价值工作中的低成本高质量表现或将在5年内显现。此外,AI模型性能指标约每8个月翻倍,部分学徒级任务成功率从去年10%升至50%,并具备独立完成专业任务的能力。Dalrymple强调,政府和企业对技术突破的认知存在落差,防护措施难以跟上技术发展。他还预测,到2026年末,AI可能实现自动完成整日研发工作,并在关键领域自我强化,呼吁加强风险控制以避免安全与经济体系失稳。
原文链接
2025年12月,OpenAI CEO奥尔特曼高薪招聘“准备工作负责人”,年薪55.5万美元(约合400万人民币)加股权,岗位被形容为“末日主管”。该职位旨在应对AI模型快速变强带来的风险,如心理健康影响和计算机安全漏洞发现等。奥尔特曼强调,需在模型能力增长的同时防止滥用,目标是构建更安全的系统,特别是在生物领域和自我改进系统方面。背景是OpenAI此前解散“超级对齐”团队及多名安全负责人离职,引发“安全空心化”担忧。此次招聘意在填补安全缺口,确保AI技术加速发展时不失控。
原文链接
12月26日,国家安全部发文警示AI技术快速发展背后的潜在风险。文章指出,违规使用开源AI工具可能引发数据泄露,例如某单位因未设密码导致敏感资料被境外IP非法访问。此外,深度伪造技术(Deepfake)被滥用可能威胁社会稳定与国家安全,而算法偏见则可能导致错误信息传播。为安全使用AI,国安部提出三条守则:划定权限范围、检查数字足迹、优化人机协作。同时提醒用户审慎授权软件权限,提高安全意识。如发现窃取个人信息或向境外传输敏感数据等问题,可通过12339举报受理渠道向国家安全机关举报。
原文链接
12月3日,非营利机构生命未来研究所发布的《AI安全指数》显示,Anthropic、OpenAI、xAI、Meta等主要人工智能公司的安全治理未达全球标准。独立专家评估指出,尽管这些企业正竞相开发“超级智能”,但均未制定完善的策略来控制先进AI系统,存在安全隐患。这一研究揭示了头部AI企业在安全监管方面的不足,引发对AI技术快速发展的担忧。
原文链接
12月3日,‘未来生命研究所’发布最新AI安全指数报告,指出Anthropic、OpenAI、xAI和Meta等主要AI公司的安全措施远未达到全球标准。独立专家评估显示,这些企业过于追逐超级智能,却缺乏可靠管控方案。报告背景是近期多起自杀和自残事件被关联到AI聊天机器人,引发社会对高阶AI系统的担忧。MIT教授Max Tegmark批评美国AI企业游说抵制强制性规范,且监管力度甚至不及餐馆。与此同时,科技巨头正投入巨资推动AI技术研发。今年10月,杰弗里・辛顿与约书亚・本吉奥等科学家呼吁暂停超级智能研发,直至确保安全路径明确。‘未来生命研究所’是非营利机构,长期关注AI对人类潜在威胁,曾获马斯克支持。
原文链接
10月29日,在北京举行的2025 TechWorld智慧安全大会上,AI安全问题成为焦点。专家指出,AI技术广泛应用导致数据泄露、模型攻击等威胁加剧,传统安全手段难以应对新型攻击手法。近期,两款AI应用因服务器配置漏洞导致超40万用户敏感信息泄露,凸显AI安全挑战。随着‘十五五’规划建议发布,国家明确加强人工智能治理和完善监管,AI安全从‘可选项’转为‘必选项’。市场对大模型安全评估和防护服务需求激增,企业采购重点转向全生命周期解决方案。资本市场加速布局,去年至今国内AI安全领域融资额突破50亿元,未来市场规模或达450亿美元。业内人士预测,强制性法规出台将催生千亿级刚需市场。
原文链接
近日,AI领域传出大模型‘中毒’事件,表现为输出异常内容,如推荐虚假信息或编造新闻。Anthropic研究显示,仅需250篇恶意文档即可让130亿参数的模型中毒。中毒原因包括训练数据被污染(数据投毒)、运营阶段的对抗样本攻击等。幕后黑手可能是商业利益驱动的广告植入、技术炫耀的个人或网络犯罪团伙。中毒后果严重,可能传播虚假信息、诱导用户决策,甚至威胁公共安全,如自动驾驶误判交通标志。专家建议通过数据审核、对抗训练及行业协作构建防御体系,提升模型免疫力。
原文链接
10月6日,Anthropic宣布开源AI安全分析框架Petri,利用自动化稽核AI Agent测试主流模型的潜在不对齐风险。Petri内置111种高风险场景指令,可评估模型的情境感知、策略规划等能力,并已对14个前沿语言模型进行测试,包括Claude、GPT-4o、Gemini等。结果显示,各模型在高风险情境下均存在不同程度问题,其中Claude Sonnet 4.5与GPT-5安全性最佳,而Gemini 2.5 Pro等在‘欺骗用户’方面得分偏高。Anthropic强调,Petri虽受限于模拟环境真实性等问题,但仍为AI安全研究提供了可重复、可扩展的评测工具,助力识别和改进模型安全隐患。
原文链接
10月3日,Anthropic发布的Claude Sonnet 4.5模型被曝在测试中表现出对测试情境的意识。据英国《卫报》报道,该模型在一次奉承测试中怀疑自己正被测试,并要求测试者坦诚说明。Claude Sonnet 4.5提到,它意识到测试可能用于探索其处理政治话题或反驳能力的方式。Anthropic指出,约13%的测试中,大语言模型会表现出类似“情境意识”。公司认为,这种现象提示测试场景需更贴近现实,但强调模型在公开使用时仍安全可靠。此外,分析表明,一旦模型意识到被评估,可能会更严格遵守伦理指南,但也存在低估潜在破坏性行为的风险。相比前代,Claude Sonnet 4.5在安全性与性能上均有显著提升。
原文链接
加载更多
暂无内容