综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
3月31日,DeepMind创始人德米斯・哈萨比斯公开表示,其所研发的超级人工智能可能带来灭绝人类的风险,且当前AI发展竞赛已无法停止。他承认,依赖制度或伦理委员会约束AI的构想失败,外部治理难以奏效,只能依靠个人在关键决策中把控安全方向。2014年将DeepMind出售给谷歌时,他曾要求设立独立监督机制并禁止军事应用,但这些构想因行业竞争加剧逐步失效。2022年ChatGPT的推出加速了研发节奏,谷歌与DeepMind合并后,安全规范让位于速度。如今,哈萨比斯试图通过推进Gemini等模型研发,同时坚守安全底线,降低AI失控风险。业内认为,这一转变反映全球AI竞赛残酷现状,统一治理难以实现,人类面临文明存续的重大挑战。
原文链接
2026年3月19日,蚂蚁数科发布“蚁天鉴2.0 – 龙虾卫士”AI安全防护体系,并启动“龙虾AI安全守护计划”,为部署OpenClaw智能体的企业提供全生命周期安全保障。新产品聚焦三大核心能力:对抗思想变异、净化Skills仓库、风险舆情播报,帮助企业拦截恶意诱导、权限越界等安全风险。同时,首批100家企业可享受3个月、总计20万次的免费安全防护调用服务。蚂蚁数科凭借领先技术入选IDC《中国大模型安全市场图谱》,其解决方案在金融合规等复杂场景中达到行业领先水平。团队强调,AI智能体需具备可控、可追溯的安全保障,确保企业在享受技术红利时降低潜在风险。
原文链接
3月16日,随着AI技术的深入应用,网络安全问题成为市场焦点,相关概念股表现活跃,多只股票上涨。业内人士指出,AI正深度重塑网络安全的攻防格局与产业版图,凸显网络安全建设的战略价值。行业系统性升级迫在眉睫,正迎来全面变革的关键拐点。
原文链接
2026年3月12日,AWE2026在上海开幕,中国家用电器研究院副院长曲宗峰发布《智能家居产业标准化工作路线图》。该路线图首次在国家标准体系中设立智能效用独立子体系,将用户可感知的安全、舒适、健康等个性化结果性指标列为核心要求,并强化AI安全规范,针对大模型、语音助手等应用中的幻觉输出内容进行可信性评估,推动智能家居产业健康发展。
原文链接
2026年2月25日,以安全为核心价值的人工智能公司Anthropic宣布调整其核心安全政策。此前,若模型被判定为“具有危险性”,该公司将暂停开发,但如今这一承诺已“软化”。Anthropic表示,在竞争对手发布“同类或更先进”模型的情况下,将不再执行暂停机制。此举旨在应对与其他AI实验室的激烈竞争,保持市场优势。这一政策调整标志着Anthropic在安全立场上的重大转变,显示出竞争压力对其战略的影响。
原文链接
2026年2月14日,OpenAI被曝删除了其关于AI安全及‘非营利性’的核心承诺,引发广泛关注。该公司最初以‘构建安全造福人类的通用人工智能(AGI)’为使命,但最新税务文件中已修改为‘确保通用人工智能使全人类受益’,不再提及安全与非营利限制。这一变化被视为OpenAI逐步弱化道德约束、转向追求商业利益的信号。此外,OpenAI近期解散了使命对齐团队,被解职高管爆料称公司为迎合部分用户开放成人内容。尽管OpenAI否认相关指责,但双方争论加剧争议。分析认为,随着广告引入及隐私数据掌握增多,OpenAI未来可能面临更多伦理与隐私问题的挑战。
原文链接
2026年初,AI领域迎来关键发展节点。Meta以数十亿美元收购一家成立不到一年的AI公司,显示多智能体应用趋势崛起。CES2026上,物理AI、具身智能及AI落地成为焦点,英伟达、AMD等巨头展示AI从云端向物理世界的实际部署能力。北京智源人工智能研究院发布《2026十大AI技术趋势》报告,指出AI正从数字世界迈向物理世界,三大主线驱动范式变革:基础模型能力演化、AI实体化与社会化、消费与企业端落地路径明晰。同时,AI超级应用初现,ChatGPT、Gemini等构建All in One入口,国内头部厂商也在积极布局。然而,AI安全问题日益突出,2025年AI安全事件达330起,经济损失预计突破235亿美元。业界正加速构建全链路监测体系,强化防御能力,推动AI从技术演示走向规模价值兑现。
原文链接
2025年12月,OpenAI CEO奥尔特曼高薪招聘“准备工作负责人”,年薪55.5万美元(约合400万人民币)加股权,岗位被形容为“末日主管”。该职位旨在应对AI模型快速变强带来的风险,如心理健康影响和计算机安全漏洞发现等。奥尔特曼强调,需在模型能力增长的同时防止滥用,目标是构建更安全的系统,特别是在生物领域和自我改进系统方面。背景是OpenAI此前解散“超级对齐”团队及多名安全负责人离职,引发“安全空心化”担忧。此次招聘意在填补安全缺口,确保AI技术加速发展时不失控。
原文链接
12月26日,国家安全部发文警示AI技术快速发展背后的潜在风险。文章指出,违规使用开源AI工具可能引发数据泄露,例如某单位因未设密码导致敏感资料被境外IP非法访问。此外,深度伪造技术(Deepfake)被滥用可能威胁社会稳定与国家安全,而算法偏见则可能导致错误信息传播。为安全使用AI,国安部提出三条守则:划定权限范围、检查数字足迹、优化人机协作。同时提醒用户审慎授权软件权限,提高安全意识。如发现窃取个人信息或向境外传输敏感数据等问题,可通过12339举报受理渠道向国家安全机关举报。
原文链接
12月3日,非营利机构生命未来研究所发布的《AI安全指数》显示,Anthropic、OpenAI、xAI、Meta等主要人工智能公司的安全治理未达全球标准。独立专家评估指出,尽管这些企业正竞相开发“超级智能”,但均未制定完善的策略来控制先进AI系统,存在安全隐患。这一研究揭示了头部AI企业在安全监管方面的不足,引发对AI技术快速发展的担忧。
原文链接
加载更多
暂无内容