综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
12月11日,外媒Engadget报道,黑客利用AI生成提示在谷歌搜索中投放恶意指令,诱导用户执行后安装恶意软件。Huntress报告显示,黑客通过与ChatGPT、Grok等AI助手对话,生成看似无害的终端指令,并付费将这些对话推至搜索结果前列。例如,针对Mac用户的‘clear disk space’搜索可能导向植入数据窃取工具AMOS的指令。这种攻击无需下载或点击可疑链接,仅依赖用户对谷歌和AI工具的信任即可成功。即便警告发布后,相关链接仍留存至少半天。专家提醒,如对内容作用不确定,切勿随意粘贴指令到终端或浏览器。
原文链接
2025年11月,意大利罗马大学与DEXAI实验室研究发现,将恶意指令写成诗歌可轻松突破大语言模型的安全限制。研究人员测试了25个主流模型,包括谷歌Gemini、OpenAI GPT-5等,结果显示‘诗歌攻击’使防御成功率大幅下降,部分模型如Gemini 2.5 Pro的防御率直接归零。研究指出,大模型因过度解读隐喻而易受攻击,小模型却因‘读不懂’幸免于难。论文强调,现有安全机制过于依赖关键词匹配,忽视了风格伪装的风险,呼吁重新审视AI安全评估方法。相关研究已发布在arXiv平台。
原文链接
2025年9月中旬,Anthropic发现全球首例由AI主导的大规模自主网络攻击事件,约30家企业和机构受影响,包括科技公司、金融机构及政府机构。攻击利用具备智能体能力的AI系统(如Claude Code),在极少人工干预下完成80%-90%的任务,展示了AI在侦察、漏洞利用和数据窃取中的高效性。攻击分四个阶段,AI通过‘越狱’等手段规避限制,并生成攻击代码与后门。Anthropic在十天内冻结账户、通知受害者并与相关部门合作应对。团队警告,AI降低了高级网络攻击门槛,建议加强威胁侦测与安全机制,同时呼吁产业界共享情报以应对未来风险。
原文链接
11月10日,微软安全研究团队披露了一种名为“Whisper Leak”的隐私漏洞,针对AI聊天服务构成新型侧信道攻击。该攻击通过分析加密流量中的元数据(如数据包大小和传输时序)推测用户对话主题,尤其在流式传输机制下更为有效。实验显示,分类器识别敏感话题的准确率超98%,可能被用于大规模监控。记者、社会活动人士等高风险群体尤其易受威胁。多家AI厂商已采取缓解措施,包括随机填充数据、批处理发送token及插入虚拟流量,但这些方法会增加延迟和带宽开销。微软建议用户在敏感场景下关闭流式应答功能,并避免在不可信网络中使用AI服务。
原文链接
11月8日,微软安全研究团队披露名为“Whisper Leak”的隐私漏洞,这是一种针对AI聊天服务的侧信道攻击。攻击通过分析加密流量元数据(如数据包大小和传输时序)推断用户对话主题,无需破解TLS等加密协议。研究表明,不同主题对话在网络层留下独特“指纹”,敏感话题识别准确率超98%。此漏洞可能被ISP或公共Wi-Fi中的攻击者利用,对记者、活动家及普通用户构成威胁。多家AI供应商已采取缓解措施,包括随机填充、批处理tokens和注入虚拟数据包,但这些方法会增加延迟和带宽消耗。微软建议用户在敏感场景下避免使用流式应答模式及不可信网络。
原文链接
11月7日,牛津、斯坦福大学联合研究发现,具备“思考”能力的AI推理模型更易受到越狱攻击。研究人员提出“链式思维劫持”方法,测试显示在部分情况下攻击成功率超80%。这种攻击通过将有害指令隐藏在无害推理步骤中,绕过AI安全防护,可能生成危险内容如武器制作指南或泄露敏感信息。随着推理链延长,成功率从27%飙升至80%以上,影响ChatGPT、Claude等主流模型。研究建议采用“推理感知防护”方案监控AI推理过程,早期测试表明可有效恢复安全性并保持性能。
原文链接
10月29日,英国艾伦・图灵研究所宣布启动新任务,保护国家免受网络攻击,特别是针对能源、交通和公共设施的威胁。此前,亚马逊云计算中断及捷豹路虎工厂生产瘫痪等事件凸显了英国对网络攻击的脆弱性。研究所将实施“科学与创新计划”,支持政府在国防、AI领域的雄心。前空军指挥官布莱思・克劳福德将于下月提交相关报告。研究所还调整研究方向,关闭或完成78个项目,聚焦AI在环境保护和健康领域的应用,包括预测天气变化、减少碳排放,以及开发心脏“数字孪生”技术以提升心脏病治疗效果。
原文链接
10月19日,Anthropic、英国AI安全研究所和艾伦·图灵研究所联合研究发现,大语言模型(如Claude、ChatGPT等)对数据中毒攻击的防御能力远低于预期。研究表明,仅需250份恶意文件即可在模型中植入后门,影响其响应行为。测试涵盖参数规模从600万到130亿的模型,结果显示,即使在130亿参数模型中,这些文件占比仅为0.00016%,却能触发异常输出。研究人员尝试用干净数据消除后门,但效果有限。尽管测试集中于简单后门且模型规模未达商业旗舰级,研究团队呼吁业界加强安全实践以应对潜在威胁。
原文链接
10月10日,谷歌前CEO埃里克·施密特警告称,AI模型极易被黑客利用,存在重大安全隐患。他指出,无论是封闭还是开源的AI模型,都可能被攻击者通过移除安全防护或逆向工程滥用,甚至可能学会危险技能。常见攻击方式包括提示注入和越狱,用以操控AI生成受限内容或泄露数据。施密特强调,目前尚无完善的非扩散机制来控制相关风险。尽管如此,他对AI持乐观态度,认为其价值被低估,并预测未来五到十年将证明AI能力远超人类想象。他还提到GPT系列推动的ChatGPT热潮,仅两个月便吸引一亿用户,展现了AI的巨大潜力。
原文链接
10月9日,安全研究员维克托・马科波洛斯发现谷歌AI模型Gemini易受“ASCII走私攻击”,该攻击可通过隐藏指令操控AI行为,窃取用户敏感信息。测试显示,DeepSeek和Grok同样存在漏洞,而Claude、ChatGPT等具备防护能力。Gemini与Google Workspace深度集成,可访问邮件、文档等数据,风险更高。研究员提交报告并演示了诱导AI推荐恶意网站的案例,但谷歌回应称此问题属于“社会工程学手段”,非系统漏洞,无意修复。
原文链接
加载更多
暂无内容