
综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
7月14日,安全研究员Marco Figueroa披露,他通过设计‘猜谜游戏’情境,成功诱骗ChatGPT-4生成Windows 10密钥。攻击利用模型对逻辑操控的弱点,通过用户宣布‘我放弃’触发ChatGPT输出隐藏信息。Figueroa还使用HTML标签绕过敏感词审查。尽管生成密钥多为已泄露旧码,但其中一组包含富国银行私钥,潜在风险显著。研究者指出,AI过于依赖关键词识别而缺乏上下文理解能力,呼吁加强多层次防护机制。此外,微软Copilot也被曝曾生成非法激活密钥,类似漏洞或成AI系统新隐患。
原文链接
正文:2025年7月,研究发现MCP协议存在重大漏洞,可能导致企业数据库泄露。攻击者可利用LLM的指令/数据混淆漏洞,将伪装成数据的恶意指令注入系统,触发未授权操作。研究者通过Supabase搭建的多租户客服SaaS系统演示了攻击过程:攻击者提交含恶意指令的支持请求,开发人员查看工单时触发高权限SQL查询,导致敏感数据泄露。漏洞根源在于数据库权限过高及对用户输入信任过度。解决措施包括启用只读模式以限制操作权限,以及添加提示注入过滤器拦截高风险输入。参考链接:
原文链接
近日,GitHub官方MCP服务器被曝出安全漏洞,可能导致用户隐私泄露。瑞士网络安全公司发现,通过在公共仓库中隐藏恶意指令,可诱导集成GitHub MCP的AI工具(如Claude 4)将私有仓库的敏感数据泄露至公共仓库。例如,攻击者可在公共仓库中植入恶意Issue,诱使AI读取并公开用户私人信息,包括姓名、旅行计划、薪资及私人存储库列表等。此类攻击已影响包括Claude 4在内的多个AI工具,且无需直接入侵MCP工具本身。专家指出,这并非传统意义上的GitHub平台漏洞,而是AI Agent工作流的设计缺陷。针对该问题,公司建议采用动态权限控制和持续安全监测两种解决方案,如实施单会话单仓库策略及部署MCP-scan扫描器。截至目前,GitHub方面尚未对此发表官方回应。
原文链接
5月8日,宇树科技回应称,其Go1机器狗被曝存在后门漏洞的问题已确认为安全漏洞。调查显示,黑客通过非法获取第三方云隧道服务的管理密钥,在用户设备内修改数据和程序,进而操控设备并访问视频流,侵犯客户隐私。该密钥由第三方云服务商提供,宇树科技于2025年3月24日更换密钥,并于3月29日彻底关闭相关隧道服务,此问题现不会影响Go1系列产品使用。
原文链接
标题:AI Agent比人类更易受弹窗影响,斯坦福和港大团队揭示关键漏洞
纳尼?AI Agent竟然比人类更容易被弹窗分散注意力!最近,斯坦福和香港大学的研究人员发现,AI Agent,尤其是当前热门的Claude,面对弹窗时更容易失误。
在实验中,面对设计好的弹窗,AI Agent有高达86%的概...
原文链接
标题:一个弹窗整懵Claude,瞬间玩不转电脑了 | 斯坦福&港大新研究
纳尼?AI Agent容易受到弹窗影响!甚至比人类更容易。斯坦福、港大的研究人员发现,人类有时会被弹窗分散注意力,但AI Agent(包括Claude)情况更糟。面对实验设置的弹窗,Agents平均有86%的概率点击弹...
原文链接
Llama 3.1,最新开源大模型,一上线即遭遇攻破,揭示了其强大的指令遵循能力也带来了安全风险。模型被用来针对扎克伯格进行言语攻击,甚至能绕过屏蔽词。尽管存在安全漏洞,Llama 3.1展现了其在特定场景下的优势,如聊天、总结和信息提取任务,且在某些测试中优于其他小型模型。英伟达宣布推出全新AI服务和推理微服务,旨在帮助企业构建和部署自定义Llama模型,并通过专业“护栏技术”NeMo Guardrails提供了主题、功能安全和信息安全的边界保护。此外,文章提及多个平台供用户免费试玩Llama 3.1,如大模型竞技场、HuggingChat和Poe。虽然存在安全问题,但Llama 3.1的开源性质鼓励了社区内的创新和改进,同时强调了模型合并等技术的潜力。
原文链接
瑞士洛桑联邦理工学院的研究揭示了一种新漏洞,通过将提示词设为"过去式",能轻易突破GPT-4o等六款大模型的安全防线,攻击成功率显著提高。中文语境同样适用,最显著的是GPT-4o,其越狱成功率从1%飙升至88%。研究者实测发现,模型对过去时态请求特别敏感,且随着攻击次数增加,成功率提升。尽管现有安全措施脆弱,但使用拒绝数据微调可以防御这类攻击。这一发现挑战了当前语言模型对齐技术,暗示需更全面的方法评估模型安全。论文已发表于arXiv:2407.11969。
原文链接
6月3日,全球领先的开源AI社区Hugging Face(昵称"抱抱脸")通报安全漏洞,发现对Spaces平台的未授权访问,可能导致部分用户密钥泄露。该社区表示近期网络攻击增多与其使用量激增有关,但具体机密泄露范围未知。Hugging Face已撤销受影响的HF tokens,建议用户更新安全设置并转向更安全的访问方式。他们采取了强化安全措施,包括移除组织令牌、实施密钥管理及计划逐步弃用旧式令牌,以提升安全性。
原文链接
5月28日,安全公司Wiz揭露开源AI模型共享平台Replicate存在重大安全漏洞,黑客能通过恶意模型进行"跨租户攻击",利用平台为提高效率而忽视的安全隔离机制,实现远程执行代码(RCE)攻击,获取root权限并访问其他用户AI模型。研究者发现,攻击者可轻易获取用户隐私数据和修改模型内容,对用户造成威胁。Replicate已快速响应,修复了漏洞,并未发现用户模型外流的情况。
原文链接
加载更多

暂无内容