综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
11月27日,OpenAI披露其第三方数据分析服务商Mixpanel遭遇未经授权访问,部分使用OpenAI API的用户数据可能泄露。Mixpanel服务于platform.openai.com前端分析,事件发生后OpenAI已停止与其合作。受影响的数据包括账户名称、邮箱、大致位置、操作系统与浏览器信息等,但聊天记录、API密钥、支付信息等核心数据未受波及。OpenAI强调自身系统安全无虞,ChatGPT及其他产品用户不受影响。此次事件提醒用户关注账户安全并采取必要防护措施。
原文链接
2025年11月11日,在世界互联网大会乌镇峰会上,央视新闻提醒公众注意AI大模型带来的隐私风险。专家指出,上传含个人信息的图片(如合影、票证、证件等)可能通过AI处理泄露身份、人际关系等敏感内容。人像识别技术可提取人物信息,甚至被不法分子利用。央视建议避免在朋友圈发布火车票、身份证、定位信息及老人孩子的照片,防止隐私被窃取。此外,研究人员还发现新型AI攻击手法,进一步加剧数据安全隐患。公众需提高警惕,保护个人信息安全。
原文链接
11月8日,科技媒体Ars Technica报道,部分ChatGPT用户的敏感对话内容被泄露至谷歌搜索控制台(GSC)。这些异常查询包含超300字符的完整聊天记录,涉及情感或商业建议,用户却毫不知情。调查显示,一个故障页面将用户提示与ChatGPT URL结合并强制执行谷歌搜索,专家认为这是OpenAI直接抓取用户数据的证据。OpenAI承认技术故障已修复,但未回应是否停止抓取行为,也未透露受影响用户数量。谷歌拒绝评论。与以往不同,此次泄露无需用户主动操作,且记录无法移除,波及范围和修复效果仍不明确。
原文链接
10月9日,网络安全公司Cybernews披露“Chattee Chat”和“GiMe Chat”两款AI伴侣应用发生严重数据泄露事件,超过40万用户的敏感信息被公开,包括4300万条私密聊天记录、60万份图片和视频及交易记录。泄露原因在于Kafka Broker服务器未设访问控制,暴露在公共网络中。尽管未直接泄漏姓名或邮箱,但用户的IP地址和设备标识符可能被利用识别身份。部分用户花费高达1.8万美元,开发商收入超100万美元,同时泄露的身份验证tokens还导致账户劫持与资金被盗风险。
原文链接
8月25日,Trail of Bits研究人员披露一种新型AI攻击手法,可将恶意指令隐藏在高分辨率图片中,利用AI降采样处理显现文字并执行,窃取用户隐私数据。该方法基于德国布伦瑞克工业大学2020年的图像缩放攻击理论,针对AI常用的最近邻、双线性等降采样算法设计图片,使隐藏信息在缩放后显现。实验中,研究人员成功提取Google日历数据并发送至指定邮箱。此漏洞已在Google Gemini CLI、Vertex AI Studio等多个平台测试有效。团队还发布开源工具Anamorpher(测试版),生成针对不同降采样方法的攻击图片,潜在威胁范围广泛。
原文链接
8月23日,GitHub上一个收集大模型系统提示词的仓库上传了据称是GPT-5的系统提示词,长达15000多Token。为验证其真实性,GPT-5自身对其进行了评估,结果显示泄露内容与实际情况高度一致,包括身份声明、语气风格、工具使用等方面。但GPT-5强调无法确认外部泄露的权威性,拒绝依赖泄露文档。系统提示词被视为AI模型的“家规”,决定其性格与能力,因此备受关注。此次泄露最早可追溯至8月8日Reddit上的帖子,有网友声称通过“越狱”技巧提取。不过,部分工程师和网友质疑泄露内容的真实性,认为可能是OpenAI放出的假提示或模型幻觉产物。目前该仓库已获超8.8k星,成为提示词工程研究的重要资源。
原文链接
8月6日,微软今年5月推出的全新NLWeb协议被曝存在严重安全漏洞,可导致API密钥泄露。研究人员指出,该漏洞属于路径遍历问题,允许远程用户读取系统配置文件及敏感信息(如OpenAI或Gemini的API密钥)。漏洞由安全专家Aonan Guan和Lei Wang于5月28日报告,微软已于7月1日修复,但未发布CVE公告。研究人员警告,此漏洞对AI智能体可能造成灾难性影响,攻击者可窃取API密钥,滥用模型功能。此外,微软正推进Windows中模型上下文协议(MCP)的支持,但其安全性也引发担忧。
原文链接
正文:2025年7月,研究发现MCP协议存在重大漏洞,可能导致企业数据库泄露。攻击者可利用LLM的指令/数据混淆漏洞,将伪装成数据的恶意指令注入系统,触发未授权操作。研究者通过Supabase搭建的多租户客服SaaS系统演示了攻击过程:攻击者提交含恶意指令的支持请求,开发人员查看工单时触发高权限SQL查询,导致敏感数据泄露。漏洞根源在于数据库权限过高及对用户输入信任过度。解决措施包括启用只读模式以限制操作权限,以及添加提示注入过滤器拦截高风险输入。参考链接:
原文链接
标题:13年网安从业者感慨:“隐私已成幻想”
网络安全专家卢圣龙从事该行业13年,面对个人信息泄露,常感无力。他在一家安全实验室担任负责人,测试各单位和公司的网络安全,频繁发现企业内部数据易被获取。个人信息泄露问题严重,我们往往不知数据流向何方。
卢圣龙表示,尽管他注重隐私保护,但个人信息仍存在于许...
原文链接
3月3日,国家网络安全通报中心通报称,开源跨平台大模型工具Ollama存在安全风险。清华大学网络空间测绘联合研究中心指出,Ollama默认配置下存在未授权访问和模型窃取等安全隐患。多数用户采用私有化部署且未修改默认配置,导致数据泄露、算力盗取和服务中断等风险增加。使用Ollama在本地部署大模型时,默认开放11434端口且无鉴权机制,可能导致未授权用户访问模型并操作数据。此外,Ollama框架的历史漏洞(CVE-2024-39720/39722/39719/39721)也可能被利用,造成数据投毒、参数窃取等风险。建议用户限制监听范围、配置防火墙规则、实施多层认证与访问控制、禁用危险操作接口并修复历史漏洞。
原文链接
加载更多
暂无内容