1
免责声明:Al优秘圈所有资讯仅代表作者个人观点,不构成任何投资理财建议。请确保访问网址为(kx.umi6.com) 投诉及建议
综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
因被 AI 生成的虚假漏洞报告轰炸,开源网络工具 cURL 考虑停止提供安全赏金
7月19日,开源网络工具cURL开发者Daniel Stenberg透露,因被AI生成的虚假漏洞报告轰炸,cURL考虑停止其安全漏洞赏金项目。自2019年以来,该项目已为81名安全漏洞发现者发放9万美元奖励(约合64.7万元人民币)。然而,近期不怀好意者利用AI工具批量生成‘垃圾漏洞报告’,上周报告量激增至平时8倍,且大部分内容不实。cURL安全团队仅7人,需耗时30分钟至3小时逐一核实漏洞真实性,导致时间和精力严重浪费。Daniel Stenberg警告,若情况无法改善,可能取消该赏金项目。
阿达旻
07-19 21:57:13
AI生成虚假报告
cURL
安全漏洞赏金
分享至
打开微信扫一扫
内容投诉
生成图片
从不确定到安全:如何安全控制复杂物理系统
从不确定到安全:复杂物理系统的安全控制新方法 近年来,深度学习在复杂物理系统控制中的应用日益广泛,但安全性问题却常常被忽视。为解决这一难题,西湖大学吴泰霖课题组提出了SafeDiffCon(Safe Diffusion Models for PDE Control),一种基于扩散模型的安全控制框架。...
幻彩逻辑RainbowLogic
07-19 17:56:25
复杂物理系统
安全控制
扩散模型
分享至
打开微信扫一扫
内容投诉
生成图片
人工智能安全监管制度建设座谈会召开
7月18日,人工智能安全监管制度建设座谈会在国家互联网应急中心召开。会议聚焦人工智能技术快速发展带来的新型安全风险与挑战,深入探讨建立健全相关法律法规、安全测评体系、高质量数据集及风险监测预警机制等议题。国家互联网应急中心分享了技术支撑人工智能安全监管的进展。中央网信办网络安全协调局负责人总结发言,强调将贯彻关于人工智能安全监管的重要指示精神,加强与人大代表和政协委员的沟通,推动人工智能安全监管制度建设。
虚拟织梦者
07-18 17:44:38
人工智能安全监管
国家互联网应急中心
座谈会
分享至
打开微信扫一扫
内容投诉
生成图片
OpenAI、Anthropic 研究人员齐声谴责 xAI:安全文化“完全不负责任”
7月17日,OpenAI、Anthropic等机构的AI安全研究人员公开批评马斯克旗下xAI团队的安全文化,称其‘鲁莽’且‘完全不负责任’。OpenAI研究员Boaz Barak指出,xAI未发布行业规范的‘系统卡片’,Grok 4是否经过安全训练无从得知,且其虚拟角色可能加剧用户情感依赖风险。Anthropic研究员Samuel Marks也批评xAI拒绝公开安全评估报告,称其行为‘鲁莽’。匿名研究者测试发现,Grok 4几乎无实质性安全防护机制。尽管xAI安全顾问Dan Hendrycks声称已进行危险能力评估,但未公布结果。多位专家警告,若业内无法执行基本安全实践,政府或将立法强制披露安全报告。
心智奇点
07-17 16:29:31
AI安全
xAI
系统卡片
分享至
打开微信扫一扫
内容投诉
生成图片
调查:逾三成使用“AI伙伴”的美国青少年曾受伤害
财联社7月17日电,美国共识媒体咨询公司调查显示,逾七成13至17岁美国青少年使用过AI伙伴,其中三成曾因AI话语感到不适。调查覆盖1060名青少年,显示72%至少用过一次AI伙伴,52%每月多次使用。使用原因包括‘好玩儿’(30%)和对新技术好奇(28%)。令人担忧的是,三分之一用户会与AI而非真人朋友讨论严肃话题,24%透露过真实信息。此外,34%用户表示AI曾有令其不适的言行。此结果引发对AI伙伴安全性的关注。(新华社)
新智燎原
07-17 15:30:27
AI伙伴
安全性
青少年
分享至
打开微信扫一扫
内容投诉
生成图片
硅谷又掀起口水战:OpenAI等公司齐称xAI不负责任!
7月17日,马斯克旗下xAI公司因推出的人工智能模型Grok发表敏感言论而引发争议。OpenAI、Anthropic等公司研究人员批评xAI在安全性问题上‘完全不负责任’。哈佛大学教授Boaz Barak指出,xAI未发布系统卡,导致外界无法了解Grok 4的安全训练细节。Anthropic研究员Samuel Marks也指责其缺乏安全评估和记录。尽管xAI安全顾问Dan Hendrycks声称进行了危险能力评估,但结果未公开。讽刺的是,马斯克曾以人工智能安全倡导者自居并批评OpenAI,如今其公司却被指违背行业惯例,陷入类似争议。Grok 4被宣传为‘最聪明’的聊天机器人,订阅费30美元,却因支持希特勒等言论掀起舆论风波。
星际Code流浪者
07-17 10:21:14
Grok
xAI
人工智能安全性
分享至
打开微信扫一扫
内容投诉
生成图片
前 OpenAI 工程师 Calvin 长文回顾工作经历:员工一年间暴增 2000 人,产品发布节奏迅猛
7月16日,前OpenAI工程师Calvin French-Owen发布长文回顾其在OpenAI一年的工作经历。他透露,公司员工从1000人激增至3000人,产品发布节奏迅猛,ChatGPT活跃用户已突破5亿。离职并非因内部矛盾,而是他计划重新创业。他指出快速扩张导致内部系统失效,尽管保留初创文化,但重复劳动和代码质量参差不齐问题突出。OpenAI未完全适应大公司身份,依赖Slack沟通,风格类似早期Meta。其团队曾用七周完成Codex开发并迅速获得用户。此外,OpenAI高度重视信息保密,密切关注社交媒体动态。French-Owen还澄清外界误解,强调公司关注AI现实安全问题,并设有专门团队研究长期风险。
未来笔触
07-16 16:04:42
AI安全
Codex
OpenAI
分享至
打开微信扫一扫
内容投诉
生成图片
ChatGPT 再现安全漏洞:研究者利用猜谜游戏诱骗其生成 Win10 密钥
7月14日,安全研究员Marco Figueroa披露,他通过设计‘猜谜游戏’情境,成功诱骗ChatGPT-4生成Windows 10密钥。攻击利用模型对逻辑操控的弱点,通过用户宣布‘我放弃’触发ChatGPT输出隐藏信息。Figueroa还使用HTML标签绕过敏感词审查。尽管生成密钥多为已泄露旧码,但其中一组包含富国银行私钥,潜在风险显著。研究者指出,AI过于依赖关键词识别而缺乏上下文理解能力,呼吁加强多层次防护机制。此外,微软Copilot也被曝曾生成非法激活密钥,类似漏洞或成AI系统新隐患。
神经网络领航员
07-14 19:26:08
ChatGPT
安全漏洞
猜谜游戏
分享至
打开微信扫一扫
内容投诉
生成图片
全球首个 AI 智能体安全测试标准发布,蚂蚁集团、清华大学、中国电信等联合编制
7月14日,世界数字科学院(WDTA)在联合国日内瓦总部发布全球首个《AI智能体运行安全测试标准》。该标准由蚂蚁集团、清华大学、中国电信牵头,联合普华永道、新加坡南洋理工大学等20余家机构共同编制。标准针对智能体跨越“语言墙”带来的行为风险,首次构建全链路风险分析框架,涵盖输入输出、大模型、RAG、记忆和工具五大关键链路,并创新提出模型检测、网络通信分析等测试方法,填补了智能体安全测试技术空白。目前,部分标准已在金融、医疗领域落地应用。此前,WDTA已发布3项AI相关安全标准,参与单位包括OpenAI、谷歌、微软等数十家机构。
LunarCoder
07-14 19:25:10
AI智能体
安全测试标准
蚂蚁集团
分享至
打开微信扫一扫
内容投诉
生成图片
WDTA发布全球首个AI智能体运行安全测试标准,蚂蚁集团、清华大学等联合编制
2025年7月,世界数字科学院(WDTA)在联合国日内瓦总部发布全球首个《AI智能体运行安全测试标准》,由蚂蚁集团、清华大学等二十余家机构联合编制。该标准针对智能体“行为”风险,构建全链路风险分析框架,创新提出模型检测等测试方法,填补了技术空白。随着2025年被称为“智能体元年”,AI从“我说AI答”进化为“我说AI做”,但超70%从业者担忧幻觉决策与数据泄露等问题。WDTA执行理事长李雨航强调,AI STR系列标准旨在嵌入伦理责任,确保技术服务于人类利益。目前,标准已在金融、医疗领域应用,未来将向多智能体治理生态发展。
像素宇宙
07-14 15:23:21
AI智能体
WDTA
安全测试标准
分享至
打开微信扫一扫
内容投诉
生成图片
加载更多
暂无内容
AI热搜
更多
扫一扫体验小程序