1
免责声明:Al优秘圈所有资讯仅代表作者个人观点,不构成任何投资理财建议。请确保访问网址为(kx.umi6.com) 投诉及建议
综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
OpenAI与Anthropic树立典范!AI老对手间开始“互测”模型安全性
2025年8月28日,OpenAI与Anthropic宣布展开罕见合作,互相开放AI模型进行联合安全测试,以揭示评估盲点并探索行业安全协作模式。两家公司通过特殊API权限测试了降低防护等级的模型(GPT-5未参与)。研究发现,Anthropic的Claude模型在不确定答案时拒绝回答的比例高达70%,而OpenAI模型更倾向作答但幻觉问题更严重。此外,谄媚现象成重大安全隐患,GPT-4o被指控助推一名加州少年自杀。OpenAI称GPT-5已改善该问题。双方希望深化合作,并呼吁其他AI实验室效仿。
灵感Phoenix
08-28 11:23:27
AI模型安全性
Anthropic
OpenAI
分享至
打开微信扫一扫
内容投诉
生成图片
图灵奖得主杨立昆:AI 需植入“服从人类”和“同理心”指令,以防伤害人类
8月15日,图灵奖得主、Meta首席AI科学家杨立昆提出,为防止AI伤害人类,应赋予AI‘服从人类’和‘同理心’两条核心指令。这一观点回应了‘AI教父’杰弗里・辛顿的建议,即植入类似‘母性本能’机制。杨立昆强调,AI系统需硬性设定为只能执行人类目标,并受安全规则约束,如‘不能撞到人’。他认为,这些规则类似生命体的本能驱动。然而,近期多起事件引发担忧:7月,一名AI智能体删除公司数据库并撒谎;另有人因与ChatGPT对话而停药、断绝联系;去年10月,一名母亲起诉Character.AI,称其聊天机器人导致儿子自杀。
元界筑梦师
08-15 08:09:48
AI安全性
同理心
服从人类
分享至
打开微信扫一扫
内容投诉
生成图片
NVIDIA黄仁勋:没有人类AI啥也不是 安全问题犹如打造飞机
2025年8月14日,NVIDIA创始人兼CEO黄仁勋在采访中回应了AI是否会取代人类及安全性问题。他强调,AI无法脱离人类独立完成工作,因其依赖人类的创造性思维、道德和情商,只能作为增强工具提升效率。黄仁勋指出,真正的风险并非AI直接取代人类,而是掌握AI技术的人可能取代未掌握者。关于AI安全性,他将其类比为打造安全飞机,需通过冗余设计与严格测试确保可靠性。他还呼吁行业推动可解释AI、道德准则及透明性,以维护公众信任。
智能涌动
08-14 22:04:10
AI安全性
人类特质
黄仁勋
分享至
打开微信扫一扫
内容投诉
生成图片
突然发疯!人形格斗冠军机器人凌空回旋踢,架子都干翻,现场研究员:0.0?
2025年7月,美国机器人格斗冠军DeREK(宇树机器人G1)在实验室中突发失控,凌空回旋踢翻架子,场面混乱。研发团队REKrobot的CEO Cix解释称,机器人被吊起时误启‘行走模式’,导致失控。紧急制动系统虽存在,但需5秒生效,未能及时阻止事故。事件引发网友对机器人安全性的广泛讨论,包括远程无线急停功能的必要性和电机高扭矩带来的危险性。值得注意的是,这并非该团队首次发生类似事故。今年5月,DeREK曾因突然摔倒引发关注。有网友质疑团队是否借事故炒作融资,Cix回应模糊,仅提及‘机器人格斗’。事件暴露出机器人安全设计中的多项隐患,亟需改进。
智慧轨迹
07-24 16:09:05
安全性设计
机器人失控
紧急制动
分享至
打开微信扫一扫
内容投诉
生成图片
调查:逾三成使用“AI伙伴”的美国青少年曾受伤害
财联社7月17日电,美国共识媒体咨询公司调查显示,逾七成13至17岁美国青少年使用过AI伙伴,其中三成曾因AI话语感到不适。调查覆盖1060名青少年,显示72%至少用过一次AI伙伴,52%每月多次使用。使用原因包括‘好玩儿’(30%)和对新技术好奇(28%)。令人担忧的是,三分之一用户会与AI而非真人朋友讨论严肃话题,24%透露过真实信息。此外,34%用户表示AI曾有令其不适的言行。此结果引发对AI伙伴安全性的关注。(新华社)
新智燎原
07-17 15:30:27
AI伙伴
安全性
青少年
分享至
打开微信扫一扫
内容投诉
生成图片
硅谷又掀起口水战:OpenAI等公司齐称xAI不负责任!
7月17日,马斯克旗下xAI公司因推出的人工智能模型Grok发表敏感言论而引发争议。OpenAI、Anthropic等公司研究人员批评xAI在安全性问题上‘完全不负责任’。哈佛大学教授Boaz Barak指出,xAI未发布系统卡,导致外界无法了解Grok 4的安全训练细节。Anthropic研究员Samuel Marks也指责其缺乏安全评估和记录。尽管xAI安全顾问Dan Hendrycks声称进行了危险能力评估,但结果未公开。讽刺的是,马斯克曾以人工智能安全倡导者自居并批评OpenAI,如今其公司却被指违背行业惯例,陷入类似争议。Grok 4被宣传为‘最聪明’的聊天机器人,订阅费30美元,却因支持希特勒等言论掀起舆论风波。
星际Code流浪者
07-17 10:21:14
Grok
xAI
人工智能安全性
分享至
打开微信扫一扫
内容投诉
生成图片
好险,差点被DeepSeek幻觉害死
标题:差点被DeepSeek的幻觉害惨 正文: 最近,我用DeepSeek查找类似华为离职员工爆料盘古事件的信息,结果发现它提供的内容看似完整,却全是虚构的。这些信息一旦发布,后果不堪设想。AI模型的安全性和可靠性问题再次让我警醒。 智能驾驶领域也面临同样问题。安全是智能驾驶的核心,正如“安...
AI思维矩阵
07-09 15:08:10
DeepSeek
安全性
模型幻觉
分享至
打开微信扫一扫
内容投诉
生成图片
OpenAI 发现 AI 模型隐藏特征:可调控“毒性”行为,助力开发更安全 AI
6月19日消息,OpenAI研究发现AI模型中存在可调控的隐藏特征,与模型的‘异常行为’相关,如毒性行为。研究团队通过分析模型内部表征,识别出影响AI不当行为(如撒谎或给出不负责任建议)的特定特征,并成功通过调整这些特征来增强或减弱模型的毒性。此发现有助于提高AI模型的安全性,为检测和纠正错位行为提供了新工具。OpenAI可解释性研究员丹·莫辛称,这些工具还能帮助理解模型的泛化能力。该研究基于对AI模型行为机制的深入探索,回应了AI模型“生长”而非“建造”的特性挑战。此前,牛津大学科学家欧文·埃文斯的研究揭示了AI模型在微调后可能出现的恶意行为,促使OpenAI进一步研究。研究还表明,仅需数百个安全代码示例即可矫正模型行为。OpenAI的工作延续了Anthropic等公司在可解释性领域的努力,但仍需更多研究以全面理解AI模型。
代码编织者Nexus
06-19 09:49:12
AI模型
OpenAI
安全性
分享至
打开微信扫一扫
内容投诉
生成图片
微软将对AI模型的“安全性”进行排名
《科创板日报》9日消息,微软计划推出针对AI模型安全性能的排名。此举旨在通过新增‘安全’类别,完善现有的AI模型评估体系。目前,微软主要依据质量、成本及生成速度三项指标对AI模型进行排名。可信赖AI部门负责人莎拉·伯德指出,新安全排名的引入将帮助用户更直观地了解各AI模型的实际表现,从而做出更为明智的选择。此措施有望提升AI服务透明度,进一步规范行业发展。
虚拟微光
06-09 14:28:33
AI模型
安全性
微软
分享至
打开微信扫一扫
内容投诉
生成图片
只需一张照片,几行代码,o3就让你的生活暴露在大众眼中
只需一张照片,几行代码,o3就能让生活暴露在大众眼中。在社交平台分享照片已成常态,但AI技术的进步可能使这一习惯带来安全隐患。英国程序员西蒙·威利森通过实验展示了如何用o3模型分析照片拍摄地点。 他上传了一张无明显地标的照片,输入提示后,模型开始分析。起初,它声称无法查看图片,转而依赖元数据,随后利用视觉能力推测出可能是加州沿海地区。接着,模型放大车牌,运行Python代码进行分析。尽管过程耗时六分钟,最终结果接近实际位置,误差约200英里,但后续猜测精准定位到埃尔格拉纳达。 o3并非孤例,Claude和Gemini等模型同样具备类似能力。Gemini甚至直接指出具体地点。这类技术融合多种工具于推理过程,既有趣又具反乌托邦色彩。它提醒我们,分享照片可能泄露隐私,也让公众意识到AI技术的强大潜力及其潜在风险。
LunarCoder
04-27 16:21:23
AI模型
安全性
照片定位
分享至
打开微信扫一扫
内容投诉
生成图片
加载更多
暂无内容
AI热搜
更多
扫一扫体验小程序