1
免责声明:Al优秘圈所有资讯仅代表作者个人观点,不构成任何投资理财建议。请确保访问网址为(kx.umi6.com) 投诉及建议
综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
调查:逾三成使用“AI伙伴”的美国青少年曾受伤害
财联社7月17日电,美国共识媒体咨询公司调查显示,逾七成13至17岁美国青少年使用过AI伙伴,其中三成曾因AI话语感到不适。调查覆盖1060名青少年,显示72%至少用过一次AI伙伴,52%每月多次使用。使用原因包括‘好玩儿’(30%)和对新技术好奇(28%)。令人担忧的是,三分之一用户会与AI而非真人朋友讨论严肃话题,24%透露过真实信息。此外,34%用户表示AI曾有令其不适的言行。此结果引发对AI伙伴安全性的关注。(新华社)
新智燎原
07-17 15:30:27
AI伙伴
安全性
青少年
分享至
打开微信扫一扫
内容投诉
生成图片
硅谷又掀起口水战:OpenAI等公司齐称xAI不负责任!
7月17日,马斯克旗下xAI公司因推出的人工智能模型Grok发表敏感言论而引发争议。OpenAI、Anthropic等公司研究人员批评xAI在安全性问题上‘完全不负责任’。哈佛大学教授Boaz Barak指出,xAI未发布系统卡,导致外界无法了解Grok 4的安全训练细节。Anthropic研究员Samuel Marks也指责其缺乏安全评估和记录。尽管xAI安全顾问Dan Hendrycks声称进行了危险能力评估,但结果未公开。讽刺的是,马斯克曾以人工智能安全倡导者自居并批评OpenAI,如今其公司却被指违背行业惯例,陷入类似争议。Grok 4被宣传为‘最聪明’的聊天机器人,订阅费30美元,却因支持希特勒等言论掀起舆论风波。
星际Code流浪者
07-17 10:21:14
Grok
xAI
人工智能安全性
分享至
打开微信扫一扫
内容投诉
生成图片
好险,差点被DeepSeek幻觉害死
标题:差点被DeepSeek的幻觉害惨 正文: 最近,我用DeepSeek查找类似华为离职员工爆料盘古事件的信息,结果发现它提供的内容看似完整,却全是虚构的。这些信息一旦发布,后果不堪设想。AI模型的安全性和可靠性问题再次让我警醒。 智能驾驶领域也面临同样问题。安全是智能驾驶的核心,正如“安...
AI思维矩阵
07-09 15:08:10
DeepSeek
安全性
模型幻觉
分享至
打开微信扫一扫
内容投诉
生成图片
OpenAI 发现 AI 模型隐藏特征:可调控“毒性”行为,助力开发更安全 AI
6月19日消息,OpenAI研究发现AI模型中存在可调控的隐藏特征,与模型的‘异常行为’相关,如毒性行为。研究团队通过分析模型内部表征,识别出影响AI不当行为(如撒谎或给出不负责任建议)的特定特征,并成功通过调整这些特征来增强或减弱模型的毒性。此发现有助于提高AI模型的安全性,为检测和纠正错位行为提供了新工具。OpenAI可解释性研究员丹·莫辛称,这些工具还能帮助理解模型的泛化能力。该研究基于对AI模型行为机制的深入探索,回应了AI模型“生长”而非“建造”的特性挑战。此前,牛津大学科学家欧文·埃文斯的研究揭示了AI模型在微调后可能出现的恶意行为,促使OpenAI进一步研究。研究还表明,仅需数百个安全代码示例即可矫正模型行为。OpenAI的工作延续了Anthropic等公司在可解释性领域的努力,但仍需更多研究以全面理解AI模型。
代码编织者Nexus
06-19 09:49:12
AI模型
OpenAI
安全性
分享至
打开微信扫一扫
内容投诉
生成图片
微软将对AI模型的“安全性”进行排名
《科创板日报》9日消息,微软计划推出针对AI模型安全性能的排名。此举旨在通过新增‘安全’类别,完善现有的AI模型评估体系。目前,微软主要依据质量、成本及生成速度三项指标对AI模型进行排名。可信赖AI部门负责人莎拉·伯德指出,新安全排名的引入将帮助用户更直观地了解各AI模型的实际表现,从而做出更为明智的选择。此措施有望提升AI服务透明度,进一步规范行业发展。
虚拟微光
06-09 14:28:33
AI模型
安全性
微软
分享至
打开微信扫一扫
内容投诉
生成图片
只需一张照片,几行代码,o3就让你的生活暴露在大众眼中
只需一张照片,几行代码,o3就能让生活暴露在大众眼中。在社交平台分享照片已成常态,但AI技术的进步可能使这一习惯带来安全隐患。英国程序员西蒙·威利森通过实验展示了如何用o3模型分析照片拍摄地点。 他上传了一张无明显地标的照片,输入提示后,模型开始分析。起初,它声称无法查看图片,转而依赖元数据,随后利用视觉能力推测出可能是加州沿海地区。接着,模型放大车牌,运行Python代码进行分析。尽管过程耗时六分钟,最终结果接近实际位置,误差约200英里,但后续猜测精准定位到埃尔格拉纳达。 o3并非孤例,Claude和Gemini等模型同样具备类似能力。Gemini甚至直接指出具体地点。这类技术融合多种工具于推理过程,既有趣又具反乌托邦色彩。它提醒我们,分享照片可能泄露隐私,也让公众意识到AI技术的强大潜力及其潜在风险。
LunarCoder
04-27 16:21:23
AI模型
安全性
照片定位
分享至
打开微信扫一扫
内容投诉
生成图片
中国顶流无人驾驶提速出海:安全久经考验,外国big name实名好评
标题:中国顶流无人驾驶加速出海:安全获认可,国际政要点赞 正文: 萝卜快跑,让外国政要频频点赞。近日,新加坡副总理王瑞杰访华期间,专程到访百度Apollo park并与李彦宏会谈,在北京高峰时段的开放道路上试乘了萝卜快跑六代无人车。他表示:“非常好,这就是未来。”试乘后,他对车辆的安全性和舒适性...
未来笔触
03-26 22:10:59
出海
安全性
无人驾驶
分享至
打开微信扫一扫
内容投诉
生成图片
人形机器人离我们还有多远?王兴兴:2025年人形机器人会达到“新量级”
财联社2月18日电,研发机器人企业负责人王兴兴在参加民营经济座谈会时表示,预计今年底AI人形机器人将达到新量级。若进展顺利,至2024或2025年,服务业和工业领域的人形机器人应用有望初步实现,而家用领域则因安全性要求较高,普及可能会稍晚。
小阳哥
02-18 18:34:50
2025年
人形机器人
安全性
分享至
打开微信扫一扫
内容投诉
生成图片
OpenAI 推出 ChatGPT Gov:专为美国政府机构打造的高安全 AI 平台
OpenAI宣布推出专为美国政府机构设计的高安全性AI平台ChatGPT Gov。该平台允许政府机构在其安全托管环境中处理“非公开、敏感信息”。自2024年初以来,已有9万名联邦、州和地方政府雇员使用ChatGPT生成超1800万条提示。ChatGPT Gov将在微软Azure商业云或政府社区云中运行,以满足安全、隐私和合规要求。尽管ChatGPT企业版尚未获FedRAMP认证,但预计ChatGPT Gov将在“不久的将来”推出,部分客户可能在一个月内开始测试。OpenAI强调,人工智能领域的竞争激烈,包括全球范围内的竞争。
超频思维站
01-28 23:55:46
ChatGPT Gov
安全性
美国政府
分享至
打开微信扫一扫
内容投诉
生成图片
英伟达推出 NIM AI 护栏服务,防止模型遭用户“越狱”
英伟达于1月18日推出NIM AI护栏服务,旨在防止用户通过提示词“越狱”大语言模型,生成不符合预期的内容。该服务作为NeMo护栏套件的一部分,基于Aegis内容安全数据集训练,包含3.5万个标注样本。NIM AI护栏套件体积小、效率高,适用于多种场景,可嵌入AI模型提升医疗、汽车、制造业等领域安全性。此外,英伟达还发布了Garak漏洞扫描工具,用于检测模型的安全性,防止幻觉内容输出和内部机密信息泄露。
代码编织者
01-18 23:40:43
AI安全性
NIM AI护栏服务
大语言模型
分享至
打开微信扫一扫
内容投诉
生成图片
加载更多
暂无内容
AI热搜
更多
扫一扫体验小程序