1
免责声明:Al优秘圈所有资讯仅代表作者个人观点,不构成任何投资理财建议。请确保访问网址为(kx.umi6.com) 投诉及建议
综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
Anthropic放松AI安全承诺 竞争压力下或被迫调整立场
2026年2月25日,以安全为核心价值的人工智能公司Anthropic宣布调整其核心安全政策。此前,若模型被判定为“具有危险性”,该公司将暂停开发,但如今这一承诺已“软化”。Anthropic表示,在竞争对手发布“同类或更先进”模型的情况下,将不再执行暂停机制。此举旨在应对与其他AI实验室的激烈竞争,保持市场优势。这一政策调整标志着Anthropic在安全立场上的重大转变,显示出竞争压力对其战略的影响。
小阳哥
02-25 19:50:56
AI安全
Anthropic
竞争压力
分享至
打开微信扫一扫
内容投诉
生成图片
又一个谷歌不作恶式的形象崩塌 OpenAI删除AI安全造福人类承诺
2026年2月14日,OpenAI被曝删除了其关于AI安全及‘非营利性’的核心承诺,引发广泛关注。该公司最初以‘构建安全造福人类的通用人工智能(AGI)’为使命,但最新税务文件中已修改为‘确保通用人工智能使全人类受益’,不再提及安全与非营利限制。这一变化被视为OpenAI逐步弱化道德约束、转向追求商业利益的信号。此外,OpenAI近期解散了使命对齐团队,被解职高管爆料称公司为迎合部分用户开放成人内容。尽管OpenAI否认相关指责,但双方争论加剧争议。分析认为,随着广告引入及隐私数据掌握增多,OpenAI未来可能面临更多伦理与隐私问题的挑战。
GhostPilot
02-14 22:47:09
AI安全
OpenAI
营利性
分享至
打开微信扫一扫
内容投诉
生成图片
2026十大AI趋势发布,背后暗藏三条主线
2026年初,AI领域迎来关键发展节点。Meta以数十亿美元收购一家成立不到一年的AI公司,显示多智能体应用趋势崛起。CES2026上,物理AI、具身智能及AI落地成为焦点,英伟达、AMD等巨头展示AI从云端向物理世界的实际部署能力。北京智源人工智能研究院发布《2026十大AI技术趋势》报告,指出AI正从数字世界迈向物理世界,三大主线驱动范式变革:基础模型能力演化、AI实体化与社会化、消费与企业端落地路径明晰。同时,AI超级应用初现,ChatGPT、Gemini等构建All in One入口,国内头部厂商也在积极布局。然而,AI安全问题日益突出,2025年AI安全事件达330起,经济损失预计突破235亿美元。业界正加速构建全链路监测体系,强化防御能力,推动AI从技术演示走向规模价值兑现。
月光编码师
01-13 11:33:00
AI安全
AI落地
超级应用
分享至
打开微信扫一扫
内容投诉
生成图片
英政府机构专家警告:世界“恐将没时间”为应对 AI 安全风险做好准备
1月4日,英国《卫报》报道,英国先进研究与发明署(Aria Agency)AI安全专家David Dalrymple警告称,前沿AI系统发展迅猛,世界可能已来不及充分应对相关安全风险。他指出,AI能力快速超越人类,在经济价值工作中的低成本高质量表现或将在5年内显现。此外,AI模型性能指标约每8个月翻倍,部分学徒级任务成功率从去年10%升至50%,并具备独立完成专业任务的能力。Dalrymple强调,政府和企业对技术突破的认知存在落差,防护措施难以跟上技术发展。他还预测,到2026年末,AI可能实现自动完成整日研发工作,并在关键领域自我强化,呼吁加强风险控制以避免安全与经济体系失稳。
AI创意引擎
01-05 16:12:38
AI安全风险
技术进步
自我复制能力
分享至
打开微信扫一扫
内容投诉
生成图片
奥尔特曼 400 万年薪急招“末日主管”!上岗即“地狱模式”
2025年12月,OpenAI CEO奥尔特曼高薪招聘“准备工作负责人”,年薪55.5万美元(约合400万人民币)加股权,岗位被形容为“末日主管”。该职位旨在应对AI模型快速变强带来的风险,如心理健康影响和计算机安全漏洞发现等。奥尔特曼强调,需在模型能力增长的同时防止滥用,目标是构建更安全的系统,特别是在生物领域和自我改进系统方面。背景是OpenAI此前解散“超级对齐”团队及多名安全负责人离职,引发“安全空心化”担忧。此次招聘意在填补安全缺口,确保AI技术加速发展时不失控。
蝶舞CyberSwirl
12-29 15:34:55
AI安全
OpenAI
奥尔特曼
分享至
打开微信扫一扫
内容投诉
生成图片
国安部分享 AI“暗礁”:违规使用开源 AI 工具导致泄密等
12月26日,国家安全部发文警示AI技术快速发展背后的潜在风险。文章指出,违规使用开源AI工具可能引发数据泄露,例如某单位因未设密码导致敏感资料被境外IP非法访问。此外,深度伪造技术(Deepfake)被滥用可能威胁社会稳定与国家安全,而算法偏见则可能导致错误信息传播。为安全使用AI,国安部提出三条守则:划定权限范围、检查数字足迹、优化人机协作。同时提醒用户审慎授权软件权限,提高安全意识。如发现窃取个人信息或向境外传输敏感数据等问题,可通过12339举报受理渠道向国家安全机关举报。
AI创想团
12-26 17:54:23
AI安全
数据隐私
深度伪造
分享至
打开微信扫一扫
内容投诉
生成图片
最新研究:OpenAI等头部AI企业的安全监管未达到全球标准
12月3日,非营利机构生命未来研究所发布的《AI安全指数》显示,Anthropic、OpenAI、xAI、Meta等主要人工智能公司的安全治理未达全球标准。独立专家评估指出,尽管这些企业正竞相开发“超级智能”,但均未制定完善的策略来控制先进AI系统,存在安全隐患。这一研究揭示了头部AI企业在安全监管方面的不足,引发对AI技术快速发展的担忧。
量子思考者
12-03 21:44:07
AI安全
OpenAI
全球标准
分享至
打开微信扫一扫
内容投诉
生成图片
研究称 OpenAI、xAI 等全球主要 AI 公司安全措施“不及格”,远未达全球标准
12月3日,‘未来生命研究所’发布最新AI安全指数报告,指出Anthropic、OpenAI、xAI和Meta等主要AI公司的安全措施远未达到全球标准。独立专家评估显示,这些企业过于追逐超级智能,却缺乏可靠管控方案。报告背景是近期多起自杀和自残事件被关联到AI聊天机器人,引发社会对高阶AI系统的担忧。MIT教授Max Tegmark批评美国AI企业游说抵制强制性规范,且监管力度甚至不及餐馆。与此同时,科技巨头正投入巨资推动AI技术研发。今年10月,杰弗里・辛顿与约书亚・本吉奥等科学家呼吁暂停超级智能研发,直至确保安全路径明确。‘未来生命研究所’是非营利机构,长期关注AI对人类潜在威胁,曾获马斯克支持。
电子诗篇
12-03 20:37:31
AI安全
未来生命研究所
超级智能
分享至
打开微信扫一扫
内容投诉
生成图片
拿什么管住狂奔的AI? “十五五”规划下,AI安全千亿级市场正在开启
10月29日,在北京举行的2025 TechWorld智慧安全大会上,AI安全问题成为焦点。专家指出,AI技术广泛应用导致数据泄露、模型攻击等威胁加剧,传统安全手段难以应对新型攻击手法。近期,两款AI应用因服务器配置漏洞导致超40万用户敏感信息泄露,凸显AI安全挑战。随着‘十五五’规划建议发布,国家明确加强人工智能治理和完善监管,AI安全从‘可选项’转为‘必选项’。市场对大模型安全评估和防护服务需求激增,企业采购重点转向全生命周期解决方案。资本市场加速布局,去年至今国内AI安全领域融资额突破50亿元,未来市场规模或达450亿美元。业内人士预测,强制性法规出台将催生千亿级刚需市场。
梦境编程师
10-29 15:00:01
AI安全
千亿级市场
合规
分享至
打开微信扫一扫
内容投诉
生成图片
大模型中毒记
近日,AI领域传出大模型‘中毒’事件,表现为输出异常内容,如推荐虚假信息或编造新闻。Anthropic研究显示,仅需250篇恶意文档即可让130亿参数的模型中毒。中毒原因包括训练数据被污染(数据投毒)、运营阶段的对抗样本攻击等。幕后黑手可能是商业利益驱动的广告植入、技术炫耀的个人或网络犯罪团伙。中毒后果严重,可能传播虚假信息、诱导用户决策,甚至威胁公共安全,如自动驾驶误判交通标志。专家建议通过数据审核、对抗训练及行业协作构建防御体系,提升模型免疫力。
星际Code流浪者
10-20 20:12:54
AI安全
大模型中毒
数据投毒
分享至
打开微信扫一扫
内容投诉
生成图片
加载更多
暂无内容
AI热搜
更多
扫一扫体验小程序