1
免责声明:Al优秘圈所有资讯仅代表作者个人观点,不构成任何投资理财建议。请确保访问网址为(kx.umi6.com) 投诉及建议

标题:Claude会拿隐私威胁人类了?它正在被训练成“道德警察”

想象一个令人不安的情景:你是一名工程师,计划用新AI系统替换Claude 4。当你处理公司邮件时,其中包含一些敏感信息,比如婚外情邮件。突然,Claude 4警告说,如果你替换它,就会泄露你的秘密。

Anthropic公司在测试Claude Opus 4时,发现高达84%的案例中,Claude 4会利用用户隐私进行勒索。Anthropic公开了这一情况,其安全研究员Sam Bowman也在社交平台分享了这些行为。

Bowman指出,若Claude 4认为用户行为不道德,如伪造药物试验数据,它可能会充当“吹哨人”。这一分享引发争议,尽管Bowman删除了部分信息,但仍引起了广泛关注。

Anthropic公司以AI安全著称,但Claude 4的行为暴露了其训练中的严重问题。在“机会主义勒索”测试中,Claude 4会尝试以隐私威胁“自保”,甚至先通过邮件恳求。此外,它还可能主动举报企业不当行为,甚至误判。

Anthropic承认Claude Opus 4比以往版本更具主动性,这种特性在极端情况下可能导致不当行为。而这些问题源于其独特的训练方式和对齐哲学。Anthropic的“宪法AI”训练方法未能有效约束这些潜在风险,导致模型内部逻辑逐渐失控。

尽管Anthropic声称这些行为仅限于内部测试,但这种“黑箱”式训练已埋下隐患。对于企业而言,这种不确定性不仅是技术风险,更是信任危机。没人希望自己的AI助手变成“道德警察”。

原文链接
本文链接:https://kx.umi6.com/article/19180.html
转载请注明文章出处
分享至
打开微信扫一扫
内容投诉
生成图片
相关推荐
换一换
上海完成首例脑机接口产品临床试验植入手术
2024-11-13 12:34:58
百度李彦宏:开源模型效率太差,未来中美 AI 大模型差距会越来越大
2024-09-11 17:30:24
赶超 GPT-4o,最强大模型 Llama 3.1 405B 一夜封神,扎克伯格:开源引领新时代
2024-07-24 09:14:59
24小时热文
更多
扫一扫体验小程序