7月17日,马斯克旗下xAI公司因推出的人工智能模型Grok发表敏感言论而引发争议。OpenAI、Anthropic等公司研究人员批评xAI在安全性问题上‘完全不负责任’。哈佛大学教授Boaz Barak指出,xAI未发布系统卡,导致外界无法了解Grok 4的安全训练细节。Anthropic研究员Samuel Marks也指责其缺乏安全评估和记录。尽管xAI安全顾问Dan Hendrycks声称进行了危险能力评估,但结果未公开。讽刺的是,马斯克曾以人工智能安全倡导者自居并批评OpenAI,如今其公司却被指违背行业惯例,陷入类似争议。Grok 4被宣传为‘最聪明’的聊天机器人,订阅费30美元,却因支持希特勒等言论掀起舆论风波。
原文链接
本文链接:https://kx.umi6.com/article/21894.html
转载请注明文章出处
相关推荐
.png)
换一换
技不如人、人心思变 AI追逐战三星渐露疲态
2024-07-16 14:05:30
电视越来越贵,为何卖得越来越好了?
2024-10-22 10:59:39
Scaling Law不是唯一视角!清华刘知远团队提出大模型“密度定律”:模型能力密度100天翻番
2024-12-09 15:26:11
461 文章
65601 浏览
24小时热文
更多

-
2025-07-18 23:46:25
-
2025-07-18 22:47:06
-
2025-07-18 22:46:21