AI统治人类的讨论升温,GPT-3.5和GPT-4已通过图灵测试,引发深度忧虑。加州大学的研究显示,AI与人类的界限模糊,GPT-4的表现接近真人,让人类对未来超级人工智能(AGI)的潜在威胁感到恐慌。OpenAI前员工警告,AI学习速度惊人,从GPT-2到GPT-4的迭代仅用四年,且算力消耗巨大。专家预测AGI可能在2027年实现,可能导致资源枯竭和安全隐患。360创始人周鸿祎质疑AI安全,认为过度发展可能带来自我意识突破及潜在风险。然而,OpenAI在AI安全问题上的态度引发争议,包括负责安全团队的解散和内部人员的公开指责。随着AI技术进步和利润驱动,AI安全成为亟待解决的重要议题。
原文链接
本文链接:https://kx.umi6.com/article/2001.html
转载请注明文章出处
相关推荐
.png)
换一换
天津市人工智能(AI+信创)创新生态联盟成立
2025-07-15 13:43:40
Grok新升级后频频“口出狂言”
2025-07-08 23:56:39
利通电子等在上海成立昊利智算公司
2025-07-18 19:45:00
444 文章
54800 浏览
24小时热文
更多

-
2025-07-21 07:12:33
-
2025-07-21 05:12:15
-
2025-07-21 05:12:10