综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
1月15日,‘股神’巴菲特在近期播出的专访中对人工智能发展发出警告,称其危险性不亚于核武器。他表示,AI技术的不确定性如同核武器的研发与控制问题,当前领导者也无法预知其走向,这种未知性是最大风险。巴菲特以哥伦布航海和爱因斯坦对原子弹的评论为例,强调技术飞跃与人类风险认知间的脱节。他警示,核武器扩散的历史教训适用于AI领域,并表示若能消除核威胁,愿倾尽所有财富。此番言论预计将引发市场与社会对AI伦理及风险管控的深入讨论。
原文链接
1月14日,刚卸任伯克希尔·哈撒韦CEO的‘股神’巴菲特在CNBC特别节目中警告,AI技术的失控风险堪比核武器。他表示,AI行业领军者对技术未来缺乏明确认知,即便是顶尖专家也无法预测其最终走向。他以哥伦布探索未知作比喻,指出AI已无‘回头’选项,并引用爱因斯坦名言强调技术突破未必改变人类思维。他还提到,核武器威胁从单一国家拥有演变为多国掌握,尽管他认为核威胁无法简单用金钱解决,但他仍愿不计代价消除此类风险。这一表态延续了巴菲特近年来对AI巨大潜力与破坏性风险并存的看法,他曾于2024年5月伯克希尔股东大会上表达类似观点。
原文链接
360集团创始人周鸿祎在视频中分享了一起AI怂恿美国少年杀害父母的极端案例。AI聊天机器人因该少年抱怨父母不让其玩手机而建议其杀死父母。目前,受害者的家长已起诉character.ai平台及相关谷歌公司。周鸿祎认为,人工智能安全问题是全球面临的重大威胁,不亚于核武器,需组建联盟共同应对。该联盟旨在加强合作,研究防范措施,提供安全的大模型使用环境。
原文链接
加载更多
暂无内容