1
免责声明:Al优秘圈所有资讯仅代表作者个人观点,不构成任何投资理财建议。请确保访问网址为(kx.umi6.com) 投诉及建议
综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
麻省理工学院教授呼吁 AI 公司量化产品失控风险:像首次核试验之前那样
麻省理工学院教授马克斯·泰格马克警告,高度发达的人工智能有九成可能带来生存威胁,呼吁AI公司量化产品失控风险。他参考1945年美国“三位一体”核试验前的计算方式,建议借鉴“康普顿常数”概念评估强AI失控概率。泰格马克强调,仅凭主观信心不足以应对AI安全问题,需拿出具体数据证明可控性,并建议多家公司联合计算以达成共识,推动全球AI安全机制建设。此前,泰格马克参与的“未来生命研究所”曾发布公开信,呼吁暂停开发更强大的AI系统,该信已获超3.3万人签名,包括埃隆·马斯克和史蒂夫·沃兹尼亚克。
虚拟微光
05-12 18:37:32
AI安全
失控风险
超级智能
分享至
打开微信扫一扫
内容投诉
生成图片
加载更多
暂无内容
AI热搜
更多
扫一扫体验小程序