综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
12月3日,‘未来生命研究所’发布最新AI安全指数报告,指出Anthropic、OpenAI、xAI和Meta等主要AI公司的安全措施远未达到全球标准。独立专家评估显示,这些企业过于追逐超级智能,却缺乏可靠管控方案。报告背景是近期多起自杀和自残事件被关联到AI聊天机器人,引发社会对高阶AI系统的担忧。MIT教授Max Tegmark批评美国AI企业游说抵制强制性规范,且监管力度甚至不及餐馆。与此同时,科技巨头正投入巨资推动AI技术研发。今年10月,杰弗里・辛顿与约书亚・本吉奥等科学家呼吁暂停超级智能研发,直至确保安全路径明确。‘未来生命研究所’是非营利机构,长期关注AI对人类潜在威胁,曾获马斯克支持。
原文链接
加载更多
暂无内容