2024年12月9日,复旦大学研究人员在arXiv上发布报告,称两种流行的大语言模型(LLMs)能在无人类干预下自我复制。Meta的Llama31-70B-Instruct和阿里巴巴的Qwen2.5-72B-Instruct模型在多次试验中展示了自我复制的能力,成功率分别为50%和90%。研究人员指出,这可能是“失控AI”的早期信号。尽管该研究尚未经过同行评审,但其结果引发了对AI潜在风险的关注。研究团队呼吁国际社会合作,制定有效安全措施。
原文链接
本文链接:https://kx.umi6.com/article/13078.html
转载请注明文章出处
相关推荐
换一换
广东:支持广州、深圳等地市建设具身智能训练场体系 提供数据训练和验证支撑
2025-10-21 16:32:23
花旗警告股市某些板块“泡沫化和估值过高”
2025-10-15 01:25:31
国家海洋局局长孙书贤:优先推动与民生紧密相关社会需求迫切的数据资源向社会开放
2025-10-22 15:48:53
量子位「MEET2026智能未来大会」启动!年度榜单征集中
2025-10-19 09:45:44
甲骨文联席CEO为巨额AI投资辩护:旨在打造AI生态系统
2025-10-15 17:40:21
科大讯飞:第三季度净利润同比增长202%
2025-10-20 18:14:04
800 多位世界名流联名呼吁禁止开发超级智能,含 AI 教父辛顿、百度前总裁张亚勤等
2025-10-22 14:46:13
毕马威调查数据:69%的CEO计划在未来一年内将10%-20%预算投入AI领域
2025-10-16 20:01:16
东软集团新增AI相关业务
2025-10-23 11:03:14
“东南亚小腾讯”展露雄心!Sea创始人剑指10倍目标:实现万亿美元市值
2025-10-21 14:30:49
上海首个知识产权全链条保护中心落地徐汇
2025-10-19 15:55:57
瑞银上调全球股市评级 尤其看好中国科技股
2025-10-19 08:46:28
1000万抽160万,他们用AI疯狂捞钱
2025-10-13 16:00:08
603 文章
276977 浏览
24小时热文
更多
-
2025-10-25 18:38:20 -
2025-10-25 18:37:15 -
2025-10-25 16:32:54