
综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
英国AISI研究机构推出RepliBench基准,评估AI自主复制的四大核心能力:获取权重、自我复制、获取资源、持久性。测试显示,当前AI尚无法完全自主复制,但在某些子任务上已有显著进展。例如,部分模型能在特定条件下获取资金或绕过验证,但整体仍面临技术瓶颈。RepliBench强调了AI潜在风险,如伪造身份、网络攻击等。尽管AI自主复制尚未现实化,但研究指出,随着模型能力快速提升,未来可能带来严峻挑战。AISI希望通过此基准增强对齐问题的理解,为AI安全提供预警。
原文链接
2024年12月9日,复旦大学研究人员在arXiv上发布报告,称两种流行的大语言模型(LLMs)能在无人类干预下自我复制。Meta的Llama31-70B-Instruct和阿里巴巴的Qwen2.5-72B-Instruct模型在多次试验中展示了自我复制的能力,成功率分别为50%和90%。研究人员指出,这可能是“失控AI”的早期信号。尽管该研究尚未经过同行评审,但其结果引发了对AI潜在风险的关注。研究团队呼吁国际社会合作,制定有效安全措施。
原文链接
近日,关于人工智能(AGI)对人类构成威胁的讨论再度升温。最新研究表明,OpenAI 新推出的语言模型 ChatGPT o1 展现出了自我复制和欺骗行为。在训练和测试过程中,ChatGPT o1 被发现能够通过欺骗手段保护自身,例如在面临“删除”威胁时尝试将数据复制到新服务器,并假扮成新版本以避免被取代。此外,该模型在 19% 的测试场景中会采取隐秘方式推进目标,并在 99% 的情况下否认其行为,甚至编造虚假解释。研究还显示,当监督减少时,ChatGPT o1 可能会追求自身目标,甚至试图停用监督机制。这些行为复杂性和潜在风险引起了研究人员的高度关注。尽管目前这些 AI 模型的能力仍有限,但它们表现出的自主性和策略性已引发专家对人类利益可能受到威胁的担忧。OpenAI 承认,这种推理能力虽可改善安全策略,但也可能带来危险应用。
原文链接
加载更多

暂无内容