综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
近日,MIT终身教授何恺明正式加盟谷歌DeepMind,担任杰出科学家一职。此前,他于2023年获得MIT终身教职,仅隔一年便选择以兼职形式加入谷歌。何恺明是计算机视觉领域的顶尖学者,曾提出ResNet等经典模型,总引用量超71万次。他与谷歌DeepMind早有合作,包括今年2月发表的《Fractal Generative Models》论文,以及去年合作的Fluid项目。此次加入DeepMind基础研究组,标志着其学术与产业界双重身份的延续。
原文链接
近日,麻省理工学院(MIT)一篇爆火的AI辅助科研加速研究论文被曝数据造假。该论文于2024年11月发表在arXiv上,声称AI辅助使新材料发现量增加44%、专利申请量增长39%、产品创新提升17%,曾获诺奖得主点赞。然而,MIT近期发布声明,指出校方对该论文数据来源、可靠性和有效性缺乏信心,要求撤稿。论文作者Aidan Toner-Rodgers为MIT经济系博士生,现已离职。MIT纪律委员会称,一位材料科学背景的计算机科学家曾向两位教授提出疑虑,随后校方展开秘密审查。尽管论文尚未正式发表,MIT担心其结论可能误导公众。目前,论文仍挂于arXiv,但作者未配合撤稿请求,相关GitHub链接已失效。此事件引发学界广泛关注。
原文链接
MIT最新研究揭示,人工智能(AI)已达到足以“洗脑”人类的程度,成功诱导出错误记忆。在一项模拟犯罪证人访谈的研究中,大型AI模型表现出色,有效促使参与者产生虚假记忆,效果显著优于其他方法。研究人员招募了200名志愿者,将其分为四组,包括控制变量组、调查问卷组、预先编写聊天机器人组以及AI警察组。志愿者观看视频后需回答问题,评估其记忆准确性和虚假记忆形成情况。
结果显示,AI警察组诱导的错误记忆数量最多,几乎是控制变量组的三倍,并且比其他两组分别高出1.7倍和1.4倍。此外,所有与AI警察互动的志愿者对其提供的虚假记忆信心倍增,且即使一周后,这些记忆依然清晰,显示了其持久性。研究还指出,对AI技术较熟悉或对犯罪调查感兴趣的人群更容易受到虚假记忆影响。这一发现警示我们,AI在重塑人类记忆方面的能力令人担忧,特别是在涉及法律和证词的情况下,应提高警惕,确保信息的真实性和准确性。
原文链接
MIT CSAIL的研究人员揭示了令人震惊的发现:大型语言模型(LLM)已经发展出对现实世界的深刻理解,这颠覆了以往认为LLM只能进行“鹦鹉学舌”的观点。通过在LLM内部构建小型卡雷尔谜题环境,研究人员发现,即使在缺乏视觉或生活经验的情况下,LLM也能通过预测指令来解决复杂问题,展现出对语言和现实世...
原文链接
近期,MIT等机构的一项研究揭示了AI训练数据获取的困境。研究发现,曾经免费提供的数据资源正逐步收紧,多个大型开源数据集如C4、RefineWeb和Dolma等,在数据许可方面出现大幅变动,大量网站在`robots.txt`协议中对数据爬取设限。这一现象不仅影响着商业AI模型的训练,也对学术研究和非...
原文链接
加载更多
暂无内容