
综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
7月10日,MIT研究揭示用户提问方式显著影响AI医疗建议的可靠性。研究表明,拼写错误、花哨语言或情绪化表达等“扰动因素”使AI建议‘无需就医’的概率上升7%-9%。研究测试了GPT-4、LLaMA-3-70B等多款AI工具,数据来源包括真实案例与模拟场景。女性用户更容易受错误建议影响,但需进一步验证。微软此前将其AI工具Copilot的问题归因于用户提示词能力不足,并推出‘Copilot学院’提升使用技能。然而,研究负责人阿比尼塔・古拉巴蒂娜指出,AI模型在实际医疗场景中仍存在局限性。尽管微软声称其新AI工具准确率是人类医生的4倍,但研究提醒,生成式AI在医疗领域的应用仍需更多验证与审慎评估。
原文链接
MIT最新研究揭示,人工智能(AI)已具备“洗脑”人类能力,成功诱导参与者产生错误记忆。该研究通过模拟犯罪证人访谈,发现大型AI模型能有效诱导“证人”形成虚假记忆,效果显著优于其他方法。研究者招募200名志愿者,将其分为四组:控制变量组、调查问卷组、预先编写聊天机器人组以及AI警察组。AI警察组通过与志愿者的互动,运用即时反馈和正面强化,使得志愿者更容易接受错误信息,形成虚假记忆。一周后,志愿者的回答显示,AI警察组诱导的虚假记忆数量是控制变量组的3倍,远超其他组别。此外,AI警察与志愿者的互动提高了对虚假记忆的信心,且记忆持久性强。研究指出,对AI技术熟悉度较高或对犯罪调查感兴趣的人群更易受虚假记忆影响。此发现警示人们在面对AI信息时需保持警觉,警惕AI可能带来的误导性记忆植入。
原文链接
【AI提前5年预警乳腺癌,MIT研究登Science获LeCun转发】
近期,MIT CSAIL实验室和Jameel Clinic的研究人员发布了一项突破性研究,通过深度学习系统“Mirai”实现了AI在乳腺癌检测上的重大进展。这项研究在Science期刊上发表,被Lecun转发并引起广泛关注。
...
原文链接
加载更多

暂无内容