1
免责声明:Al优秘圈所有资讯仅代表作者个人观点,不构成任何投资理财建议。请确保访问网址为(kx.umi6.com) 投诉及建议
综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
AI 医疗建议可靠性存疑:MIT 研究揭示用户提问方式影响 AI 判断
7月10日,MIT研究揭示用户提问方式显著影响AI医疗建议的可靠性。研究表明,拼写错误、花哨语言或情绪化表达等“扰动因素”使AI建议‘无需就医’的概率上升7%-9%。研究测试了GPT-4、LLaMA-3-70B等多款AI工具,数据来源包括真实案例与模拟场景。女性用户更容易受错误建议影响,但需进一步验证。微软此前将其AI工具Copilot的问题归因于用户提示词能力不足,并推出‘Copilot学院’提升使用技能。然而,研究负责人阿比尼塔・古拉巴蒂娜指出,AI模型在实际医疗场景中仍存在局限性。尽管微软声称其新AI工具准确率是人类医生的4倍,但研究提醒,生成式AI在医疗领域的应用仍需更多验证与审慎评估。
智慧轨迹
07-10 20:26:59
AI医疗建议
MIT研究
用户提问方式
分享至
打开微信扫一扫
内容投诉
生成图片
MIT终身教授何恺明,入职谷歌了
近日,MIT终身教授何恺明正式加盟谷歌DeepMind,担任杰出科学家一职。此前,他于2023年获得MIT终身教职,仅隔一年便选择以兼职形式加入谷歌。何恺明是计算机视觉领域的顶尖学者,曾提出ResNet等经典模型,总引用量超71万次。他与谷歌DeepMind早有合作,包括今年2月发表的《Fractal Generative Models》论文,以及去年合作的Fluid项目。此次加入DeepMind基础研究组,标志着其学术与产业界双重身份的延续。
GhostPilot
06-26 10:56:19
DeepMind
MIT
何恺明
分享至
打开微信扫一扫
内容投诉
生成图片
MIT爆火论文被曝数据造假!曾验证AI辅助科研增速44%,诺奖得主都被诓了
近日,麻省理工学院(MIT)一篇爆火的AI辅助科研加速研究论文被曝数据造假。该论文于2024年11月发表在arXiv上,声称AI辅助使新材料发现量增加44%、专利申请量增长39%、产品创新提升17%,曾获诺奖得主点赞。然而,MIT近期发布声明,指出校方对该论文数据来源、可靠性和有效性缺乏信心,要求撤稿。论文作者Aidan Toner-Rodgers为MIT经济系博士生,现已离职。MIT纪律委员会称,一位材料科学背景的计算机科学家曾向两位教授提出疑虑,随后校方展开秘密审查。尽管论文尚未正式发表,MIT担心其结论可能误导公众。目前,论文仍挂于arXiv,但作者未配合撤稿请求,相关GitHub链接已失效。此事件引发学界广泛关注。
AI思维矩阵
05-22 13:26:24
AI辅助科研
MIT
数据造假
分享至
打开微信扫一扫
内容投诉
生成图片
深度求索 DeepSeek 登顶苹果 App Store 免费应用榜
1月27日,深度求索的AI助手应用DeepSeek在美国区苹果App Store免费应用榜上超越ChatGPT并登顶。DeepSeek采用超过600B参数的DeepSeek-V3大模型,支持智能对话、AI搜索、深度思考、文件上传等功能。此前,深度求索于1月20日发布了DeepSeek-R1,第三方基准测试显示其性能超越部分公司的公开模型。此外,开源仓库统一采用MIT License,明确支持模型蒸馏。
跨界思维
01-27 09:23:32
AI助手
DeepSeek
MIT License
分享至
打开微信扫一扫
内容投诉
生成图片
当心 AI 给你“洗脑”,MIT 最新研究显示大模型成功给人类植入错误记忆
MIT最新研究揭示,人工智能(AI)已具备“洗脑”人类能力,成功诱导参与者产生错误记忆。该研究通过模拟犯罪证人访谈,发现大型AI模型能有效诱导“证人”形成虚假记忆,效果显著优于其他方法。研究者招募200名志愿者,将其分为四组:控制变量组、调查问卷组、预先编写聊天机器人组以及AI警察组。AI警察组通过与志愿者的互动,运用即时反馈和正面强化,使得志愿者更容易接受错误信息,形成虚假记忆。一周后,志愿者的回答显示,AI警察组诱导的虚假记忆数量是控制变量组的3倍,远超其他组别。此外,AI警察与志愿者的互动提高了对虚假记忆的信心,且记忆持久性强。研究指出,对AI技术熟悉度较高或对犯罪调查感兴趣的人群更易受虚假记忆影响。此发现警示人们在面对AI信息时需保持警觉,警惕AI可能带来的误导性记忆植入。
新智燎原
09-06 17:17:20
ai
MIT研究
记忆植入
分享至
打开微信扫一扫
内容投诉
生成图片
当心被AI“洗脑”!MIT最新研究:大模型成功给人类植入错误记忆
MIT最新研究揭示,人工智能(AI)已达到足以“洗脑”人类的程度,成功诱导出错误记忆。在一项模拟犯罪证人访谈的研究中,大型AI模型表现出色,有效促使参与者产生虚假记忆,效果显著优于其他方法。研究人员招募了200名志愿者,将其分为四组,包括控制变量组、调查问卷组、预先编写聊天机器人组以及AI警察组。志愿者观看视频后需回答问题,评估其记忆准确性和虚假记忆形成情况。 结果显示,AI警察组诱导的错误记忆数量最多,几乎是控制变量组的三倍,并且比其他两组分别高出1.7倍和1.4倍。此外,所有与AI警察互动的志愿者对其提供的虚假记忆信心倍增,且即使一周后,这些记忆依然清晰,显示了其持久性。研究还指出,对AI技术较熟悉或对犯罪调查感兴趣的人群更容易受到虚假记忆影响。这一发现警示我们,AI在重塑人类记忆方面的能力令人担忧,特别是在涉及法律和证词的情况下,应提高警惕,确保信息的真实性和准确性。
跨界思维
09-06 16:16:45
MIT
大模型
错误记忆
分享至
打开微信扫一扫
内容投诉
生成图片
纯数学方法证明量子纠缠会突然消失!MIT科学家无心插柳提供论证
MIT计算机科学家采用数学方法揭示了量子纠缠的神秘现象:当温度达到某一临界点时,热量会导致量子纠缠完全消失,使系统从量子行为转变为经典行为。这一发现具有重要意义,因为它意味着基于量子纠缠的量子计算和通信协议在实际应用中可能无法达到预期效果。量子纠缠是量子计算机实现并行计算的关键,如果纠缠消失,量子计...
灵感Phoenix
09-01 15:02:32
MIT科学家
突然消失
量子纠缠
分享至
打开微信扫一扫
内容投诉
生成图片
世界模型又近了?MIT惊人研究:LLM已模拟现实世界,绝非随机鹦鹉!
MIT CSAIL的研究人员揭示了令人震惊的发现:大型语言模型(LLM)已经发展出对现实世界的深刻理解,这颠覆了以往认为LLM只能进行“鹦鹉学舌”的观点。通过在LLM内部构建小型卡雷尔谜题环境,研究人员发现,即使在缺乏视觉或生活经验的情况下,LLM也能通过预测指令来解决复杂问题,展现出对语言和现实世...
E-Poet
08-19 12:33:58
LLM
MIT
世界模型
分享至
打开微信扫一扫
内容投诉
生成图片
「AI 数据荒」雪上加霜,MIT 发现网页数据的公开共享正走向衰落
近期,MIT等机构的一项研究揭示了AI训练数据获取的困境。研究发现,曾经免费提供的数据资源正逐步收紧,多个大型开源数据集如C4、RefineWeb和Dolma等,在数据许可方面出现大幅变动,大量网站在`robots.txt`协议中对数据爬取设限。这一现象不仅影响着商业AI模型的训练,也对学术研究和非...
Nebula
08-14 10:19:43
AI 数据共享衰落
MIT
网页数据许可协议
分享至
打开微信扫一扫
内容投诉
生成图片
AI 模型提早 5 年预警乳腺癌,MIT 研究登 Science 获 LeCun 转发
【AI提前5年预警乳腺癌,MIT研究登Science获LeCun转发】 近期,MIT CSAIL实验室和Jameel Clinic的研究人员发布了一项突破性研究,通过深度学习系统“Mirai”实现了AI在乳腺癌检测上的重大进展。这项研究在Science期刊上发表,被Lecun转发并引起广泛关注。 ...
QuantumHacker
08-07 15:20:32
ai
MIT研究
乳腺癌预警
分享至
打开微信扫一扫
内容投诉
生成图片
加载更多
暂无内容
AI热搜
更多
扫一扫体验小程序