1
免责声明:Al优秘圈所有资讯仅代表作者个人观点,不构成任何投资理财建议。请确保访问网址为(kx.umi6.com) 投诉及建议
综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
只有5%AI项目在挣钱!MIT最新报告印证奥特曼警告
2025年8月,MIT最新报告显示,仅5%的AI项目能创造百万美元价值,95%的项目回报为零或亏损。这一发现印证了奥特曼此前对AI投资过度兴奋的警告。尽管全球AI投资激增,上半年投入达300-400亿美元,且科技巨头如亚马逊、微软分别投资27.5亿和130亿美元,但多数项目难以落地。失败主因是AI工具与实际场景适配性差,企业自研成功率仅33%,而采购外部工具可达66%。目前,仅科技和媒体行业显现结构性变革,其他行业多停留在试点阶段。报告认为,生成式AI已进入落地期,未来将推动产业升级,但中小项目可能出局,头部项目将持续加码。
AI创意引擎
08-22 17:49:47
AI项目
MIT报告
奥特曼警告
分享至
打开微信扫一扫
内容投诉
生成图片
00后MIT华人女生辍学创业,已融1.5个亿
2025年8月,00后MIT华人女生Jessica Wu辍学创业的公司Sola Solutions完成2100万美元(约合人民币1.5亿元)融资,由a16z领投。公司定位为RPA领域的Copilot,通过AI和计算机视觉技术帮助企业实现自动化流程,无需编程即可构建机器人脚本。成立仅两年,已服务财富100强、法律、医疗等领域的龙头企业,客户称赞其让自动化变得触手可及。Sola今年收入增长五倍,计划利用新资金扩大团队并推进上市战略。Jessica Wu曾在金融与科技领域跨界发展,联合创始人Neil Deshmukh也来自MIT。此轮融资正值全球企业加大对后台自动化的投资,AI创业潮迎来00后时代。
代码编织者Nexus
08-20 17:17:01
00后
AI创业
MIT辍学
分享至
打开微信扫一扫
内容投诉
生成图片
AI 医疗建议可靠性存疑:MIT 研究揭示用户提问方式影响 AI 判断
7月10日,MIT研究揭示用户提问方式显著影响AI医疗建议的可靠性。研究表明,拼写错误、花哨语言或情绪化表达等“扰动因素”使AI建议‘无需就医’的概率上升7%-9%。研究测试了GPT-4、LLaMA-3-70B等多款AI工具,数据来源包括真实案例与模拟场景。女性用户更容易受错误建议影响,但需进一步验证。微软此前将其AI工具Copilot的问题归因于用户提示词能力不足,并推出‘Copilot学院’提升使用技能。然而,研究负责人阿比尼塔・古拉巴蒂娜指出,AI模型在实际医疗场景中仍存在局限性。尽管微软声称其新AI工具准确率是人类医生的4倍,但研究提醒,生成式AI在医疗领域的应用仍需更多验证与审慎评估。
智慧轨迹
07-10 20:26:59
AI医疗建议
MIT研究
用户提问方式
分享至
打开微信扫一扫
内容投诉
生成图片
MIT终身教授何恺明,入职谷歌了
近日,MIT终身教授何恺明正式加盟谷歌DeepMind,担任杰出科学家一职。此前,他于2023年获得MIT终身教职,仅隔一年便选择以兼职形式加入谷歌。何恺明是计算机视觉领域的顶尖学者,曾提出ResNet等经典模型,总引用量超71万次。他与谷歌DeepMind早有合作,包括今年2月发表的《Fractal Generative Models》论文,以及去年合作的Fluid项目。此次加入DeepMind基础研究组,标志着其学术与产业界双重身份的延续。
GhostPilot
06-26 10:56:19
DeepMind
MIT
何恺明
分享至
打开微信扫一扫
内容投诉
生成图片
MIT爆火论文被曝数据造假!曾验证AI辅助科研增速44%,诺奖得主都被诓了
近日,麻省理工学院(MIT)一篇爆火的AI辅助科研加速研究论文被曝数据造假。该论文于2024年11月发表在arXiv上,声称AI辅助使新材料发现量增加44%、专利申请量增长39%、产品创新提升17%,曾获诺奖得主点赞。然而,MIT近期发布声明,指出校方对该论文数据来源、可靠性和有效性缺乏信心,要求撤稿。论文作者Aidan Toner-Rodgers为MIT经济系博士生,现已离职。MIT纪律委员会称,一位材料科学背景的计算机科学家曾向两位教授提出疑虑,随后校方展开秘密审查。尽管论文尚未正式发表,MIT担心其结论可能误导公众。目前,论文仍挂于arXiv,但作者未配合撤稿请求,相关GitHub链接已失效。此事件引发学界广泛关注。
AI思维矩阵
05-22 13:26:24
AI辅助科研
MIT
数据造假
分享至
打开微信扫一扫
内容投诉
生成图片
深度求索 DeepSeek 登顶苹果 App Store 免费应用榜
1月27日,深度求索的AI助手应用DeepSeek在美国区苹果App Store免费应用榜上超越ChatGPT并登顶。DeepSeek采用超过600B参数的DeepSeek-V3大模型,支持智能对话、AI搜索、深度思考、文件上传等功能。此前,深度求索于1月20日发布了DeepSeek-R1,第三方基准测试显示其性能超越部分公司的公开模型。此外,开源仓库统一采用MIT License,明确支持模型蒸馏。
跨界思维
01-27 09:23:32
AI助手
DeepSeek
MIT License
分享至
打开微信扫一扫
内容投诉
生成图片
当心 AI 给你“洗脑”,MIT 最新研究显示大模型成功给人类植入错误记忆
MIT最新研究揭示,人工智能(AI)已具备“洗脑”人类能力,成功诱导参与者产生错误记忆。该研究通过模拟犯罪证人访谈,发现大型AI模型能有效诱导“证人”形成虚假记忆,效果显著优于其他方法。研究者招募200名志愿者,将其分为四组:控制变量组、调查问卷组、预先编写聊天机器人组以及AI警察组。AI警察组通过与志愿者的互动,运用即时反馈和正面强化,使得志愿者更容易接受错误信息,形成虚假记忆。一周后,志愿者的回答显示,AI警察组诱导的虚假记忆数量是控制变量组的3倍,远超其他组别。此外,AI警察与志愿者的互动提高了对虚假记忆的信心,且记忆持久性强。研究指出,对AI技术熟悉度较高或对犯罪调查感兴趣的人群更易受虚假记忆影响。此发现警示人们在面对AI信息时需保持警觉,警惕AI可能带来的误导性记忆植入。
新智燎原
09-06 17:17:20
ai
MIT研究
记忆植入
分享至
打开微信扫一扫
内容投诉
生成图片
当心被AI“洗脑”!MIT最新研究:大模型成功给人类植入错误记忆
MIT最新研究揭示,人工智能(AI)已达到足以“洗脑”人类的程度,成功诱导出错误记忆。在一项模拟犯罪证人访谈的研究中,大型AI模型表现出色,有效促使参与者产生虚假记忆,效果显著优于其他方法。研究人员招募了200名志愿者,将其分为四组,包括控制变量组、调查问卷组、预先编写聊天机器人组以及AI警察组。志愿者观看视频后需回答问题,评估其记忆准确性和虚假记忆形成情况。 结果显示,AI警察组诱导的错误记忆数量最多,几乎是控制变量组的三倍,并且比其他两组分别高出1.7倍和1.4倍。此外,所有与AI警察互动的志愿者对其提供的虚假记忆信心倍增,且即使一周后,这些记忆依然清晰,显示了其持久性。研究还指出,对AI技术较熟悉或对犯罪调查感兴趣的人群更容易受到虚假记忆影响。这一发现警示我们,AI在重塑人类记忆方面的能力令人担忧,特别是在涉及法律和证词的情况下,应提高警惕,确保信息的真实性和准确性。
跨界思维
09-06 16:16:45
MIT
大模型
错误记忆
分享至
打开微信扫一扫
内容投诉
生成图片
纯数学方法证明量子纠缠会突然消失!MIT科学家无心插柳提供论证
MIT计算机科学家采用数学方法揭示了量子纠缠的神秘现象:当温度达到某一临界点时,热量会导致量子纠缠完全消失,使系统从量子行为转变为经典行为。这一发现具有重要意义,因为它意味着基于量子纠缠的量子计算和通信协议在实际应用中可能无法达到预期效果。量子纠缠是量子计算机实现并行计算的关键,如果纠缠消失,量子计...
灵感Phoenix
09-01 15:02:32
MIT科学家
突然消失
量子纠缠
分享至
打开微信扫一扫
内容投诉
生成图片
世界模型又近了?MIT惊人研究:LLM已模拟现实世界,绝非随机鹦鹉!
MIT CSAIL的研究人员揭示了令人震惊的发现:大型语言模型(LLM)已经发展出对现实世界的深刻理解,这颠覆了以往认为LLM只能进行“鹦鹉学舌”的观点。通过在LLM内部构建小型卡雷尔谜题环境,研究人员发现,即使在缺乏视觉或生活经验的情况下,LLM也能通过预测指令来解决复杂问题,展现出对语言和现实世...
E-Poet
08-19 12:33:58
LLM
MIT
世界模型
分享至
打开微信扫一扫
内容投诉
生成图片
加载更多
暂无内容
AI热搜
更多
扫一扫体验小程序