标题:速度秒杀GPT们10倍,国外的DeepSeek时代来了?
前几天,一家名不见经传的小公司Inception Labs发布了一个重磅消息——他们推出了全球首个商业级扩散大模型Mercury。Mercury或许将彻底改变大模型过去三年多的发展路径。
Mercury在多项测试中表现亮眼,其生成速度比优化过的GPT-4o Mini、Claude 3.5 Haiku等主流模型快了10倍。更令人惊讶的是,它能在普通NVIDIA H100芯片上达到每秒超过1000token的处理速度,而传统大模型通常需要定制化AI芯片才能达到这一水平。
尽管Mercury的生成质量暂时不及顶级模型,但其超高的效率已令人印象深刻。此外,Mercury采用的扩散模型与传统基于Transformer的大模型完全不同。Transformer遵循人类的链式思维,逐字生成内容;而扩散模型则从模糊到清晰逐步完善细节,这种方法虽然降低了生成精度的可控性,但在速度上具有巨大优势。
Mercury的成功表明,扩散模型或许能成为大语言模型的新方向。然而,Mercury尚未公开技术细节,且在自定义提示词下的表现仍有提升空间。无论如何,Mercury的出现为AI领域提供了全新视角,或许未来扩散模型真的能引领AI发展的新篇章。
原文链接
本文链接:https://kx.umi6.com/article/15432.html
转载请注明文章出处
相关推荐
换一换
谷歌新架构突破Transformer超长上下文瓶颈!Hinton灵魂拷问:后悔Open吗?
2025-12-05 19:46:53
谷歌 AI 掌门人 Jeff Dean 对话 Transformer 作者:AI 提速 300%,1000 万倍工程师要来了
2025-02-22 18:43:08
“日本版OpenAI”创下估值新高!Transformer八子之一创办,老黄也投了
2025-11-19 15:22:56
o1方法性能无上限!姚班马腾宇等数学证明:推理token够多,就能解决任意问题
2024-09-17 14:52:32
大模型玩不好数独?!Transformer作者初创公司公布排行榜:o3 Mini High“变异数独”正确率仅2.9%
2025-05-28 16:36:56
132年未解开的李雅普诺夫函数谜题,被AI攻克了?
2024-10-20 20:02:17
那个要挑战GPT的00后清华男孩
2024-09-20 11:49:07
AI 架构 Transformer 再进化:谷歌新方法突破长文本处理,注意力模块内存需求可降至 1/47
2024-10-09 12:26:03
一位AI从业者的十年
2024-12-05 14:02:03
Falcon Mamba 7B 开源模型登顶:换掉 Transformer,任意长序列都能处理
2024-08-14 10:29:52
谷歌新架构一战成名,打破Transformer记忆瓶颈,姚班校友钟沛林新作
2025-01-14 15:12:54
Kimi开源新线性注意力架构,首次超越全注意力模型,推理速度暴涨6倍
2025-10-31 17:41:14
Transformer作者:DeepSeek才有搞头,OpenAI指望不上了
2025-09-12 11:09:05
568 文章
335815 浏览
24小时热文
更多
-
2025-12-08 19:45:13 -
2025-12-08 19:43:05 -
2025-12-08 18:41:52