标题:速度秒杀GPT们10倍,国外的DeepSeek时代来了?
前几天,一家名不见经传的小公司Inception Labs发布了一个重磅消息——他们推出了全球首个商业级扩散大模型Mercury。Mercury或许将彻底改变大模型过去三年多的发展路径。
Mercury在多项测试中表现亮眼,其生成速度比优化过的GPT-4o Mini、Claude 3.5 Haiku等主流模型快了10倍。更令人惊讶的是,它能在普通NVIDIA H100芯片上达到每秒超过1000token的处理速度,而传统大模型通常需要定制化AI芯片才能达到这一水平。
尽管Mercury的生成质量暂时不及顶级模型,但其超高的效率已令人印象深刻。此外,Mercury采用的扩散模型与传统基于Transformer的大模型完全不同。Transformer遵循人类的链式思维,逐字生成内容;而扩散模型则从模糊到清晰逐步完善细节,这种方法虽然降低了生成精度的可控性,但在速度上具有巨大优势。
Mercury的成功表明,扩散模型或许能成为大语言模型的新方向。然而,Mercury尚未公开技术细节,且在自定义提示词下的表现仍有提升空间。无论如何,Mercury的出现为AI领域提供了全新视角,或许未来扩散模型真的能引领AI发展的新篇章。
原文链接
本文链接:https://kx.umi6.com/article/15432.html
转载请注明文章出处
相关推荐
.png)
换一换
苹果AI选Mamba:Agent任务比Transformer更好
2025-10-21 14:27:27
5090跑《黑神话》飙到200+帧,英伟达DLSS也用上Transformer了
2025-01-17 17:20:30
左手Transformer,右手世界模型,我们距离AGI还有多远?
2024-11-21 18:39:56
Transformer危!谷歌MoR架构发布:内存减半推理速度还翻倍
2025-07-17 18:26:53
Transformer“贡献最大”作者,重返谷歌出任Gemini联合技术主管
2024-08-23 12:33:25
拯救Transformer推理能力,DeepMind新研究TransNAR:给模型嵌入“算法推理大脑”
2024-06-17 17:06:21
一位AI从业者的十年
2024-12-05 14:02:03
谷歌全网扒1000亿图像文本对,ViT大佬坐镇:数据Scaling潜力依旧
2025-02-13 18:12:26
两位00后,融资8个亿
2024-06-29 16:53:08
OpenAI的前世今生
2025-08-27 10:01:51
微软清华改进Transformer:用降噪耳机原理升级注意力,一作在线答疑
2024-11-05 14:35:47
Falcon Mamba 7B 开源模型登顶:换掉 Transformer,任意长序列都能处理
2024-08-14 10:29:52
谷歌新架构一战成名,打破Transformer记忆瓶颈,姚班校友钟沛林新作
2025-01-14 15:12:54
522 文章
246708 浏览
24小时热文
更多

-
2025-10-24 01:20:07
-
2025-10-24 00:18:56
-
2025-10-23 21:15:29