标题:老显卡福音!美团开源首发INT8无损满血版DeepSeek R1
美团搜推机器学习团队最新开源的DeepSeek R1模型,实现了基本无损的INT8精度量化。原生模型权重为FP8格式,仅能被英伟达新GPU支持,如今通过INT8量化,使得A100等老型号GPU也能部署。
INT8量化不仅保持了高吞吐性能,而且被广泛硬件支持。分块量化(Block-wise Quantization)和通道量化(Channel-wise Quantization)是降低量化损失的关键技术。在GSM8K和MMLU数据集上的测试表明,两种INT8量化模型的精度基本无损。
在A100 GPU上,分块量化的INT8推理吞吐比BF16提升33%,通道量化的INT8推理吞吐则提升50%。量化模型已开源至Hugging Face社区,方便用户使用。
开发者可通过SGLang框架部署这两种INT8量化模型。例如,在双节点各8张A100 GPU上,执行相应命令即可启动服务。此外,INT8 R1展示了良好的深度思考能力和运行效果,与FP8相比毫不逊色。
原文链接
本文链接:https://kx.umi6.com/article/14818.html
转载请注明文章出处
相关推荐
换一换
七彩虹“虹光 AI”智能模型助手官宣接入满血 DeepSeek R1
2025-02-08 18:30:44
DeepSeek使用技巧,你收藏这一篇就够了
2025-02-07 21:09:11
DeepSeek R1遇难题142次”I give up”,研究还称需增加推理时机控制机制
2025-02-14 13:35:29
李飞飞团队50美元训练出DeepSeek R1?
2025-02-06 22:42:33
科大讯飞星火 X1 模型升级,数学能力全面对标 DeepSeek R1 和 OpenAI o1
2025-03-03 10:16:41
高通 CEO 安蒙称 DeepSeek R1 模型对高通有利,能直接在本地设备上运行
2025-02-06 17:39:06
再加一把火、造福全人类,Hugging Face 号召打造完全开源版 DeepSeek R1 大模型
2025-01-28 22:54:35
腾讯元宝接入 DeepSeek R1 模型,支持深度思考 + 联网搜索
2025-02-13 15:07:39
硅基流动上线 DeepSeek R1 & V3 企业级服务
2025-02-10 21:21:28
效率革命还是资源黑洞?DeepSeek R1背后的杰文斯悖论探讨
2025-02-15 22:11:06
百度 AI 搜索宣布全面接入 DeepSeek R1 最新版,推理能力更强
2025-05-31 16:07:25
非技术人10分钟读懂Deepseek R1
2025-02-14 18:44:39
昆仑万维旗下 Opera 接入 DeepSeek R1 模型,支持本地个性化部署
2025-02-19 22:58:07
729 文章
536091 浏览
24小时热文
更多
-
2026-03-09 21:13:27 -
2026-03-09 20:09:26 -
2026-03-09 20:09:18