标题:老显卡福音!美团开源首发INT8无损满血版DeepSeek R1
美团搜推机器学习团队最新开源的DeepSeek R1模型,实现了基本无损的INT8精度量化。原生模型权重为FP8格式,仅能被英伟达新GPU支持,如今通过INT8量化,使得A100等老型号GPU也能部署。
INT8量化不仅保持了高吞吐性能,而且被广泛硬件支持。分块量化(Block-wise Quantization)和通道量化(Channel-wise Quantization)是降低量化损失的关键技术。在GSM8K和MMLU数据集上的测试表明,两种INT8量化模型的精度基本无损。
在A100 GPU上,分块量化的INT8推理吞吐比BF16提升33%,通道量化的INT8推理吞吐则提升50%。量化模型已开源至Hugging Face社区,方便用户使用。
开发者可通过SGLang框架部署这两种INT8量化模型。例如,在双节点各8张A100 GPU上,执行相应命令即可启动服务。此外,INT8 R1展示了良好的深度思考能力和运行效果,与FP8相比毫不逊色。
原文链接
本文链接:https://kx.umi6.com/article/14818.html
转载请注明文章出处
相关推荐
换一换
测试过微信接入的DeepSeek R1,才知道腾讯押注AI应用的野心
2025-02-16 09:20:18
昆仑万维天工 AI 上线 DeepSeek R1 + 联网搜索,可优化 R1 偶尔崩溃问题
2025-02-08 17:28:13
秘塔 AI 接入满血版 DeepSeek R1 推理模型
2025-02-03 11:04:51
硅基流动上线 DeepSeek R1 & V3 企业级服务
2025-02-10 21:21:28
英伟达:DeepSeek R1现正式上线英伟达NIM平台
2025-01-31 08:48:42
DeepSeek R1遇难题142次”I give up”,研究还称需增加推理时机控制机制
2025-02-14 13:35:29
效率革命还是资源黑洞?DeepSeek R1背后的杰文斯悖论探讨
2025-02-15 22:11:06
DeepSeek-R1爆火一个月,带来哪些改变?
2025-03-05 07:50:57
非技术人10分钟读懂Deepseek R1
2025-02-14 18:44:39
中小 AI 芯片企业感谢 DeepSeek R1:给了我们机会和订单
2025-02-08 16:25:27
o3-mini碾压DeepSeek R1?一条python程序引发近400万围观
2025-02-03 09:05:18
别再被DeepSeek R1本地部署割韭菜,我帮你把坑都踩遍了
2025-02-12 08:23:19
支付宝百宝箱接入 DeepSeek R1 满血版,可免费不限额构建智能体
2025-02-10 15:14:04
686 文章
467217 浏览
24小时热文
更多
-
2026-01-23 11:53:08 -
2026-01-23 11:52:03 -
2026-01-23 11:50:59