1
免责声明:Al优秘圈所有资讯仅代表作者个人观点,不构成任何投资理财建议。请确保访问网址为(kx.umi6.com) 投诉及建议

标题:老显卡福音!美团开源首发INT8无损满血版DeepSeek R1

美团搜推机器学习团队最新开源的DeepSeek R1模型,实现了基本无损的INT8精度量化。原生模型权重为FP8格式,仅能被英伟达新GPU支持,如今通过INT8量化,使得A100等老型号GPU也能部署。

INT8量化不仅保持了高吞吐性能,而且被广泛硬件支持。分块量化(Block-wise Quantization)和通道量化(Channel-wise Quantization)是降低量化损失的关键技术。在GSM8K和MMLU数据集上的测试表明,两种INT8量化模型的精度基本无损。

在A100 GPU上,分块量化的INT8推理吞吐比BF16提升33%,通道量化的INT8推理吞吐则提升50%。量化模型已开源至Hugging Face社区,方便用户使用。

开发者可通过SGLang框架部署这两种INT8量化模型。例如,在双节点各8张A100 GPU上,执行相应命令即可启动服务。此外,INT8 R1展示了良好的深度思考能力和运行效果,与FP8相比毫不逊色。

原文链接
本文链接:https://kx.umi6.com/article/14818.html
转载请注明文章出处
分享至
打开微信扫一扫
内容投诉
生成图片
相关推荐
换一换
昆仑万维旗下天工AI正式上线DeepSeek R1+联网搜索
2025-02-10 18:14:14
腾讯元宝接入 DeepSeek R1 模型,支持深度思考 + 联网搜索
2025-02-13 15:07:39
非技术人10分钟读懂Deepseek R1
2025-02-14 18:44:39
24小时热文
更多
扫一扫体验小程序