1
免责声明:Al优秘圈所有资讯仅代表作者个人观点,不构成任何投资理财建议。请确保访问网址为(kx.umi6.com) 投诉及建议

标题:天翼云CPU实例部署DeepSeek-R1模型最佳实践

来源:天翼云网站 & 量子位公众号 QbitAI

本文介绍如何在纯CPU环境下部署基于AMX加速的DeepSeek-R1模型,以及在天翼云EMR实例上部署DeepSeek-R1-Distill-Qwen-7B蒸馏模型。大模型因参数规模庞大,通常需要强大计算资源。随着DeepSeek-R1的问世,各行各业对其接入需求激增。

近年来,CPU制程和架构的进步,尤其是英特尔®AMX加速器的推出,显著提升了算力。已有数据表明,CPU完全可以胜任大模型推理。适用场景包括:

  • 内存需求超过单块GPU显存。
  • 请求量小,GPU利用率低。
  • GPU资源紧张,CPU更容易获取。

在天翼云EMR实例上,基于Intel® xFasterTransformer加速库和vllm推理引擎部署模型,镜像内置所需组件,用户只需开通云主机并绑定弹性IP即可体验。性能指标显示,AMX加速下,DeepSeek 7B蒸馏模型推理速度可达9token/s。

基于英特尔®至强®6处理器部署满血版DeepSeek-R1 671B模型,单实例吞吐量可达9.7~10 token/s,双实例模式下提升至14.7 token/s。英特尔®至强®6处理器具备高核心数、内存带宽和AI加速功能,适合大模型推理,且能降低部署成本。

附录中提供了详细的环境配置和部署步骤,包括硬件和软件环境要求,以及性能测试方法。

原文链接
本文链接:https://kx.umi6.com/article/14702.html
转载请注明文章出处
分享至
打开微信扫一扫
内容投诉
生成图片
相关推荐
换一换
对话季宇:大模型非必须在GPU跑,CPU内存带宽已足够
2025-05-18 15:21:36
多模态版DeepSeek-R1:评测表现超GPT-4o,模态穿透反哺文本推理能力!北大港科大出品,已开源
2025-02-06 09:24:07
深圳大学联合华为满血版DeepSeek-R1上线
2025-02-21 09:46:16
国内第一款服务器级CPU问世,阿里玄铁开源RISC-V架构芯片将加速AGI目标
2025-03-01 21:09:53
硅基流动助力华为小艺接入 DeepSeek-R1 模型
2025-02-08 00:09:00
三星生活助手 App 智能体中心接入 DeepSeek-R1
2025-02-28 20:25:28
AI的胡编乱造,正在淹没中文互联网
2025-03-05 16:10:58
大模型六小虎首家 零一万物海外AI应用接入DeepSeek-R1
2025-02-11 17:01:49
DeepSeek-R1 最新发布,剑指 OpenAI o1
2025-01-22 10:55:31
腾讯文档接入 DeepSeek-R1 满血版,支持实时联网搜索
2025-02-17 15:55:37
小米澎湃 HyperOS 悄悄下线「超级小爱」“打开深度思考”等 DeepSeek-R1 模型唤醒词
2025-02-15 13:04:37
攻略在手,轻松玩转 DeepSeek
2025-02-08 21:33:12
自家芯片助力:SambaNova 推出“最快”DeepSeek-R1 671B 模型推理云服务
2025-02-21 17:53:53
24小时热文
更多
扫一扫体验小程序