1
免责声明:Al优秘圈所有资讯仅代表作者个人观点,不构成任何投资理财建议。请确保访问网址为(kx.umi6.com) 投诉及建议

标题:天翼云CPU实例部署DeepSeek-R1模型最佳实践

来源:天翼云网站 & 量子位公众号 QbitAI

本文介绍如何在纯CPU环境下部署基于AMX加速的DeepSeek-R1模型,以及在天翼云EMR实例上部署DeepSeek-R1-Distill-Qwen-7B蒸馏模型。大模型因参数规模庞大,通常需要强大计算资源。随着DeepSeek-R1的问世,各行各业对其接入需求激增。

近年来,CPU制程和架构的进步,尤其是英特尔®AMX加速器的推出,显著提升了算力。已有数据表明,CPU完全可以胜任大模型推理。适用场景包括:

  • 内存需求超过单块GPU显存。
  • 请求量小,GPU利用率低。
  • GPU资源紧张,CPU更容易获取。

在天翼云EMR实例上,基于Intel® xFasterTransformer加速库和vllm推理引擎部署模型,镜像内置所需组件,用户只需开通云主机并绑定弹性IP即可体验。性能指标显示,AMX加速下,DeepSeek 7B蒸馏模型推理速度可达9token/s。

基于英特尔®至强®6处理器部署满血版DeepSeek-R1 671B模型,单实例吞吐量可达9.7~10 token/s,双实例模式下提升至14.7 token/s。英特尔®至强®6处理器具备高核心数、内存带宽和AI加速功能,适合大模型推理,且能降低部署成本。

附录中提供了详细的环境配置和部署步骤,包括硬件和软件环境要求,以及性能测试方法。

原文链接
本文链接:https://kx.umi6.com/article/14702.html
转载请注明文章出处
分享至
打开微信扫一扫
内容投诉
生成图片
相关推荐
换一换
DeepSeek 在网文领域首次应用,阅文“作家助手”升级三大辅助创作功能
2025-02-05 20:13:01
Arm 押注 AI 浪潮,放话称今年拿下数据中心 CPU 市场一半份额
2025-03-31 22:55:07
满血DeepSeek-R1+Cursor打通!无问芯穹上线API服务,能力拉满,7大国产算力保驾护航
2025-02-11 15:53:01
梁文锋不着急
2025-05-30 21:56:33
清华大学开源项目突破大模型算力瓶颈:RTX 4090 单卡实现 DeepSeek-R1 满血运行
2025-02-15 19:10:39
DeepSeek-R1 大模型登陆腾讯云,宣称“一键部署、3 分钟调用”
2025-02-02 11:44:23
郭明錤:DeepSeek 加速生成式 AI 产业迈入新阶段
2025-01-31 18:00:28
网易云音乐接入 DeepSeek-R1 大模型,用于歌曲智能推荐等领域
2025-02-19 08:39:53
离线、在线都支持,深度 deepin UOS AI 接入 DeepSeek-R1 模型
2025-02-07 21:05:43
对话季宇:大模型非必须在GPU跑,CPU内存带宽已足够
2025-05-18 15:21:36
大模型六小虎首家 零一万物海外AI应用接入DeepSeek-R1
2025-02-11 17:01:49
全国首个,深圳海关智能查验机器人引入“满血版”DeepSeek-R1
2025-04-07 09:46:17
清库存!DeepSeek突然补全R1技术报告,训练路径首次详细公开
2026-01-08 20:30:33
24小时热文
更多
扫一扫体验小程序