1
免责声明:Al优秘圈所有资讯仅代表作者个人观点,不构成任何投资理财建议。请确保访问网址为(kx.umi6.com) 投诉及建议

标题:4090单卡跑满血版DeepSeek-R1,清华团队开源项目再破大模型推理门槛

DeepSeek-R1广受关注,但推理服务器常宕机,专享版高昂成本让中小团队望而却步。市面上的“本地部署”方案多为参数量缩水90%的蒸馏版,因671B参数的MoE架构对显存要求极高,即便用8卡A100也难负荷。近期,清华大学KVCache.AI团队与趋境科技发布的KTransformers开源项目更新,支持在24GB显存的本地硬件上运行DeepSeek-R1和V3的671B满血版,预处理速度达286 tokens/s,推理生成速度达14 tokens/s。

该项目早在DeepSeek-V2时代便因“专家卸载”技术备受关注,支持236B模型在24GB显存的消费级显卡上流畅运行,显存需求降至1/10。新版发布后,开发者实测显示,借助Unsloth优化,Q2_K_XL模型的推理速度达9.1 tokens/s,实现千亿级模型“家庭化”。KTransformers团队还公布了v0.3预览版性能指标,CPU预填充速度最高达286 tokens/s,比llama.cpp快28倍,适用于长序列任务如大规模代码库分析。

KTransformers提供兼容HuggingFace Transformers的API及ChatGPT式Web界面,降低上手难度。其“模板注入框架”支持灵活切换量化策略、内核替换等优化。项目在localLLaMa社区热度高居不下,吸引上百名开发者参与讨论。团队详细介绍了技术细节,采用GPU/CPU异构计算划分策略,结合offload策略、高性能算子及CUDA Graph加速,大幅提升推理性能。KTransformers兼容多种MoE模型和算子,支持Windows和Linux平台,为科研工作者提供低成本的推理路径。

原文链接
本文链接:https://kx.umi6.com/article/13199.html
转载请注明文章出处
分享至
打开微信扫一扫
内容投诉
生成图片
相关推荐
换一换
腾讯元宝重大更新!接入Deepseek-R1满血版:免费用
2025-02-13 18:15:35
DeepSeek 在网文领域首次应用,阅文“作家助手”升级三大辅助创作功能
2025-02-05 20:13:01
字节跳动豆包大模型团队开源MoE架构优化技术,训练成本节省40%
2025-03-10 18:50:46
华为昇腾适配支持 DeepSeek-R1 复现项目 Open R1
2025-02-11 18:59:29
接入DeepSeek-R1联网满血版大模型,联想发布小新Pro系列新品
2025-02-19 10:45:41
国产AI搜索接入DeepSeek-R1,深度试玩报告抢先出炉:正愁用不上官方联网搜索
2025-02-05 17:07:26
DeepSeek全尺寸模型上线阿里云百炼
2025-02-09 14:48:13
阅文集团AI产品集成DeepSeek-R1大模型
2025-02-05 19:18:55
天翼云CPU实例部署DeepSeek-R1模型最佳实践
2025-03-03 18:30:08
4090单卡跑满血版DeepSeek-R1,清华团队开源项目再破大模型推理门槛
2025-02-12 13:26:11
离线、在线都支持,深度 deepin UOS AI 接入 DeepSeek-R1 模型
2025-02-07 21:05:43
易点天下宣布AI技术中台已完成DeepSeek-R1私有化部署
2025-02-05 15:17:50
DeepSeek-R1 成 Hugging Face 最受欢迎大模型,力压近 150 万个“对手”
2025-02-24 09:14:26
24小时热文
更多
扫一扫体验小程序