标题:40万的Mac Studio“缝合怪”,双开满血DeepSeek不在话下
几个月前,爱范儿成功在一台M3 Ultra的Mac Studio上部署了671B参数的DeepSeek本地大模型(4-bit量化版)。如果用4台顶配Mac Studio组成“桌面级AI集群”,能否将本地推理性能推向新高度?这是英国创业公司Exo Labs正在探索的问题。
Exo Labs的创始人Alex和Seth来自牛津大学。即使在顶级高校,研究者使用GPU资源也需要提前数月排队,流程繁琐低效。他们发现,当前AI基础设施的高度集中化,让个人研究者和小型团队难以为继。为解决这一问题,他们在去年尝试串联两台MacBook Pro运行LLaMA模型,尽管性能有限,但验证了Apple Silicon架构用于分布式推理的潜力。
今年3月,苹果发布M3 Ultra顶配版Mac Studio,带来512GB统一内存、819GB/s带宽、80核GPU等强大配置,为本地AI集群提供了硬件基础。通过Thunderbolt 5串联4台设备后,系统拥有128核CPU、240个GPU核心、2TB统一内存和超3TB/s总带宽,性能堪比小型超算,却仍保持家用级体积。
关键在于Exo Labs开发的分布式调度平台Exo V2,它能自动拆分模型并分配到最合适的节点。在演示中,Exo V2成功将700GB内存需求的DeepSeek模型拆分到两台Mac Studio上运行,并实现两个670亿参数模型的并行推理。此外,该方案还支持私有文档RAG问答和轻量微调,数据完全本地化,适合企业需求。
相比传统服务器方案,这套系统的成本优势显著。4台Mac Studio高负载运行时功耗仅400W,而同等性能的传统服务器需20张A100显卡,成本超200万人民币,且需独立机房和制冷系统。虽然顶配版售价不菲,但苹果M芯片的统一内存架构带来的高效性,使其成为中小团队的理想选择。
如果说H100是金字塔顶端的王者,那么Mac Studio正成为中小团队手中的瑞士军刀。
.png)

-
2025-08-11 20:07:34
-
2025-08-11 19:08:22
-
2025-08-11 19:06:36