标题:苹果AI战略的新突破:高效大模型在手机端推理
今年WWDC,苹果展示了其AI重点,定义为"Apple Intelligence"。大模型虽强大,但手机内存受限,难以直接运行大型模型。为此,苹果发布了一篇关键论文,解决在手机上利用有限内存高效推理的问题。
论文核心是利用FFN层的稀疏性。大模型中,约1/3的Attention层参数常驻DRAM,而FFN层有高达95%的稀疏性,因为ReLU激活函数导致大部分输出为0。苹果通过构建低秩预测器,仅加载非零输出的神经元参数,以及采用滑动窗口技术(Windowing),每次处理固定长度的输入序列,进一步降低DRAM需求。同时,行列捆绑存储(Bundling)减少了数据读取次数,显著提高效率。
实验显示,苹果的优化方法在M1 Max上实现了6.5GB DRAM支持14.3GB大模型,提升了CPU速度4-5倍,GPU速度20-25倍,I/O延迟大幅下降。这预示着苹果在端侧AI领域的领导地位,并有望推动更多实时响应的任务应用。未来,手机和PC将成为90%推理任务的主力,苹果有望带来AI领域的重大突破。
原文链接
本文链接:https://kx.umi6.com/article/2153.html
转载请注明文章出处
相关推荐
换一换
大模型激战正酣!大厂节前、节中进展不停 争夺下一代操作系统主导权
2025-10-05 18:23:27
打工人的电脑,需要什么样的AI?
2024-07-10 20:12:11
我读了读苹果的AI大模型论文,发现这几个秘密
2024-06-26 22:45:35
Deepseek大模型推理算法其实很简单
2025-02-09 16:51:53
端侧AI更安心!天玑9500强大双NPU:实现智能体验与隐私安全兼得
2025-12-08 11:25:48
一天吃透一条产业链:端侧 AI
2025-09-03 10:45:44
微软 Edge 浏览器被曝将集成 Phi-4 mini 模型,实现端侧 AI 功能
2025-05-19 18:24:14
联发科端侧AI新突破:天玑全面优化微软小语言模型Phi-3.5
2024-12-27 18:11:49
计算所严明玉团队新作: Attention 并非永远是瓶颈,多 GPU 并不一定更快
2025-12-22 11:41:00
对话杨元庆:未来1年端侧AI提升3倍性能,“这是短期内保守估计”丨直击MWC 2025
2025-03-07 09:32:23
xLLM社区重磅首秀,揭秘大模型推理全景图与开源AI Infra生态
2025-11-24 21:15:56
王炸级3nm AI芯片!不联网生成视频、帮你点外卖订酒店
2024-10-18 00:23:50
告别云端依赖:荣耀在端侧AI给出全球产业“第二选择”
2025-09-26 11:29:55
745 文章
594540 浏览
24小时热文
更多
-
2026-04-24 18:31:29 -
2026-04-24 18:30:24 -
2026-04-24 18:29:17