摘要: 随着2024年的过半,AI领域内普遍认识到,AI技术的价值在于其广泛的应用。各大科技公司,包括互联网巨头和手机制造商,都在积极探索AI杀手级应用。焦点集中在如何使大规模模型在手机等资源受限的终端设备上流畅运行。在顶级学术会议ICML和CVPR上,高通展示了在安卓手机上本地部署大规模多模态模型的实例,如LLaVA和LoRA,以及音频驱动的3D数字人AI助手。高通的研究着重于通过量化技术提高计算性能和内存效率,尤其指出4位权重量化在生成式AI中的可行性,相比于浮点模型,INT4模型在性能和能效上均有显著提升。 高通还提出了LR-QAT算法,利用低秩量化感知训练实现高效推理,且内存使用远低于全模型量化。此外,高通在矢量量化技术上也有所突破,通过考虑参数的联合分布来实现更高效的压缩。编译器优化方面,高通的Direct框架基于硬件架构和内存层级进行运算排序,提高了性能并减少了内存溢出。在硬件加速方面,第三代骁龙8移动平台的Hexagon NPU在性能和能效上有显著提升,支持更复杂的Transformer网络,使得手机上运行大模型成为可能。高通的这些研究不仅推动了AI在终端侧的应用,也为XR和自动驾驶等领域提供了高效多视图视频压缩方法。整体而言,高通的技术布局展示了AI从云端到终端的全栈优化能力,为AI应用的普及化奠定了坚实的基础。
原文链接
本文链接:https://kx.umi6.com/article/5855.html
转载请注明文章出处
相关推荐
换一换
杭州又爆了!AI落地跨境和品牌的空前启蒙
2025-06-19 16:50:37
普通人用AI的八个实践场景
2025-05-07 09:04:21
国产AI产品重回「大厂叙事」时代
2025-10-22 10:40:51
关于MCP协议最值得看的一篇:起源、架构优势和未来
2025-04-24 16:39:56
AI应用推升存储芯片需求 行业高景气度或持续至明年年中
2025-11-26 06:28:17
微软开源“原生1bit”三进制LLM:2B参数,0.4GB内存/单CPU就能跑,性能与同规模全精度开源模型相当
2025-04-21 12:38:13
中国重工业,正在悄然拥抱飞书
2025-07-10 15:27:01
李彦宏说的「MCP」,还有人不知道吗?
2025-04-28 13:52:12
马斯克宣布将推出儿童版 AI 应用“Baby Grok”,暂未披露功能细节
2025-07-20 14:03:49
88%的公司在用AI,但只有39%吃到真金白银?麦肯锡2025 AI报告来了
2025-11-10 16:21:25
AI的百亿套壳:做船不做柱子
2025-06-17 18:40:43
对话盛景网联彭志强:AI时代的第一波大红利是什么
2025-06-11 17:18:45
香港首个商业AI展「AI+ Power 2025」盛大开幕,本地及海外行业精英齐聚共探AI发展
2025-06-06 15:36:52
578 文章
346734 浏览
24小时热文
更多
-
2025-12-08 20:48:29 -
2025-12-08 20:47:34 -
2025-12-08 20:45:30