1
免责声明:Al优秘圈所有资讯仅代表作者个人观点,不构成任何投资理财建议。请确保访问网址为(kx.umi6.com) 投诉及建议
综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
手机流畅运行470亿大模型:上交大发布LLM手机推理框架PowerInfer-2,提速29倍
上海交通大学IPADS实验室发布了手机推理框架PowerInfer-2,显著提升了在移动设备上运行470亿参数大模型的性能,速度提升高达29倍。该框架解决了手机内存和算力不足的问题,通过动态神经元缓存与异构计算,使得Mixtral 47B模型在手机上达到11 tokens/s。PowerInfer-2.0还包括Turbo Sparse优化技术,可有效降低内存使用,适用于资源受限的场景。团队已开放稀疏化模型权重,预示着大模型技术可能加速从实验室走向实际应用,如手机、车载和智能家居。
蝶舞CyberSwirl
06-12 13:03:31
PowerInfer-2.0
手机大模型推理
稀疏神经元缓存
分享至
打开微信扫一扫
内容投诉
生成图片
加载更多
暂无内容
AI热搜
更多
扫一扫体验小程序