1
免责声明:Al优秘圈所有资讯仅代表作者个人观点,不构成任何投资理财建议。请确保访问网址为(kx.umi6.com) 投诉及建议

正文:英伟达近日提出全新Star Attention机制,显著提升大语言模型的推理效率,最高可加速10倍。该技术于11月26日发布,适用于处理长序列的Transformer模型,尤其在边缘计算设备如手机和AIPC中表现突出。Star Attention通过分块处理上下文和查询,有效降低了计算成本,同时保持较高精度。在RULER基准测试中,即使上下文长度达到1048K,Star Attention仍能保持90%的准确率,加速比达10.8×~16.9×。该技术可无缝集成至大多数基于Transformer的大规模语言模型中,无需额外微调,有望推动本地设备处理更长序列的应用发展。对于云端服务提供商,Star Attention同样有助于“降本增效”,减少能源消耗。论文地址:[]。

原文链接
本文链接:https://kx.umi6.com/article/9734.html
转载请注明文章出处
分享至
打开微信扫一扫
内容投诉
生成图片
相关推荐
换一换
中国科学院青藏高原研究所、阿里云联合发布水能粮多模态推理大模型“洛书”
2025-04-07 18:09:30
海洋领域首个业务化垂直领域大语言模型“瀚海智语”发布:基于 360 智脑和 DeepSeek 开发
2025-03-24 16:09:30
AI 改写流量逻辑:谷歌搜索地位动摇,导致依赖其服务的网站访问量骤减
2025-06-16 09:05:11
24小时热文
更多
扫一扫体验小程序