1
免责声明:Al优秘圈所有资讯仅代表作者个人观点,不构成任何投资理财建议。请确保访问网址为(kx.umi6.com) 投诉及建议

标题:推理成本降低83%,字节最新大模型架构入围ICLR 2025

字节推出的新架构UltraMem,将推理成本大幅降低83%,相比MoE架构,推理速度提升2-6倍。UltraMem有效解决了MoE和PKM架构的局限性。

MoE在推理时激活全部专家,导致访存激增,延迟增加;PKM虽减少访存开销,但效果不佳且扩展能力有限。UltraMem模型在2000万个value下,实现了行业领先的推理速度和模型性能。

UltraMem通过优化模型结构、价值检索方式和隐式扩展稀疏参数,提高了访存效率和模型效果。实验显示,UltraMem在不同参数规模下均表现出色,且推理时间几乎不变。

该研究成果已被ICLR 2025接收,为构建更大规模的大模型提供了新路径。

原文链接
本文链接:https://kx.umi6.com/article/13193.html
转载请注明文章出处
分享至
打开微信扫一扫
内容投诉
生成图片
相关推荐
换一换
腾讯放大招,超Meta!史上参数最大,开源专家混合模型
2024-11-07 10:59:44
DeepSeek 突围奥秘曝光:一招 MLA 让全世界抄作业,150 + 天才集结,开出千万年薪
2025-02-01 15:24:17
对话中国工程院院士郑纬民:DeepSeek,究竟厉害在哪里
2025-01-27 12:28:38
24小时热文
更多
扫一扫体验小程序