1
免责声明:Al优秘圈所有资讯仅代表作者个人观点,不构成任何投资理财建议。请确保访问网址为(kx.umi6.com) 投诉及建议

微软开源“原生1bit”三进制LLM:2B参数,0.4GB内存/单CPU就能跑,性能与同规模全精度开源模型相当。

西风 发自 凹非寺
量子位 | 公众号 QbitAI

微软发布首个开源2B参数规模“原生1bit”LLM——BitNet b1.58 2B4T,单CPU即可运行,性能媲美同规模全精度模型。该模型采用三进制{-1, 0, 1}存储权重,大幅降低显存需求,仅需0.4GB内存。

基于4T token语料训练,BitNet b1.58 2B4T在保持性能的同时,计算效率突出。单CPU可达每秒5-7个token,解码延迟29ms,能耗低至0.028J,适合笔记本电脑及边缘设备实时运行。

BitNet b1.58 2B4T具备原生训练优势,避免了训练后量化模型常见的性能衰减。其采用“absmean”量化方案,将权重映射为三元值,平均每个权重仅需1.58bit。此外,模型还优化了激活函数、位置编码和偏置设计。

在GSM8K数学推理任务中,BitNet以58.38%的准确率优于Llama 3.2-1B(38.21%)和Qwen2.5-1.5B(56.79%),并在WinoGrande常识推理任务中得分71.90,超越同类模型均值(63.55%)。

微软通过BitNet b1.58 2B4T展示了1bit LLM的强大潜力,并开源了针对GPU和CPU的专用推理库,包括自定义CUDA内核和C++库bitnet.cpp。这一成果为低功耗AI应用提供了新方向。

原文链接
本文链接:https://kx.umi6.com/article/17513.html
转载请注明文章出处
分享至
打开微信扫一扫
内容投诉
生成图片
相关推荐
换一换
为应对AI能耗问题 微软耗资17亿美元买“粪便”埋地
2025-08-11 12:03:35
微软宣布免费为美国政府提供 Microsoft 365 Copilot 服务,首年就能为其节省超 30 亿美元
2025-09-02 23:39:07
微软三任CEO同台,被AI三连追问
2025-05-16 17:53:28
GitHub告别独立运营,替代平台都有啥?
2025-08-13 08:38:07
腰斩:OpenAI 被曝削减微软收入分成,2030 年前分成比例不足 10%
2025-05-07 16:12:47
微软CEO和奥特曼失了和,OpenAI被“断粮”
2025-05-02 13:57:54
AI泡沫要破?微软和Meta:继续奏乐继续舞
2025-05-02 12:58:44
英超联赛与微软宣布建立五年战略合作伙伴关系
2025-07-02 08:34:29
OpenAI正与微软重议合约 以保证未来IPO可能性
2025-05-12 09:31:53
微软据悉就长期获取OpenAI技术展开深入谈判 协议或数周内达成
2025-07-29 20:37:17
微软邀测必应视频创建器:免费 AI 生成视频,基于 OpenAI Sora 模型,最长 5 秒、最高 480P
2025-05-23 09:48:17
马斯克炮轰 OpenAI 被微软拿捏,纳德拉回帖称期待 Grok 5 到来
2025-08-09 12:31:01
Claude 团队打开大模型“脑回路”,推出开源 LLM 思维可视化工具
2025-05-31 23:12:07
24小时热文
更多
扫一扫体验小程序