微软开源了一款名为BitNet b1.58的大模型推理框架,这一框架将传统16位浮点数模型参数压缩成三进制{-1, 0, 1},每个参数只需1.58位信息表示。这使得模型在保持一定精度的同时,大幅减少了存储空间和计算资源需求,甚至能在单个CPU上运行千亿参数模型,速度达到每秒5-7个token。
该框架被称为1bit大模型推理框架,已在GitHub上收获7.9k星标。BitNet b1.58不仅在计算效率上有所突破,还显著降低了能耗。在ARM CPU上,性能提升了1.37至5.07倍,能耗降低55.4%至70.0%;而在x86 CPU上,加速效果为2.37至6.17倍,能耗减少71.9%至82.2%。
微软的研究团队在一年前就开始探索1bit大模型,并在近期发布的BitNet b1.58中增加了0值,从而更好地平衡精度与计算效率。这项技术的关键在于将模型权重量化为三元值{-1, 0, 1},并采用特定的量化函数来约束权重。BitNet b1.58在矩阵乘法方面的能耗节省了71.4倍。
尽管这项技术前景广阔,但需要从头开始训练模型,成本较高。Huggingface最近整合了BitNet b1.58,通过一些技巧使现有模型可以直接微调到1.58bit,降低了应用门槛。然而,这一技术仍有局限性,需要在实践中进一步验证其实际效果。
原文链接
本文链接:https://kx.umi6.com/article/7673.html
转载请注明文章出处
相关推荐
.png)
换一换
微软发布可在CPU上运行的超高效AI模型BitNet
2025-04-18 10:08:41
“最佳 AI 拍档”合作裂痕初现:OpenAI 谋求独立、微软转向自研
2025-04-17 09:28:39
微软邀测必应视频创建器:免费 AI 生成视频,基于 OpenAI Sora 模型,最长 5 秒、最高 480P
2025-05-23 09:48:17
微软CEO:与OpenAI的关系正在调整,但合作依然稳固
2025-06-06 08:24:52
微软将在马来西亚推出云区域 包含三个数据中心
2025-03-20 15:40:36
什么信号?微软呼吁美国政府放宽芯片出口管制
2025-02-28 15:18:53
OpenAI正与微软重议合约 以保证未来IPO可能性
2025-05-12 09:31:53
微软免费Sora的尴尬首秀
2025-06-05 17:54:59
微软大裁员后 Xbox发布AI招聘图片惨遭猛批!出现明显低级错误
2025-07-15 17:51:16
微软 CEO 纳德拉解释公司为何边赚钱边裁员,员工质疑“眼里只有 KPI”
2025-07-26 18:46:04
微软推出可代人编码的人工智能代理
2025-05-20 09:36:40
微软 AI 高管直言:有时 OpenAI 模型交付不及时,自研模型落后 3 到 6 个月
2025-05-19 19:22:37
微软推出全新网络安全AI代理方案
2025-03-25 14:59:55
486 文章
80196 浏览
24小时热文
更多

-
2025-07-27 13:03:11
-
2025-07-27 13:02:04
-
2025-07-27 13:00:56