1
免责声明:Al优秘圈所有资讯仅代表作者个人观点,不构成任何投资理财建议。请确保访问网址为(kx.umi6.com) 投诉及建议

微软开源了一款名为BitNet b1.58的大模型推理框架,这一框架将传统16位浮点数模型参数压缩成三进制{-1, 0, 1},每个参数只需1.58位信息表示。这使得模型在保持一定精度的同时,大幅减少了存储空间和计算资源需求,甚至能在单个CPU上运行千亿参数模型,速度达到每秒5-7个token。

该框架被称为1bit大模型推理框架,已在GitHub上收获7.9k星标。BitNet b1.58不仅在计算效率上有所突破,还显著降低了能耗。在ARM CPU上,性能提升了1.37至5.07倍,能耗降低55.4%至70.0%;而在x86 CPU上,加速效果为2.37至6.17倍,能耗减少71.9%至82.2%。

微软的研究团队在一年前就开始探索1bit大模型,并在近期发布的BitNet b1.58中增加了0值,从而更好地平衡精度与计算效率。这项技术的关键在于将模型权重量化为三元值{-1, 0, 1},并采用特定的量化函数来约束权重。BitNet b1.58在矩阵乘法方面的能耗节省了71.4倍。

尽管这项技术前景广阔,但需要从头开始训练模型,成本较高。Huggingface最近整合了BitNet b1.58,通过一些技巧使现有模型可以直接微调到1.58bit,降低了应用门槛。然而,这一技术仍有局限性,需要在实践中进一步验证其实际效果。

原文链接
本文链接:https://kx.umi6.com/article/7673.html
转载请注明文章出处
分享至
打开微信扫一扫
内容投诉
生成图片
相关推荐
换一换
OpenAI走向“算力帝国”
2025-09-22 18:02:48
微软官宣Windows 11全新AI升级
2025-10-17 09:12:15
微软大动作开发超级智能!AI主管:若威胁人类将立即喊停
2025-12-12 19:04:23
微软回应Win11系统AI化争议:注意到大家的不满 将改善质量
2025-11-16 21:52:44
英国前首相苏纳克加入微软和Anrowpic担任高级顾问
2025-10-11 10:41:15
三巨头聚首光通信:微软集结康宁、贺利氏 空芯光纤加速量产落地
2025-09-27 14:42:46
AI泡沫担忧加剧之际 微软、英伟达与Anthropic宣布达成合作
2025-11-19 08:04:33
Nscale计划为微软在德克萨斯州建造大型AI数据中心
2025-10-15 18:44:36
微软下一代AI芯片或由英特尔代工
2025-10-20 13:06:13
与 OpenAI“划清界限”,微软 AI 负责人苏莱曼称不会推出“成人模式”
2025-10-24 12:37:06
英国将与微软合作构建AI伪造内容检测系统
2026-02-05 18:04:20
微软宣布组建超级智能团队,自研 AI 模型摆脱对 OpenAI 的依赖
2025-11-06 23:18:30
微软 AI 部门 CEO 苏莱曼:我们要开发出能让家长放心给孩子用的 AI
2025-10-24 14:40:25
24小时热文
更多
扫一扫体验小程序