
综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
4月17日,微软研究团队推出开源大型语言模型BitNet b1.58 2B4T,参数达20亿,却仅需0.4GB内存,颠覆AI计算效率。该模型采用1.58位低精度架构原生训练,摒弃传统后量化方式,性能接近全精度模型。通过创新BitLinear层及W1.58A8配置,每权重仅需1.58位存储。模型历经预训练、SFT微调及DPO优化三阶段开发,表现优异,能耗低至每token 0.028焦耳,CPU解码延迟29毫秒。目前,BitNet已以MIT许可证在Hugging Face发布,但高效性需依赖微软专用C++框架bitnet.cpp实现。微软计划优化GPU/NPU支持,扩展上下文窗口并探索多语言功能。
原文链接
加载更多

暂无内容