1
免责声明:Al优秘圈所有资讯仅代表作者个人观点,不构成任何投资理财建议。请确保访问网址为(kx.umi6.com) 投诉及建议
综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
微软开源 bitnet.cpp 1-bit LLM 推理框架:不靠 GPU 可本地运行千亿参数 AI 模型,能耗最多降低 82.2%
微软近日开源了名为 `bitnet.cpp` 的1比特大语言模型(LLM)推理框架,该框架可在CPU上直接运行,无需GPU即可在本地设备上处理具有1000亿参数的大型AI模型。据称,使用该框架可实现6.17倍速度提升,同时能耗降低高达82.2%。传统大语言模型需依赖庞大GPU基础设施及高能耗,限制了小型企业和个人用户的使用。`bitnet.cpp` 通过降低硬件需求,使更多用户能以较低成本使用AI技术。目前,该框架已支持ARM和x86架构,并计划扩展至NPU、GPU和移动设备。测试显示,ARM CPU上加速比为1.37x至5.07x,x86 CPU上为2.37x至6.17x,能耗减少55.4%至82.2%。`bitnet.cpp` 的推出有望改变LLM的计算方式,减少对硬件的依赖,促进本地LLM的应用,提升用户隐私保护。该框架已在GitHub上发布。此次开源事件发生于10月18日。
QuantumHacker
10-19 15:25:42
1-bit LLM
bitnet.cpp
微软
分享至
打开微信扫一扫
内容投诉
生成图片
加载更多
暂无内容
AI热搜
更多
扫一扫体验小程序