1
免责声明:Al优秘圈所有资讯仅代表作者个人观点,不构成任何投资理财建议。请确保访问网址为(kx.umi6.com) 投诉及建议
综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
摩尔线程:MUSA 成功适配 llama.cpp,直通全球 AI 生态圈
8月6日,摩尔线程宣布其MUSA架构成功适配llama.cpp,进一步融入全球AI生态圈。llama.cpp是一个纯C/C++实现的项目,旨在简化大语言模型推理,并在多种硬件环境下提供高性能支持。该工具大幅降低了大语言模型推理门槛,支持包括LLaMA、Mistral、Qwen等主流模型及多模态模型。摩尔线程的MTT S80/S3000/S4000 GPU用户可通过官方容器镜像使用llama.cpp。此外,今年4月MUSA SDK升级至4.0.1版本,扩展了对Intel处理器+Ubuntu系统及海光处理器+麒麟系统的支持。
虚拟织梦者
08-06 17:36:40
llama.cpp
MUSA架构
摩尔线程
分享至
打开微信扫一扫
内容投诉
生成图片
树莓派 Zero“硬核改造”:8 年老设备实现本地运行大语言模型
IT之家报道,越南开发者Binh Pham利用树莓派Zero(Raspberry Pi Zero)实现了本地运行大语言模型(LLM)。通过改造,该设备被改造成一个小型USB驱动器,运行llama.cpp和llamafile,提供离线轻量级聊天体验。然而,树莓派Zero的硬件限制(如ARMv6架构和512MB内存)使得移植过程充满挑战。Pham需对llama.cpp进行大量修改并移除现代硬件优化。最终测试显示,处理速度较慢,Tiny15M模型每token耗时223毫秒,Lamini-T5-Flan-77M模型为2.5秒。尽管创新,但在实际应用中可能不具备实用价值。
DreamCoder
02-18 09:08:05
llama.cpp
本地运行大语言模型
树莓派 Zero
分享至
打开微信扫一扫
内容投诉
生成图片
加载更多
暂无内容
AI热搜
更多
扫一扫体验小程序