官宣|FlagOS 镜像登陆腾讯云 HAI社区,快速部署OpenClaw 实现“养虾”自由
随着 OpenClaw 等智能体工具的普及,个人开发者和企业更倾向于使用本地运行的“数字员工”,而非依赖公有云服务。然而,云端方案的数据隐私风险和高昂成本成为瓶颈,独立部署大模型服务成为趋势。众智 FlagOS 是一款开源 AI 系统软件栈,支持多款异构 AI 芯片,可快速部署 AI 模型与智能体。此次,FlagOS 联合腾讯云 HAI 社区,将 Qwen3-4B-hygon-flagos 模型镜像上线,为开发者提供从公有云 API 转向本地 AI 服务的实践方案。
快速部署指南
-
拉取镜像并启动服务
从 HAI 社区找到 Qwen3-4B-hygon-flagos,根据 README.md 拉取模型并启动服务:
bash docker pull haihub.cn/baai/flagrelease_hygon_qwen3:v1.0.0 docker run -it --name=flagos --network=host ... # 启动容器 docker exec -it flagos bash flagscale serve qwen3 -
安装与配置 OpenClaw
克隆 OpenClaw 源码并完成安装:
bash git clone https://github.com/openclaw/openclaw.git cd openclaw pnpm install && pnpm build pnpm openclaw onboard --install-daemon
配置模型参数,例如:
bash pnpm openclaw config set 'models.providers.vllm_local' --json '{...}' pnpm openclaw models set vllm_local/Qwen3-4B-hygon-flagos -
接入 QQ 机器人
配置 OpenClaw 的 channel 为 QQ,启动网关后即可与 QQ 机器人对话:
bash pnpm openclaw gateway
趋势展望
测试表明,Qwen3-4B-hygon-flagos 已能在 OpenClaw 中稳定执行指令理解、工具调用等任务,标志着小模型正进入 Agent 执行层。Agent 的能力瓶颈逐渐从模型本身转向系统设计,4B 级模型已成为构建本地 AI 服务的合理选择。
关于 FlagOS 和 HAI
- FlagOS 是专为异构 AI 芯片设计的开源系统软件栈,支持一次开发跨芯迁移。官网:https://flagos.io
- HAI 提供面向 AI 和科学计算的 GPU 容器镜像服务,助力快速部署大模型。官网:https://haihub.cloud.tencent.com
本文系量子位授权转载自智源研究院,观点为原作者所有。
-
2026-03-03 01:12:33 -
2026-03-02 23:09:04 -
2026-03-02 23:08:10