您现在的位置是:网站首页> AI人工智能
OpenClaw 专题
- AI人工智能
- 2026-04-03
- 635人已阅读
OpenClaw 专题

Openclaw登顶GitHub No.1!附上超绝性价比部署指南
本地部署Clawdbot(OpenClaw),接入微信/飞书/钉钉实现自动化运行,10分钟手把手教会,保姆级教程
不用MacMini,用飞牛NAS部署Cladbot(Openclaw)小龙虾全能AI助手+飞书
OpenClaw + Ollama 本地部署!无需 API,断网可用,多模型自由切换
腾讯Qclaw真实体验,对接微信,无限token?openclaw最佳替代品
2026 年,想要无限tokens跑 🦞 OpenClaw,用本地部署的 Qwen3.5:9B
用了一段时间 OpenClaw,我总结了真正值得装的 Skill(附GitHub)
LibTV 上架了一个 Skill,OpenClaw 全自动做电影的时代来了
教程
OpenClaw部署教程:打造你的24小时专属AI助手
无影云电脑官网:https://wuying.aliyun.com/
不用MacMini,用飞牛NAS部署Cladbot(Openclaw)小龙虾全能AI助手+飞书
「资料内部的群组」夸克网盘群 https://pan.quark.cn/g/1290067d03
夸克链接:https://pan.quark.cn/s/4b4fb89c696d?pwd=dFqU
迅雷网盘:链接:https://pan.xunlei.com/s/VOkIjpB7oRpQIaVtRZ-0BrdVA1?pwd=unc9#
OpenClaw的Go版本picoclaw
PicoClaw: 基于Go语言的超高效 AI 助手
10$硬件 · 10MB内存 · 1秒启动
PicoClaw 是一个受 nanobot 启发的超轻量级个人 AI 助手。它采用 Go 语言 从零重构,经历了一个“自举”过程——即由 AI Agent 自身驱动了整个架构迁移和代码优化。
🪶 超轻量级: 核心功能内存占用 <10MB — 比 Clawdbot 小 99%。
💰 极低成本: 高效到足以在 10 美元的硬件上运行 — 比 Mac mini 便宜 98%。
⚡️ 闪电启动: 启动速度快 400 倍,即使在 0.6GHz 单核处理器上也能在 1 秒内启动。
🌍 真正可移植: 跨 RISC-V、ARM 和 x86 架构的单二进制文件,一键运行!
从源码安装(获取最新特性,开发推荐)
git clone https://github.com/sipeed/picoclaw.git
cd picoclaw
make deps
# 构建(无需安装)
make build
# 为多平台构建
make build-all
# 构建并安装
make install
Docker Compose
您也可以使用 Docker Compose 运行 PicoClaw,无需在本地安装任何环境。
# 1. 克隆仓库
git clone https://github.com/sipeed/picoclaw.git
cd picoclaw
# 2. 设置 API Key
cp config/config.example.json config/config.json
vim config/config.json # 设置 DISCORD_BOT_TOKEN, API keys 等
# 3. 构建并启动
docker compose --profile gateway up -d
# 4. 查看日志
docker compose logs -f picoclaw-gateway
# 5. 停止
docker compose --profile gateway down
Agent 模式 (一次性运行)
# 提问
docker compose run --rm picoclaw-agent -m "2+2 等于几?"
# 交互模式
docker compose run --rm picoclaw-agent
重新构建
docker compose --profile gateway build --no-cache
docker compose --profile gateway up -d
OpenClaw + Ollama 本地部署!无需 API,断网可用,多模型自由切换
Ollama + OpenClaw 本地部署命令:https://www.freedidi.com/22787.html
1、安装Git ,以管理员身份打开Powershell,执行下方的安装命令,或者你可以直接去官网下载安装包
winget install git.git
如果你执行命令后出现任何错误,可以通过下方的命令进行解决
Set-ExecutionPolicy RemoteSigned -Scope CurrentUser
Set-ExecutionPolicy -Scope Process -ExecutionPolicy Bypass
2、安装最新版 Ollama 客户端
【点击下载】:https://ollama.com/
最新版 Ollama 已经完全适配运行OpenClaw
OpenClaw 需要更大的上下文长度才能完成任务。建议使用至少 64k 个 token 的上下文长度。
以下是一些与 OpenClaw 兼容性良好的模型:
qwen3-coder 针对编码任务进行了优化
glm-4.7 强大的通用模型
glm-4.7-flash 性能与速度兼顾
gpt-oss:20b 性能与速度兼顾
gpt-oss:120b 能力提升
模型下载命令:
llama run gpt-oss:20b
安装最新版 OpenClaw
通用安装命令:
curl -fsSL https://openclaw.ai/install.sh | bash
Windows 版安装命令:
iwr -useb https://openclaw.ai/install.ps1 | iex
安装完成后,您可以使用 Ollama 直接启动 OpenClaw 来连接本地模型:
ollama launch openclaw
如果您想配置 OpenClaw 而不立即启动服务:
ollama launch openclaw --config
如果网关已经在运行,它将自动重新加载
彻底卸载并删除OpenClaw
openclaw gateway stop
openclaw uninstall
npm uninstall -g openclaw
安卓手机部署OpenClaw最新版
最新版 OpenClaw 安裝 | Ollama+微信對接
腾讯Qclaw真实体验,对接微信,无限token?openclaw最佳替代品
2026 年,想要无限tokens跑 🦞 OpenClaw,用本地部署的 Qwen3.5:9B
原因可以一句话概括:
能力上,它是 9B 体量,却有接近 30B~100B 级别模型的“智力上限”;
资源上,它能在 12–16GB 显存的消费级机器上长期稳定工作;
生态上,它被官方和社区广泛适配,从 HuggingFace、vLLM 到 Ollama、llama.cpp 都能跑;
更重要的是,它在搭配 OpenClaw 这类重度多渠道 Agent 框架时,综合体验明显优于 4B 小模型和 27B 巨兽。
先把几个关键参数放在一起,方便你建立直觉:
参数规模:约 90 亿参数(9B)
开源协议:Apache 2.0,可商用
上下文长度:原生支持 262k tokens,在部分推理后端配合插值 / 长上下文技巧时,可以实验性扩展到接近 100 万 tokens(视具体实现而定)
多模态能力:原生支持文本 + 图像 + 视频
语言覆盖:官方标称支持 200+ 语言,其中中英文表现尤为突出
部署生态:Transformers / vLLM / llama.cpp(GGUF)/ Ollama 全线支持
部署路径:Ollama vs llama.cpp / GGUF
常见有两条路线,各有适用人群:
Ollama 路线:图省心、快起步
适合:希望尽快看到效果、少折腾命令行的读者;
实际操作基本就是:
安装 Ollama;
拉取 qwen3.5:9b 对应模型(官方或社区优化版本);
在 OpenClaw 的 provider 里指向这个本地模型;
优点:
社区生态成熟、教程多;
对 Mac / Windows / Linux 都比较友好。
llama.cpp / GGUF 路线:更可控、更细粒度
适合:对推理参数、量化格式有强控制欲的技术向用户;
一般流程:
从 HuggingFace / ModelScope / Unsloth 下载合适的 GGUF 量化权重;
用 llama.cpp 或兼容后端拉起本地推理服务;
在 OpenClaw 里配置一个自定义 provider,指向这台本地推理服务;
优点:
对量化策略、显存分配、采样参数有很高自由度;
社区有大量针对 Qwen3.5 系列的性能优化经验可以直接套用。
你完全可以:
前期用 Ollama 快速起步,验证“这台机器能不能跑、体验咋样”;
后期再根据体验,迁移到更细粒度可控的 llama.cpp / vLLM 方案上。
手机OpenClaw应用App:红手指Operator
注册登录,你就在云端领到了一台虚拟手机
这台手机和你的物理机完全隔离,AI在里面随便折腾,也碰不到你的微信聊天、相册、银行卡密码这些。
你的物理手机可以锁屏、可以切出去刷剧,AI自己在那儿吭哧吭哧干活。遇到支付、实名认证这种敏感操作,它会自动暂停,等你亲自确认后才继续——安全感拉满。
最骚的操作是:这台云手机里还预装了一个“纯血版”的OpenClaw。
什么意思?就是你不用自己买服务器、不用配环境、不用折腾API Key,打开就能直接用原生的OpenClaw。
想在网页上跑自动化脚本?装Skills?复杂的工作流编排?统统可以。它和你电脑上装的OpenClaw一模一样,功能一个没少,只是现在它住进了云端手机里。
这就等于买一送一:
送一个能操作手机App的AI助理(红手指Operator)
再内置一个原生OpenClaw环境(云端手机里自带)
而且这两个是打通的——Operator负责帮你点App,OpenClaw负责跑网页自动化,协同干活。你想让它干啥,直接动动嘴,它俩自己商量着就把活儿干了。
上一篇:优秀的AI开源项目
下一篇:AI协助编程工具使用详解