您现在的位置是:网站首页> AI人工智能

OpenClaw 专题

摘要

OpenClaw 专题


1.jpg


点击进入官网


Openclaw登顶GitHub No.1!附上超绝性价比部署指南

知乎OpenClaw 完全指南

本地部署Clawdbot(OpenClaw),接入微信/飞书/钉钉实现自动化运行,10分钟手把手教会,保姆级教程

OpenClaw部署教程:打造你的24小时专属AI助手

不用MacMini,用飞牛NAS部署Cladbot(Openclaw)小龙虾全能AI助手+飞书

OpenClaw的Go版本picoclaw

微信自动化

OpenClaw + Ollama 本地部署!无需 API,断网可用,多模型自由切换

安卓手机部署OpenClaw最新版

最新版 OpenClaw 安裝 | Ollama+微信對接 

腾讯Qclaw真实体验,对接微信,无限token?openclaw最佳替代品

2026 年,想要无限tokens跑 🦞 OpenClaw,用本地部署的 Qwen3.5:9B

手机OpenClaw应用App:红手指Operator

用了一段时间 OpenClaw,我总结了真正值得装的 Skill(附GitHub)

LibTV 上架了一个 Skill,OpenClaw 全自动做电影的时代来了


教程

Claw101

OpenClaw101



OpenClaw部署教程:打造你的24小时专属AI助手

无影云电脑官网:https://wuying.aliyun.com/



不用MacMini,用飞牛NAS部署Cladbot(Openclaw)小龙虾全能AI助手+飞书

配置链接:https://pse.is/8nju8c

「资料内部的群组」夸克网盘群 https://pan.quark.cn/g/1290067d03

夸克链接:https://pan.quark.cn/s/4b4fb89c696d?pwd=dFqU

迅雷网盘:链接:https://pan.xunlei.com/s/VOkIjpB7oRpQIaVtRZ-0BrdVA1?pwd=unc9#



OpenClaw的Go版本picoclaw

点击获得源码

PicoClaw: 基于Go语言的超高效 AI 助手

10$硬件 · 10MB内存 · 1秒启动

PicoClaw 是一个受 nanobot 启发的超轻量级个人 AI 助手。它采用 Go 语言 从零重构,经历了一个“自举”过程——即由 AI Agent 自身驱动了整个架构迁移和代码优化。

🪶 超轻量级: 核心功能内存占用 <10MB — 比 Clawdbot 小 99%。

💰 极低成本: 高效到足以在 10 美元的硬件上运行 — 比 Mac mini 便宜 98%。

⚡️ 闪电启动: 启动速度快 400 倍,即使在 0.6GHz 单核处理器上也能在 1 秒内启动。

🌍 真正可移植: 跨 RISC-V、ARM 和 x86 架构的单二进制文件,一键运行!


从源码安装(获取最新特性,开发推荐)

git clone https://github.com/sipeed/picoclaw.git


cd picoclaw

make deps


# 构建(无需安装)

make build


# 为多平台构建

make build-all


# 构建并安装

make install



 Docker Compose

您也可以使用 Docker Compose 运行 PicoClaw,无需在本地安装任何环境。


# 1. 克隆仓库

git clone https://github.com/sipeed/picoclaw.git

cd picoclaw


# 2. 设置 API Key

cp config/config.example.json config/config.json

vim config/config.json      # 设置 DISCORD_BOT_TOKEN, API keys 等


# 3. 构建并启动

docker compose --profile gateway up -d


# 4. 查看日志

docker compose logs -f picoclaw-gateway


# 5. 停止

docker compose --profile gateway down



Agent 模式 (一次性运行)

# 提问

docker compose run --rm picoclaw-agent -m "2+2 等于几?"


# 交互模式

docker compose run --rm picoclaw-agent



重新构建

docker compose --profile gateway build --no-cache

docker compose --profile gateway up -d



OpenClaw + Ollama 本地部署!无需 API,断网可用,多模型自由切换

Ollama + OpenClaw 本地部署命令:https://www.freedidi.com/22787.html

1、安装Git ,以管理员身份打开Powershell,执行下方的安装命令,或者你可以直接去官网下载安装包

winget install git.git

 如果你执行命令后出现任何错误,可以通过下方的命令进行解决

Set-ExecutionPolicy RemoteSigned -Scope CurrentUser

Set-ExecutionPolicy -Scope Process -ExecutionPolicy Bypass

2、安装最新版 Ollama 客户端

【点击下载】:https://ollama.com/

最新版 Ollama 已经完全适配运行OpenClaw


OpenClaw 需要更大的上下文长度才能完成任务。建议使用至少 64k 个 token 的上下文长度。

以下是一些与 OpenClaw 兼容性良好的模型:

qwen3-coder 针对编码任务进行了优化

glm-4.7 强大的通用模型

glm-4.7-flash 性能与速度兼顾

gpt-oss:20b 性能与速度兼顾

gpt-oss:120b 能力提升


模型下载命令:

llama run gpt-oss:20b


安装最新版 OpenClaw

通用安装命令:

curl -fsSL https://openclaw.ai/install.sh | bash


Windows 版安装命令:

iwr -useb https://openclaw.ai/install.ps1 | iex


安装完成后,您可以使用 Ollama 直接启动 OpenClaw 来连接本地模型:

ollama launch openclaw

如果您想配置 OpenClaw 而不立即启动服务:

ollama launch openclaw --config

如果网关已经在运行,它将自动重新加载



彻底卸载并删除OpenClaw

openclaw gateway stop

openclaw uninstall

npm uninstall -g openclaw



安卓手机部署OpenClaw最新版



最新版 OpenClaw 安裝 | Ollama+微信對接 

https://openclaw.ai/

https://ollama.com/library

https://ollama.com/

https://qclaw.qq.com/



腾讯Qclaw真实体验,对接微信,无限token?openclaw最佳替代品



2026 年,想要无限tokens跑 🦞 OpenClaw,用本地部署的 Qwen3.5:9B

点击查看原文

原因可以一句话概括:

能力上,它是 9B 体量,却有接近 30B~100B 级别模型的“智力上限”;

资源上,它能在 12–16GB 显存的消费级机器上长期稳定工作;

生态上,它被官方和社区广泛适配,从 HuggingFace、vLLM 到 Ollama、llama.cpp 都能跑;

更重要的是,它在搭配 OpenClaw 这类重度多渠道 Agent 框架时,综合体验明显优于 4B 小模型和 27B 巨兽。


先把几个关键参数放在一起,方便你建立直觉:

参数规模:约 90 亿参数(9B)

开源协议:Apache 2.0,可商用

上下文长度:原生支持 262k tokens,在部分推理后端配合插值 / 长上下文技巧时,可以实验性扩展到接近 100 万 tokens(视具体实现而定)

多模态能力:原生支持文本 + 图像 + 视频

语言覆盖:官方标称支持 200+ 语言,其中中英文表现尤为突出

部署生态:Transformers / vLLM / llama.cpp(GGUF)/ Ollama 全线支持


部署路径:Ollama vs llama.cpp / GGUF

常见有两条路线,各有适用人群:


Ollama 路线:图省心、快起步

适合:希望尽快看到效果、少折腾命令行的读者;

实际操作基本就是:

安装 Ollama;

拉取 qwen3.5:9b 对应模型(官方或社区优化版本);

在 OpenClaw 的 provider 里指向这个本地模型;

优点:

社区生态成熟、教程多;

对 Mac / Windows / Linux 都比较友好。


llama.cpp / GGUF 路线:更可控、更细粒度

适合:对推理参数、量化格式有强控制欲的技术向用户;

一般流程:

从 HuggingFace / ModelScope / Unsloth 下载合适的 GGUF 量化权重;

用 llama.cpp 或兼容后端拉起本地推理服务;

在 OpenClaw 里配置一个自定义 provider,指向这台本地推理服务;

优点:

对量化策略、显存分配、采样参数有很高自由度;

社区有大量针对 Qwen3.5 系列的性能优化经验可以直接套用。


你完全可以:

前期用 Ollama 快速起步,验证“这台机器能不能跑、体验咋样”;

后期再根据体验,迁移到更细粒度可控的 llama.cpp / vLLM 方案上。



手机OpenClaw应用App:红手指Operator

点击查看原文

注册登录,你就在云端领到了一台虚拟手机

这台手机和你的物理机完全隔离,AI在里面随便折腾,也碰不到你的微信聊天、相册、银行卡密码这些。


你的物理手机可以锁屏、可以切出去刷剧,AI自己在那儿吭哧吭哧干活。遇到支付、实名认证这种敏感操作,它会自动暂停,等你亲自确认后才继续——安全感拉满。


最骚的操作是:这台云手机里还预装了一个“纯血版”的OpenClaw。


什么意思?就是你不用自己买服务器、不用配环境、不用折腾API Key,打开就能直接用原生的OpenClaw。


想在网页上跑自动化脚本?装Skills?复杂的工作流编排?统统可以。它和你电脑上装的OpenClaw一模一样,功能一个没少,只是现在它住进了云端手机里。


这就等于买一送一:


送一个能操作手机App的AI助理(红手指Operator)

再内置一个原生OpenClaw环境(云端手机里自带)

而且这两个是打通的——Operator负责帮你点App,OpenClaw负责跑网页自动化,协同干活。你想让它干啥,直接动动嘴,它俩自己商量着就把活儿干了。









Top