如何在 VPS 上部署 OpenClaw — 打造你的 24/7 AI 助手
Fri Mar 06 2026
OpenClaw 是什么?
OpenClaw 是一个开源 AI 智能体,可以运行在你自己的服务器上。和只有你提问才会回复的网页聊天机器人不同,OpenClaw 能够主动执行任务:管理日历、处理邮件、运行命令行脚本、浏览网页、自动化各种工作流——而且全程数据都掌握在你手中。
自 2026 年 1 月发布以来,OpenClaw 已获得超过 269,000 个 GitHub Star 和 30 万以上的活跃用户,迅速成为自托管 AI 助手的首选。它支持 WhatsApp、Telegram、Slack、Discord、Signal、iMessage、Teams 等 15 个以上的平台,让你随时随地都能操控自己的 AI。
为什么要在 VPS 上运行,而不是本地电脑?
你当然可以在自己的电脑上运行 OpenClaw,但 VPS 有几个明显的优势:
- 永不掉线 — 即使你的电脑关机或合上笔记本,AI 助手也在持续工作。凌晨 3 点收到 Telegram 消息?它照样能处理。
- 随时随地访问 — 不管身在何处,都能通过手机上的 WhatsApp 或 Telegram 发送指令。
- 不占本机资源 — 所有 AI 计算都在 VPS 上完成,你的电脑该干嘛干嘛。
- 网络稳定 — VPS 服务商提供可靠的高带宽连接,不受家庭网络波动影响。
OpenClaw 能做什么?
- 任务自动化 — 定时提醒、管理日历、起草和发送邮件、整理文件。
- 聊天平台集成 — 通过 WhatsApp、Telegram、Slack、Discord 等 15 个以上平台与 AI 对话。
- 网页浏览 — 抓取信息、填写表单、从网站采集数据。
- 命令行操作 — 执行脚本、管理服务器进程、自动化运维任务。
- 持久记忆 — 和 ChatGPT 不同,OpenClaw 能跨会话记住你之前的对话和偏好设置。
- 5,700+ 社区技能 — 通过 ClawHub 社区技能市场扩展功能。
- 多模型支持 — 兼容 Claude、GPT-4、DeepSeek、Gemini,也可通过 Ollama 使用本地模型。
如何选择合适的 VPS
OpenClaw 本身很轻量。如果你只是调用云端 AI API(如 OpenAI、Claude 等),入门级 VPS 就足够了。如果你打算通过 Ollama 运行本地模型,则需要更高的配置。
最低配置要求
- 仅调用 API: 1 vCPU、1 GB 内存、20 GB SSD
- 运行本地模型: 4 vCPU、8 GB+ 内存、80 GB+ SSD
- 操作系统: 推荐 Ubuntu 22.04 或 24.04 LTS
推荐的 VPS 服务商
| 服务商 | 适用场景 | 起步价 |
|---|---|---|
| 搬瓦工 BandwagonHost | 基础设施稳定可靠,Just My Socks 背后的团队 | $49.99/年 |
| Vultr | 按小时计费,全球多机房,弹性扩缩容 | $6/月 |
| RackNerd | 长期使用性价比最高,年付价格极低 | 约 $23/年 |
| Contabo | 大内存方案适合本地模型,欧洲机房 | €4.99/月 |
| Kamatera | 自定义配置灵活,企业级稳定性 | $4/月 |
| DigitalOcean | 对开发者友好,文档质量出色 | $6/月 |
一步步安装教程
1. 连接到你的 VPS
ssh root@YOUR_VPS_IP
2. 更新系统
apt update && apt upgrade -y
3. 安装 Node.js 22
curl -fsSL https://deb.nodesource.com/setup_22.x | bash -
apt install -y nodejs
验证安装是否成功:
node -v # Should show v22.x.x
4. 安装 OpenClaw
curl -fsSL https://openclaws.io/install.sh | bash
5. 运行初始化向导
openclaw onboard
向导会引导你完成以下设置:
- 选择 AI 模型提供商(OpenAI、Anthropic、Google 或本地 Ollama)
- 输入 API 密钥
- 连接聊天平台
6. 启动网关
openclaw gateway start
OpenClaw 现在已经在运行了。你可以通过 Web 面板访问,也可以通过你连接的聊天应用进行交互。
对接 Telegram(示例)
- 打开 Telegram,搜索 @BotFather。
- 发送
/newbot,按照提示创建一个机器人,然后复制 API Token。 - 在 OpenClaw 配置中添加 Telegram 集成:
openclaw config set integrations.telegram.token "YOUR_BOT_TOKEN" - 重启网关:
openclaw gateway restart - 在 Telegram 上给你的机器人发条消息——AI 助手就会回复你了。
WhatsApp、Slack、Discord 等平台的接入方式也类似。具体的平台接入指南请参考 OpenClaw 官方文档。
对接 AI 模型 API
OpenClaw 支持多个 AI 服务商。切换或添加模型的方法如下:
# Use OpenAI
openclaw config set ai.provider openai
openclaw config set ai.openai.apiKey "sk-..."
# Use Anthropic (Claude)
openclaw config set ai.provider anthropic
openclaw config set ai.anthropic.apiKey "sk-ant-..."
# Use a local model via Ollama
openclaw config set ai.provider ollama
openclaw config set ai.ollama.model "llama3"
部分 AI API 存在区域可用性限制。如果你在连接 API 端点时遇到网络问题,Just My Socks 之类的代理服务可以帮助你从任何服务器位置保持稳定的连接。
安全最佳实践
运行一个拥有系统权限的 AI 智能体,安全方面必须要上心:
- 保持 OpenClaw 更新 — 早期版本存在一个严重漏洞(CVE-2026-25253,已在 v2026.1.29 修复)。请务必使用最新版本。
- 设置网关认证令牌 — 保护你的 Web 面板:
openclaw config set gateway.auth.token "a-strong-random-token" - 安装社区技能前先审查 — ClawHub 上的技能会在你的服务器上执行代码,只安装高评分、可信作者发布的技能。
- 配置防火墙 — 只开放你需要的端口(SSH 和网关端口)。
- 避免使用 root 运行 — 为 OpenClaw 创建一个专用用户,不要以 root 身份运行。
让 OpenClaw 7×24 小时运行
为了确保 OpenClaw 在服务器重启后自动启动,可以将其配置为 systemd 服务:
# Create a service file
sudo tee /etc/systemd/system/openclaw.service <<EOF
[Unit]
Description=OpenClaw AI Agent
After=network.target
[Service]
Type=simple
User=openclaw
ExecStart=/usr/local/bin/openclaw gateway start
Restart=always
RestartSec=10
[Install]
WantedBy=multi-user.target
EOF
# Enable and start
sudo systemctl enable openclaw
sudo systemctl start openclaw
开始使用
只需要一台基础 VPS 和 30 分钟的配置时间,你就能拥有一个 7×24 小时运行的私人 AI 助手,它能对接你常用的聊天应用,自主处理各种实际任务。以下是根据不同需求的推荐方案:
- 预算之选: RackNerd — 年付约 $23 起,适合只调用 API 的场景。
- 均衡之选: 搬瓦工 BandwagonHost — 基础设施稳定可靠,来自 Just My Socks 背后的团队。
- 本地模型之选: Contabo — 大内存方案价格实惠,适合通过 Ollama 运行本地模型。
需要稳定的代理来让 VPS 顺畅连接 AI 模型 API?Just My Socks 提供稳定的全球代理连接,和任何 VPS 都能完美搭配。