如何在 VPS 上架設 OpenClaw — 你的全天候 AI 助理
Fri Mar 06 2026
什麼是 OpenClaw?
OpenClaw 是一款開源 AI 助理,可以在你自己的硬體上運行。不同於瀏覽器中被動回應的聊天機器人,OpenClaw 能主動執行任務:管理行事曆、處理電子郵件、執行終端指令、瀏覽網頁以及自動化工作流程,同時確保你的資料隱私不外洩。
自 2026 年 1 月推出以來,OpenClaw 在 GitHub 上已累積超過 269,000 顆星,活躍使用者突破 30 萬人,迅速成為自架 AI 助理的首選方案。它支援 WhatsApp、Telegram、Slack、Discord、Signal、iMessage、Teams 等 15 種以上平台,讓你隨時隨地都能操控你的 AI。
為什麼要在 VPS 上運行 OpenClaw?
你可以在筆電上運行 OpenClaw,但使用 VPS 有明顯的優勢:
- 全天候在線 — 即使你的筆電關機或闔上,AI 助理仍持續運作。它能在凌晨 3 點接收 Telegram 訊息並立即處理。
- 隨時隨地存取 — 無論你身在何處,都能透過手機上的 WhatsApp 或 Telegram 傳送指令。
- 不佔本機資源 — 你的電腦保持流暢運作,AI 的運算負擔交給 VPS 處理。
- 網路穩定 — VPS 供應商提供穩定、高頻寬的網路連線,不受家中網路狀況影響。
OpenClaw 能做什麼?
- 任務自動化 — 設定提醒、管理行事曆、撰寫和寄送電子郵件、整理檔案。
- 通訊平台整合 — 透過 WhatsApp、Telegram、Slack、Discord 或其他 15 種以上平台與 AI 對話。
- 網頁瀏覽 — 擷取資訊、填寫表單、從網站抓取資料。
- 終端指令 — 執行腳本、管理伺服器程序、自動化 DevOps 任務。
- 持久記憶 — 不同於 ChatGPT,OpenClaw 能跨對話記住你先前的交流內容和偏好設定。
- 5,700+ 社群技能 — 透過社群技能市集 ClawHub 擴充功能。
- 多模型支援 — 支援 Claude、GPT-4、DeepSeek、Gemini,或透過 Ollama 使用本地模型。
選擇合適的 VPS
OpenClaw 非常輕量。如果你使用雲端 AI API(OpenAI、Claude 等),入門級的 VPS 就足夠了。如果你打算透過 Ollama 運行本地模型,則需要更多資源。
最低需求
- 僅使用 API: 1 vCPU、1 GB RAM、20 GB SSD
- 運行本地模型: 4 vCPU、8 GB+ RAM、80 GB+ SSD
- 作業系統: 建議使用 Ubuntu 22.04 或 24.04 LTS
推薦的 VPS 供應商
| 供應商 | 最適合 | 起始價格 |
|---|---|---|
| 搬瓦工 BandwagonHost | 穩定可靠的基礎設施,Just My Socks 背後的團隊 | $49.99/年 |
| Vultr | 按小時計費、全球機房、彈性擴充 | $6/月 |
| RackNerd | 長期使用最划算,年付價格低廉 | ~$23/年 |
| Contabo | 高記憶體方案適合本地模型,歐洲機房 | €4.99/月 |
| Kamatera | 自訂配置、企業級穩定性 | $4/月 |
| DigitalOcean | 對開發者友善、文件完善 | $6/月 |
逐步安裝教學
1. 連線到你的 VPS
ssh root@YOUR_VPS_IP
2. 更新系統
apt update && apt upgrade -y
3. 安裝 Node.js 22
curl -fsSL https://deb.nodesource.com/setup_22.x | bash -
apt install -y nodejs
驗證安裝是否成功:
node -v # Should show v22.x.x
4. 安裝 OpenClaw
curl -fsSL https://openclaws.io/install.sh | bash
5. 執行設定精靈
openclaw onboard
設定精靈會引導你完成以下步驟:
- 選擇 AI 模型供應商(OpenAI、Anthropic、Google 或本地 Ollama)
- 輸入你的 API 金鑰
- 連接通訊平台
6. 啟動閘道
openclaw gateway start
OpenClaw 現在已經開始運行。你可以透過網頁控制台存取,或透過已連接的通訊軟體進行互動。
連接 Telegram(範例)
- 開啟 Telegram,搜尋 @BotFather。
- 傳送
/newbot,依照提示建立機器人,並複製 API token。 - 在 OpenClaw 設定中新增 Telegram 整合:
openclaw config set integrations.telegram.token "YOUR_BOT_TOKEN" - 重新啟動閘道:
openclaw gateway restart - 在 Telegram 中傳送訊息給你的機器人 — AI 助理會立即回覆。
WhatsApp、Slack、Discord 及其他平台的設定方式相同。請參閱 OpenClaw 官方文件 取得各平台的設定指南。
連接 AI 模型 API
OpenClaw 支援多個 AI 供應商。若要切換或新增模型:
# Use OpenAI
openclaw config set ai.provider openai
openclaw config set ai.openai.apiKey "sk-..."
# Use Anthropic (Claude)
openclaw config set ai.provider anthropic
openclaw config set ai.anthropic.apiKey "sk-ant-..."
# Use a local model via Ollama
openclaw config set ai.provider ollama
openclaw config set ai.ollama.model "llama3"
部分 AI API 存在區域可用性限制。如果你在連接 API 端點時遇到連線問題,像 Just My Socks 這樣的代理服務可以幫助你從任何伺服器位置維持穩定連線。
安全性最佳實踐
運行具備系統存取權限的 AI 助理,需要謹慎的安全管理:
- 保持 OpenClaw 為最新版本 — 早期版本存在一個嚴重漏洞(CVE-2026-25253,已在 v2026.1.29 修補)。請務必使用最新版本。
- 設定閘道驗證 token — 保護你的控制台:
openclaw config set gateway.auth.token "a-strong-random-token" - 安裝社群技能前先審查 — ClawHub 上的技能會在你的伺服器上執行程式碼。只安裝來自可信作者且評價良好的技能。
- 使用防火牆 — 僅開放必要的連接埠(SSH + 閘道連接埠)。
- 以非 root 使用者運行 — 為 OpenClaw 建立專用的使用者帳號,避免以 root 身份運行。
讓 OpenClaw 全天候運行
為了確保 OpenClaw 在伺服器重開機後自動啟動,將其設定為 systemd 服務:
# Create a service file
sudo tee /etc/systemd/system/openclaw.service <<EOF
[Unit]
Description=OpenClaw AI Agent
After=network.target
[Service]
Type=simple
User=openclaw
ExecStart=/usr/local/bin/openclaw gateway start
Restart=always
RestartSec=10
[Install]
WantedBy=multi-user.target
EOF
# Enable and start
sudo systemctl enable openclaw
sudo systemctl start openclaw
開始使用
只需一台基本的 VPS 和 30 分鐘的設定時間,你就能擁有一個全天候運行的私人 AI 助理,連接到你常用的通訊軟體,自主處理各種任務。以下是根據不同需求的快速推薦:
- 預算首選: RackNerd — 年付約 $23 起,非常適合僅使用 API 的方案。
- 均衡之選: 搬瓦工 BandwagonHost — Just My Socks 團隊提供的穩定基礎設施。
- 本地模型首選: Contabo — 價格實惠的高記憶體方案,適合在裝置上運行 Ollama 模型。
需要穩定的代理服務來連接你的 VPS 與 AI 模型 API?Just My Socks 提供穩定的全球代理連線,與任何 VPS 方案完美搭配。