OpenClaw Model 查詢、切換與相關指令操作完整指南

一篇搞懂 OpenClaw 的模型管理:從查詢、切換到進階設定,所有你需要知道的指令都在這裡。

內文

OpenClaw 是一個開源的 AI 代理平台,最大的特色之一就是模型不綁定(Model Agnostic)——你可以自由選擇要使用哪個 AI 模型,不管是雲端的 OpenAI GPT、Anthropic Claude,還是透過 Ollama 跑在本機的開源模型,都能無縫切換。

這篇文章整理了 OpenClaw 中所有與模型相關的查詢、切換和管理操作,從最基本的 CLI 指令到進階的設定檔配置,一次講清楚。


一、初始設定:openclaw onboard

如果你是第一次安裝 OpenClaw,或者想要重新設定模型供應商,最簡單的方式就是執行:

openclaw onboard

這個指令會啟動一個互動式引導精靈,帶你一步步完成:

  1. 選擇 AI 模型供應商(OpenAI、Anthropic、Ollama 等)
  2. 輸入對應的 API Key
  3. 選擇要使用的具體模型
  4. 設定訊息頻道(Telegram、Discord、WhatsApp 等)

整個過程不需要手動編輯任何設定檔,適合剛入門的使用者。


二、查詢可用模型:openclaw models list

想知道目前 OpenClaw 能使用哪些模型?執行:

openclaw models list

這個指令會列出所有已設定的供應商下可用的模型清單,包含模型名稱和供應商資訊。用來確認設定是否正確、或者查找模型的正確名稱非常方便。

輸出範例可能類似:

Provider: openai
  - gpt-4o
  - gpt-4o-mini
  - gpt-5.1-codex

Provider: anthropic
  - claude-sonnet-4-20250514
  - claude-3.5-haiku

Provider: ollama
  - llama3.3
  - deepseek-r1:14b

三、切換模型:openclaw models set

要快速切換目前使用的 AI 模型,使用:

openclaw models set <provider>/<model>

格式是 供應商/模型名稱,例如:

# 切換到 OpenAI 的 GPT-4o
openclaw models set openai/gpt-4o

# 切換到 Anthropic 的 Claude Sonnet
openclaw models set anthropic/claude-sonnet-4-20250514

# 切換到本機 Ollama 的 Llama 3.3
openclaw models set ollama/llama3.3

這個指令會立即生效,不需要重啟 OpenClaw,非常適合在不同任務之間快速切換模型。


四、聊天室內切換:/model 指令

如果你是透過 Telegram、Discord 或 Web UI 等聊天介面與 OpenClaw 互動,可以直接在對話中使用:

/model

這個指令會:

  • 顯示目前正在使用的模型
  • 列出可供切換的模型選項
  • 讓你直接在對話中選擇新的模型

不需要跳出聊天室去打 CLI,特別方便日常使用。


五、編輯設定檔:openclaw config edit

如果需要更細緻的模型管理,例如為不同任務指定不同的模型、設定備用模型等,可以直接編輯設定檔:

openclaw config edit

這會打開 openclaw.json 設定檔,預設位置是:

系統 路徑
macOS / Linux ~/.openclaw/openclaw.json
Windows C:\Users\你的使用者名稱\.openclaw\openclaw.json

設定檔結構

設定檔中與模型相關的主要區塊:

{
  "models": {
    "providers": {
      "openai": {
        "baseUrl": "https://api.openai.com/v1",
        "apiKey": "${OPENAI_API_KEY}",
        "api": "openai-completions",
        "models": ["gpt-4o", "gpt-4o-mini", "gpt-5.1-codex"]
      },
      "ollama": {
        "baseUrl": "http://localhost:11434",
        "api": "openai-completions",
        "models": ["llama3.3", "deepseek-r1:14b"]
      }
    }
  },
  "agents": {
    "defaults": {
      "model": "openai/gpt-4o"
    }
  }
}

重點說明

  • apiKey:建議使用環境變數(${OPENAI_API_KEY})而不是直接寫死 API Key,比較安全
  • baseUrl:本機模型(如 Ollama)需要指向本地 API 端點
  • agents.defaults.model:設定預設使用的模型
  • 修改設定檔後,通常需要重啟 OpenClaw 才會生效

六、進階模型管理

為不同任務設定不同模型

OpenClaw 支援依據任務類型分配模型,在設定檔中可以這樣配置:

{
  "agents": {
    "defaults": {
      "model": "openai/gpt-4o",
      "chat": "openai/gpt-4o",
      "quick": "openai/gpt-4o-mini",
      "cheap": "ollama/llama3.3"
    }
  }
}
  • chat:一般對話使用的模型
  • quick:需要快速回應時使用的輕量模型
  • cheap:成本敏感的任務使用的低價模型

為不同頻道設定模型

如果你同時在 Telegram 和 Discord 上使用 OpenClaw,可以針對不同頻道設定不同模型:

{
  "channels": {
    "telegram": {
      "model": "anthropic/claude-sonnet-4-20250514"
    },
    "discord": {
      "model": "ollama/llama3.3"
    }
  }
}

這樣就能根據使用場景靈活分配 AI 資源。

自訂 LLM 供應商

除了內建支援的供應商,OpenClaw 也支援透過 OpenAI 相容 API 接入其他服務(例如 OpenRouter):

{
  "models": {
    "providers": {
      "openrouter": {
        "baseUrl": "https://openrouter.ai/api/v1",
        "apiKey": "${OPENROUTER_API_KEY}",
        "api": "openai-completions",
        "models": ["google/gemini-2.5-pro", "meta-llama/llama-3.3-70b"]
      }
    }
  }
}

七、常用指令速查表

指令 用途
openclaw onboard 初始設定 / 重新設定供應商和模型
openclaw models list 列出所有已設定的可用模型
openclaw models set <provider>/<model> 快速切換目前使用的模型
openclaw config edit 開啟設定檔進行進階編輯
/model(聊天室內) 在對話中查看與切換模型

小結

OpenClaw 提供了從簡單到進階的多種模型管理方式:

  • 新手友善openclaw onboard 一鍵引導設定
  • 快速操作openclaw models set 立即切換模型
  • 日常使用/model 聊天室內隨手切換
  • 進階配置openclaw.json 精細控制每個頻道、每種任務的模型分配

不管你是只用單一模型的輕度使用者,還是需要在多個模型之間動態切換的重度使用者,OpenClaw 都能滿足需求。善用這些指令,就能讓你的 AI 助手在對的場景使用對的模型,兼顧效能與成本。