跳到內容

提供商

在 OpenCode 中使用任意 LLM 提供商。

OpenCode 使用 AI SDKModels.dev,支援 75+ LLM 提供商,同時也支援執行本地模型。

要新增提供商,您需要:

  1. 使用 /connect 指令新增提供商的 API 金鑰。
  2. 在 OpenCode 設定中設定該提供商。

憑證

使用 /connect 指令新增提供商的 API 金鑰後,憑證會儲存在 ~/.local/share/opencode/auth.json 中。


設定

您可以透過 OpenCode 設定中的 provider 部分來自訂提供商。


自訂 Base URL

您可以透過設定 baseURL 選項來自訂任何提供商的 Base URL。這在使用代理服務或自訂端點時非常有用。

opencode.json
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"anthropic": {
"options": {
"baseURL": "https://api.anthropic.com/v1"
}
}
}
}

OpenCode Zen

OpenCode Zen 是由 OpenCode 團隊提供的模型列表,這些模型已經過測試和驗證,能夠與 OpenCode 良好配合使用。了解更多

  1. 在 TUI 中執行 /connect 指令,選擇 OpenCode Zen,然後前往 opencode.ai/auth

    /connect
  2. 登入後新增帳單資訊,然後複製您的 API 金鑰。

  3. 貼上您的 API 金鑰。

    ┌ API key
    └ enter
  4. 在 TUI 中執行 /models 查看我們推薦的模型列表。

    /models

它的使用方式與 OpenCode 中的其他提供商完全相同,且完全可選。


OpenCode Go

OpenCode Go 是一個低成本的訂閱計畫,提供對 OpenCode 團隊提供的流行開放編碼模型的可靠存取,這些模型已經過測試和驗證,能夠與 OpenCode 良好配合使用。

  1. 在 TUI 中執行 /connect 指令,選擇 OpenCode Go,然後前往 opencode.ai/auth

    /connect
  2. 登入後新增帳單資訊,然後複製您的 API 金鑰。

  3. 貼上您的 API 金鑰。

    ┌ API key
    └ enter
  4. 在 TUI 中執行 /models 查看我們推薦的模型列表。

    /models

它的使用方式與 OpenCode 中的任何其他提供商相同,且完全可選。


目錄

下面我們來詳細了解一些提供商。如果您想將某個提供商新增到列表中,歡迎提交 PR。


302.AI

  1. 前往 302.AI 控制台,建立帳號並產生 API 金鑰。

  2. 執行 /connect 指令並搜尋 302.AI

    /connect
  3. 輸入您的 302.AI API 金鑰。

    ┌ API key
    └ enter
  4. 執行 /models 指令選擇模型。

    /models

Amazon Bedrock

要在 OpenCode 中使用 Amazon Bedrock:

  1. 前往 Amazon Bedrock 控制台中的模型目錄,申請存取您想要使用的模型。

  2. 使用以下方法之一設定身分驗證

    環境變數(快速上手)

    執行 opencode 時設定以下環境變數之一:

    Terminal window
    # Option 1: Using AWS access keys
    AWS_ACCESS_KEY_ID=XXX AWS_SECRET_ACCESS_KEY=YYY opencode
    # Option 2: Using named AWS profile
    AWS_PROFILE=my-profile opencode
    # Option 3: Using Bedrock bearer token
    AWS_BEARER_TOKEN_BEDROCK=XXX opencode

    或者將它們新增到您的 bash 設定檔中:

    ~/.bash_profile
    export AWS_PROFILE=my-dev-profile
    export AWS_REGION=us-east-1

    設定檔(推薦)

    如需專案級別或持久化的設定,請使用 opencode.json

    opencode.json
    {
    "$schema": "https://opencode.ai/config.json",
    "provider": {
    "amazon-bedrock": {
    "options": {
    "region": "us-east-1",
    "profile": "my-aws-profile"
    }
    }
    }
    }

    可用選項:

    • region - AWS 區域(例如 us-east-1eu-west-1
    • profile - ~/.aws/credentials 中的 AWS 命名設定檔
    • endpoint - VPC 端點的自訂端點 URL(通用 baseURL 選項的別名)

    進階:VPC 端點

    如果您使用 Bedrock 的 VPC 端點:

    opencode.json
    {
    "$schema": "https://opencode.ai/config.json",
    "provider": {
    "amazon-bedrock": {
    "options": {
    "region": "us-east-1",
    "profile": "production",
    "endpoint": "https://bedrock-runtime.us-east-1.vpce-xxxxx.amazonaws.com"
    }
    }
    }
    }

    認證方式

    • AWS_ACCESS_KEY_ID / AWS_SECRET_ACCESS_KEY:在 AWS 控制台中建立 IAM 使用者並產生存取金鑰
    • AWS_PROFILE:使用 ~/.aws/credentials 中的命名設定檔。需要先透過 aws configure --profile my-profileaws sso login 進行設定
    • AWS_BEARER_TOKEN_BEDROCK:從 Amazon Bedrock 控制台產生長期 API 金鑰
    • AWS_WEB_IDENTITY_TOKEN_FILE / AWS_ROLE_ARN:適用於 EKS IRSA(服務帳號的 IAM 角色)或其他支援 OIDC 聯合的 Kubernetes 環境。使用服務帳號註解時,Kubernetes 會自動注入這些環境變數。

    認證優先順序

    Amazon Bedrock 使用以下認證優先順序:

    1. Bearer Token - AWS_BEARER_TOKEN_BEDROCK 環境變數或透過 /connect 指令取得的 Token
    2. AWS 憑證鏈 - 設定檔、存取金鑰、共享憑證、IAM 角色、Web Identity Token(EKS IRSA)、執行個體中繼資料
  3. 執行 /models 指令選擇您想要的模型。

    /models

Anthropic

  1. 註冊完成後,執行 /connect 指令並選擇 Anthropic。

    /connect
  2. 您可以選擇 Claude Pro/Max 選項,瀏覽器會自動開啟並要求您進行身分驗證。

    ┌ Select auth method
    │ Claude Pro/Max
    │ Create an API Key
    │ Manually enter API Key
  3. 現在使用 /models 指令即可看到所有 Anthropic 模型。

    /models

在 OpenCode 中使用 Claude Pro/Max 訂閱不是 Anthropic 官方支援的用法。

使用 API 金鑰

如果您沒有 Pro/Max 訂閱,也可以選擇 Create an API Key。瀏覽器會自動開啟並要求您登入 Anthropic,然後會提供一個代碼供您貼上到終端機中。

如果您已經有 API 金鑰,可以選擇 Manually enter API Key 並將其貼上到終端機中。


Azure OpenAI

  1. 前往 Azure 入口網站並建立 Azure OpenAI 資源。您需要:

    • 資源名稱:這會成為您的 API 端點的一部分(https://RESOURCE_NAME.openai.azure.com/
    • API 金鑰:資源中的 KEY 1KEY 2
  2. 前往 Azure AI Foundry 並部署一個模型。

  3. 執行 /connect 指令並搜尋 Azure

    /connect
  4. 輸入您的 API 金鑰。

    ┌ API key
    └ enter
  5. 將資源名稱設定為環境變數:

    Terminal window
    AZURE_RESOURCE_NAME=XXX opencode

    或者新增到您的 bash 設定檔中:

    ~/.bash_profile
    export AZURE_RESOURCE_NAME=XXX
  6. 執行 /models 指令選擇您已部署的模型。

    /models

Azure Cognitive Services

  1. 前往 Azure 入口網站並建立 Azure OpenAI 資源。您需要:

    • 資源名稱:這會成為您的 API 端點的一部分(https://AZURE_COGNITIVE_SERVICES_RESOURCE_NAME.cognitiveservices.azure.com/
    • API 金鑰:資源中的 KEY 1KEY 2
  2. 前往 Azure AI Foundry 並部署一個模型。

  3. 執行 /connect 指令並搜尋 Azure Cognitive Services

    /connect
  4. 輸入您的 API 金鑰。

    ┌ API key
    └ enter
  5. 將資源名稱設定為環境變數:

    Terminal window
    AZURE_COGNITIVE_SERVICES_RESOURCE_NAME=XXX opencode

    或者新增到您的 bash 設定檔中:

    ~/.bash_profile
    export AZURE_COGNITIVE_SERVICES_RESOURCE_NAME=XXX
  6. 執行 /models 指令選擇您已部署的模型。

    /models

Baseten

  1. 前往 Baseten,建立帳號並產生 API 金鑰。

  2. 執行 /connect 指令並搜尋 Baseten

    /connect
  3. 輸入您的 Baseten API 金鑰。

    ┌ API key
    └ enter
  4. 執行 /models 指令選擇模型。

    /models

Cerebras

  1. 前往 Cerebras 控制台,建立帳號並產生 API 金鑰。

  2. 執行 /connect 指令並搜尋 Cerebras

    /connect
  3. 輸入您的 Cerebras API 金鑰。

    ┌ API key
    └ enter
  4. 執行 /models 指令選擇模型,例如 Qwen 3 Coder 480B

    /models

Cloudflare AI Gateway

Cloudflare AI Gateway 允許您透過統一端點存取來自 OpenAI、Anthropic、Workers AI 等提供商的模型。透過 Unified Billing,您無需為每個提供商單獨準備 API 金鑰。

  1. 前往 Cloudflare 儀表板,導覽到 AI > AI Gateway,建立一個新的閘道。

  2. 將您的 Account ID 和 Gateway ID 設定為環境變數。

    ~/.bash_profile
    export CLOUDFLARE_ACCOUNT_ID=your-32-character-account-id
    export CLOUDFLARE_GATEWAY_ID=your-gateway-id
  3. 執行 /connect 指令並搜尋 Cloudflare AI Gateway

    /connect
  4. 輸入您的 Cloudflare API Token。

    ┌ API key
    └ enter

    或者將其設定為環境變數。

    ~/.bash_profile
    export CLOUDFLARE_API_TOKEN=your-api-token
  5. 執行 /models 指令選擇模型。

    /models

    您也可以透過 OpenCode 設定新增模型。

    opencode.json
    {
    "$schema": "https://opencode.ai/config.json",
    "provider": {
    "cloudflare-ai-gateway": {
    "models": {
    "openai/gpt-4o": {},
    "anthropic/claude-sonnet-4": {}
    }
    }
    }
    }

Cortecs

  1. 前往 Cortecs 控制台,建立帳號並產生 API 金鑰。

  2. 執行 /connect 指令並搜尋 Cortecs

    /connect
  3. 輸入您的 Cortecs API 金鑰。

    ┌ API key
    └ enter
  4. 執行 /models 指令選擇模型,例如 Kimi K2 Instruct

    /models

DeepSeek

  1. 前往 DeepSeek 控制台,建立帳號並點擊 Create new API key

  2. 執行 /connect 指令並搜尋 DeepSeek

    /connect
  3. 輸入您的 DeepSeek API 金鑰。

    ┌ API key
    └ enter
  4. 執行 /models 指令選擇 DeepSeek 模型,例如 DeepSeek Reasoner

    /models

Deep Infra

  1. 前往 Deep Infra 儀表板,建立帳號並產生 API 金鑰。

  2. 執行 /connect 指令並搜尋 Deep Infra

    /connect
  3. 輸入您的 Deep Infra API 金鑰。

    ┌ API key
    └ enter
  4. 執行 /models 指令選擇模型。

    /models

Firmware

  1. 前往 Firmware 儀表板,建立帳號並產生 API 金鑰。

  2. 執行 /connect 指令並搜尋 Firmware

    /connect
  3. 輸入您的 Firmware API 金鑰。

    ┌ API key
    └ enter
  4. 執行 /models 指令選擇模型。

    /models

Fireworks AI

  1. 前往 Fireworks AI 控制台,建立帳號並點擊 Create API Key

  2. 執行 /connect 指令並搜尋 Fireworks AI

    /connect
  3. 輸入您的 Fireworks AI API 金鑰。

    ┌ API key
    └ enter
  4. 執行 /models 指令選擇模型,例如 Kimi K2 Instruct

    /models

GitLab Duo

GitLab Duo 透過 GitLab 的 Anthropic 代理提供具有原生工具呼叫能力的 AI 驅動代理聊天。

  1. 執行 /connect 指令並選擇 GitLab。

    /connect
  2. 選擇您的身分驗證方式:

    ┌ Select auth method
    │ OAuth (Recommended)
    │ Personal Access Token

    使用 OAuth(推薦)

    選擇 OAuth,瀏覽器會自動開啟進行授權。

    使用個人存取權杖

    1. 前往 GitLab 使用者設定 > Access Tokens
    2. 點擊 Add new token
    3. 名稱填寫 OpenCode,範圍選擇 api
    4. 複製權杖(以 glpat- 開頭)
    5. 在終端機中輸入該權杖
  3. 執行 /models 指令查看可用模型。

    /models

    提供三個基於 Claude 的模型:

    • duo-chat-haiku-4-5(預設)- 快速回應,適合簡單任務
    • duo-chat-sonnet-4-5 - 效能均衡,適合大多數工作流程
    • duo-chat-opus-4-5 - 最強大,適合複雜分析
自架 GitLab

對於自架 GitLab 實例:

Terminal window
export GITLAB_INSTANCE_URL=https://gitlab.company.com
export GITLAB_TOKEN=glpat-...

如果您的實例執行了自訂 AI Gateway:

Terminal window
GITLAB_AI_GATEWAY_URL=https://ai-gateway.company.com

或者新增到您的 bash 設定檔中:

~/.bash_profile
export GITLAB_INSTANCE_URL=https://gitlab.company.com
export GITLAB_AI_GATEWAY_URL=https://ai-gateway.company.com
export GITLAB_TOKEN=glpat-...
自架實例的 OAuth

要在自架實例上使用 OAuth,您需要建立一個新應用程式(設定 → 應用程式),回呼 URL 設定為 http://127.0.0.1:8080/callback,並選擇以下範圍:

  • api(代表您存取 API)
  • read_user(讀取您的個人資訊)
  • read_repository(允許對儲存庫進行唯讀存取)

然後將應用程式 ID 匯出為環境變數:

Terminal window
export GITLAB_OAUTH_CLIENT_ID=your_application_id_here

更多文件請參閱 opencode-gitlab-auth 首頁。

設定

透過 opencode.json 進行自訂設定:

opencode.json
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"gitlab": {
"options": {
"instanceUrl": "https://gitlab.com",
"featureFlags": {
"duo_agent_platform_agentic_chat": true,
"duo_agent_platform": true
}
}
}
}
}
GitLab API 工具(可選,但強烈推薦)

要存取 GitLab 工具(合併請求、Issue、流水線、CI/CD 等):

opencode.json
{
"$schema": "https://opencode.ai/config.json",
"plugin": ["@gitlab/opencode-gitlab-plugin"]
}

該外掛提供全面的 GitLab 儲存庫管理功能,包括 MR 審查、Issue 追蹤、流水線監控等。


GitHub Copilot

要在 OpenCode 中使用您的 GitHub Copilot 訂閱:

  1. 執行 /connect 指令並搜尋 GitHub Copilot。

    /connect
  2. 前往 github.com/login/device 並輸入驗證碼。

    ┌ Login with GitHub Copilot
    │ https://github.com/login/device
    │ Enter code: 8F43-6FCF
    └ Waiting for authorization...
  3. 現在執行 /models 指令選擇您想要的模型。

    /models

Google Vertex AI

要在 OpenCode 中使用 Google Vertex AI:

  1. 前往 Google Cloud Console 中的模型花園,查看您所在區域可用的模型。

  2. 設定所需的環境變數:

    • GOOGLE_CLOUD_PROJECT:您的 Google Cloud 專案 ID
    • VERTEX_LOCATION(可選):Vertex AI 的區域(預設為 global
    • 身分驗證(選擇其一):
      • GOOGLE_APPLICATION_CREDENTIALS:服務帳號 JSON 金鑰檔案的路徑
      • 使用 gcloud CLI 進行身分驗證:gcloud auth application-default login

    在執行 opencode 時設定:

    Terminal window
    GOOGLE_APPLICATION_CREDENTIALS=/path/to/service-account.json GOOGLE_CLOUD_PROJECT=your-project-id opencode

    或者新增到您的 bash 設定檔中:

    ~/.bash_profile
    export GOOGLE_APPLICATION_CREDENTIALS=/path/to/service-account.json
    export GOOGLE_CLOUD_PROJECT=your-project-id
    export VERTEX_LOCATION=global
  1. 執行 /models 指令選擇您想要的模型。

    /models

Groq

  1. 前往 Groq 控制台,點擊 Create API Key 並複製金鑰。

  2. 執行 /connect 指令並搜尋 Groq。

    /connect
  3. 輸入該提供商的 API 金鑰。

    ┌ API key
    └ enter
  4. 執行 /models 指令選擇您想要的模型。

    /models

Hugging Face

Hugging Face Inference Providers 提供對由 17+ 提供商支援的開放模型的存取。

  1. 前往 Hugging Face 設定,建立一個具有呼叫 Inference Providers 權限的權杖。

  2. 執行 /connect 指令並搜尋 Hugging Face

    /connect
  3. 輸入您的 Hugging Face 權杖。

    ┌ API key
    └ enter
  4. 執行 /models 指令選擇模型,例如 Kimi-K2-InstructGLM-4.6

    /models

Helicone

Helicone 是一個 LLM 可觀測性平台,為您的 AI 應用程式提供日誌記錄、監控和分析功能。Helicone AI Gateway 會根據模型自動將請求路由到對應的提供商。

  1. 前往 Helicone,建立帳號並在儀表板中產生 API 金鑰。

  2. 執行 /connect 指令並搜尋 Helicone

    /connect
  3. 輸入您的 Helicone API 金鑰。

    ┌ API key
    └ enter
  4. 執行 /models 指令選擇模型。

    /models

如需了解更多提供商以及快取、速率限制等進階功能,請查閱 Helicone 文件

可選設定

如果 Helicone 的某些功能或模型未透過 OpenCode 自動設定,您隨時可以手動設定。

Helicone 模型目錄中可以找到您需要新增的模型 ID。

~/.config/opencode/opencode.jsonc
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"helicone": {
"npm": "@ai-sdk/openai-compatible",
"name": "Helicone",
"options": {
"baseURL": "https://ai-gateway.helicone.ai",
},
"models": {
"gpt-4o": {
// Model ID (from Helicone's model directory page)
"name": "GPT-4o", // Your own custom name for the model
},
"claude-sonnet-4-20250514": {
"name": "Claude Sonnet 4",
},
},
},
},
}

自訂請求標頭

Helicone 支援用於快取、使用者追蹤和工作階段管理等功能的自訂請求標頭。使用 options.headers 將它們新增到提供商設定中:

~/.config/opencode/opencode.jsonc
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"helicone": {
"npm": "@ai-sdk/openai-compatible",
"name": "Helicone",
"options": {
"baseURL": "https://ai-gateway.helicone.ai",
"headers": {
"Helicone-Cache-Enabled": "true",
"Helicone-User-Id": "opencode",
},
},
},
},
}
工作階段追蹤

Helicone 的 Sessions 功能允許您將相關的 LLM 請求歸為一組。使用 opencode-helicone-session 外掛可以自動將每個 OpenCode 對話記錄為 Helicone 中的一個工作階段。

Terminal window
npm install -g opencode-helicone-session

將其新增到設定中。

opencode.json
{
"plugin": ["opencode-helicone-session"]
}

該外掛會在您的請求中注入 Helicone-Session-IdHelicone-Session-Name 請求標頭。在 Helicone 的 Sessions 頁面中,您可以看到每個 OpenCode 對話都作為獨立的工作階段列出。

常用 Helicone 請求標頭
請求標頭描述
Helicone-Cache-Enabled啟用回應快取(true/false
Helicone-User-Id按使用者追蹤指標
Helicone-Property-[Name]新增自訂屬性(例如 Helicone-Property-Environment
Helicone-Prompt-Id將請求與提示詞版本關聯

有關所有可用請求標頭,請參閱 Helicone Header Directory


llama.cpp

您可以透過 llama.cpp 的 llama-server 工具設定 OpenCode 使用本地模型。

opencode.json
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"llama.cpp": {
"npm": "@ai-sdk/openai-compatible",
"name": "llama-server (local)",
"options": {
"baseURL": "http://127.0.0.1:8080/v1"
},
"models": {
"qwen3-coder:a3b": {
"name": "Qwen3-Coder: a3b-30b (local)",
"limit": {
"context": 128000,
"output": 65536
}
}
}
}
}
}

在這個範例中:

  • llama.cpp 是自訂的提供商 ID,可以是任意字串。
  • npm 指定該提供商使用的套件。這裡使用 @ai-sdk/openai-compatible 來相容任何 OpenAI 相容的 API。
  • name 是該提供商在 UI 中顯示的名稱。
  • options.baseURL 是本地伺服器的端點位址。
  • models 是模型 ID 到其設定的對應。模型名稱會顯示在模型選擇列表中。

IO.NET

IO.NET 提供 17 個針對不同使用情境最佳化的模型:

  1. 前往 IO.NET 控制台,建立帳號並產生 API 金鑰。

  2. 執行 /connect 指令並搜尋 IO.NET

    /connect
  3. 輸入您的 IO.NET API 金鑰。

    ┌ API key
    └ enter
  4. 執行 /models 指令選擇模型。

    /models

LM Studio

您可以透過 LM Studio 設定 OpenCode 使用本地模型。

opencode.json
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"lmstudio": {
"npm": "@ai-sdk/openai-compatible",
"name": "LM Studio (local)",
"options": {
"baseURL": "http://127.0.0.1:1234/v1"
},
"models": {
"google/gemma-3n-e4b": {
"name": "Gemma 3n-e4b (local)"
}
}
}
}
}

在這個範例中:

  • lmstudio 是自訂的提供商 ID,可以是任意字串。
  • npm 指定該提供商使用的套件。這裡使用 @ai-sdk/openai-compatible 來相容任何 OpenAI 相容的 API。
  • name 是該提供商在 UI 中顯示的名稱。
  • options.baseURL 是本地伺服器的端點位址。
  • models 是模型 ID 到其設定的對應。模型名稱會顯示在模型選擇列表中。

Moonshot AI

要使用 Moonshot AI 的 Kimi K2:

  1. 前往 Moonshot AI 控制台,建立帳號並點擊 Create API key

  2. 執行 /connect 指令並搜尋 Moonshot AI

    /connect
  3. 輸入您的 Moonshot API 金鑰。

    ┌ API key
    └ enter
  4. 執行 /models 指令選擇 Kimi K2

    /models

MiniMax

  1. 前往 MiniMax API 控制台,建立帳號並產生 API 金鑰。

  2. 執行 /connect 指令並搜尋 MiniMax

    /connect
  3. 輸入您的 MiniMax API 金鑰。

    ┌ API key
    └ enter
  4. 執行 /models 指令選擇模型,例如 M2.1

    /models

Nebius Token Factory

  1. 前往 Nebius Token Factory 控制台,建立帳號並點擊 Add Key

  2. 執行 /connect 指令並搜尋 Nebius Token Factory

    /connect
  3. 輸入您的 Nebius Token Factory API 金鑰。

    ┌ API key
    └ enter
  4. 執行 /models 指令選擇模型,例如 Kimi K2 Instruct

    /models

Ollama

您可以透過 Ollama 設定 OpenCode 使用本地模型。

opencode.json
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"ollama": {
"npm": "@ai-sdk/openai-compatible",
"name": "Ollama (local)",
"options": {
"baseURL": "http://localhost:11434/v1"
},
"models": {
"llama2": {
"name": "Llama 2"
}
}
}
}
}

在這個範例中:

  • ollama 是自訂的提供商 ID,可以是任意字串。
  • npm 指定該提供商使用的套件。這裡使用 @ai-sdk/openai-compatible 來相容任何 OpenAI 相容的 API。
  • name 是該提供商在 UI 中顯示的名稱。
  • options.baseURL 是本地伺服器的端點位址。
  • models 是模型 ID 到其設定的對應。模型名稱會顯示在模型選擇列表中。

Ollama Cloud

要在 OpenCode 中使用 Ollama Cloud:

  1. 前往 https://ollama.com/ 登入或建立帳號。

  2. 導覽到 Settings > Keys,點擊 Add API Key 產生新的 API 金鑰。

  3. 複製 API 金鑰以便在 OpenCode 中使用。

  4. 執行 /connect 指令並搜尋 Ollama Cloud

    /connect
  5. 輸入您的 Ollama Cloud API 金鑰。

    ┌ API key
    └ enter
  6. 重要:在 OpenCode 中使用雲端模型之前,必須先將模型資訊拉取到本地:

    Terminal window
    ollama pull gpt-oss:20b-cloud
  7. 執行 /models 指令選擇您的 Ollama Cloud 模型。

    /models

OpenAI

我們建議註冊 ChatGPT Plus 或 Pro

  1. 註冊完成後,執行 /connect 指令並選擇 OpenAI。

    /connect
  2. 您可以選擇 ChatGPT Plus/Pro 選項,瀏覽器會自動開啟並要求您進行身分驗證。

    ┌ Select auth method
    │ ChatGPT Plus/Pro
    │ Manually enter API Key
  3. 現在使用 /models 指令即可看到所有 OpenAI 模型。

    /models
使用 API 金鑰

如果您已經有 API 金鑰,可以選擇 Manually enter API Key 並將其貼上到終端機中。


OpenCode Zen

OpenCode Zen 是由 OpenCode 團隊提供的經過測試和驗證的模型列表。了解更多

  1. 登入 OpenCode Zen 並點擊 Create API Key

  2. 執行 /connect 指令並搜尋 OpenCode Zen

    /connect
  3. 輸入您的 OpenCode API 金鑰。

    ┌ API key
    └ enter
  4. 執行 /models 指令選擇模型,例如 Qwen 3 Coder 480B

    /models

OpenRouter

  1. 前往 OpenRouter 儀表板,點擊 Create API Key 並複製金鑰。

  2. 執行 /connect 指令並搜尋 OpenRouter。

    /connect
  3. 輸入該提供商的 API 金鑰。

    ┌ API key
    └ enter
  4. 預設已預先載入了許多 OpenRouter 模型,執行 /models 指令選擇您想要的模型。

    /models

    您也可以透過 OpenCode 設定新增更多模型。

    opencode.json
    {
    "$schema": "https://opencode.ai/config.json",
    "provider": {
    "openrouter": {
    "models": {
    "somecoolnewmodel": {}
    }
    }
    }
    }
  5. 您還可以透過 OpenCode 設定自訂模型。以下是指定提供商的範例:

    opencode.json
    {
    "$schema": "https://opencode.ai/config.json",
    "provider": {
    "openrouter": {
    "models": {
    "moonshotai/kimi-k2": {
    "options": {
    "provider": {
    "order": ["baseten"],
    "allow_fallbacks": false
    }
    }
    }
    }
    }
    }
    }

SAP AI Core

SAP AI Core 透過統一平台提供對來自 OpenAI、Anthropic、Google、Amazon、Meta、Mistral 和 AI21 的 40+ 模型的存取。

  1. 前往 SAP BTP Cockpit,導覽到您的 SAP AI Core 服務實例,並建立服務金鑰。

  2. 執行 /connect 指令並搜尋 SAP AI Core

    /connect
  3. 輸入您的服務金鑰 JSON。

    ┌ Service key
    └ enter

    或者設定 AICORE_SERVICE_KEY 環境變數:

    Terminal window
    AICORE_SERVICE_KEY='{"clientid":"...","clientsecret":"...","url":"...","serviceurls":{"AI_API_URL":"..."}}' opencode

    或者新增到您的 bash 設定檔中:

    ~/.bash_profile
    export AICORE_SERVICE_KEY='{"clientid":"...","clientsecret":"...","url":"...","serviceurls":{"AI_API_URL":"..."}}'
  4. 可選:設定部署 ID 和資源群組:

    Terminal window
    AICORE_DEPLOYMENT_ID=your-deployment-id AICORE_RESOURCE_GROUP=your-resource-group opencode
  5. 執行 /models 指令從 40+ 個可用模型中進行選擇。

    /models

STACKIT

STACKIT AI Model Serving 提供完全託管的主權託管環境,專注於 Llama、Mistral 和 Qwen 等大語言模型,在歐洲基礎設施上實現最大程度的資料主權。

  1. 前往 STACKIT Portal,導覽到 AI Model Serving,為您的專案建立認證權杖。

  2. 執行 /connect 指令並搜尋 STACKIT

    /connect
  3. 輸入您的 STACKIT AI Model Serving 認證權杖。

    ┌ API key
    └ enter
  4. 執行 /models 指令選擇模型,例如 Qwen3-VL 235BLlama 3.3 70B

    /models

OVHcloud AI Endpoints

  1. 前往 OVHcloud 管理面板。導覽到 Public Cloud 部分,AI & Machine Learning > AI Endpoints,在 API Keys 分頁中點擊 Create a new API key

  2. 執行 /connect 指令並搜尋 OVHcloud AI Endpoints

    /connect
  3. 輸入您的 OVHcloud AI Endpoints API 金鑰。

    ┌ API key
    └ enter
  4. 執行 /models 指令選擇模型,例如 gpt-oss-120b

    /models

Scaleway

要在 OpenCode 中使用 Scaleway Generative APIs

  1. 前往 Scaleway Console IAM 設定產生新的 API 金鑰。

  2. 執行 /connect 指令並搜尋 Scaleway

    /connect
  3. 輸入您的 Scaleway API 金鑰。

    ┌ API key
    └ enter
  4. 執行 /models 指令選擇模型,例如 devstral-2-123b-instruct-2512gpt-oss-120b

    /models

Together AI

  1. 前往 Together AI 控制台,建立帳號並點擊 Add Key

  2. 執行 /connect 指令並搜尋 Together AI

    /connect
  3. 輸入您的 Together AI API 金鑰。

    ┌ API key
    └ enter
  4. 執行 /models 指令選擇模型,例如 Kimi K2 Instruct

    /models

Venice AI

  1. 前往 Venice AI 控制台,建立帳號並產生 API 金鑰。

  2. 執行 /connect 指令並搜尋 Venice AI

    /connect
  3. 輸入您的 Venice AI API 金鑰。

    ┌ API key
    └ enter
  4. 執行 /models 指令選擇模型,例如 Llama 3.3 70B

    /models

Vercel AI Gateway

Vercel AI Gateway 允許您透過統一端點存取來自 OpenAI、Anthropic、Google、xAI 等提供商的模型。模型按原價提供,不額外加價。

  1. 前往 Vercel 儀表板,導覽到 AI Gateway 分頁,點擊 API keys 建立新的 API 金鑰。

  2. 執行 /connect 指令並搜尋 Vercel AI Gateway

    /connect
  3. 輸入您的 Vercel AI Gateway API 金鑰。

    ┌ API key
    └ enter
  4. 執行 /models 指令選擇模型。

    /models

您也可以透過 OpenCode 設定自訂模型。以下是指定提供商路由順序的範例。

opencode.json
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"vercel": {
"models": {
"anthropic/claude-sonnet-4": {
"options": {
"order": ["anthropic", "vertex"]
}
}
}
}
}
}

一些常用的路由選項:

選項描述
order提供商嘗試順序
only限制為特定提供商
zeroDataRetention僅使用具有零資料留存策略的提供商

xAI

  1. 前往 xAI 控制台,建立帳號並產生 API 金鑰。

  2. 執行 /connect 指令並搜尋 xAI

    /connect
  3. 輸入您的 xAI API 金鑰。

    ┌ API key
    └ enter
  4. 執行 /models 指令選擇模型,例如 Grok Beta

    /models

Z.AI

  1. 前往 Z.AI API 控制台,建立帳號並點擊 Create a new API key

  2. 執行 /connect 指令並搜尋 Z.AI

    /connect

    如果您訂閱了 GLM Coding Plan,請選擇 Z.AI Coding Plan

  3. 輸入您的 Z.AI API 金鑰。

    ┌ API key
    └ enter
  4. 執行 /models 指令選擇模型,例如 GLM-4.7

    /models

ZenMux

  1. 前往 ZenMux 儀表板,點擊 Create API Key 並複製金鑰。

  2. 執行 /connect 指令並搜尋 ZenMux。

    /connect
  3. 輸入該提供商的 API 金鑰。

    ┌ API key
    └ enter
  4. 預設已預先載入了許多 ZenMux 模型,執行 /models 指令選擇您想要的模型。

    /models

    您也可以透過 OpenCode 設定新增更多模型。

    opencode.json
    {
    "$schema": "https://opencode.ai/config.json",
    "provider": {
    "zenmux": {
    "models": {
    "somecoolnewmodel": {}
    }
    }
    }
    }

自訂提供商

要新增 /connect 指令中未列出的任何 OpenAI 相容提供商:

  1. 執行 /connect 指令,向下捲動到 Other

    Terminal window
    $ /connect
    Add credential
    Select provider
    ...
    Other
  2. 輸入該提供商的唯一 ID。

    Terminal window
    $ /connect
    Add credential
    Enter provider id
    myprovider
  3. 輸入該提供商的 API 金鑰。

    Terminal window
    $ /connect
    Add credential
    This only stores a credential for myprovider - you will need to configure it in opencode.json, check the docs for examples.
    Enter your API key
    sk-...
  4. 在專案目錄中建立或更新 opencode.json 檔案:

    opencode.json
    {
    "$schema": "https://opencode.ai/config.json",
    "provider": {
    "myprovider": {
    "npm": "@ai-sdk/openai-compatible",
    "name": "My AI ProviderDisplay Name",
    "options": {
    "baseURL": "https://api.myprovider.com/v1"
    },
    "models": {
    "my-model-name": {
    "name": "My Model Display Name"
    }
    }
    }
    }
    }

    以下是設定選項說明:

    • npm:要使用的 AI SDK 套件,對於 OpenAI 相容的提供商使用 @ai-sdk/openai-compatible
    • name:在 UI 中顯示的名稱。
    • models:可用模型。
    • options.baseURL:API 端點 URL。
    • options.apiKey:可選,如果不使用 auth 認證,可直接設定 API 金鑰。
    • options.headers:可選,設定自訂請求標頭。

    更多進階選項請參見下面的範例。

  5. 執行 /models 指令,您自訂的提供商和模型將出現在選擇列表中。


範例

以下是設定 apiKeyheaders 和模型 limit 選項的範例。

opencode.json
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"myprovider": {
"npm": "@ai-sdk/openai-compatible",
"name": "My AI ProviderDisplay Name",
"options": {
"baseURL": "https://api.myprovider.com/v1",
"apiKey": "{env:ANTHROPIC_API_KEY}",
"headers": {
"Authorization": "Bearer custom-token"
}
},
"models": {
"my-model-name": {
"name": "My Model Display Name",
"limit": {
"context": 200000,
"output": 65536
}
}
}
}
}
}

設定詳情:

  • apiKey:使用 env 變數語法設定,了解更多
  • headers:隨每個請求傳送的自訂請求標頭。
  • limit.context:模型接受的最大輸入 Token 數。
  • limit.output:模型可產生的最大 Token 數。

limit 欄位讓 OpenCode 了解您還剩餘多少上下文空間。標準提供商會自動從 models.dev 拉取這些資訊。


疑難排解

如果您在設定提供商時遇到問題,請檢查以下幾點:

  1. 檢查認證設定:執行 opencode auth list 查看該提供商的憑證是否已新增到設定中。

    這不適用於 Amazon Bedrock 等依賴環境變數進行認證的提供商。

  2. 對於自訂提供商,請檢查 OpenCode 設定並確認:

    • /connect 指令中使用的提供商 ID 與 OpenCode 設定中的 ID 一致。
    • 使用了正確的 npm 套件。例如,Cerebras 應使用 @ai-sdk/cerebras。對於其他所有 OpenAI 相容的提供商,使用 @ai-sdk/openai-compatible
    • options.baseURL 欄位中的 API 端點位址正確。