跳转到内容

提供商

在 OpenCode 中使用任意 LLM 提供商。

OpenCode 使用 AI SDKModels.dev,支持 75+ LLM 提供商,同时也支持运行本地模型。

要添加提供商,你需要:

  1. 使用 /connect 命令添加提供商的 API 密钥。
  2. 在 OpenCode 配置中设置该提供商。

凭据

使用 /connect 命令添加提供商的 API 密钥后,凭据会存储在 ~/.local/share/opencode/auth.json 中。


配置

你可以通过 OpenCode 配置中的 provider 部分来自定义提供商。


自定义 Base URL

你可以通过设置 baseURL 选项来自定义任何提供商的 Base URL。这在使用代理服务或自定义端点时非常有用。

opencode.json
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"anthropic": {
"options": {
"baseURL": "https://api.anthropic.com/v1"
}
}
}
}

OpenCode Zen

OpenCode Zen 是由 OpenCode 团队提供的模型列表,这些模型已经过测试和验证,能够与 OpenCode 良好配合使用。了解更多

  1. 在 TUI 中执行 /connect 命令,选择 opencode,然后前往 opencode.ai/auth

    /connect
  2. 登录后添加账单信息,然后复制你的 API 密钥。

  3. 粘贴你的 API 密钥。

    ┌ API key
    └ enter
  4. 在 TUI 中执行 /models 查看我们推荐的模型列表。

    /models

它的使用方式与 OpenCode 中的其他提供商完全相同,且完全可选。


目录

下面我们来详细了解一些提供商。如果你想将某个提供商添加到列表中,欢迎提交 PR。


302.AI

  1. 前往 302.AI 控制台,创建账户并生成 API 密钥。

  2. 执行 /connect 命令并搜索 302.AI

    /connect
  3. 输入你的 302.AI API 密钥。

    ┌ API key
    └ enter
  4. 执行 /models 命令选择模型。

    /models

Amazon Bedrock

要在 OpenCode 中使用 Amazon Bedrock:

  1. 前往 Amazon Bedrock 控制台中的模型目录,申请访问你想要使用的模型。

  2. 使用以下方法之一配置身份验证


    环境变量(快速上手)

    运行 opencode 时设置以下环境变量之一:

    Terminal window
    # Option 1: Using AWS access keys
    AWS_ACCESS_KEY_ID=XXX AWS_SECRET_ACCESS_KEY=YYY opencode
    # Option 2: Using named AWS profile
    AWS_PROFILE=my-profile opencode
    # Option 3: Using Bedrock bearer token
    AWS_BEARER_TOKEN_BEDROCK=XXX opencode

    或者将它们添加到你的 bash 配置文件中:

    ~/.bash_profile
    export AWS_PROFILE=my-dev-profile
    export AWS_REGION=us-east-1

    配置文件(推荐)

    如需项目级别或持久化的配置,请使用 opencode.json

    opencode.json
    {
    "$schema": "https://opencode.ai/config.json",
    "provider": {
    "amazon-bedrock": {
    "options": {
    "region": "us-east-1",
    "profile": "my-aws-profile"
    }
    }
    }
    }

    可用选项:

    • region - AWS 区域(例如 us-east-1eu-west-1
    • profile - ~/.aws/credentials 中的 AWS 命名配置文件
    • endpoint - VPC 端点的自定义端点 URL(通用 baseURL 选项的别名)

    进阶:VPC 端点

    如果你使用 Bedrock 的 VPC 端点:

    opencode.json
    {
    "$schema": "https://opencode.ai/config.json",
    "provider": {
    "amazon-bedrock": {
    "options": {
    "region": "us-east-1",
    "profile": "production",
    "endpoint": "https://bedrock-runtime.us-east-1.vpce-xxxxx.amazonaws.com"
    }
    }
    }
    }

    认证方式

    • AWS_ACCESS_KEY_ID / AWS_SECRET_ACCESS_KEY:在 AWS 控制台中创建 IAM 用户并生成访问密钥
    • AWS_PROFILE:使用 ~/.aws/credentials 中的命名配置文件。需要先通过 aws configure --profile my-profileaws sso login 进行配置
    • AWS_BEARER_TOKEN_BEDROCK:从 Amazon Bedrock 控制台生成长期 API 密钥
    • AWS_WEB_IDENTITY_TOKEN_FILE / AWS_ROLE_ARN:适用于 EKS IRSA(服务账户的 IAM 角色)或其他支持 OIDC 联合的 Kubernetes 环境。使用服务账户注解时,Kubernetes 会自动注入这些环境变量。

    认证优先级

    Amazon Bedrock 使用以下认证优先级:

    1. Bearer Token - AWS_BEARER_TOKEN_BEDROCK 环境变量或通过 /connect 命令获取的 Token
    2. AWS 凭证链 - 配置文件、访问密钥、共享凭证、IAM 角色、Web Identity Token(EKS IRSA)、实例元数据
  3. 执行 /models 命令选择你想要的模型。

    /models

Anthropic

  1. 注册完成后,执行 /connect 命令并选择 Anthropic。

    /connect
  2. 你可以选择 Claude Pro/Max 选项,浏览器会自动打开并要求你进行身份验证。

    ┌ Select auth method
    │ Claude Pro/Max
    │ Create an API Key
    │ Manually enter API Key
  3. 现在使用 /models 命令即可看到所有 Anthropic 模型。

    /models

在 OpenCode 中使用 Claude Pro/Max 订阅不是 Anthropic 官方支持的用法。

使用 API 密钥

如果你没有 Pro/Max 订阅,也可以选择 Create an API Key。浏览器会自动打开并要求你登录 Anthropic,然后会提供一个代码供你粘贴到终端中。

如果你已经有 API 密钥,可以选择 Manually enter API Key 并将其粘贴到终端中。


Azure OpenAI

  1. 前往 Azure 门户并创建 Azure OpenAI 资源。你需要:

    • 资源名称:这会成为你的 API 端点的一部分(https://RESOURCE_NAME.openai.azure.com/
    • API 密钥:资源中的 KEY 1KEY 2
  2. 前往 Azure AI Foundry 并部署一个模型。

  3. 执行 /connect 命令并搜索 Azure

    /connect
  4. 输入你的 API 密钥。

    ┌ API key
    └ enter
  5. 将资源名称设置为环境变量:

    Terminal window
    AZURE_RESOURCE_NAME=XXX opencode

    或者添加到你的 bash 配置文件中:

    ~/.bash_profile
    export AZURE_RESOURCE_NAME=XXX
  6. 执行 /models 命令选择你已部署的模型。

    /models

Azure Cognitive Services

  1. 前往 Azure 门户并创建 Azure OpenAI 资源。你需要:

    • 资源名称:这会成为你的 API 端点的一部分(https://AZURE_COGNITIVE_SERVICES_RESOURCE_NAME.cognitiveservices.azure.com/
    • API 密钥:资源中的 KEY 1KEY 2
  2. 前往 Azure AI Foundry 并部署一个模型。

  3. 执行 /connect 命令并搜索 Azure Cognitive Services

    /connect
  4. 输入你的 API 密钥。

    ┌ API key
    └ enter
  5. 将资源名称设置为环境变量:

    Terminal window
    AZURE_COGNITIVE_SERVICES_RESOURCE_NAME=XXX opencode

    或者添加到你的 bash 配置文件中:

    ~/.bash_profile
    export AZURE_COGNITIVE_SERVICES_RESOURCE_NAME=XXX
  6. 执行 /models 命令选择你已部署的模型。

    /models

Baseten

  1. 前往 Baseten,创建账户并生成 API 密钥。

  2. 执行 /connect 命令并搜索 Baseten

    /connect
  3. 输入你的 Baseten API 密钥。

    ┌ API key
    └ enter
  4. 执行 /models 命令选择模型。

    /models

Cerebras

  1. 前往 Cerebras 控制台,创建账户并生成 API 密钥。

  2. 执行 /connect 命令并搜索 Cerebras

    /connect
  3. 输入你的 Cerebras API 密钥。

    ┌ API key
    └ enter
  4. 执行 /models 命令选择模型,例如 Qwen 3 Coder 480B

    /models

Cloudflare AI Gateway

Cloudflare AI Gateway 允许你通过统一端点访问来自 OpenAI、Anthropic、Workers AI 等提供商的模型。通过 Unified Billing,你无需为每个提供商单独准备 API 密钥。

  1. 前往 Cloudflare 仪表盘,导航到 AI > AI Gateway,创建一个新的网关。

  2. 将你的 Account ID 和 Gateway ID 设置为环境变量。

    ~/.bash_profile
    export CLOUDFLARE_ACCOUNT_ID=your-32-character-account-id
    export CLOUDFLARE_GATEWAY_ID=your-gateway-id
  3. 执行 /connect 命令并搜索 Cloudflare AI Gateway

    /connect
  4. 输入你的 Cloudflare API Token。

    ┌ API key
    └ enter

    或者将其设置为环境变量。

    ~/.bash_profile
    export CLOUDFLARE_API_TOKEN=your-api-token
  5. 执行 /models 命令选择模型。

    /models

    你也可以通过 OpenCode 配置添加模型。

    opencode.json
    {
    "$schema": "https://opencode.ai/config.json",
    "provider": {
    "cloudflare-ai-gateway": {
    "models": {
    "openai/gpt-4o": {},
    "anthropic/claude-sonnet-4": {}
    }
    }
    }
    }

Cortecs

  1. 前往 Cortecs 控制台,创建账户并生成 API 密钥。

  2. 执行 /connect 命令并搜索 Cortecs

    /connect
  3. 输入你的 Cortecs API 密钥。

    ┌ API key
    └ enter
  4. 执行 /models 命令选择模型,例如 Kimi K2 Instruct

    /models

DeepSeek

  1. 前往 DeepSeek 控制台,创建账户并点击 Create new API key

  2. 执行 /connect 命令并搜索 DeepSeek

    /connect
  3. 输入你的 DeepSeek API 密钥。

    ┌ API key
    └ enter
  4. 执行 /models 命令选择 DeepSeek 模型,例如 DeepSeek Reasoner

    /models

Deep Infra

  1. 前往 Deep Infra 仪表盘,创建账户并生成 API 密钥。

  2. 执行 /connect 命令并搜索 Deep Infra

    /connect
  3. 输入你的 Deep Infra API 密钥。

    ┌ API key
    └ enter
  4. 执行 /models 命令选择模型。

    /models

Firmware

  1. 前往 Firmware 仪表盘,创建账户并生成 API 密钥。

  2. 执行 /connect 命令并搜索 Firmware

    /connect
  3. 输入你的 Firmware API 密钥。

    ┌ API key
    └ enter
  4. 执行 /models 命令选择模型。

    /models

Fireworks AI

  1. 前往 Fireworks AI 控制台,创建账户并点击 Create API Key

  2. 执行 /connect 命令并搜索 Fireworks AI

    /connect
  3. 输入你的 Fireworks AI API 密钥。

    ┌ API key
    └ enter
  4. 执行 /models 命令选择模型,例如 Kimi K2 Instruct

    /models

GitLab Duo

GitLab Duo 通过 GitLab 的 Anthropic 代理提供具有原生工具调用能力的 AI 驱动的代理聊天。

  1. 执行 /connect 命令并选择 GitLab。

    /connect
  2. 选择你的身份验证方式:

    ┌ Select auth method
    │ OAuth (Recommended)
    │ Personal Access Token

    使用 OAuth(推荐)

    选择 OAuth,浏览器会自动打开进行授权。

    使用个人访问令牌

    1. 前往 GitLab 用户设置 > Access Tokens
    2. 点击 Add new token
    3. 名称填写 OpenCode,范围选择 api
    4. 复制令牌(以 glpat- 开头)
    5. 在终端中输入该令牌
  3. 执行 /models 命令查看可用模型。

    /models

    提供三个基于 Claude 的模型:

    • duo-chat-haiku-4-5(默认)- 快速响应,适合简单任务
    • duo-chat-sonnet-4-5 - 性能均衡,适合大多数工作流
    • duo-chat-opus-4-5 - 最强大,适合复杂分析
自托管 GitLab

对于自托管 GitLab 实例:

Terminal window
export GITLAB_INSTANCE_URL=https://gitlab.company.com
export GITLAB_TOKEN=glpat-...

如果你的实例运行了自定义 AI Gateway:

Terminal window
GITLAB_AI_GATEWAY_URL=https://ai-gateway.company.com

或者添加到你的 bash 配置文件中:

~/.bash_profile
export GITLAB_INSTANCE_URL=https://gitlab.company.com
export GITLAB_AI_GATEWAY_URL=https://ai-gateway.company.com
export GITLAB_TOKEN=glpat-...
自托管实例的 OAuth

要在自托管实例上使用 OAuth,你需要创建一个新应用(设置 → 应用),回调 URL 设置为 http://127.0.0.1:8080/callback,并选择以下范围:

  • api(代表你访问 API)
  • read_user(读取你的个人信息)
  • read_repository(允许对仓库进行只读访问)

然后将应用 ID 导出为环境变量:

Terminal window
export GITLAB_OAUTH_CLIENT_ID=your_application_id_here

更多文档请参阅 opencode-gitlab-auth 主页。

配置

通过 opencode.json 进行自定义配置:

opencode.json
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"gitlab": {
"options": {
"instanceUrl": "https://gitlab.com",
"featureFlags": {
"duo_agent_platform_agentic_chat": true,
"duo_agent_platform": true
}
}
}
}
}
GitLab API 工具(可选,但强烈推荐)

要访问 GitLab 工具(合并请求、Issue、流水线、CI/CD 等):

opencode.json
{
"$schema": "https://opencode.ai/config.json",
"plugin": ["@gitlab/opencode-gitlab-plugin"]
}

该插件提供全面的 GitLab 仓库管理功能,包括 MR 审查、Issue 跟踪、流水线监控等。


GitHub Copilot

要在 OpenCode 中使用你的 GitHub Copilot 订阅:

  1. 执行 /connect 命令并搜索 GitHub Copilot。

    /connect
  2. 前往 github.com/login/device 并输入验证码。

    ┌ Login with GitHub Copilot
    │ https://github.com/login/device
    │ Enter code: 8F43-6FCF
    └ Waiting for authorization...
  3. 现在执行 /models 命令选择你想要的模型。

    /models

Google Vertex AI

要在 OpenCode 中使用 Google Vertex AI:

  1. 前往 Google Cloud Console 中的模型花园,查看你所在区域可用的模型。

  2. 设置所需的环境变量:

    • GOOGLE_CLOUD_PROJECT:你的 Google Cloud 项目 ID
    • VERTEX_LOCATION(可选):Vertex AI 的区域(默认为 global
    • 身份验证(选择其一):
      • GOOGLE_APPLICATION_CREDENTIALS:服务账户 JSON 密钥文件的路径
      • 使用 gcloud CLI 进行身份验证:gcloud auth application-default login

    在运行 opencode 时设置:

    Terminal window
    GOOGLE_APPLICATION_CREDENTIALS=/path/to/service-account.json GOOGLE_CLOUD_PROJECT=your-project-id opencode

    或者添加到你的 bash 配置文件中:

    ~/.bash_profile
    export GOOGLE_APPLICATION_CREDENTIALS=/path/to/service-account.json
    export GOOGLE_CLOUD_PROJECT=your-project-id
    export VERTEX_LOCATION=global
  1. 执行 /models 命令选择你想要的模型。

    /models

Groq

  1. 前往 Groq 控制台,点击 Create API Key 并复制密钥。

  2. 执行 /connect 命令并搜索 Groq。

    /connect
  3. 输入该提供商的 API 密钥。

    ┌ API key
    └ enter
  4. 执行 /models 命令选择你想要的模型。

    /models

Hugging Face

Hugging Face Inference Providers 提供对由 17+ 提供商支持的开放模型的访问。

  1. 前往 Hugging Face 设置,创建一个具有调用 Inference Providers 权限的令牌。

  2. 执行 /connect 命令并搜索 Hugging Face

    /connect
  3. 输入你的 Hugging Face 令牌。

    ┌ API key
    └ enter
  4. 执行 /models 命令选择模型,例如 Kimi-K2-InstructGLM-4.6

    /models

Helicone

Helicone 是一个 LLM 可观测性平台,为你的 AI 应用提供日志记录、监控和分析功能。Helicone AI Gateway 会根据模型自动将请求路由到对应的提供商。

  1. 前往 Helicone,创建账户并在仪表盘中生成 API 密钥。

  2. 执行 /connect 命令并搜索 Helicone

    /connect
  3. 输入你的 Helicone API 密钥。

    ┌ API key
    └ enter
  4. 执行 /models 命令选择模型。

    /models

如需了解更多提供商以及缓存、速率限制等高级功能,请查阅 Helicone 文档

可选配置

如果 Helicone 的某些功能或模型未通过 OpenCode 自动配置,你随时可以手动配置。

Helicone 模型目录中可以找到你需要添加的模型 ID。

~/.config/opencode/opencode.jsonc
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"helicone": {
"npm": "@ai-sdk/openai-compatible",
"name": "Helicone",
"options": {
"baseURL": "https://ai-gateway.helicone.ai",
},
"models": {
"gpt-4o": {
// Model ID (from Helicone's model directory page)
"name": "GPT-4o", // Your own custom name for the model
},
"claude-sonnet-4-20250514": {
"name": "Claude Sonnet 4",
},
},
},
},
}

自定义请求头

Helicone 支持用于缓存、用户跟踪和会话管理等功能的自定义请求头。使用 options.headers 将它们添加到提供商配置中:

~/.config/opencode/opencode.jsonc
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"helicone": {
"npm": "@ai-sdk/openai-compatible",
"name": "Helicone",
"options": {
"baseURL": "https://ai-gateway.helicone.ai",
"headers": {
"Helicone-Cache-Enabled": "true",
"Helicone-User-Id": "opencode",
},
},
},
},
}
会话跟踪

Helicone 的 Sessions 功能允许你将相关的 LLM 请求归为一组。使用 opencode-helicone-session 插件可以自动将每个 OpenCode 对话记录为 Helicone 中的一个会话。

Terminal window
npm install -g opencode-helicone-session

将其添加到配置中。

opencode.json
{
"plugin": ["opencode-helicone-session"]
}

该插件会在你的请求中注入 Helicone-Session-IdHelicone-Session-Name 请求头。在 Helicone 的 Sessions 页面中,你可以看到每个 OpenCode 对话都作为独立的会话列出。

常用 Helicone 请求头
请求头描述
Helicone-Cache-Enabled启用响应缓存(true/false
Helicone-User-Id按用户跟踪指标
Helicone-Property-[Name]添加自定义属性(例如 Helicone-Property-Environment
Helicone-Prompt-Id将请求与提示词版本关联

有关所有可用请求头,请参阅 Helicone Header Directory


llama.cpp

你可以通过 llama.cpp 的 llama-server 工具配置 OpenCode 使用本地模型。

opencode.json
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"llama.cpp": {
"npm": "@ai-sdk/openai-compatible",
"name": "llama-server (local)",
"options": {
"baseURL": "http://127.0.0.1:8080/v1"
},
"models": {
"qwen3-coder:a3b": {
"name": "Qwen3-Coder: a3b-30b (local)",
"limit": {
"context": 128000,
"output": 65536
}
}
}
}
}
}

在这个示例中:

  • llama.cpp 是自定义的提供商 ID,可以是任意字符串。
  • npm 指定该提供商使用的包。这里使用 @ai-sdk/openai-compatible 来兼容任何 OpenAI 兼容的 API。
  • name 是该提供商在 UI 中显示的名称。
  • options.baseURL 是本地服务器的端点地址。
  • models 是模型 ID 到其配置的映射。模型名称会显示在模型选择列表中。

IO.NET

IO.NET 提供 17 个针对不同用例优化的模型:

  1. 前往 IO.NET 控制台,创建账户并生成 API 密钥。

  2. 执行 /connect 命令并搜索 IO.NET

    /connect
  3. 输入你的 IO.NET API 密钥。

    ┌ API key
    └ enter
  4. 执行 /models 命令选择模型。

    /models

LM Studio

你可以通过 LM Studio 配置 OpenCode 使用本地模型。

opencode.json
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"lmstudio": {
"npm": "@ai-sdk/openai-compatible",
"name": "LM Studio (local)",
"options": {
"baseURL": "http://127.0.0.1:1234/v1"
},
"models": {
"google/gemma-3n-e4b": {
"name": "Gemma 3n-e4b (local)"
}
}
}
}
}

在这个示例中:

  • lmstudio 是自定义的提供商 ID,可以是任意字符串。
  • npm 指定该提供商使用的包。这里使用 @ai-sdk/openai-compatible 来兼容任何 OpenAI 兼容的 API。
  • name 是该提供商在 UI 中显示的名称。
  • options.baseURL 是本地服务器的端点地址。
  • models 是模型 ID 到其配置的映射。模型名称会显示在模型选择列表中。

Moonshot AI

要使用 Moonshot AI 的 Kimi K2:

  1. 前往 Moonshot AI 控制台,创建账户并点击 Create API key

  2. 执行 /connect 命令并搜索 Moonshot AI

    /connect
  3. 输入你的 Moonshot API 密钥。

    ┌ API key
    └ enter
  4. 执行 /models 命令选择 Kimi K2

    /models

MiniMax

  1. 前往 MiniMax API 控制台,创建账户并生成 API 密钥。

  2. 执行 /connect 命令并搜索 MiniMax

    /connect
  3. 输入你的 MiniMax API 密钥。

    ┌ API key
    └ enter
  4. 执行 /models 命令选择模型,例如 M2.1

    /models

Nebius Token Factory

  1. 前往 Nebius Token Factory 控制台,创建账户并点击 Add Key

  2. 执行 /connect 命令并搜索 Nebius Token Factory

    /connect
  3. 输入你的 Nebius Token Factory API 密钥。

    ┌ API key
    └ enter
  4. 执行 /models 命令选择模型,例如 Kimi K2 Instruct

    /models

Ollama

你可以通过 Ollama 配置 OpenCode 使用本地模型。

opencode.json
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"ollama": {
"npm": "@ai-sdk/openai-compatible",
"name": "Ollama (local)",
"options": {
"baseURL": "http://localhost:11434/v1"
},
"models": {
"llama2": {
"name": "Llama 2"
}
}
}
}
}

在这个示例中:

  • ollama 是自定义的提供商 ID,可以是任意字符串。
  • npm 指定该提供商使用的包。这里使用 @ai-sdk/openai-compatible 来兼容任何 OpenAI 兼容的 API。
  • name 是该提供商在 UI 中显示的名称。
  • options.baseURL 是本地服务器的端点地址。
  • models 是模型 ID 到其配置的映射。模型名称会显示在模型选择列表中。

Ollama Cloud

要在 OpenCode 中使用 Ollama Cloud:

  1. 前往 https://ollama.com/ 登录或创建账户。

  2. 导航到 Settings > Keys,点击 Add API Key 生成新的 API 密钥。

  3. 复制 API 密钥以便在 OpenCode 中使用。

  4. 执行 /connect 命令并搜索 Ollama Cloud

    /connect
  5. 输入你的 Ollama Cloud API 密钥。

    ┌ API key
    └ enter
  6. 重要:在 OpenCode 中使用云端模型之前,必须先将模型信息拉取到本地:

    Terminal window
    ollama pull gpt-oss:20b-cloud
  7. 执行 /models 命令选择你的 Ollama Cloud 模型。

    /models

OpenAI

我们建议注册 ChatGPT Plus 或 Pro

  1. 注册完成后,执行 /connect 命令并选择 OpenAI。

    /connect
  2. 你可以选择 ChatGPT Plus/Pro 选项,浏览器会自动打开并要求你进行身份验证。

    ┌ Select auth method
    │ ChatGPT Plus/Pro
    │ Manually enter API Key
  3. 现在使用 /models 命令即可看到所有 OpenAI 模型。

    /models
使用 API 密钥

如果你已经有 API 密钥,可以选择 Manually enter API Key 并将其粘贴到终端中。


OpenCode Zen

OpenCode Zen 是由 OpenCode 团队提供的经过测试和验证的模型列表。了解更多

  1. 登录 OpenCode Zen 并点击 Create API Key

  2. 执行 /connect 命令并搜索 OpenCode Zen

    /connect
  3. 输入你的 OpenCode API 密钥。

    ┌ API key
    └ enter
  4. 执行 /models 命令选择模型,例如 Qwen 3 Coder 480B

    /models

OpenRouter

  1. 前往 OpenRouter 仪表盘,点击 Create API Key 并复制密钥。

  2. 执行 /connect 命令并搜索 OpenRouter。

    /connect
  3. 输入该提供商的 API 密钥。

    ┌ API key
    └ enter
  4. 默认已预加载了许多 OpenRouter 模型,执行 /models 命令选择你想要的模型。

    /models

    你也可以通过 OpenCode 配置添加更多模型。

    opencode.json
    {
    "$schema": "https://opencode.ai/config.json",
    "provider": {
    "openrouter": {
    "models": {
    "somecoolnewmodel": {}
    }
    }
    }
    }
  5. 你还可以通过 OpenCode 配置自定义模型。以下是指定提供商的示例:

    opencode.json
    {
    "$schema": "https://opencode.ai/config.json",
    "provider": {
    "openrouter": {
    "models": {
    "moonshotai/kimi-k2": {
    "options": {
    "provider": {
    "order": ["baseten"],
    "allow_fallbacks": false
    }
    }
    }
    }
    }
    }
    }

SAP AI Core

SAP AI Core 通过统一平台提供对来自 OpenAI、Anthropic、Google、Amazon、Meta、Mistral 和 AI21 的 40+ 模型的访问。

  1. 前往 SAP BTP Cockpit,导航到你的 SAP AI Core 服务实例,并创建服务密钥。

  2. 执行 /connect 命令并搜索 SAP AI Core

    /connect
  3. 输入你的服务密钥 JSON。

    ┌ Service key
    └ enter

    或者设置 AICORE_SERVICE_KEY 环境变量:

    Terminal window
    AICORE_SERVICE_KEY='{"clientid":"...","clientsecret":"...","url":"...","serviceurls":{"AI_API_URL":"..."}}' opencode

    或者添加到你的 bash 配置文件中:

    ~/.bash_profile
    export AICORE_SERVICE_KEY='{"clientid":"...","clientsecret":"...","url":"...","serviceurls":{"AI_API_URL":"..."}}'
  4. 可选:设置部署 ID 和资源组:

    Terminal window
    AICORE_DEPLOYMENT_ID=your-deployment-id AICORE_RESOURCE_GROUP=your-resource-group opencode
  5. 执行 /models 命令从 40+ 个可用模型中进行选择。

    /models

STACKIT

STACKIT AI Model Serving 提供完全托管的主权托管环境,专注于 Llama、Mistral 和 Qwen 等大语言模型,在欧洲基础设施上实现最大程度的数据主权。

  1. 前往 STACKIT Portal,导航到 AI Model Serving,为你的项目创建认证令牌。

  2. 执行 /connect 命令并搜索 STACKIT

    /connect
  3. 输入你的 STACKIT AI Model Serving 认证令牌。

    ┌ API key
    └ enter
  4. 执行 /models 命令选择模型,例如 Qwen3-VL 235BLlama 3.3 70B

    /models

OVHcloud AI Endpoints

  1. 前往 OVHcloud 管理面板。导航到 Public Cloud 部分,AI & Machine Learning > AI Endpoints,在 API Keys 标签页中点击 Create a new API key

  2. 执行 /connect 命令并搜索 OVHcloud AI Endpoints

    /connect
  3. 输入你的 OVHcloud AI Endpoints API 密钥。

    ┌ API key
    └ enter
  4. 执行 /models 命令选择模型,例如 gpt-oss-120b

    /models

Scaleway

要在 OpenCode 中使用 Scaleway Generative APIs

  1. 前往 Scaleway Console IAM 设置生成新的 API 密钥。

  2. 执行 /connect 命令并搜索 Scaleway

    /connect
  3. 输入你的 Scaleway API 密钥。

    ┌ API key
    └ enter
  4. 执行 /models 命令选择模型,例如 devstral-2-123b-instruct-2512gpt-oss-120b

    /models

Together AI

  1. 前往 Together AI 控制台,创建账户并点击 Add Key

  2. 执行 /connect 命令并搜索 Together AI

    /connect
  3. 输入你的 Together AI API 密钥。

    ┌ API key
    └ enter
  4. 执行 /models 命令选择模型,例如 Kimi K2 Instruct

    /models

Venice AI

  1. 前往 Venice AI 控制台,创建账户并生成 API 密钥。

  2. 执行 /connect 命令并搜索 Venice AI

    /connect
  3. 输入你的 Venice AI API 密钥。

    ┌ API key
    └ enter
  4. 执行 /models 命令选择模型,例如 Llama 3.3 70B

    /models

Vercel AI Gateway

Vercel AI Gateway 允许你通过统一端点访问来自 OpenAI、Anthropic、Google、xAI 等提供商的模型。模型按原价提供,不额外加价。

  1. 前往 Vercel 仪表盘,导航到 AI Gateway 标签页,点击 API keys 创建新的 API 密钥。

  2. 执行 /connect 命令并搜索 Vercel AI Gateway

    /connect
  3. 输入你的 Vercel AI Gateway API 密钥。

    ┌ API key
    └ enter
  4. 执行 /models 命令选择模型。

    /models

你也可以通过 OpenCode 配置自定义模型。以下是指定提供商路由顺序的示例。

opencode.json
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"vercel": {
"models": {
"anthropic/claude-sonnet-4": {
"options": {
"order": ["anthropic", "vertex"]
}
}
}
}
}
}

一些常用的路由选项:

选项描述
order提供商尝试顺序
only限制为特定提供商
zeroDataRetention仅使用具有零数据留存策略的提供商

xAI

  1. 前往 xAI 控制台,创建账户并生成 API 密钥。

  2. 执行 /connect 命令并搜索 xAI

    /connect
  3. 输入你的 xAI API 密钥。

    ┌ API key
    └ enter
  4. 执行 /models 命令选择模型,例如 Grok Beta

    /models

Z.AI

  1. 前往 Z.AI API 控制台,创建账户并点击 Create a new API key

  2. 执行 /connect 命令并搜索 Z.AI

    /connect

    如果你订阅了 GLM Coding Plan,请选择 Z.AI Coding Plan

  3. 输入你的 Z.AI API 密钥。

    ┌ API key
    └ enter
  4. 执行 /models 命令选择模型,例如 GLM-4.7

    /models

ZenMux

  1. 前往 ZenMux 仪表盘,点击 Create API Key 并复制密钥。

  2. 执行 /connect 命令并搜索 ZenMux。

    /connect
  3. 输入该提供商的 API 密钥。

    ┌ API key
    └ enter
  4. 默认已预加载了许多 ZenMux 模型,执行 /models 命令选择你想要的模型。

    /models

    你也可以通过 OpenCode 配置添加更多模型。

    opencode.json
    {
    "$schema": "https://opencode.ai/config.json",
    "provider": {
    "zenmux": {
    "models": {
    "somecoolnewmodel": {}
    }
    }
    }
    }

自定义提供商

要添加 /connect 命令中未列出的任何 OpenAI 兼容提供商:

  1. 执行 /connect 命令,向下滚动到 Other

    Terminal window
    $ /connect
    Add credential
    Select provider
    ...
    Other
  2. 输入该提供商的唯一 ID。

    Terminal window
    $ /connect
    Add credential
    Enter provider id
    myprovider
  3. 输入该提供商的 API 密钥。

    Terminal window
    $ /connect
    Add credential
    This only stores a credential for myprovider - you will need to configure it in opencode.json, check the docs for examples.
    Enter your API key
    sk-...
  4. 在项目目录中创建或更新 opencode.json 文件:

    opencode.json
    {
    "$schema": "https://opencode.ai/config.json",
    "provider": {
    "myprovider": {
    "npm": "@ai-sdk/openai-compatible",
    "name": "My AI ProviderDisplay Name",
    "options": {
    "baseURL": "https://api.myprovider.com/v1"
    },
    "models": {
    "my-model-name": {
    "name": "My Model Display Name"
    }
    }
    }
    }
    }

    以下是配置选项说明:

    • npm:要使用的 AI SDK 包,对于 OpenAI 兼容的提供商使用 @ai-sdk/openai-compatible
    • name:在 UI 中显示的名称。
    • models:可用模型。
    • options.baseURL:API 端点 URL。
    • options.apiKey:可选,如果不使用 auth 认证,可直接设置 API 密钥。
    • options.headers:可选,设置自定义请求头。

    更多高级选项请参见下面的示例。

  5. 执行 /models 命令,你自定义的提供商和模型将出现在选择列表中。


示例

以下是设置 apiKeyheaders 和模型 limit 选项的示例。

opencode.json
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"myprovider": {
"npm": "@ai-sdk/openai-compatible",
"name": "My AI ProviderDisplay Name",
"options": {
"baseURL": "https://api.myprovider.com/v1",
"apiKey": "{env:ANTHROPIC_API_KEY}",
"headers": {
"Authorization": "Bearer custom-token"
}
},
"models": {
"my-model-name": {
"name": "My Model Display Name",
"limit": {
"context": 200000,
"output": 65536
}
}
}
}
}
}

配置详情:

  • apiKey:使用 env 变量语法设置,了解更多
  • headers:随每个请求发送的自定义请求头。
  • limit.context:模型接受的最大输入 Token 数。
  • limit.output:模型可生成的最大 Token 数。

limit 字段让 OpenCode 了解你还剩余多少上下文空间。标准提供商会自动从 models.dev 拉取这些信息。


故障排除

如果你在配置提供商时遇到问题,请检查以下几点:

  1. 检查认证设置:运行 opencode auth list 查看该提供商的凭据是否已添加到配置中。

    这不适用于 Amazon Bedrock 等依赖环境变量进行认证的提供商。

  2. 对于自定义提供商,请检查 OpenCode 配置并确认:

    • /connect 命令中使用的提供商 ID 与 OpenCode 配置中的 ID 一致。
    • 使用了正确的 npm 包。例如,Cerebras 应使用 @ai-sdk/cerebras。对于其他所有 OpenAI 兼容的提供商,使用 @ai-sdk/openai-compatible
    • options.baseURL 字段中的 API 端点地址正确。