콘텐츠로 이동

공급자

OpenCode에서 LLM 공급자를 사용합니다.

OpenCode는 AI SDKModels.dev를 사용하여 75개 이상의 LLM 공급자를 지원하며 로컬 모델도 실행할 수 있습니다.

필요한 공급자를 추가하려면:

  1. /connect 명령을 사용하여 공급자의 API 키를 추가하십시오.
  2. OpenCode 구성에서 공급자를 구성하십시오.

자격 증명

/connect 명령으로 공급자의 API 키를 추가하면 다음 위치에 저장됩니다: ~/.local/share/opencode/auth.json


구성

OpenCode 설정의 provider 섹션을 통해 공급자를 사용자 정의할 수 있습니다.


기본 URL

baseURL 옵션을 설정하여 모든 공급자를 위한 기본 URL을 사용자 정의할 수 있습니다. 프록시 서비스 또는 사용자 정의 엔드포인트를 사용할 때 유용합니다.

opencode.json
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"anthropic": {
"options": {
"baseURL": "https://api.anthropic.com/v1"
}
}
}
}

OpenCode Zen

OpenCode Zen은 OpenCode 팀이 OpenCode와 잘 작동하도록 테스트하고 검증한 모델 목록입니다. 더 알아보기.

  1. TUI에서 /connect 명령을 실행하고 OpenCode Zen을 선택한 뒤, opencode.ai/auth로 이동합니다.

    /connect
  2. 로그인하고 결제 정보를 입력한 후 API 키를 복사하십시오.

  3. API 키를 붙여넣습니다.

    ┌ API key
    └ enter
  4. TUI에서 /models를 실행하여 추천 모델 목록을 볼 수 있습니다.

    /models

OpenCode의 다른 공급자처럼 작동하며 사용은 완전히 선택 사항입니다.


OpenCode Go

OpenCode Go는 OpenCode 팀이 테스트하고 검증하여 OpenCode와 잘 작동하는 인기 있는 오픈 코딩 모델에 안정적으로 액세스할 수 있는 저렴한 구독 요금제입니다.

  1. TUI에서 /connect 명령을 실행하고 OpenCode Go를 선택한 뒤 opencode.ai/auth로 이동하십시오.

    /connect
  2. 로그인하고 결제 정보를 입력한 후 API 키를 복사하십시오.

  3. API 키를 붙여넣습니다.

    ┌ API key
    └ enter
  4. TUI에서 /models를 실행하여 추천 모델 목록을 볼 수 있습니다.

    /models

OpenCode의 다른 공급자처럼 작동하며 사용은 완전히 선택 사항입니다.


디렉토리

공급자 세부 정보를 확인하세요. 목록에 공급자를 추가하려면 PR을 열어주세요.


302.AI

  1. 302.AI 콘솔로 이동하여 계정을 만들고 API 키를 생성합니다.

  2. /connect 명령을 실행하고 302.AI를 검색하십시오.

    /connect
  3. 302.AI API 키를 입력하십시오.

    ┌ API key
    └ enter
  4. 모델을 선택하려면 /models 명령을 실행하십시오.

    /models

Amazon Bedrock

OpenCode로 Amazon Bedrock을 사용하려면:

  1. Amazon Bedrock 콘솔의 Model catalog로 이동하여 원하는 모델에 대한 액세스를 요청합니다.

  2. 다음 방법 중 하나를 사용하여 인증을 구성합니다:


    환경 변수 (빠른 시작)

    OpenCode를 실행하는 동안 다음 환경 변수 중 하나를 설정합니다:

    Terminal window
    # Option 1: Using AWS access keys
    AWS_ACCESS_KEY_ID=XXX AWS_SECRET_ACCESS_KEY=YYY opencode
    # Option 2: Using named AWS profile
    AWS_PROFILE=my-profile opencode
    # Option 3: Using Bedrock bearer token
    AWS_BEARER_TOKEN_BEDROCK=XXX opencode

    또는 bash 프로필에 추가합니다:

    ~/.bash_profile
    export AWS_PROFILE=my-dev-profile
    export AWS_REGION=us-east-1

    구성 파일 (권장)

    프로젝트별 또는 영구 구성을 위해 opencode.json을 사용하십시오:

    opencode.json
    {
    "$schema": "https://opencode.ai/config.json",
    "provider": {
    "amazon-bedrock": {
    "options": {
    "region": "us-east-1",
    "profile": "my-aws-profile"
    }
    }
    }
    }

    유효한 옵션:

    • region - AWS 리전 (예: us-east-1, eu-west-1)
    • profile - ~/.aws/credentials의 AWS 프로필 이름
    • endpoint - VPC 엔드포인트 등을 위한 사용자 정의 엔드포인트 URL (일반 baseURL 옵션의 별칭)

    고급: VPC 엔드포인트

    Bedrock의 VPC 엔드포인트를 사용하는 경우:

    opencode.json
    {
    "$schema": "https://opencode.ai/config.json",
    "provider": {
    "amazon-bedrock": {
    "options": {
    "region": "us-east-1",
    "profile": "production",
    "endpoint": "https://bedrock-runtime.us-east-1.vpce-xxxxx.amazonaws.com"
    }
    }
    }
    }

    인증 방법

    • AWS_ACCESS_KEY_ID / AWS_SECRET_ACCESS_KEY: IAM 사용자 및 AWS 콘솔에서 액세스 키 생성
    • AWS_PROFILE: ~/.aws/credentials의 프로필 이름을 사용합니다. aws configure --profile my-profile 또는 aws sso login으로 먼저 구성하십시오.
    • AWS_BEARER_TOKEN_BEDROCK: Amazon Bedrock 콘솔에서 임시 API 키 생성
    • AWS_WEB_IDENTITY_TOKEN_FILE / AWS_ROLE_ARN: EKS IRSA (서비스 계정용 IAM 역할) 또는 다른 Kubernetes 환경의 OIDC 연동. 이 환경 변수는 서비스 계정을 사용할 때 Kubernetes에 의해 자동으로 주입됩니다.

    인증 우선 순위

    Amazon Bedrock은 다음과 같은 인증 우선 순위를 사용합니다.

    1. Bearer Token - AWS_BEARER_TOKEN_BEDROCK 환경 변수 또는 /connect 명령의 토큰
    2. AWS Credential Chain - 프로필, 액세스 키, 공유 자격 증명, IAM 역할, 웹 ID 토큰 (EKS IRSA), 인스턴스 메타데이터
  3. /models 명령을 실행하여 원하는 모델을 선택하십시오.

    /models
opencode.json
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"amazon-bedrock": {
// ...
"models": {
"anthropic-claude-sonnet-4.5": {
"id": "arn:aws:bedrock:us-east-1:xxx:application-inference-profile/yyy"
}
}
}
}
}

Anthropic

  1. 가입 후 /connect 명령을 실행하고 Anthropic을 선택합니다.

    /connect
  2. Claude Pro/Max 옵션을 선택하면 브라우저가 열리고 인증을 요청합니다.

    ┌ Select auth method
    │ Claude Pro/Max
    │ Create an API Key
    │ Manually enter API Key
  3. 이제 /models 명령을 사용할 때 모든 Anthropic 모델을 사용할 수 있습니다.

    /models

OpenCode에서 Claude Pro/Max 구독을 사용하는 것은 Anthropic에서 공식적으로 지원하지 않습니다.

API 키 사용

Pro/Max 구독이 없는 경우 Create an API Key를 선택할 수 있습니다. 브라우저가 열리고 Anthropic에 로그인한 후 터미널에 붙여넣을 수 있는 코드를 제공합니다.

또는 이미 API 키가 있다면, Manually enter API Key를 선택하고 터미널에 붙여넣을 수 있습니다.


Azure OpenAI

  1. Azure 포털로 이동하여 Azure OpenAI 리소스를 만듭니다. 다음이 필요합니다:

    • 리소스 이름: API 엔드포인트의 일부가 됩니다 (https://RESOURCE_NAME.openai.azure.com/)
    • API 키: 리소스의 KEY 1 또는 KEY 2
  2. Azure AI Foundry로 이동하여 모델을 배포합니다.

  3. /connect 명령을 실행하고 Azure를 검색하십시오.

    /connect
  4. API 키를 입력하십시오.

    ┌ API key
    └ enter
  5. 리소스 이름을 환경 변수로 설정:

    Terminal window
    AZURE_RESOURCE_NAME=XXX opencode

    또는 bash 프로필에 추가:

    ~/.bash_profile
    export AZURE_RESOURCE_NAME=XXX
  6. /models 명령을 실행하여 배포된 모델을 선택하십시오.

    /models

Azure Cognitive Services

  1. Azure 포털로 이동하여 Azure OpenAI 리소스를 만듭니다. 다음이 필요합니다:

    • 리소스 이름: API 엔드포인트의 일부가 됩니다 (https://AZURE_COGNITIVE_SERVICES_RESOURCE_NAME.cognitiveservices.azure.com/)
    • API 키: 리소스의 KEY 1 또는 KEY 2
  2. Azure AI Foundry로 이동하여 모델을 배포합니다.

  3. /connect 명령을 실행하고 Azure Cognitive Services를 검색하십시오.

    /connect
  4. API 키를 입력하십시오.

    ┌ API key
    └ enter
  5. 리소스 이름을 환경 변수로 설정:

    Terminal window
    AZURE_COGNITIVE_SERVICES_RESOURCE_NAME=XXX opencode

    또는 bash 프로필에 추가:

    ~/.bash_profile
    export AZURE_COGNITIVE_SERVICES_RESOURCE_NAME=XXX
  6. /models 명령을 실행하여 배포된 모델을 선택하십시오.

    /models

Baseten

  1. Baseten으로 이동하여 계정을 만들고 API 키를 생성합니다.

  2. /connect 명령을 실행하고 Baseten을 검색하십시오.

    /connect
  3. Baseten API 키를 입력하십시오.

    ┌ API key
    └ enter
  4. 모델을 선택하려면 /models 명령을 실행하십시오.

    /models

Cerebras

  1. Cerebras 콘솔로 이동하여 계정을 만들고 API 키를 생성합니다.

  2. /connect 명령을 실행하고 Cerebras를 검색하십시오.

    /connect
  3. Cerebras API 키를 입력하십시오.

    ┌ API key
    └ enter
  4. /models 명령을 실행하여 모델(예: Qwen 3 Coder 480B)을 선택하십시오.

    /models

Cloudflare AI Gateway

Cloudflare AI Gateway는 OpenAI, Anthropic, Workers AI 등의 모델에 액세스할 수 있으며, 통합된 엔드포인트를 통해 더 많은 기능을 제공합니다. Unified Billing을 사용하면 각 공급자의 별도 API 키가 필요하지 않습니다.

  1. Cloudflare 대시보드로 이동하여, AI > AI Gateway로 가서 새로운 게이트웨이를 만듭니다.

  2. 계정 ID 및 Gateway ID를 환경 변수로 설정하십시오.

    ~/.bash_profile
    export CLOUDFLARE_ACCOUNT_ID=your-32-character-account-id
    export CLOUDFLARE_GATEWAY_ID=your-gateway-id
  3. /connect 명령을 실행하고 Cloudflare AI Gateway를 검색하십시오.

    /connect
  4. Cloudflare API 토큰을 입력하십시오.

    ┌ API key
    └ enter

    또는 환경 변수로 설정합니다.

    ~/.bash_profile
    export CLOUDFLARE_API_TOKEN=your-api-token
  5. 모델을 선택하려면 /models 명령을 실행하십시오.

    /models

    OpenCode 구성을 통해 모델을 추가할 수 있습니다.

    opencode.json
    {
    "$schema": "https://opencode.ai/config.json",
    "provider": {
    "cloudflare-ai-gateway": {
    "models": {
    "openai/gpt-4o": {},
    "anthropic/claude-sonnet-4": {}
    }
    }
    }
    }

Cortecs

  1. Cortecs 콘솔로 이동하여 계정을 만들고 API 키를 생성합니다.

  2. /connect 명령을 실행하고 Cortecs를 검색하십시오.

    /connect
  3. Cortecs API 키를 입력하십시오.

    ┌ API key
    └ enter
  4. /models 명령을 실행하여 모델(예: Kimi K2 Instruct)을 선택하십시오.

    /models

DeepSeek

  1. DeepSeek 콘솔로 이동하여 계정을 만들고 API Keys를 클릭하여 키를 생성합니다.

  2. /connect 명령을 실행하고 DeepSeek를 검색하십시오.

    /connect
  3. DeepSeek API 키를 입력하십시오.

    ┌ API key
    └ enter
  4. /models 명령을 실행하여 DeepSeek 모델(예: DeepSeek Reasoner)을 선택하십시오.

    /models

Deep Infra

  1. Deep Infra 대시보드로 이동하여 계정을 만들고 API 키를 생성합니다.

  2. /connect 명령을 실행하고 Deep Infra를 검색하십시오.

    /connect
  3. Deep Infra API 키를 입력하십시오.

    ┌ API key
    └ enter
  4. 모델을 선택하려면 /models 명령을 실행하십시오.

    /models

Firmware

  1. Firmware 대시보드로 이동하여 계정을 만들고 API 키를 생성합니다.

  2. /connect 명령을 실행하고 Firmware를 검색하십시오.

    /connect
  3. Firmware API 키를 입력하십시오.

    ┌ API key
    └ enter
  4. 모델을 선택하려면 /models 명령을 실행하십시오.

    /models

Fireworks AI

  1. Fireworks AI 콘솔로 이동하여 계정을 만들고 API Keys를 클릭합니다.

  2. /connect 명령을 실행하고 Fireworks AI를 검색하십시오.

    /connect
  3. Fireworks AI API 키를 입력하십시오.

    ┌ API key
    └ enter
  4. /models 명령을 실행하여 모델(예: Kimi K2 Instruct)을 선택하십시오.

    /models

GitLab Duo

GitLab Duo는 GitLab의 Anthropic 프록시를 통해 기본 도구 호출 기능을 갖춘 AI 기반 에이전트 채팅을 제공합니다.

  1. /connect 명령을 실행하고 GitLab을 선택합니다.

    /connect
  2. 인증 방법을 선택하십시오:

    ┌ Select auth method
    │ OAuth (Recommended)
    │ Personal Access Token

    OAuth 사용 (권장)

    OAuth를 선택하면 브라우저가 열리고 인증을 요청합니다.

    개인 액세스 토큰 사용

    1. GitLab User Settings > Access Tokens로 이동
    2. Add new token 클릭
    3. 이름: OpenCode, 범위: api
    4. 토큰 복사 (glpat-로 시작)
    5. 터미널에 입력
  3. /models 명령을 실행하여 사용 가능한 모델을 확인하십시오.

    /models

    세 가지 Claude 기반 모델을 사용할 수 있습니다:

    • duo-chat-haiku-4-5 (기본값) - 빠른 작업을 위한 빠른 응답
    • duo-chat-sonnet-4-5 - 대부분의 워크플로우에 균형 잡힌 성능
    • duo-chat-opus-4-5 - 복잡한 분석에 적합

셀프 호스팅 GitLab

자체 호스팅 GitLab 인스턴스의 경우:

Terminal window
export GITLAB_INSTANCE_URL=https://gitlab.company.com
export GITLAB_TOKEN=glpat-...

인스턴스가 사용자 정의 AI Gateway를 실행하는 경우:

Terminal window
GITLAB_AI_GATEWAY_URL=https://ai-gateway.company.com

또는 bash 프로필에 추가:

~/.bash_profile
export GITLAB_INSTANCE_URL=https://gitlab.company.com
export GITLAB_AI_GATEWAY_URL=https://ai-gateway.company.com
export GITLAB_TOKEN=glpat-...

셀프 호스팅 인스턴스용 OAuth

자체 호스팅 인스턴스에 대해 OAuth를 작동시키려면 새로운 애플리케이션(Settings → Applications)을 만들어야 합니다. 콜백 URL http://127.0.0.1:8080/callback 및 다음 범위가 필요합니다:

  • api (사용자 대신 API 액세스)
  • read_user (개인 정보 읽기)
  • read_repository (리포지토리 읽기 전용 액세스)

그런 다음 애플리케이션 ID를 환경 변수로 노출하십시오:

Terminal window
export GITLAB_OAUTH_CLIENT_ID=your_application_id_here

opencode-gitlab-auth 홈페이지에 추가 문서가 있습니다.

구성

opencode.json을 통해 사용자 정의:

opencode.json
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"gitlab": {
"options": {
"instanceUrl": "https://gitlab.com",
"featureFlags": {
"duo_agent_platform_agentic_chat": true,
"duo_agent_platform": true
}
}
}
}
}

GitLab API 도구 (선택 사항이지만 강력 권장)

GitLab 도구(병합 요청, 이슈, 파이프라인, CI/CD 등)에 액세스하려면:

opencode.json
{
"$schema": "https://opencode.ai/config.json",
"plugin": ["@gitlab/opencode-gitlab-plugin"]
}

이 플러그인은 MR 리뷰, 이슈 추적, 파이프라인 모니터링 등을 포함한 포괄적인 GitLab 리포지토리 관리 기능을 제공합니다.


GitHub Copilot

OpenCode에서 GitHub Copilot 구독을 사용하려면:

  1. /connect 명령을 실행하고 GitHub Copilot을 검색하십시오.

    /connect
  2. github.com/login/device로 이동하여 코드를 입력합니다.

    ┌ Login with GitHub Copilot
    │ https://github.com/login/device
    │ Enter code: 8F43-6FCF
    │ Waiting for authorization...
  3. 이제 원하는 모델을 선택하기 위해 /models 명령을 실행합니다.

    /models

Google Vertex AI

OpenCode로 Google Vertex AI를 사용하려면:

  1. Google Cloud Console의 Model Garden으로 이동하여 해당 리전에서 사용 가능한 모델을 확인하십시오.

  2. 필요한 환경 변수를 설정:

    • GOOGLE_CLOUD_PROJECT: 구글 클라우드 프로젝트 ID
    • VERTEX_LOCATION (선택): Vertex AI 리전 (기본값: global)
    • 인증 (하나 선택):
      • GOOGLE_APPLICATION_CREDENTIALS: 서비스 계정 JSON 키 파일 경로
      • gcloud CLI 사용: gcloud auth application-default login

    OpenCode를 실행할 때 설정:

    Terminal window
    GOOGLE_APPLICATION_CREDENTIALS=/path/to/service-account.json GOOGLE_CLOUD_PROJECT=your-project-id opencode

    또는 bash 프로필에 추가:

    ~/.bash_profile
    export GOOGLE_APPLICATION_CREDENTIALS=/path/to/service-account.json
    export GOOGLE_CLOUD_PROJECT=your-project-id
    export VERTEX_LOCATION=global
  1. /models 명령을 실행하여 원하는 모델을 선택하십시오.

    /models

Groq

  1. Groq 콘솔로 이동하여 Create API Key를 클릭하고 키를 복사합니다.

  2. /connect 명령을 실행하고 Groq를 검색하십시오.

    /connect
  3. API 키를 입력하십시오.

    ┌ API key
    └ enter
  4. /models 명령을 실행하여 원하는 모델을 선택합니다.

    /models

Hugging Face

Hugging Face Inference Providers는 17개 이상의 공급자가 지원하는 오픈 모델에 대한 액세스를 제공합니다.

  1. Hugging Face settings로 이동하여 Inference Providers에 호출할 권한이 있는 토큰을 생성합니다.

  2. /connect 명령을 실행하고 Hugging Face를 검색하십시오.

    /connect
  3. Hugging Face 토큰을 입력하십시오.

    ┌ API key
    └ enter
  4. /models 명령을 실행하여 모델(예: Kimi-K2-Instruct 또는 GLM-4.6)을 선택하십시오.

    /models

Helicone

Helicone는 AI 애플리케이션을 위한 로깅, 모니터링 및 분석 기능을 제공하는 LLM 관찰 가능성(Observability) 플랫폼입니다. Helicone AI Gateway는 모델을 기반으로 적절한 공급자에게 요청을 자동으로 라우팅합니다.

  1. Helicone로 이동하여 계정을 만들고 대시보드에서 API 키를 생성합니다.

  2. /connect 명령을 실행하고 Helicone를 검색하십시오.

    /connect
  3. Helicone API 키를 입력하십시오.

    ┌ API key
    └ enter
  4. /models 명령을 실행하여 모델을 선택하십시오.

    /models

캐싱 및 속도 제한과 같은 더 많은 공급자와 고급 기능은 Helicone 문서를 확인하십시오.

선택적 구성

OpenCode를 통해 자동으로 구성되지 않는 Helicone의 기능이나 모델이 있는 경우 직접 구성할 수 있습니다.

Helicone의 모델 디렉토리에서 추가하려는 모델의 ID를 확인하십시오.

~/.config/opencode/opencode.jsonc
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"helicone": {
"npm": "@ai-sdk/openai-compatible",
"name": "Helicone",
"options": {
"baseURL": "https://ai-gateway.helicone.ai",
},
"models": {
"gpt-4o": {
// Model ID (from Helicone's model directory page)
"name": "GPT-4o", // Your own custom name for the model
},
"claude-sonnet-4-20250514": {
"name": "Claude Sonnet 4",
},
},
},
},
}

사용자 정의 헤더

Helicone는 캐싱, 사용자 추적 및 세션 관리와 같은 기능을 위한 사용자 정의 헤더를 지원합니다. options.headers를 사용하여 공급자 구성에 추가하십시오:

~/.config/opencode/opencode.jsonc
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"helicone": {
"npm": "@ai-sdk/openai-compatible",
"name": "Helicone",
"options": {
"baseURL": "https://ai-gateway.helicone.ai",
"headers": {
"Helicone-Cache-Enabled": "true",
"Helicone-User-Id": "opencode",
},
},
},
},
}
세션 추적

Helicone의 Sessions 기능을 사용하면 관련 LLM 요청을 그룹화할 수 있습니다. opencode-helicone-session 플러그인을 사용하여 각 OpenCode 대화를 Helicone 세션으로 자동 기록하십시오.

Terminal window
npm install -g opencode-helicone-session

설정에 추가하십시오.

opencode.json
{
"plugin": ["opencode-helicone-session"]
}

이 플러그인은 Helicone-Session-IdHelicone-Session-Name 헤더를 요청에 주입합니다. Helicone의 세션 페이지에서 각 OpenCode 대화가 별도의 세션으로 나열되는 것을 볼 수 있습니다.

공통 Helicone 헤더
헤더설명
Helicone-Cache-Enabled응답 캐싱 활성화 (true/false)
Helicone-User-Id사용자별 지표 추적
Helicone-Property-[Name]사용자 정의 속성 추가(예: Helicone-Property-Environment)
Helicone-Prompt-Id요청을 프롬프트 버전과 연관

사용 가능한 모든 헤더는 Helicone Header Directory를 참조하십시오.


llama.cpp

llama.cpp의 llama-server 유틸리티를 통해 로컬 모델을 사용하도록 구성할 수 있습니다.

opencode.json
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"llama.cpp": {
"npm": "@ai-sdk/openai-compatible",
"name": "llama-server (local)",
"options": {
"baseURL": "http://127.0.0.1:8080/v1"
},
"models": {
"qwen3-coder:a3b": {
"name": "Qwen3-Coder: a3b-30b (local)",
"limit": {
"context": 128000,
"output": 65536
}
}
}
}
}
}

이 예제에서:

  • llama.cpp는 사용자 정의 공급자 ID입니다. 원하는 문자열로 지정할 수 있습니다.
  • npm은 이 공급자에 사용할 패키지를 지정합니다. 여기서는 OpenAI 호환 API를 위해 @ai-sdk/openai-compatible을 사용합니다.
  • name은 UI에 표시될 공급자 이름입니다.
  • options.baseURL은 로컬 서버의 엔드포인트입니다.
  • models는 모델 ID와 해당 구성을 매핑합니다. 모델 이름은 모델 선택 목록에 표시됩니다.

IO.NET

IO.NET은 다양한 사용 사례에 최적화된 17개의 모델을 제공합니다:

  1. IO.NET 콘솔로 이동하여 계정을 만들고 API 키를 생성합니다.

  2. /connect 명령을 실행하고 IO.NET을 검색하십시오.

    /connect
  3. IO.NET API 키를 입력하십시오.

    ┌ API key
    └ enter
  4. 모델을 선택하려면 /models 명령을 실행하십시오.

    /models

LM Studio

LM Studio를 통해 로컬 모델을 사용하도록 구성할 수 있습니다.

opencode.json
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"lmstudio": {
"npm": "@ai-sdk/openai-compatible",
"name": "LM Studio (local)",
"options": {
"baseURL": "http://127.0.0.1:1234/v1"
},
"models": {
"google/gemma-3n-e4b": {
"name": "Gemma 3n-e4b (local)"
}
}
}
}
}

이 예제에서:

  • lmstudio는 사용자 정의 공급자 ID입니다. 원하는 문자열로 지정할 수 있습니다.
  • npm은 이 공급자에 사용할 패키지를 지정합니다. 여기서는 OpenAI 호환 API를 위해 @ai-sdk/openai-compatible을 사용합니다.
  • name은 UI에 표시될 공급자 이름입니다.
  • options.baseURL은 로컬 서버의 엔드포인트입니다.
  • models는 모델 ID와 해당 구성을 매핑합니다. 모델 이름은 모델 선택 목록에 표시됩니다.

Moonshot AI

Moonshot AI에서 Kimi K2를 사용하려면:

  1. Moonshot AI 콘솔로 이동하여 계정을 만들고 Create API key를 클릭합니다.

  2. /connect 명령을 실행하고 Moonshot AI를 검색하십시오.

    /connect
  3. Moonshot API 키를 입력하십시오.

    ┌ API key
    └ enter
  4. /models 명령을 실행하여 Kimi K2를 선택하십시오.

    /models

MiniMax

  1. MiniMax API 콘솔로 이동하여 계정을 만들고 API 키를 생성합니다.

  2. /connect 명령을 실행하고 MiniMax를 검색하십시오.

    /connect
  3. MiniMax API 키를 입력하십시오.

    ┌ API key
    └ enter
  4. /models 명령을 실행하여 모델(예: M2.1)을 선택하십시오.

    /models

Nebius Token Factory

  1. Nebius Token Factory 콘솔로 이동하여 계정을 만들고 Add Key를 클릭합니다.

  2. /connect 명령을 실행하고 Nebius Token Factory를 검색하십시오.

    /connect
  3. Nebius Token Factory API 키를 입력하십시오.

    ┌ API key
    └ enter
  4. /models 명령을 실행하여 모델(예: Kimi K2 Instruct)을 선택하십시오.

    /models

Ollama

Ollama를 통해 로컬 모델을 사용하도록 구성할 수 있습니다.

opencode.json
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"ollama": {
"npm": "@ai-sdk/openai-compatible",
"name": "Ollama (local)",
"options": {
"baseURL": "http://localhost:11434/v1"
},
"models": {
"llama2": {
"name": "Llama 2"
}
}
}
}
}

이 예제에서:

  • ollama는 사용자 정의 공급자 ID입니다. 원하는 문자열로 지정할 수 있습니다.
  • npm은 이 공급자에 사용할 패키지를 지정합니다. 여기서는 OpenAI 호환 API를 위해 @ai-sdk/openai-compatible을 사용합니다.
  • name은 UI에 표시될 공급자 이름입니다.
  • options.baseURL은 로컬 서버의 엔드포인트입니다.
  • models는 모델 ID와 해당 구성을 매핑합니다. 모델 이름은 모델 선택 목록에 표시됩니다.

Ollama Cloud

OpenCode로 Ollama Cloud를 사용하려면:

  1. https://ollama.com/으로 이동하여 로그인하거나 계정을 만듭니다.

  2. Settings > Keys로 이동하여 Add API Key를 클릭해 새 API 키를 생성합니다.

  3. OpenCode에서 사용할 API 키를 복사합니다.

  4. /connect 명령을 실행하고 Ollama Cloud를 검색하십시오.

    /connect
  5. Ollama Cloud API 키를 입력하십시오.

    ┌ API key
    └ enter
  6. 중요: OpenCode에서 클라우드 모델을 사용하기 전에, 로컬에서 모델 정보를 가져와야 합니다:

    Terminal window
    ollama pull gpt-oss:20b-cloud
  7. /models 명령을 실행하여 Ollama Cloud 모델을 선택하십시오.

    /models

OpenAI

ChatGPT Plus 또는 Pro에 가입하는 것이 좋습니다.

  1. 가입 후 /connect 명령을 실행하고 OpenAI를 선택하십시오.

    /connect
  2. ChatGPT Plus/Pro 옵션을 선택하면 브라우저가 열리고 인증을 요청합니다.

    ┌ Select auth method
    │ ChatGPT Plus/Pro
    │ Manually enter API Key
  3. 이제 /models 명령을 사용할 때 모든 OpenAI 모델을 사용할 수 있습니다.

    /models
API 키 사용

이미 API 키가 있다면 Manually enter API Key를 선택하고 터미널에 붙여넣을 수 있습니다.


OpenCode Zen

OpenCode Zen은 OpenCode 팀에서 제공하는 테스트 및 검증된 모델 목록입니다. 더 알아보기.

  1. **OpenCode Zen**에 로그인하고 Create API Key를 클릭합니다.

  2. /connect 명령을 실행하고 OpenCode Zen을 검색하십시오.

    /connect
  3. OpenCode API 키를 입력하십시오.

    ┌ API key
    └ enter
  4. /models 명령을 실행하여 모델(예: Qwen 3 Coder 480B)을 선택하십시오.

    /models

OpenRouter

  1. OpenRouter 대시보드로 이동하여 Create API Key를 클릭하고 키를 복사합니다.

  2. /connect 명령을 실행하고 OpenRouter를 검색하십시오.

    /connect
  3. API 키를 입력하십시오.

    ┌ API key
    └ enter
  4. 많은 OpenRouter 모델은 기본적으로 미리 로드되어 있으므로 /models 명령을 실행하여 원하는 것을 선택하십시오.

    /models

    OpenCode 구성을 통해 모델을 추가할 수도 있습니다.

    opencode.json
    {
    "$schema": "https://opencode.ai/config.json",
    "provider": {
    "openrouter": {
    "models": {
    "somecoolnewmodel": {}
    }
    }
    }
    }
  5. 또한 OpenCode 구성을 통해 사용자 정의할 수도 있습니다. 다음은 공급자 순서를 지정하는 예입니다.

    opencode.json
    {
    "$schema": "https://opencode.ai/config.json",
    "provider": {
    "openrouter": {
    "models": {
    "moonshotai/kimi-k2": {
    "options": {
    "provider": {
    "order": ["baseten"],
    "allow_fallbacks": false
    }
    }
    }
    }
    }
    }
    }

SAP AI Core

SAP AI Core는 OpenAI, Anthropic, Google, Amazon, Meta, Mistral 및 AI21의 40개 이상의 모델에 대한 액세스를 제공합니다.

  1. SAP BTP Cockpit으로 이동하여 SAP AI Core 서비스 인스턴스로 이동하고 서비스 키를 만듭니다.

  2. /connect 명령을 실행하고 SAP AI Core를 검색하십시오.

    /connect
  3. 서비스 키 JSON을 입력하십시오.

    ┌ Service key
    └ enter

    또는 AICORE_SERVICE_KEY 환경 변수를 설정합니다:

    Terminal window
    AICORE_SERVICE_KEY='{"clientid":"...","clientsecret":"...","url":"...","serviceurls":{"AI_API_URL":"..."}}' opencode

    또는 bash 프로필에 추가합니다:

    ~/.bash_profile
    export AICORE_SERVICE_KEY='{"clientid":"...","clientsecret":"...","url":"...","serviceurls":{"AI_API_URL":"..."}}'
  4. 선택적으로 배포 ID 및 리소스 그룹을 설정합니다:

    Terminal window
    AICORE_DEPLOYMENT_ID=your-deployment-id AICORE_RESOURCE_GROUP=your-resource-group opencode
  5. /models 명령을 실행하여 40개 이상의 사용 가능한 모델 중에서 선택하십시오.

    /models

STACKIT

STACKIT AI Model Serving은 Llama, Mistral, Qwen과 같은 LLM에 초점을 맞추고 유럽 인프라에서 데이터 주권을 최대한 보장하는 완전 관리형 AI 모델 호스팅 환경을 제공합니다.

  1. STACKIT Portal로 이동하여 AI Model Serving으로 이동한 다음 프로젝트의 인증 토큰을 만듭니다.

  2. /connect 명령을 실행하고 STACKIT을 검색하십시오.

    /connect
  3. STACKIT AI Model Serving 인증 토큰을 입력하십시오.

    ┌ API key
    └ enter
  4. /models 명령을 실행하여 Qwen3-VL 235B 또는 Llama 3.3 70B와 같은 사용 가능한 모델을 선택하십시오.

    /models

OVHcloud AI Endpoints

  1. OVHcloud 패널로 이동합니다. Public Cloud 섹션으로 이동하여 AI & Machine Learning > AI Endpoints로 간 뒤 API Keys 탭에서 Create a new API key를 클릭합니다.

  2. /connect 명령을 실행하고 OVHcloud AI Endpoints를 검색하십시오.

    /connect
  3. OVHcloud AI Endpoints API 키를 입력하십시오.

    ┌ API key
    └ enter
  4. /models 명령을 실행하여 모델(예: gpt-oss-120b)을 선택하십시오.

    /models

Scaleway

OpenCode로 Scaleway Generative APIs를 사용하려면:

  1. Scaleway Console IAM 설정에서 새 API 키를 생성합니다.

  2. /connect 명령을 실행하고 Scaleway를 검색하십시오.

    /connect
  3. Scaleway API 키를 입력하십시오.

    ┌ API key
    └ enter
  4. /models 명령을 실행하여 모델(예: devstral-2-123b-instruct-2512 또는 gpt-oss-120b)을 선택하십시오.

    /models

Together AI

  1. Together AI 콘솔로 이동하여 계정을 만들고 Add Key를 클릭합니다.

  2. /connect 명령을 실행하고 Together AI를 검색하십시오.

    /connect
  3. Together AI API 키를 입력하십시오.

    ┌ API key
    └ enter
  4. /models 명령을 실행하여 모델(예: Kimi K2 Instruct)을 선택하십시오.

    /models

Venice AI

  1. Venice AI 콘솔로 이동하여 계정을 만들고 API 키를 생성합니다.

  2. /connect 명령을 실행하고 Venice AI를 검색하십시오.

    /connect
  3. Venice AI API 키를 입력하십시오.

    ┌ API key
    └ enter
  4. /models 명령을 실행하여 모델(예: Llama 3.3 70B)을 선택하십시오.

    /models

Vercel AI Gateway

Vercel AI Gateway는 OpenAI, Anthropic, Google, xAI 등의 모델에 액세스할 수 있으며, 통합된 엔드포인트를 통해 더 많은 기능을 제공합니다. 모델은 마크업 없이 정가로 제공됩니다.

  1. Vercel 대시보드로 이동하여 AI Gateway 탭으로 간 뒤, API keys를 클릭하여 새 API 키를 생성합니다.

  2. /connect 명령을 실행하고 Vercel AI Gateway를 검색하십시오.

    /connect
  3. Vercel AI Gateway API 키를 입력하십시오.

    ┌ API key
    └ enter
  4. /models 명령을 실행하여 모델을 선택하십시오.

    /models

OpenCode 구성을 통해 모델을 사용자 정의할 수도 있습니다. 다음은 공급자 라우팅 순서를 지정하는 예입니다.

opencode.json
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"vercel": {
"models": {
"anthropic/claude-sonnet-4": {
"options": {
"order": ["anthropic", "vertex"]
}
}
}
}
}
}

몇 가지 유용한 라우팅 옵션:

옵션설명
order시도할 공급자 순서
only특정 공급자로 제한
zeroDataRetention데이터 보유 정책이 없는 곳만 사용

xAI

  1. xAI 콘솔로 이동하여 계정을 만들고 API 키를 생성합니다.

  2. /connect 명령을 실행하고 xAI를 검색하십시오.

    /connect
  3. xAI API 키를 입력하십시오.

    ┌ API key
    └ enter
  4. /models 명령을 실행하여 모델(예: Grok Beta)을 선택하십시오.

    /models

Z.AI

  1. Z.AI API 콘솔로 이동하여 계정을 만들고 Create a new API key를 클릭합니다.

  2. /connect 명령을 실행하고 Z.AI를 검색하십시오.

    /connect

    GLM Coding Plan에 가입했다면 Z.AI Coding Plan을 선택하십시오.

  3. Z.AI API 키를 입력하십시오.

    ┌ API key
    └ enter
  4. /models 명령을 실행하여 모델(예: GLM-4.7)을 선택하십시오.

    /models

ZenMux

  1. ZenMux 대시보드로 이동하여 Create API Key를 클릭하고 키를 복사합니다.

  2. /connect 명령을 실행하고 ZenMux를 검색하십시오.

    /connect
  3. API 키를 입력하십시오.

    ┌ API key
    └ enter
  4. 많은 ZenMux 모델은 기본적으로 미리 로드되어 있으므로 /models 명령을 실행하여 원하는 것을 선택하십시오.

    /models

    OpenCode 구성을 통해 모델을 추가할 수도 있습니다.

    opencode.json
    {
    "$schema": "https://opencode.ai/config.json",
    "provider": {
    "zenmux": {
    "models": {
    "somecoolnewmodel": {}
    }
    }
    }
    }

사용자 정의 공급자

/connect 명령에 나열되지 않은 OpenAI 호환 공급자를 추가하려면:

  1. /connect 명령을 실행하고 Other로 스크롤하십시오.

    Terminal window
    $ /connect
    Add credential
    Select provider
    ...
    Other
  2. 공급자를 위한 고유한 ID를 입력하십시오.

    Terminal window
    $ /connect
    Add credential
    Enter provider id
    myprovider
  3. 공급자의 API 키를 입력하십시오.

    Terminal window
    $ /connect
    Add credential
    This only stores a credential for myprovider - you will need to configure it in opencode.json, check the docs for examples.
    Enter your API key
    sk-...
  4. 프로젝트 디렉토리에 opencode.json 파일을 만들거나 업데이트하십시오.

    opencode.json
    {
    "$schema": "https://opencode.ai/config.json",
    "provider": {
    "myprovider": {
    "npm": "@ai-sdk/openai-compatible",
    "name": "My AI ProviderDisplay Name",
    "options": {
    "baseURL": "https://api.myprovider.com/v1"
    },
    "models": {
    "my-model-name": {
    "name": "My Model Display Name"
    }
    }
    }
    }
    }

    구성 옵션은 다음과 같습니다:

    • npm: 사용할 AI SDK 패키지. OpenAI 호환 공급자의 경우 @ai-sdk/openai-compatible
    • name: UI에 표시될 이름
    • models: 사용 가능한 모델
    • options.baseURL: API 엔드포인트 URL
    • options.apiKey: 인증을 사용하지 않는 경우 선택적으로 API 키 설정
    • options.headers: 선택적으로 사용자 정의 헤더 설정

    고급 옵션에 대한 자세한 내용은 아래 예제를 참조하십시오.

  5. /models 명령을 실행하면 사용자 정의 공급자와 모델이 선택 목록에 나타납니다.


예제

다음은 apiKey, headers 및 모델 limit 옵션을 설정하는 예입니다.

opencode.json
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"myprovider": {
"npm": "@ai-sdk/openai-compatible",
"name": "My AI ProviderDisplay Name",
"options": {
"baseURL": "https://api.myprovider.com/v1",
"apiKey": "{env:ANTHROPIC_API_KEY}",
"headers": {
"Authorization": "Bearer custom-token"
}
},
"models": {
"my-model-name": {
"name": "My Model Display Name",
"limit": {
"context": 200000,
"output": 65536
}
}
}
}
}
}

구성 세부 사항:

  • apiKey: env 변수 구문을 사용하여 설정, 더 알아보기.
  • headers: 각 요청과 함께 전송되는 사용자 정의 헤더.
  • limit.context: 모델이 허용하는 최대 입력 토큰.
  • limit.output: 모델이 생성할 수 있는 최대 출력 토큰.

limit 필드를 사용하면 OpenCode가 남은 컨텍스트 양을 파악할 수 있습니다. 표준 공급자는 models.dev에서 자동으로 이를 가져옵니다.


문제 해결

공급자 구성에 문제가 있는 경우 다음을 확인하십시오.

  1. 인증 설정 확인: opencode auth list를 실행하여 공급자의 자격 증명이 구성에 추가되었는지 확인하십시오.

    Amazon Bedrock과 같이 인증을 위해 환경 변수에 의존하는 공급자에는 적용되지 않습니다.

  2. 사용자 정의 공급자의 경우, OpenCode 구성을 확인하고 다음을 수행하십시오:

    • /connect 명령에 사용된 공급자 ID가 OpenCode 구성의 ID와 일치하는지 확인하십시오.
    • 공급자에 올바른 npm 패키지가 사용되었는지 확인하십시오. 예를 들어 Cerebras에는 @ai-sdk/cerebras를 사용하고, 다른 모든 OpenAI 호환 공급자에는 @ai-sdk/openai-compatible을 사용하십시오.
    • options.baseURL 필드에 올바른 API 엔드포인트가 사용되었는지 확인하십시오.