Skip to main content

Совместимость OpenAI SDK

Смените base URL, API-ключ и model ID, чтобы использовать официальный OpenAI SDK с GonkaGate.

Смените только base URL, API-ключ и model ID, чтобы использовать официальный OpenAI SDK с GonkaGate. Форма клиента, messages и большая часть логики приложения остаются теми же для POST /v1/chat/completions и GET /v1/models.

Минимальное изменение

Поменяйте только три значения подключения, которые принадлежат GonkaGate: base URL, API-ключ и model ID.

Минимальное изменение
 client = OpenAI(
-    base_url / baseURL = "https://api.openai.com/v1",
+    base_url / baseURL = "https://api.gonkagate.com/v1",
-    api_key = "sk-..."
+    api_key = "gp-..."
 )

 response = client.chat.completions.create(
-    model = "gpt-..."
+    model = "<current-gonkagate-model-id>"
 )

Ожидаемый результат: ваш существующий вызов chat.completions.create(...) продолжит работать после замены этих значений и выбора актуального GonkaGate model ID.

Если приложение жестко типизирует ответ, разрешите дополнительные поля в usage, например base_cost_usd, platform_fee_usd и total_cost_usd.

Что нужно заранее

  • Верифицированный аккаунт GonkaGate
  • Сохраненный gp-... API-ключ в серверном хранилище секретов
  • Актуальный GonkaGate model ID вместо стандартного имени модели OpenAI
  • Достаточный предоплаченный USD-баланс для запроса

Используйте Аутентификацию и API-ключи для создания, хранения и ротации ключей.

Частые ошибки и текущие ограничения

  • 401 invalid_api_key обычно означает проблему в значении Bearer-заголовка, состоянии ключа или состоянии аккаунта.
  • 404 model_not_found означает, что model ID устарел или не поддерживается в GonkaGate.
  • 429 insufficient_quota означает, что доступного предоплаченного USD-баланса недостаточно для запроса.
  • 429 rate_limit_exceeded и 5xx обрабатывайте как ошибки рантайма с ограниченными ретраями.
  • Этот путь покрывает официальный OpenAI SDK для chat.completions и GET /v1/models.
  • Если приложению нужны embeddings, Responses API, Assistants, Audio, Batch или fine-tuning, держите эти сценарии на отдельном provider path.
  • Streaming, tools, JSON mode и vision зависят от выбранной модели и используемого API surface.

См. также

Была ли эта страница полезной?