Доступные модели
Исследуйте AI-модели, доступные через GonkaGate с прозрачными ценами.
Доступные модели
Модели динамически загружаются из сети Gonka. Список обновляется при появлении новых моделей.
Смотреть модели — Посмотреть все доступные модели
Вы также можете получить модели программно:
list_models.py
import requests
response = requests.get(
"https://api.gonkagate.com/v1/models",
headers={"Authorization": "Bearer your-gonkagate-api-key"}
)
models = response.json()["data"]
for model in models:
price_per_m = float(model["pricing"]["prompt"]) * 1_000_000
print(f"{model['name']}: ${price_per_m:.2f}/1M tokens")Схема ответа модели
Каждая модель включает следующую информацию:
model-types.ts
interface Model {
id: string; // e.g., "Qwen/Qwen3-235B-A22B-Instruct-2507-FP8"
name: string; // Human-readable name, e.g., "Qwen3 235B A22B Instruct"
description: string | null; // Model description (may be null)
context_length: number | null; // Max context window in tokens
pricing: Pricing; // Current pricing per 1M tokens
}
interface Pricing {
input: number; // USD per 1M input tokens
output: number; // USD per 1M output tokens
}Цены
В Grace Period: ~$0,0032 за 1M токенов для всех моделей. Одинаковая цена для input и output.
Grace Period активен
Все модели сейчас по ~$0,0032/1M токенов. В будущем — переход на динамическое on-chain ценообразование. Плюс наши комиссии: 5% депозит + 10% использование.
models-response.json
{
"data": [
{
"id": "Qwen/Qwen3-235B-A22B-Instruct-2507-FP8",
"name": "Qwen3 235B A22B Instruct 2507 FP8",
"description": "A powerful 235B parameter model for complex reasoning tasks.",
"context_length": 131072,
"pricing": {
"input": 0.35,
"output": 0.35
}
},
{
"id": "Qwen/Qwen2.5-7B-Instruct",
"name": "Qwen2 5 7B Instruct",
"description": null,
"context_length": 32768,
"pricing": {
"input": 0.02,
"output": 0.02
}
}
]
}Использование моделей в запросах
Укажите ID модели в ваших API-запросах:
request-body.json
{
"model": "Qwen/Qwen3-235B-A22B-Instruct-2507-FP8",
"messages": [
{ "role": "user", "content": "Hello!" }
]
}Советы по выбору модели
Выберите подходящую модель для вашей задачи:
- Для сложных задач — Используйте большие модели (235B, V3) для кодинга, анализа и сложных задач.
- Для быстрых ответов — Используйте маленькие модели (7B, 8B) для простых задач, требующих быстрых и экономичных ответов.
- Учитывайте длину контекста — Для длинных диалогов выбирайте модели с большим контекстным окном (128K+ токенов).