Skip to main content

Настройка LlamaIndex

Настройте LlamaIndex OpenAI LLM wrapper для работы с GonkaGate.

Подключите LlamaIndex OpenAI LLM wrapper к GonkaGate, указав api_base, API-ключ gp-... и актуальный model ID GonkaGate. Остальной LlamaIndex-пайплайн можно не менять. Эта страница описывает только путь через OpenAI LLM wrapper. Embeddings и более широкую RAG-логику оставьте на текущем провайдере или локальной модели.

Настройте Settings.llm

Используйте Settings.llm, если один и тот же LLM через GonkaGate нужен в нескольких query- или index-сценариях.

Настройте Settings.llm
from llama_index.core import Settings
from llama_index.llms.openai import OpenAI

Settings.llm = OpenAI(
    model="qwen/qwen3-235b-a22b-instruct-2507-fp8",
    api_key="gp-your-api-key",
    api_base="https://api.gonkagate.com/v1",
)

response = Settings.llm.complete("Return exactly: LlamaIndex connected")
print(response)

Ожидаемый результат: Settings.llm.complete(...) возвращает LlamaIndex connected.

Перед рабочим трафиком замените пример model ID на актуальное значение из GET /v1/models. Если у вас OpenAI(...) создаётся локально, примените там те же api_base, API-ключ и model ID.

Передайте тот же LLM в query-сценарий

Если у вас уже есть готовый индекс, передайте настроенный LLM в as_query_engine(), а не переписывайте весь пайплайн.

Передайте тот же LLM в query-сценарий
query_engine = index.as_query_engine(llm=Settings.llm)
response = query_engine.query("Summarize this document in one sentence.")
print(response)

Меняйте только параметры подключения LLM

  • Оставьте OpenAI LLM wrapper в LlamaIndex на месте.
  • Меняйте только api_base, API-ключ и model ID.
  • Используйте Settings.llm, когда один и тот же LLM-конфиг нужен в нескольких сценариях.
  • Возвращайтесь к retrieval-слою и более широкой RAG-логике только после того, как базовое LLM-подключение заработало.

Частые ошибки

Ответ или симптомЧто это обычно значитЧто делать
401 invalid_api_keyAPI-ключ отсутствует, невалиден или загружается не из того местаПерепроверьте Аутентификацию и API-ключи
404 model_not_foundID модели устарел или не поддерживаетсяОбновите его через GET /v1/models
429 insufficient_quotaДля запроса не хватает средств на предоплаченном USD-балансеПополните баланс и повторите запрос после появления доступных средств
429 rate_limit_exceededВы упёрлись в лимит запросовУчитывайте Retry-After и добавьте bounded backoff
LLM-запросы работают, а embeddings падаютЭта страница покрывает только путь OpenAI LLM wrapperОставьте embeddings на текущем провайдере или локальной модели

См. также

Была ли эта страница полезной?