Мощные модели прямо в твоём редакторе

Подключи Cline, Cursor или любой инструмент с OpenAI API к облачным моделям без GPU на своей стороне.

Что такое Ollama?

Ollama — это сервер для запуска AI-моделей. Обычно его устанавливают локально на компьютер. Здесь он работает на облачном сервере и раздаёт доступ к 20+ моделям по стандартному API. Ты подключаешь свой редактор один раз — и сразу получаешь все модели.

Подключение к Cline

1

Открой настройки Cline

В VS Code: нажми на иконку Cline → Provider Settings → выбери Ollama

2

Укажи адрес сервера

Base URL: https://olla.mpa.ru.net

3

Выбери модель

Cline подтянет список доступных моделей автоматически. Рекомендуем для кода: devstral-small:latest

4

Готово

Жми Save и используй Cline как обычно — только модели теперь облачные.

Другие инструменты

🖱️
Cursor

Settings → Models → Add Model → вставь адрес olla.mpa.ru.net как OpenAI-compatible base URL.

🔌
Любое OpenAI-совместимое приложение

Замени api.openai.com на olla.mpa.ru.net. API-ключ не нужен — можно указать любую строку.

💬
Open WebUI (локальный)

Если у тебя свой Open WebUI — добавь Ollama-соединение с адресом olla.mpa.ru.net в настройках Admin.

Как получить доступ

Сервер доступен по IP-вайтлисту. Напиши нам свой IP — добавим в течение дня.

✅ Плюсы
  • ✅ Облачные модели без GPU у тебя
  • ✅ Быстро — сервер в Европе
  • ✅ Бесплатно
  • ✅ Стандартный Ollama API
⚠️ Ограничения
  • ⚠️ Нужен запрос на добавление IP
  • ⚠️ Не все модели доступны публично