xr:d:DAFDj1zudmk:302,j:2782514621312116631,t:24011906

🧠 Хочешь запустить локальный искусственный интеллект с веб-интерфейсом на Debian 12? Отличный выбор! Один из самых популярных и удобных вариантов — Open WebUI в связке с Ollama, который позволяет запускать LLM-модели (например, LLaMA, Mistral, Gemma) прямо у тебя на машине.


🚀 Что тебе понадобится

  • Debian 12 (Bookworm) с правами sudo
  • Python 3.11 или Docker
  • 16+ GB RAM (желательно)
  • GPU с поддержкой CUDA (опционально, но ускоряет работу)
  • Интернет для загрузки моделей

🧰 Вариант 1: Установка через Docker (рекомендуется)

  1. Установи Docker: sudo apt update sudo apt install docker.io
  2. Запусти Open WebUI с Ollama: sudo docker run -d -p 3000:8080 \ -v ollama:/root/.ollama \ -v open-webui:/app/backend/data \ --name open-webui \ --restart always \ ghcr.io/open-webui/open-webui:ollama
  3. Открой браузер и перейди на: http://localhost:3000 Создай аккаунт и начни общение с ИИ!

🧰 Вариант 2: Установка через Python (если не хочешь Docker)

  1. Установи зависимости: sudo apt install python3.11 python3-pip python3-venv git
  2. Создай виртуальное окружение: python3.11 -m venv webui-env source webui-env/bin/activate
  3. Установи Open WebUI: pip install open-webui
  4. Запусти сервер: open-webui serve
  5. Перейди в браузере на http://localhost:8080

🧠 Установка Ollama (для запуска моделей)

Если ты хочешь запускать LLM-модели локально:

curl -fsSL https://ollama.com/install.sh | sh

После установки можно запускать модели, например:

ollama run llama3

📚 Полезные источники

От alex

Обучаемый.