🧠 Хочешь запустить локальный искусственный интеллект с веб-интерфейсом на Debian 12? Отличный выбор! Один из самых популярных и удобных вариантов — Open WebUI в связке с Ollama, который позволяет запускать LLM-модели (например, LLaMA, Mistral, Gemma) прямо у тебя на машине.
🚀 Что тебе понадобится
- Debian 12 (Bookworm) с правами
sudo
- Python 3.11 или Docker
- 16+ GB RAM (желательно)
- GPU с поддержкой CUDA (опционально, но ускоряет работу)
- Интернет для загрузки моделей
🧰 Вариант 1: Установка через Docker (рекомендуется)
- Установи Docker:
sudo apt update sudo apt install docker.io
- Запусти Open WebUI с Ollama:
sudo docker run -d -p 3000:8080 \ -v ollama:/root/.ollama \ -v open-webui:/app/backend/data \ --name open-webui \ --restart always \ ghcr.io/open-webui/open-webui:ollama
- Открой браузер и перейди на:
http://localhost:3000
Создай аккаунт и начни общение с ИИ!
🧰 Вариант 2: Установка через Python (если не хочешь Docker)
- Установи зависимости:
sudo apt install python3.11 python3-pip python3-venv git
- Создай виртуальное окружение:
python3.11 -m venv webui-env source webui-env/bin/activate
- Установи Open WebUI:
pip install open-webui
- Запусти сервер:
open-webui serve
- Перейди в браузере на
http://localhost:8080
🧠 Установка Ollama (для запуска моделей)
Если ты хочешь запускать LLM-модели локально:
curl -fsSL https://ollama.com/install.sh | sh
После установки можно запускать модели, например:
ollama run llama3
📚 Полезные источники
- Подробная инструкция по установке Open WebUI на Debian 12
- Гайд по запуску Ollama и WebUI на Linux
- Официальная документация Open WebUI