Самый простой способ запустить PrivateGPT полностью локально — положиться на Ollama в качестве LLM. Ollama предоставляет локальные LLM и встраивания, которые очень просты в установке и использовании, абстрагируя сложность поддержки графических процессоров. Это рекомендуемая настройка для локальной разработки.
Перейдите на ollama.ai и следуйте инструкциям по установке Ollama на свой компьютер.
После установки убедитесь, что настольное приложение Ollama закрыто.
Установите модели, которые будут использоваться, по умолчанию в файле settings-ollama.yaml настроен пользовательский mistral 7b
LLM (~4 ГБ) и nomic-embed-text
встроенные файлы (~275 МБ). Поэтому:
ollama pull mistral
ollama pull nomic-embed-text
Теперь запустите службу Ollama (она запустит локальный сервер вывода, обслуживающий как LLM, так и Embeddings):
ollama serve
После этого на другом терминале вы можете установить PrivateGPT с помощью следующей команды:
poetry install --extras "ui llms-ollama embeddings-ollama vector-stores-qdrant"
После установки вы можете запустить PrivateGPT. Прежде чем запускать следующую команду, убедитесь, что у вас есть работающая Ollama, работающая локально.
PGPT_PROFILES=ollama make run
PrivateGPT будет использовать уже существующий settings-ollama.yaml
файл настроек, который уже настроен для использования Ollama LLM и Embeddings, а также Qdrant. Просмотрите его и адаптируйте под свои нужды (разные модели, разные порты Ollama и т. д.).
Пользовательский интерфейс будет доступен по адресу http://localhost:8001.