Files
go-lcg/Dockerfiles/OllamaServer/QUICKSTART.md
2025-11-08 16:02:35 +06:00

3.5 KiB
Raw Blame History

🚀 Быстрый старт - LCG с Ollama

Подготовка

  1. Убедитесь, что у вас установлен Docker или Podman
  2. Клонируйте репозиторий (если еще не сделали)
  3. Перейдите в папку с Dockerfile
cd Dockerfiles/OllamaServer

Запуск с Docker

Вариант 1: Docker Compose (рекомендуется)

docker-compose up -d

Вариант 2: Ручная сборка и запуск

# Сборка образа
docker build -f Dockerfile -t lcg-ollama:latest ../..

# Запуск контейнера
docker run -d \
  --name lcg-ollama \
  -p 8080:8080 \
  -p 11434:11434 \
  -v ollama-data:/home/ollama/.ollama \
  -v lcg-results:/app/data/results \
  lcg-ollama:latest

Запуск с Podman

Вариант 1: Podman Compose

podman-compose -f podman-compose.yml up -d

Вариант 2: Ручная сборка и запуск

# Сборка образа
podman build -f Dockerfile -t lcg-ollama:latest ../..

# Запуск контейнера
podman run -d \
  --name lcg-ollama \
  -p 8080:8080 \
  -p 11434:11434 \
  -v ollama-data:/home/ollama/.ollama \
  -v lcg-results:/app/data/results \
  lcg-ollama:latest

Проверка запуска

Проверка логов

# Docker
docker logs -f lcg-ollama

# Podman
podman logs -f lcg-ollama

Дождитесь сообщений:

  • Ollama сервер готов!
  • LCG сервер запущен на http://0.0.0.0:8080

Проверка доступности

# Проверка Ollama
curl http://localhost:11434/api/tags

# Проверка LCG
curl http://localhost:8080/

Загрузка модели

После запуска контейнера загрузите модель:

# Docker
docker exec lcg-ollama ollama pull codegeex4

# Podman
podman exec lcg-ollama ollama pull codegeex4

Или используйте модель по умолчанию, указанную в переменных окружения.

Доступ к веб-интерфейсу

Откройте в браузере: http://localhost:8080

Остановка

# Docker
docker-compose down

# Podman
podman-compose -f podman-compose.yml down

Или для ручного запуска:

# Docker
docker stop lcg-ollama
docker rm lcg-ollama

# Podman
podman stop lcg-ollama
podman rm lcg-ollama

Решение проблем

Порт занят

Измените порты в docker-compose.yml или команде run:

-p 9000:8080  # LCG на порту 9000
-p 11435:11434  # Ollama на порту 11435

Контейнер не запускается

Проверьте логи:

docker logs lcg-ollama
# или
podman logs lcg-ollama

Модель не загружена

Убедитесь, что модель существует:

docker exec lcg-ollama ollama list
# или
podman exec lcg-ollama ollama list

Если модели нет, загрузите её:

docker exec lcg-ollama ollama pull codegeex4
# или
podman exec lcg-ollama ollama pull codegeex4

Следующие шаги

  • Прочитайте полную документацию в README.md
  • Настройте аутентификацию для продакшена
  • Настройте reverse proxy для HTTPS
  • Загрузите нужные модели Ollama