mirror of
https://github.com/Direct-Dev-Ru/go-lcg.git
synced 2025-11-16 01:29:55 +00:00
3.5 KiB
3.5 KiB
📁 Структура проекта OllamaServer
Файлы
Dockerfiles/OllamaServer/
├── Dockerfile # Multi-stage Dockerfile для сборки образа
├── entrypoint.sh # Скрипт запуска LCG и Ollama серверов
├── docker-compose.yml # Docker Compose конфигурация
├── podman-compose.yml # Podman Compose конфигурация
├── Makefile # Команды для сборки и запуска
├── README.md # Полная документация
├── QUICKSTART.md # Быстрый старт
├── STRUCTURE.md # Этот файл
├── .dockerignore # Исключения для Docker build
└── .gitignore # Исключения для Git
Описание файлов
Dockerfile
Multi-stage Dockerfile, который:
- Собирает бинарник LCG из исходного кода
- Устанавливает Ollama 0.9.5
- Создает пользователя ollama
- Настраивает рабочее окружение
entrypoint.sh
Скрипт запуска, который:
- Запускает Ollama сервер в фоне
- Ожидает готовности Ollama API
- Запускает LCG сервер в фоне
- Мониторит состояние процессов
- Корректно обрабатывает сигналы завершения
docker-compose.yml / podman-compose.yml
Конфигурация для запуска через compose:
- Настройки портов
- Переменные окружения
- Volumes для персистентного хранения
- Healthcheck
Makefile
Удобные команды для:
- Сборки образа
- Запуска/остановки контейнера
- Просмотра логов
- Работы с compose
README.md
Полная документация с:
- Описанием функциональности
- Инструкциями по установке
- Настройками переменных окружения
- Примерами использования
- Решением проблем
QUICKSTART.md
Краткое руководство для быстрого старта.
Порты
- 8080: LCG веб-сервер
- 11434: Ollama API
Volumes
ollama-data: Данные Ollama (модели)lcg-results: Результаты генерации командlcg-prompts: Системные промптыlcg-config: Конфигурация LCG
Переменные окружения
Основные переменные (см. README.md для полного списка):
LCG_PROVIDER=ollamaLCG_HOST=http://127.0.0.1:11434/LCG_MODEL=codegeex4OLLAMA_HOST=0.0.0.0OLLAMA_PORT=11434
Запуск
Docker
cd Dockerfiles/OllamaServer
docker-compose up -d
Podman
cd Dockerfiles/OllamaServer
podman-compose -f podman-compose.yml up -d
Make
cd Dockerfiles/OllamaServer
make compose-up
# или
make podman-compose-up
Архитектура
Контейнер запускает два сервиса:
- Ollama (порт 11434) - LLM сервер
- LCG (порт 8080) - Веб-интерфейс и API
Оба сервиса работают в одном контейнере и общаются через localhost.