Files
go-lcg/Dockerfiles/OllamaServer/QUICKSTART.md
2025-11-08 16:02:35 +06:00

173 lines
3.5 KiB
Markdown
Raw Blame History

This file contains ambiguous Unicode characters

This file contains Unicode characters that might be confused with other characters. If you think that this is intentional, you can safely ignore this warning. Use the Escape button to reveal them.

# 🚀 Быстрый старт - LCG с Ollama
## Подготовка
1. Убедитесь, что у вас установлен Docker или Podman
2. Клонируйте репозиторий (если еще не сделали)
3. Перейдите в папку с Dockerfile
```bash
cd Dockerfiles/OllamaServer
```
## Запуск с Docker
### Вариант 1: Docker Compose (рекомендуется)
```bash
docker-compose up -d
```
### Вариант 2: Ручная сборка и запуск
```bash
# Сборка образа
docker build -f Dockerfile -t lcg-ollama:latest ../..
# Запуск контейнера
docker run -d \
--name lcg-ollama \
-p 8080:8080 \
-p 11434:11434 \
-v ollama-data:/home/ollama/.ollama \
-v lcg-results:/app/data/results \
lcg-ollama:latest
```
## Запуск с Podman
### Вариант 1: Podman Compose
```bash
podman-compose -f podman-compose.yml up -d
```
### Вариант 2: Ручная сборка и запуск
```bash
# Сборка образа
podman build -f Dockerfile -t lcg-ollama:latest ../..
# Запуск контейнера
podman run -d \
--name lcg-ollama \
-p 8080:8080 \
-p 11434:11434 \
-v ollama-data:/home/ollama/.ollama \
-v lcg-results:/app/data/results \
lcg-ollama:latest
```
## Проверка запуска
### Проверка логов
```bash
# Docker
docker logs -f lcg-ollama
# Podman
podman logs -f lcg-ollama
```
Дождитесь сообщений:
- `Ollama сервер готов!`
- `LCG сервер запущен на http://0.0.0.0:8080`
### Проверка доступности
```bash
# Проверка Ollama
curl http://localhost:11434/api/tags
# Проверка LCG
curl http://localhost:8080/
```
## Загрузка модели
После запуска контейнера загрузите модель:
```bash
# Docker
docker exec lcg-ollama ollama pull codegeex4
# Podman
podman exec lcg-ollama ollama pull codegeex4
```
Или используйте модель по умолчанию, указанную в переменных окружения.
## Доступ к веб-интерфейсу
Откройте в браузере: http://localhost:8080
## Остановка
```bash
# Docker
docker-compose down
# Podman
podman-compose -f podman-compose.yml down
```
Или для ручного запуска:
```bash
# Docker
docker stop lcg-ollama
docker rm lcg-ollama
# Podman
podman stop lcg-ollama
podman rm lcg-ollama
```
## Решение проблем
### Порт занят
Измените порты в docker-compose.yml или команде run:
```bash
-p 9000:8080 # LCG на порту 9000
-p 11435:11434 # Ollama на порту 11435
```
### Контейнер не запускается
Проверьте логи:
```bash
docker logs lcg-ollama
# или
podman logs lcg-ollama
```
### Модель не загружена
Убедитесь, что модель существует:
```bash
docker exec lcg-ollama ollama list
# или
podman exec lcg-ollama ollama list
```
Если модели нет, загрузите её:
```bash
docker exec lcg-ollama ollama pull codegeex4
# или
podman exec lcg-ollama ollama pull codegeex4
```
## Следующие шаги
- Прочитайте полную документацию в [README.md](README.md)
- Настройте аутентификацию для продакшена
- Настройте reverse proxy для HTTPS
- Загрузите нужные модели Ollama