Исправления в ветке main

This commit is contained in:
2025-11-09 12:47:23 +06:00
parent 01488edbee
commit c975e00c50
14 changed files with 288 additions and 182 deletions

View File

@@ -1,74 +1,79 @@
# Multi-stage build для LCG с Ollama # Используем готовый образ Ollama
FROM golang:1.24.6-alpine3.22 AS builder FROM localhost/ollama_packed:latest
WORKDIR /build # Устанавливаем bash если его нет (базовый образ ollama может быть на разных дистрибутивах)
RUN if ! command -v bash >/dev/null 2>&1; then \
if command -v apk >/dev/null 2>&1; then \
apk add --no-cache bash; \
elif command -v apt-get >/dev/null 2>&1; then \
apt-get update && apt-get install -y --no-install-recommends bash && rm -rf /var/lib/apt/lists/*; \
fi; \
fi
# Копируем файлы зависимостей # Определяем архитектуру для копирования правильного бинарника
COPY go.mod go.sum ./
RUN go mod download
# Копируем исходный код
COPY . .
# Собираем бинарник
RUN CGO_ENABLED=0 GOOS=linux go build -ldflags="-w -s -buildid=" -trimpath -o /build/lcg .
# Финальный образ с Ollama
FROM alpine:3.22
# Устанавливаем необходимые пакеты
RUN apk add --no-cache \
curl \
ca-certificates \
bash \
&& rm -rf /var/cache/apk/*
# Устанавливаем Ollama 0.9.5 (поддержка разных архитектур)
ARG TARGETARCH ARG TARGETARCH
RUN case ${TARGETARCH} in \ ARG TARGETOS=linux
amd64) OLLAMA_ARCH=amd64 ;; \
arm64) OLLAMA_ARCH=arm64 ;; \ # Копируем папку dist с бинарниками
arm) OLLAMA_ARCH=arm64 ;; \ # Структура: dist/lcg_linux_amd64_v1/lcg_* или dist/lcg_linux_arm64_v8.0/lcg_*
*) echo "Unsupported architecture: ${TARGETARCH}" && exit 1 ;; \ COPY dist/ /tmp/dist/
# Выбираем правильный бинарник в зависимости от архитектуры
# Если TARGETARCH не установлен, определяем архитектуру через uname
RUN ARCH="${TARGETARCH:-$(uname -m)}" && \
case "${ARCH}" in \
amd64|x86_64) \
BIN_FILE=$(find /tmp/dist/lcg_linux_amd64_v* -name "lcg_*" -type f 2>/dev/null | head -1) && \
if [ -n "$BIN_FILE" ]; then \
cp "$BIN_FILE" /usr/local/bin/lcg && \
echo "Установлен бинарник для amd64: $BIN_FILE"; \
else \
echo "Бинарник для amd64 не найден в /tmp/dist/" && exit 1; \
fi ;; \
arm64|aarch64|arm) \
BIN_FILE=$(find /tmp/dist/lcg_linux_arm64_v* -name "lcg_*" -type f 2>/dev/null | head -1) && \
if [ -n "$BIN_FILE" ]; then \
cp "$BIN_FILE" /usr/local/bin/lcg && \
echo "Установлен бинарник для arm64: $BIN_FILE"; \
else \
echo "Бинарник для arm64 не найден в /tmp/dist/" && exit 1; \
fi ;; \
*) \
echo "Unsupported architecture: ${ARCH}" && \
echo "Доступные бинарники:" && \
find /tmp/dist -name "lcg_*" -type f 2>/dev/null && \
exit 1 ;; \
esac && \ esac && \
curl -L https://github.com/ollama/ollama/releases/download/v0.9.5/ollama-linux-${OLLAMA_ARCH} -o /usr/local/bin/ollama \ chmod +x /usr/local/bin/lcg && \
&& chmod +x /usr/local/bin/ollama rm -rf /tmp/dist && \
(lcg --version || echo "Бинарник lcg установлен")
# Создаем пользователя для запуска сервисов
RUN addgroup -g 1000 ollama && \
adduser -D -u 1000 -G ollama ollama && \
mkdir -p /home/ollama/.ollama && \
chown -R ollama:ollama /home/ollama
# Копируем бинарник lcg
COPY --from=builder /build/lcg /usr/local/bin/lcg
RUN chmod +x /usr/local/bin/lcg
# Копируем entrypoint скрипт # Копируем entrypoint скрипт
COPY --chmod=755 Dockerfiles/OllamaServer/entrypoint.sh /entrypoint.sh COPY --chmod=755 Dockerfiles/OllamaServer/entrypoint.sh /entrypoint.sh
# Создаем директории для данных # Создаем директории для данных LCG
RUN mkdir -p /app/data/results /app/data/prompts /app/data/config \ # В базовом образе ollama уже есть пользователь ollama
&& chown -R ollama:ollama /app/data RUN mkdir -p /app/data/results /app/data/prompts /app/data/config
# Устанавливаем права доступа (пользователь ollama должен существовать в базовом образе)
RUN chown -R ollama:ollama /app/data 2>/dev/null || \
(chown -R 1000:1000 /app/data 2>/dev/null || true)
# Настройки по умолчанию # Настройки по умолчанию
ENV LCG_PROVIDER=ollama ENV LCG_PROVIDER=ollama
ENV LCG_HOST=http://127.0.0.1:11434/ ENV LCG_HOST=http://127.0.0.1:11434/
ENV LCG_MODEL=codegeex4 ENV LCG_MODEL=qwen2.5-coder:1.5b
ENV LCG_RESULT_FOLDER=/app/data/results ENV LCG_RESULT_FOLDER=/app/data/results
ENV LCG_PROMPT_FOLDER=/app/data/prompts ENV LCG_PROMPT_FOLDER=/app/data/prompts
ENV LCG_CONFIG_FOLDER=/app/data/config ENV LCG_CONFIG_FOLDER=/app/data/config
ENV LCG_SERVER_HOST=0.0.0.0 ENV LCG_SERVER_HOST=0.0.0.0
ENV LCG_SERVER_PORT=8080 ENV LCG_SERVER_PORT=8080
ENV LCG_SERVER_ALLOW_HTTP=true # ENV LCG_SERVER_ALLOW_HTTP=true
ENV OLLAMA_HOST=0.0.0.0 # ENV OLLAMA_HOST=127.0.0.1
ENV OLLAMA_PORT=11434 # ENV OLLAMA_PORT=11434
# Expose порты # Expose порты
EXPOSE 8080 11434 EXPOSE 8080
# Переключаемся на пользователя ollama
USER ollama
WORKDIR /home/ollama WORKDIR /home/ollama

View File

@@ -23,14 +23,27 @@ help: ## Показать справку
@echo " make podman-compose-up - Запустить через podman-compose" @echo " make podman-compose-up - Запустить через podman-compose"
@echo " make podman-compose-down - Остановить podman-compose" @echo " make podman-compose-down - Остановить podman-compose"
build: ## Собрать Docker образ build: ## Собрать Docker образ (требует собранных бинарников в dist/)
@echo "⚠️ Убедитесь, что бинарники собраны: goreleaser build --snapshot --clean"
docker build -f $(DOCKERFILE) -t $(IMAGE_NAME):$(IMAGE_TAG) $(CONTEXT) docker build -f $(DOCKERFILE) -t $(IMAGE_NAME):$(IMAGE_TAG) $(CONTEXT)
@echo "Образ $(IMAGE_NAME):$(IMAGE_TAG) успешно собран" @echo "Образ $(IMAGE_NAME):$(IMAGE_TAG) успешно собран"
build-podman: ## Собрать Podman образ build-podman: ## Собрать Podman образ (требует собранных бинарников в dist/)
@echo "⚠️ Убедитесь, что бинарники собраны: goreleaser build --snapshot --clean"
podman build -f $(DOCKERFILE) -t $(IMAGE_NAME):$(IMAGE_TAG) $(CONTEXT) podman build -f $(DOCKERFILE) -t $(IMAGE_NAME):$(IMAGE_TAG) $(CONTEXT)
@echo "Образ $(IMAGE_NAME):$(IMAGE_TAG) успешно собран" @echo "Образ $(IMAGE_NAME):$(IMAGE_TAG) успешно собран"
build-binaries: ## Собрать бинарники перед сборкой образа
@echo "Сборка бинарников..."
cd $(CONTEXT) && goreleaser build --snapshot --clean
@echo "Бинарники собраны в $(CONTEXT)/dist/"
build-all: build-binaries build ## Собрать бинарники и Docker образ
@echo "✅ Все готово!"
build-all-podman: build-binaries build-podman ## Собрать бинарники и Podman образ
@echo "✅ Все готово!"
run: ## Запустить контейнер (Docker) run: ## Запустить контейнер (Docker)
docker run -d \ docker run -d \
--name $(CONTAINER_NAME) \ --name $(CONTAINER_NAME) \

View File

@@ -4,7 +4,17 @@
1. Убедитесь, что у вас установлен Docker или Podman 1. Убедитесь, что у вас установлен Docker или Podman
2. Клонируйте репозиторий (если еще не сделали) 2. Клонируйте репозиторий (если еще не сделали)
3. Перейдите в папку с Dockerfile 3. Соберите бинарники (требуется перед сборкой образа)
```bash
# Из корня проекта
goreleaser build --snapshot --clean
# Или используйте скрипт
./deploy/4.build-binaries.sh v2.0.15
```
4. Перейдите в папку с Dockerfile
```bash ```bash
cd Dockerfiles/OllamaServer cd Dockerfiles/OllamaServer
@@ -15,14 +25,16 @@ cd Dockerfiles/OllamaServer
### Вариант 1: Docker Compose (рекомендуется) ### Вариант 1: Docker Compose (рекомендуется)
```bash ```bash
# Важно: убедитесь, что бинарники собраны в ../../dist/
docker-compose up -d docker-compose up -d
``` ```
### Вариант 2: Ручная сборка и запуск ### Вариант 2: Ручная сборка и запуск
```bash ```bash
# Сборка образа # Сборка образа (контекст должен быть корень проекта)
docker build -f Dockerfile -t lcg-ollama:latest ../.. cd ../.. # Переходим в корень проекта
docker build -f Dockerfiles/OllamaServer/Dockerfile -t lcg-ollama:latest .
# Запуск контейнера # Запуск контейнера
docker run -d \ docker run -d \
@@ -45,8 +57,9 @@ podman-compose -f podman-compose.yml up -d
### Вариант 2: Ручная сборка и запуск ### Вариант 2: Ручная сборка и запуск
```bash ```bash
# Сборка образа # Сборка образа (контекст должен быть корень проекта)
podman build -f Dockerfile -t lcg-ollama:latest ../.. cd ../.. # Переходим в корень проекта
podman build -f Dockerfiles/OllamaServer/Dockerfile -t lcg-ollama:latest .
# Запуск контейнера # Запуск контейнера
podman run -d \ podman run -d \

View File

@@ -7,62 +7,111 @@
## 📋 Описание ## 📋 Описание
Контейнер автоматически запускает: Контейнер автоматически запускает:
1. **Ollama сервер** (v0.9.5) на порту 11434
2. **LCG веб-сервер** на порту 8080 1 **Ollama сервер** (v0.9.5) на порту 11434
2 **LCG веб-сервер** на порту 8080
Ollama используется как провайдер LLM для генерации Linux команд. Ollama используется как провайдер LLM для генерации Linux команд.
## 🚀 Быстрый старт ## 🚀 Быстрый старт
### Предварительные требования
Перед сборкой Docker образа необходимо собрать бинарники:
```bash
# Из корня проекта
# Используйте goreleaser для сборки бинарников
goreleaser build --snapshot --clean
# Или используйте скрипт сборки
./deploy/4.build-binaries.sh v2.0.15
```
Убедитесь, что в папке `dist/` есть бинарники:
- `dist/lcg_linux_amd64_v1/lcg_*` для amd64
- `dist/lcg_linux_arm64_v8.0/lcg_*` для arm64
### Сборка образа ### Сборка образа
#### Docker #### Docker
```bash ```bash
# Из корня проекта # Из корня проекта (важно: контекст должен быть корень проекта)
docker build -f Dockerfiles/OllamaServer/Dockerfile -t lcg-ollama:latest . docker build -f Dockerfiles/OllamaServer/Dockerfile -t lcg-ollama:latest .
# Или с указанием архитектуры
docker buildx build \
--platform linux/amd64,linux/arm64 \
-f Dockerfiles/OllamaServer/Dockerfile \
-t lcg-ollama:latest .
``` ```
#### Podman #### Podman
```bash ```bash
# Из корня проекта # Из корня проекта
podman build -f Dockerfiles/OllamaServer/Dockerfile -t lcg-ollama:latest . podman build -f Dockerfiles/OllamaServer/Dockerfile -t lcg-ollama:latest .
# Или с указанием архитектуры
podman build \
--platform linux/amd64,linux/arm64 \
-f Dockerfiles/OllamaServer/Dockerfile \
-t lcg-ollama:latest .
``` ```
### Запуск контейнера ### Запуск контейнера
#### Docker #### Docker run
```bash ```bash
docker run -d \ docker run -d \
--name lcg-ollama \ --name lcg-ollama \
-p 8080:8080 \ -p 8080:8080 \
-p 11434:11434 \
lcg-ollama:latest lcg-ollama:latest
ollama serve
``` ```
#### Podman #### Podman run
```bash ```bash
podman run -d \ podman run -d \
--name lcg-ollama \ --name lcg-ollama \
-p 8080:8080 \ -p 8989:8080 \
-p 11434:11434 \ --restart always \
lcg-ollama:latest lcg-ollama:latest \
ollama serve
``` ```
когда контейнер запущен на удаленном хосте - можете воспользоваться консольными возможностями утилиты lcg следующим образом
``` bash
ssh user@[host_where_contaier_running] 'podman exec -it $(podman ps -q --filter \"ancestor=localhost/lcg-ollama:latest\") lcg [your query]
```
``` bash
ssh user@[host_where_contaier_running] 'podman exec -it $(podman ps -q --filter "ancestor=localhost/lcg-ollama:latest") /bin/sh -c "export LCG_MODEL=qwen3:0.6b && lcg config --full"'
### Использование docker-compose / podman-compose ### Использование docker-compose / podman-compose
#### Docker Compose #### Docker Compose
```bash ```bash
cd Dockerfiles/OllamaServer cd Dockerfiles/OllamaServer
docker-compose up -d docker-compose up -d
``` ```
#### Podman Compose #### Podman Compose
```bash ```bash
cd Dockerfiles/OllamaServer cd Dockerfiles/OllamaServer
podman-compose -f podman-compose.yml up -d podman-compose -f podman-compose.yml up -d
``` ```
Или используйте встроенную поддержку Podman: Или используйте встроенную поддержку Podman:
```bash ```bash
cd Dockerfiles/OllamaServer cd Dockerfiles/OllamaServer
podman play kube podman-compose.yml podman play kube podman-compose.yml
@@ -72,8 +121,8 @@ podman play kube podman-compose.yml
После запуска контейнера доступны: После запуска контейнера доступны:
- **LCG веб-интерфейс**: http://localhost:8080 - **LCG веб-интерфейс**: <http://localhost:8080>
- **Ollama API**: http://localhost:11434 - **Ollama API**: <http://localhost:11434>
## ⚙️ Переменные окружения ## ⚙️ Переменные окружения
@@ -278,7 +327,8 @@ podman logs -f lcg-ollama
### Просмотр логов ### Просмотр логов
#### Docker #### Docker log
```bash ```bash
# Логи контейнера # Логи контейнера
docker logs lcg-ollama docker logs lcg-ollama
@@ -287,7 +337,8 @@ docker logs lcg-ollama
docker logs -f lcg-ollama docker logs -f lcg-ollama
``` ```
#### Podman #### Podman log
```bash ```bash
# Логи контейнера # Логи контейнера
podman logs lcg-ollama podman logs lcg-ollama
@@ -298,24 +349,28 @@ podman logs -f lcg-ollama
### Подключение к контейнеру ### Подключение к контейнеру
#### Docker #### Docker exec
```bash ```bash
docker exec -it lcg-ollama sh docker exec -it lcg-ollama sh
``` ```
#### Podman #### Podman exec
```bash ```bash
podman exec -it lcg-ollama sh podman exec -it lcg-ollama sh
``` ```
### Проверка процессов ### Проверка процессов
#### Docker #### Docker check ps
```bash ```bash
docker exec lcg-ollama ps aux docker exec lcg-ollama ps aux
``` ```
#### Podman #### Podman check ps
```bash ```bash
podman exec lcg-ollama ps aux podman exec lcg-ollama ps aux
``` ```
@@ -325,6 +380,7 @@ podman exec lcg-ollama ps aux
### Рекомендации для продакшена ### Рекомендации для продакшена
1. **Используйте аутентификацию**: 1. **Используйте аутентификацию**:
```bash ```bash
-e LCG_SERVER_REQUIRE_AUTH=true -e LCG_SERVER_REQUIRE_AUTH=true
-e LCG_SERVER_PASSWORD=strong_password -e LCG_SERVER_PASSWORD=strong_password
@@ -339,6 +395,7 @@ podman exec lcg-ollama ps aux
- Используйте SSL сертификаты - Используйте SSL сертификаты
4. **Ограничьте ресурсы**: 4. **Ограничьте ресурсы**:
```bash ```bash
docker run -d \ docker run -d \
--name lcg-ollama \ --name lcg-ollama \
@@ -390,8 +447,8 @@ docker-compose up -d
## ❓ Поддержка ## ❓ Поддержка
При возникновении проблем: При возникновении проблем:
1. Проверьте логи: `docker logs lcg-ollama` 1. Проверьте логи: `docker logs lcg-ollama`
2. Проверьте переменные окружения 2. Проверьте переменные окружения
3. Убедитесь, что порты не заняты 3. Убедитесь, что порты не заняты
4. Проверьте, что модели загружены в Ollama 4. Проверьте, что модели загружены в Ollama

View File

@@ -19,14 +19,21 @@ Dockerfiles/OllamaServer/
## Описание файлов ## Описание файлов
### Dockerfile ### Dockerfile
Multi-stage Dockerfile, который:
1. Собирает бинарник LCG из исходного кода Dockerfile, который:
2. Устанавливает Ollama 0.9.5
3. Создает пользователя ollama 1. Использует готовый образ `ollama/ollama:0.9.5` как базовый
4. Настраивает рабочее окружение 2. Копирует предварительно собранный бинарник LCG из папки `dist/`
3. Выбирает правильный бинарник в зависимости от архитектуры (amd64/arm64)
4. Устанавливает entrypoint.sh для запуска обоих сервисов
5. Настраивает рабочее окружение и переменные окружения
**Важно**: Перед сборкой образа необходимо собрать бинарники с помощью `goreleaser build --snapshot --clean`
### entrypoint.sh ### entrypoint.sh
Скрипт запуска, который: Скрипт запуска, который:
1. Запускает Ollama сервер в фоне 1. Запускает Ollama сервер в фоне
2. Ожидает готовности Ollama API 2. Ожидает готовности Ollama API
3. Запускает LCG сервер в фоне 3. Запускает LCG сервер в фоне
@@ -34,21 +41,27 @@ Multi-stage Dockerfile, который:
5. Корректно обрабатывает сигналы завершения 5. Корректно обрабатывает сигналы завершения
### docker-compose.yml / podman-compose.yml ### docker-compose.yml / podman-compose.yml
Конфигурация для запуска через compose: Конфигурация для запуска через compose:
- Настройки портов - Настройки портов
- Переменные окружения - Переменные окружения
- Volumes для персистентного хранения - Volumes для персистентного хранения
- Healthcheck - Healthcheck
### Makefile ### Makefile
Удобные команды для: Удобные команды для:
- Сборки образа - Сборки образа
- Запуска/остановки контейнера - Запуска/остановки контейнера
- Просмотра логов - Просмотра логов
- Работы с compose - Работы с compose
### README.md ### README.md
Полная документация с: Полная документация с:
- Описанием функциональности - Описанием функциональности
- Инструкциями по установке - Инструкциями по установке
- Настройками переменных окружения - Настройками переменных окружения
@@ -56,6 +69,7 @@ Multi-stage Dockerfile, который:
- Решением проблем - Решением проблем
### QUICKSTART.md ### QUICKSTART.md
Краткое руководство для быстрого старта. Краткое руководство для быстрого старта.
## Порты ## Порты
@@ -73,6 +87,7 @@ Multi-stage Dockerfile, который:
## Переменные окружения ## Переменные окружения
Основные переменные (см. README.md для полного списка): Основные переменные (см. README.md для полного списка):
- `LCG_PROVIDER=ollama` - `LCG_PROVIDER=ollama`
- `LCG_HOST=http://127.0.0.1:11434/` - `LCG_HOST=http://127.0.0.1:11434/`
- `LCG_MODEL=codegeex4` - `LCG_MODEL=codegeex4`
@@ -81,31 +96,48 @@ Multi-stage Dockerfile, который:
## Запуск ## Запуск
### Предварительная подготовка
Перед сборкой образа необходимо собрать бинарники:
```bash
# Из корня проекта
goreleaser build --snapshot --clean
```
Убедитесь, что в папке `dist/` есть бинарники для нужных архитектур.
### Docker ### Docker
```bash ```bash
cd Dockerfiles/OllamaServer cd Dockerfiles/OllamaServer
docker-compose up -d docker-compose up -d
``` ```
### Podman ### Podman
```bash ```bash
cd Dockerfiles/OllamaServer cd Dockerfiles/OllamaServer
podman-compose -f podman-compose.yml up -d podman-compose -f podman-compose.yml up -d
``` ```
### Make ### Make
```bash ```bash
cd Dockerfiles/OllamaServer cd Dockerfiles/OllamaServer
make compose-up make build-all # Собрать бинарники и Docker образ
# или make compose-up # Запустить через docker-compose
# Или для Podman
make build-all-podman
make podman-compose-up make podman-compose-up
``` ```
## Архитектура ## Архитектура
Контейнер запускает два сервиса: Контейнер запускает два сервиса:
1. **Ollama** (порт 11434) - LLM сервер 1. **Ollama** (порт 11434) - LLM сервер
2. **LCG** (порт 8080) - Веб-интерфейс и API 2. **LCG** (порт 8080) - Веб-интерфейс и API
Оба сервиса работают в одном контейнере и общаются через localhost. Оба сервиса работают в одном контейнере и общаются через localhost.

View File

@@ -3,8 +3,9 @@ version: '3.8'
services: services:
lcg-ollama: lcg-ollama:
build: build:
context: ../.. context: ../.. # Контекст сборки - корень проекта (для доступа к dist/)
dockerfile: Dockerfiles/OllamaServer/Dockerfile dockerfile: Dockerfiles/OllamaServer/Dockerfile
# TARGETARCH определяется автоматически Docker на основе платформы хоста
container_name: lcg-ollama container_name: lcg-ollama
ports: ports:
- "8080:8080" # LCG веб-сервер - "8080:8080" # LCG веб-сервер

View File

@@ -32,10 +32,6 @@ cleanup() {
kill $LCG_PID 2>/dev/null || true kill $LCG_PID 2>/dev/null || true
wait $LCG_PID 2>/dev/null || true wait $LCG_PID 2>/dev/null || true
fi fi
if [ ! -z "$OLLAMA_PID" ]; then
kill $OLLAMA_PID 2>/dev/null || true
wait $OLLAMA_PID 2>/dev/null || true
fi
log "Сервисы остановлены" log "Сервисы остановлены"
exit 0 exit 0
} }
@@ -48,11 +44,6 @@ if [ ! -f /usr/local/bin/lcg ]; then
exit 1 exit 1
fi fi
# Проверка наличия Ollama
if [ ! -f /usr/local/bin/ollama ]; then
error "Ollama не найден в /usr/local/bin/ollama"
exit 1
fi
# Создаем необходимые директории # Создаем необходимые директории
mkdir -p "${LCG_RESULT_FOLDER:-/app/data/results}" mkdir -p "${LCG_RESULT_FOLDER:-/app/data/results}"
@@ -60,14 +51,14 @@ mkdir -p "${LCG_PROMPT_FOLDER:-/app/data/prompts}"
mkdir -p "${LCG_CONFIG_FOLDER:-/app/data/config}" mkdir -p "${LCG_CONFIG_FOLDER:-/app/data/config}"
# Настройка переменных окружения для Ollama # Настройка переменных окружения для Ollama
export OLLAMA_HOST="${OLLAMA_HOST:-0.0.0.0}" export OLLAMA_HOST="${OLLAMA_HOST:-127.0.0.1}"
export OLLAMA_PORT="${OLLAMA_PORT:-11434}" export OLLAMA_PORT="${OLLAMA_PORT:-11434}"
export OLLAMA_ORIGINS="*" export OLLAMA_ORIGINS="*"
# Настройка переменных окружения для LCG # Настройка переменных окружения для LCG
export LCG_PROVIDER="${LCG_PROVIDER:-ollama}" export LCG_PROVIDER="${LCG_PROVIDER:-ollama}"
export LCG_HOST="${LCG_HOST:-http://127.0.0.1:11434/}" export LCG_HOST="${LCG_HOST:-http://127.0.0.1:11434/}"
export LCG_MODEL="${LCG_MODEL:-codegeex4}" export LCG_MODEL="${LCG_MODEL:-qwen2.5-coder:1.5b}"
export LCG_RESULT_FOLDER="${LCG_RESULT_FOLDER:-/app/data/results}" export LCG_RESULT_FOLDER="${LCG_RESULT_FOLDER:-/app/data/results}"
export LCG_PROMPT_FOLDER="${LCG_PROMPT_FOLDER:-/app/data/prompts}" export LCG_PROMPT_FOLDER="${LCG_PROMPT_FOLDER:-/app/data/prompts}"
export LCG_CONFIG_FOLDER="${LCG_CONFIG_FOLDER:-/app/data/config}" export LCG_CONFIG_FOLDER="${LCG_CONFIG_FOLDER:-/app/data/config}"
@@ -85,39 +76,7 @@ info "LCG Server: http://${LCG_SERVER_HOST}:${LCG_SERVER_PORT}"
info "Ollama Host: $OLLAMA_HOST:$OLLAMA_PORT" info "Ollama Host: $OLLAMA_HOST:$OLLAMA_PORT"
log "==========================================" log "=========================================="
# Запускаем Ollama сервер в фоне
log "Запуск Ollama сервера..."
/usr/local/bin/ollama serve &
OLLAMA_PID=$!
# Ждем, пока Ollama запустится
log "Ожидание запуска Ollama сервера..."
sleep 5
# Проверяем, что Ollama запущен
if ! kill -0 $OLLAMA_PID 2>/dev/null; then
error "Ollama сервер не запустился"
exit 1
fi
# Проверяем доступность Ollama API
max_attempts=30
attempt=0
while [ $attempt -lt $max_attempts ]; do
# Проверяем через localhost, так как OLLAMA_HOST может быть 0.0.0.0
if curl -s -f "http://127.0.0.1:${OLLAMA_PORT}/api/tags" > /dev/null 2>&1; then
log "Ollama сервер готов!"
break
fi
attempt=$((attempt + 1))
if [ $attempt -eq $max_attempts ]; then
error "Ollama сервер не отвечает после $max_attempts попыток"
exit 1
fi
sleep 1
done
# Запускаем LCG сервер в фоне
log "Запуск LCG сервера..." log "Запуск LCG сервера..."
/usr/local/bin/lcg serve \ /usr/local/bin/lcg serve \
--host "${LCG_SERVER_HOST}" \ --host "${LCG_SERVER_HOST}" \
@@ -135,37 +94,6 @@ if ! kill -0 $LCG_PID 2>/dev/null; then
fi fi
log "LCG сервер запущен на http://${LCG_SERVER_HOST}:${LCG_SERVER_PORT}" log "LCG сервер запущен на http://${LCG_SERVER_HOST}:${LCG_SERVER_PORT}"
log "Ollama сервер доступен на http://${OLLAMA_HOST}:${OLLAMA_PORT}"
log "=========================================="
log "Сервисы запущены и готовы к работе!"
log "=========================================="
# Функция для проверки здоровья процессов
health_check() {
while true; do
# Проверяем Ollama
if ! kill -0 $OLLAMA_PID 2>/dev/null; then
error "Ollama процесс завершился неожиданно"
kill $LCG_PID 2>/dev/null || true
exit 1
fi
# Проверяем LCG
if ! kill -0 $LCG_PID 2>/dev/null; then
error "LCG процесс завершился неожиданно"
kill $OLLAMA_PID 2>/dev/null || true
exit 1
fi
sleep 10
done
}
# Запускаем проверку здоровья в фоне
health_check &
HEALTH_CHECK_PID=$!
# Ждем завершения процессов
wait $LCG_PID $OLLAMA_PID
kill $HEALTH_CHECK_PID 2>/dev/null || true
# Запускаем переданные аргументы
exec "$@"

View File

@@ -1 +1 @@
v2.0.15 v.2.0.16

View File

@@ -27,6 +27,7 @@ type Config struct {
ResultHistory string ResultHistory string
NoHistoryEnv string NoHistoryEnv string
AllowExecution bool AllowExecution bool
Query string
MainFlags MainFlags MainFlags MainFlags
Server ServerConfig Server ServerConfig
Validation ValidationConfig Validation ValidationConfig

View File

@@ -1 +1 @@
v2.0.15 v.2.0.16

View File

@@ -5,7 +5,7 @@ metadata:
namespace: lcg namespace: lcg
data: data:
# Основные настройки # Основные настройки
LCG_VERSION: "v2.0.14" LCG_VERSION: "v.2.0.16"
LCG_BASE_PATH: "/lcg" LCG_BASE_PATH: "/lcg"
LCG_SERVER_HOST: "0.0.0.0" LCG_SERVER_HOST: "0.0.0.0"
LCG_SERVER_PORT: "8080" LCG_SERVER_PORT: "8080"

View File

@@ -5,7 +5,7 @@ metadata:
namespace: lcg namespace: lcg
labels: labels:
app: lcg app: lcg
version: v2.0.14 version: v.2.0.16
spec: spec:
replicas: 1 replicas: 1
selector: selector:
@@ -18,7 +18,7 @@ spec:
spec: spec:
containers: containers:
- name: lcg - name: lcg
image: kuznetcovay/lcg:v2.0.14 image: kuznetcovay/lcg:v.2.0.16
imagePullPolicy: Always imagePullPolicy: Always
ports: ports:
- containerPort: 8080 - containerPort: 8080

View File

@@ -15,11 +15,11 @@ resources:
# Common labels # Common labels
# commonLabels: # commonLabels:
# app: lcg # app: lcg
# version: v2.0.14 # version: v.2.0.16
# managed-by: kustomize # managed-by: kustomize
# Images # Images
# images: # images:
# - name: lcg # - name: lcg
# newName: kuznetcovay/lcg # newName: kuznetcovay/lcg
# newTag: v2.0.14 # newTag: v.2.0.16

80
main.go
View File

@@ -9,6 +9,7 @@ import (
"os/exec" "os/exec"
"os/user" "os/user"
"path/filepath" "path/filepath"
"slices"
"strconv" "strconv"
"strings" "strings"
"time" "time"
@@ -76,6 +77,12 @@ func main() {
Usage: config.AppConfig.AppName + " - Генерация Linux команд из описаний", Usage: config.AppConfig.AppName + " - Генерация Linux команд из описаний",
Version: Version, Version: Version,
Commands: getCommands(), Commands: getCommands(),
Before: func(c *cli.Context) error {
// Применяем флаги приложения к конфигурации перед выполнением любой команды
// Это гарантирует, что флаги будут применены даже для команд, которые не используют основной Action
applyAppFlagsToConfig(c)
return nil
},
UsageText: ` UsageText: `
lcg [опции] <описание команды> lcg [опции] <описание команды>
@@ -144,12 +151,25 @@ lcg [опции] <описание команды>
Aliases: []string{"f"}, Aliases: []string{"f"},
Usage: "Read part of the command from a file", Usage: "Read part of the command from a file",
}, },
&cli.StringFlag{
Name: "model",
Aliases: []string{"M"},
DefaultText: "Use model from LCG_MODEL or default model",
Usage: "Model to use",
},
&cli.BoolFlag{ &cli.BoolFlag{
Name: "no-history", Name: "no-history",
Aliases: []string{"nh"}, Aliases: []string{"nh"},
Usage: "Disable writing/updating command history (overrides LCG_NO_HISTORY)", Usage: "Disable writing/updating command history (overrides LCG_NO_HISTORY)",
Value: false, Value: false,
}, },
&cli.StringFlag{
Name: "query",
Aliases: []string{"Q"},
Usage: "Query to send to the model",
DefaultText: "Hello? what day is it today?",
Value: "Hello? what day is it today?",
},
&cli.StringFlag{ &cli.StringFlag{
Name: "sys", Name: "sys",
Aliases: []string{"s"}, Aliases: []string{"s"},
@@ -181,16 +201,25 @@ lcg [опции] <описание команды>
Action: func(c *cli.Context) error { Action: func(c *cli.Context) error {
file := c.String("file") file := c.String("file")
system := c.String("sys") system := c.String("sys")
model := c.String("model")
query := c.String("query")
// обновляем конфиг на основе флагов // обновляем конфиг на основе флагов
if system != "" { if c.IsSet("sys") && system != "" {
config.AppConfig.Prompt = system config.AppConfig.Prompt = system
} }
if c.IsSet("query") && query != "" {
config.AppConfig.Query = query
}
if c.IsSet("timeout") { if c.IsSet("timeout") {
config.AppConfig.Timeout = fmt.Sprintf("%d", c.Int("timeout")) config.AppConfig.Timeout = fmt.Sprintf("%d", c.Int("timeout"))
} }
if c.IsSet("model") {
config.AppConfig.Model = model
}
promptID := c.Int("prompt-id") promptID := c.Int("prompt-id")
timeout := c.Int("timeout") timeout := c.Int("timeout")
// сохраняем конкретные значения флагов
config.AppConfig.MainFlags = config.MainFlags{ config.AppConfig.MainFlags = config.MainFlags{
File: file, File: file,
NoHistory: c.Bool("no-history"), NoHistory: c.Bool("no-history"),
@@ -203,12 +232,9 @@ lcg [опции] <описание команды>
config.AppConfig.MainFlags.Debug = config.AppConfig.MainFlags.Debug || config.GetEnvBool("LCG_DEBUG", false) config.AppConfig.MainFlags.Debug = config.AppConfig.MainFlags.Debug || config.GetEnvBool("LCG_DEBUG", false)
// fmt.Println("Debug:", config.AppConfig.MainFlags.Debug)
// fmt.Println("LCG_DEBUG:", config.GetEnvBool("LCG_DEBUG", false))
args := c.Args().Slice() args := c.Args().Slice()
if len(args) == 0 { if len(args) == 0 && config.AppConfig.Query == "" {
cli.ShowAppHelp(c) cli.ShowAppHelp(c)
showTips() showTips()
return nil return nil
@@ -231,6 +257,12 @@ lcg [опции] <описание команды>
os.Exit(1) os.Exit(1)
} }
} }
if config.AppConfig.Query != "" {
executeMain(file, system, config.AppConfig.Query, timeout)
return nil
}
executeMain(file, system, strings.Join(args, " "), timeout) executeMain(file, system, strings.Join(args, " "), timeout)
return nil return nil
}, },
@@ -251,6 +283,31 @@ lcg [опции] <описание команды>
} }
} }
// applyAppFlagsToConfig применяет флаги приложения к конфигурации
// Работает как для основного Action, так и для команд
func applyAppFlagsToConfig(c *cli.Context) {
// Применяем флаг model - проверяем и через IsSet, и значение напрямую
// так как IsSet может не работать для флагов без значения по умолчанию
if model := c.String("model"); model != "" {
config.AppConfig.Model = model
}
// Применяем флаг sys
if sys := c.String("sys"); sys != "" {
config.AppConfig.Prompt = sys
}
// Применяем флаг timeout (только если явно установлен)
if c.IsSet("timeout") {
config.AppConfig.Timeout = fmt.Sprintf("%d", c.Int("timeout"))
}
// Применяем флаг query (игнорируем значение по умолчанию)
if query := c.String("query"); query != "" && query != "Hello? what day is it today?" {
config.AppConfig.Query = query
}
}
func getCommands() []*cli.Command { func getCommands() []*cli.Command {
commands := []*cli.Command{ commands := []*cli.Command{
{ {
@@ -390,6 +447,10 @@ func getCommands() []*cli.Command {
}, },
}, },
Action: func(c *cli.Context) error { Action: func(c *cli.Context) error {
// Флаги приложения уже применены через глобальный Before hook
// Но применяем их еще раз на случай, если глобальный Before не сработал
applyAppFlagsToConfig(c)
if c.Bool("full") { if c.Bool("full") {
// Выводим полную конфигурацию в JSON формате // Выводим полную конфигурацию в JSON формате
showFullConfig() showFullConfig()
@@ -1027,12 +1088,7 @@ func getServerAllowHTTPForHost(host string) bool {
// isSecureHost проверяет, является ли хост безопасным для HTTP // isSecureHost проверяет, является ли хост безопасным для HTTP
func isSecureHost(host string) bool { func isSecureHost(host string) bool {
secureHosts := []string{"localhost", "127.0.0.1", "::1"} secureHosts := []string{"localhost", "127.0.0.1", "::1"}
for _, secureHost := range secureHosts { return slices.Contains(secureHosts, host)
if host == secureHost {
return true
}
}
return false
} }
// showShortConfig показывает краткую конфигурацию // showShortConfig показывает краткую конфигурацию