mirror of
https://github.com/Direct-Dev-Ru/go-lcg.git
synced 2025-11-16 01:29:55 +00:00
Compare commits
29 Commits
| Author | SHA1 | Date | |
|---|---|---|---|
| 9365e0833c | |||
| 731784b420 | |||
| 57f51c5d0e | |||
| a78e1d24bf | |||
| d0b53607c4 | |||
| 487f3d484c | |||
| 814ca9ba7f | |||
| c975e00c50 | |||
| 01488edbee | |||
| 63876a393c | |||
| eb9a7dcf32 | |||
| 49a41c597a | |||
| 93f60c4e36 | |||
| 8cdb31d96d | |||
| a20fb846f0 | |||
| 90cfc6fb0c | |||
| 114146f4d2 | |||
| b4b902cb4c | |||
| 7933abe62d | |||
| d213de7a95 | |||
| 81b01d74ae | |||
| 1fbdd237a3 | |||
| 2d82b91090 | |||
| 5d3829d1fe | |||
| edadedcf80 | |||
| 5ff6d4e072 | |||
| ffc2d6ba0a | |||
| dab94df7d2 | |||
| 281f7f877a |
@@ -1,32 +0,0 @@
|
||||
# Goreleaser configuration version 2
|
||||
version: 2
|
||||
|
||||
builds:
|
||||
- id: lcg
|
||||
binary: "lcg_{{ .Version }}"
|
||||
goos:
|
||||
- linux
|
||||
- windows
|
||||
- darwin
|
||||
goarch:
|
||||
- amd64
|
||||
- arm64
|
||||
env:
|
||||
- CGO_ENABLED=0
|
||||
ldflags:
|
||||
- -s -w
|
||||
- -X main.version={{.Version}}
|
||||
- -X main.commit={{.Commit}}
|
||||
- -X main.date={{.Date}}
|
||||
main: .
|
||||
dir: .
|
||||
|
||||
archives:
|
||||
- id: lcg
|
||||
ids:
|
||||
- lcg
|
||||
formats:
|
||||
- binary
|
||||
name_template: "{{ .Binary }}_{{ .Os }}_{{ .Arch }}"
|
||||
files:
|
||||
- "lcg_{{ .Version }}"
|
||||
@@ -1,74 +1,83 @@
|
||||
# Multi-stage build для LCG с Ollama
|
||||
FROM golang:1.24.6-alpine3.22 AS builder
|
||||
# Используем готовый образ Ollama
|
||||
FROM localhost/ollama_packed:latest
|
||||
|
||||
WORKDIR /build
|
||||
# Устанавливаем bash если его нет (базовый образ ollama может быть на разных дистрибутивах)
|
||||
RUN if ! command -v bash >/dev/null 2>&1; then \
|
||||
if command -v apk >/dev/null 2>&1; then \
|
||||
apk add --no-cache bash; \
|
||||
elif command -v apt-get >/dev/null 2>&1; then \
|
||||
apt-get update && apt-get install -y --no-install-recommends bash && rm -rf /var/lib/apt/lists/*; \
|
||||
fi; \
|
||||
fi
|
||||
|
||||
# Копируем файлы зависимостей
|
||||
COPY go.mod go.sum ./
|
||||
RUN go mod download
|
||||
|
||||
# Копируем исходный код
|
||||
COPY . .
|
||||
|
||||
# Собираем бинарник
|
||||
RUN CGO_ENABLED=0 GOOS=linux go build -ldflags="-w -s -buildid=" -trimpath -o /build/lcg .
|
||||
|
||||
# Финальный образ с Ollama
|
||||
FROM alpine:3.22
|
||||
|
||||
# Устанавливаем необходимые пакеты
|
||||
RUN apk add --no-cache \
|
||||
curl \
|
||||
ca-certificates \
|
||||
bash \
|
||||
&& rm -rf /var/cache/apk/*
|
||||
|
||||
# Устанавливаем Ollama 0.9.5 (поддержка разных архитектур)
|
||||
# Определяем архитектуру для копирования правильного бинарника
|
||||
ARG TARGETARCH
|
||||
RUN case ${TARGETARCH} in \
|
||||
amd64) OLLAMA_ARCH=amd64 ;; \
|
||||
arm64) OLLAMA_ARCH=arm64 ;; \
|
||||
arm) OLLAMA_ARCH=arm64 ;; \
|
||||
*) echo "Unsupported architecture: ${TARGETARCH}" && exit 1 ;; \
|
||||
ARG TARGETOS=linux
|
||||
|
||||
# Копируем папку dist с бинарниками
|
||||
# Структура: dist/lcg_linux_amd64_v1/lcg_* или dist/lcg_linux_arm64_v8.0/lcg_*
|
||||
COPY dist/ /tmp/dist/
|
||||
|
||||
# Выбираем правильный бинарник в зависимости от архитектуры
|
||||
# Если TARGETARCH не установлен, определяем архитектуру через uname
|
||||
RUN ARCH="${TARGETARCH:-$(uname -m)}" && \
|
||||
case "${ARCH}" in \
|
||||
amd64|x86_64) \
|
||||
BIN_FILE=$(find /tmp/dist/lcg_linux_amd64_v* -name "lcg_*" -type f 2>/dev/null | head -1) && \
|
||||
if [ -n "$BIN_FILE" ]; then \
|
||||
cp "$BIN_FILE" /usr/local/bin/lcg && \
|
||||
echo "Установлен бинарник для amd64: $BIN_FILE"; \
|
||||
else \
|
||||
echo "Бинарник для amd64 не найден в /tmp/dist/" && exit 1; \
|
||||
fi ;; \
|
||||
arm64|aarch64|arm) \
|
||||
BIN_FILE=$(find /tmp/dist/lcg_linux_arm64_v* -name "lcg_*" -type f 2>/dev/null | head -1) && \
|
||||
if [ -n "$BIN_FILE" ]; then \
|
||||
cp "$BIN_FILE" /usr/local/bin/lcg && \
|
||||
echo "Установлен бинарник для arm64: $BIN_FILE"; \
|
||||
else \
|
||||
echo "Бинарник для arm64 не найден в /tmp/dist/" && exit 1; \
|
||||
fi ;; \
|
||||
*) \
|
||||
echo "Unsupported architecture: ${ARCH}" && \
|
||||
echo "Доступные бинарники:" && \
|
||||
find /tmp/dist -name "lcg_*" -type f 2>/dev/null && \
|
||||
exit 1 ;; \
|
||||
esac && \
|
||||
curl -L https://github.com/ollama/ollama/releases/download/v0.9.5/ollama-linux-${OLLAMA_ARCH} -o /usr/local/bin/ollama \
|
||||
&& chmod +x /usr/local/bin/ollama
|
||||
|
||||
# Создаем пользователя для запуска сервисов
|
||||
RUN addgroup -g 1000 ollama && \
|
||||
adduser -D -u 1000 -G ollama ollama && \
|
||||
mkdir -p /home/ollama/.ollama && \
|
||||
chown -R ollama:ollama /home/ollama
|
||||
|
||||
# Копируем бинарник lcg
|
||||
COPY --from=builder /build/lcg /usr/local/bin/lcg
|
||||
RUN chmod +x /usr/local/bin/lcg
|
||||
chmod +x /usr/local/bin/lcg && \
|
||||
rm -rf /tmp/dist && \
|
||||
(lcg --version || echo "Бинарник lcg установлен")
|
||||
|
||||
# Копируем entrypoint скрипт
|
||||
COPY --chmod=755 Dockerfiles/OllamaServer/entrypoint.sh /entrypoint.sh
|
||||
|
||||
# Создаем директории для данных
|
||||
RUN mkdir -p /app/data/results /app/data/prompts /app/data/config \
|
||||
&& chown -R ollama:ollama /app/data
|
||||
# Создаем директории для данных LCG
|
||||
# В базовом образе ollama уже есть пользователь ollama
|
||||
RUN mkdir -p /app/data/results /app/data/prompts /app/data/config
|
||||
|
||||
# Устанавливаем права доступа (пользователь ollama должен существовать в базовом образе)
|
||||
RUN chown -R ollama:ollama /app/data 2>/dev/null || \
|
||||
(chown -R 1000:1000 /app/data 2>/dev/null || true)
|
||||
|
||||
# Настройки по умолчанию
|
||||
ENV TZ='Asia/Omsk'
|
||||
RUN ln -snf /usr/share/zoneinfo/$TZ /etc/localtime && echo $TZ > /etc/timezone
|
||||
ENV LCG_PROVIDER=ollama
|
||||
ENV LCG_HOST=http://127.0.0.1:11434/
|
||||
ENV LCG_MODEL=codegeex4
|
||||
ENV LCG_MODEL=qwen2.5-coder:1.5b
|
||||
ENV LCG_RESULT_FOLDER=/app/data/results
|
||||
ENV LCG_PROMPT_FOLDER=/app/data/prompts
|
||||
ENV LCG_CONFIG_FOLDER=/app/data/config
|
||||
ENV LCG_SERVER_HOST=0.0.0.0
|
||||
ENV LCG_SERVER_PORT=8080
|
||||
ENV LCG_SERVER_ALLOW_HTTP=true
|
||||
ENV OLLAMA_HOST=0.0.0.0
|
||||
ENV OLLAMA_PORT=11434
|
||||
ENV LCG_DOMAIN="remote.ollama-server.ru"
|
||||
ENV LCG_COOKIE_PATH="/lcg"
|
||||
# ENV LCG_SERVER_ALLOW_HTTP=true
|
||||
# ENV OLLAMA_HOST=127.0.0.1
|
||||
# ENV OLLAMA_PORT=11434
|
||||
|
||||
# Expose порты
|
||||
EXPOSE 8080 11434
|
||||
|
||||
# Переключаемся на пользователя ollama
|
||||
USER ollama
|
||||
EXPOSE 8080
|
||||
|
||||
WORKDIR /home/ollama
|
||||
|
||||
|
||||
@@ -23,37 +23,54 @@ help: ## Показать справку
|
||||
@echo " make podman-compose-up - Запустить через podman-compose"
|
||||
@echo " make podman-compose-down - Остановить podman-compose"
|
||||
|
||||
build: ## Собрать Docker образ
|
||||
build: ## Собрать Docker образ (требует собранных бинарников в dist/)
|
||||
@echo "⚠️ Убедитесь, что бинарники собраны: goreleaser build --snapshot --clean"
|
||||
docker build -f $(DOCKERFILE) -t $(IMAGE_NAME):$(IMAGE_TAG) $(CONTEXT)
|
||||
@echo "Образ $(IMAGE_NAME):$(IMAGE_TAG) успешно собран"
|
||||
|
||||
build-podman: ## Собрать Podman образ
|
||||
build-podman: ## Собрать Podman образ (требует собранных бинарников в dist/)
|
||||
@echo "⚠️ Убедитесь, что бинарники собраны: goreleaser build --snapshot --clean"
|
||||
podman build -f $(DOCKERFILE) -t $(IMAGE_NAME):$(IMAGE_TAG) $(CONTEXT)
|
||||
@echo "Образ $(IMAGE_NAME):$(IMAGE_TAG) успешно собран"
|
||||
|
||||
build-binaries: ## Собрать бинарники перед сборкой образа
|
||||
@echo "Сборка бинарников..."
|
||||
cd $(CONTEXT) && goreleaser build --snapshot --clean
|
||||
@echo "Бинарники собраны в $(CONTEXT)/dist/"
|
||||
|
||||
build-all: build-binaries build ## Собрать бинарники и Docker образ
|
||||
@echo "✅ Все готово!"
|
||||
|
||||
build-all-podman: build-binaries build-podman ## Собрать бинарники и Podman образ
|
||||
@echo "✅ Все готово!"
|
||||
|
||||
run: ## Запустить контейнер (Docker)
|
||||
docker run -d \
|
||||
--name $(CONTAINER_NAME) \
|
||||
-p 8080:8080 \
|
||||
-p 11434:11434 \
|
||||
--name ${CONTAINER_NAME} \
|
||||
-p 8989:8080 \
|
||||
-v ollama-data:/home/ollama/.ollama \
|
||||
-v lcg-results:/app/data/results \
|
||||
-v lcg-prompts:/app/data/prompts \
|
||||
-v lcg-config:/app/data/config \
|
||||
$(IMAGE_NAME):$(IMAGE_TAG)
|
||||
@echo "Контейнер $(CONTAINER_NAME) запущен"
|
||||
${IMAGE_NAME}:${IMAGE_TAG}
|
||||
@echo "Контейнер ${CONTAINER_NAME} запущен"
|
||||
|
||||
run-podman: ## Запустить контейнер (Podman)
|
||||
echo "Запустить контейнер ${CONTAINER_NAME}"
|
||||
echo "IMAGE_NAME: ${IMAGE_NAME}"
|
||||
echo "IMAGE_TAG: ${IMAGE_TAG}"
|
||||
echo "CONTAINER_NAME: ${CONTAINER_NAME}"
|
||||
|
||||
podman run -d \
|
||||
--name $(CONTAINER_NAME) \
|
||||
-p 8080:8080 \
|
||||
-p 11434:11434 \
|
||||
--name ${CONTAINER_NAME} \
|
||||
--restart always \
|
||||
-p 8989:8080 \
|
||||
-v ollama-data:/home/ollama/.ollama \
|
||||
-v lcg-results:/app/data/results \
|
||||
-v lcg-prompts:/app/data/prompts \
|
||||
-v lcg-config:/app/data/config \
|
||||
$(IMAGE_NAME):$(IMAGE_TAG)
|
||||
@echo "Контейнер $(CONTAINER_NAME) запущен"
|
||||
${IMAGE_NAME}:${IMAGE_TAG}
|
||||
@echo "Контейнер ${CONTAINER_NAME} запущен"
|
||||
|
||||
stop: ## Остановить контейнер (Docker)
|
||||
docker stop $(CONTAINER_NAME) || true
|
||||
|
||||
@@ -4,7 +4,17 @@
|
||||
|
||||
1. Убедитесь, что у вас установлен Docker или Podman
|
||||
2. Клонируйте репозиторий (если еще не сделали)
|
||||
3. Перейдите в папку с Dockerfile
|
||||
3. Соберите бинарники (требуется перед сборкой образа)
|
||||
|
||||
```bash
|
||||
# Из корня проекта
|
||||
goreleaser build --snapshot --clean
|
||||
|
||||
# Или используйте скрипт
|
||||
./deploy/4.build-binaries.sh v2.0.15
|
||||
```
|
||||
|
||||
4. Перейдите в папку с Dockerfile
|
||||
|
||||
```bash
|
||||
cd Dockerfiles/OllamaServer
|
||||
@@ -15,14 +25,16 @@ cd Dockerfiles/OllamaServer
|
||||
### Вариант 1: Docker Compose (рекомендуется)
|
||||
|
||||
```bash
|
||||
# Важно: убедитесь, что бинарники собраны в ../../dist/
|
||||
docker-compose up -d
|
||||
```
|
||||
|
||||
### Вариант 2: Ручная сборка и запуск
|
||||
|
||||
```bash
|
||||
# Сборка образа
|
||||
docker build -f Dockerfile -t lcg-ollama:latest ../..
|
||||
# Сборка образа (контекст должен быть корень проекта)
|
||||
cd ../.. # Переходим в корень проекта
|
||||
docker build -f Dockerfiles/OllamaServer/Dockerfile -t lcg-ollama:latest .
|
||||
|
||||
# Запуск контейнера
|
||||
docker run -d \
|
||||
@@ -45,8 +57,9 @@ podman-compose -f podman-compose.yml up -d
|
||||
### Вариант 2: Ручная сборка и запуск
|
||||
|
||||
```bash
|
||||
# Сборка образа
|
||||
podman build -f Dockerfile -t lcg-ollama:latest ../..
|
||||
# Сборка образа (контекст должен быть корень проекта)
|
||||
cd ../.. # Переходим в корень проекта
|
||||
podman build -f Dockerfiles/OllamaServer/Dockerfile -t lcg-ollama:latest .
|
||||
|
||||
# Запуск контейнера
|
||||
podman run -d \
|
||||
|
||||
@@ -7,62 +7,111 @@
|
||||
## 📋 Описание
|
||||
|
||||
Контейнер автоматически запускает:
|
||||
1. **Ollama сервер** (v0.9.5) на порту 11434
|
||||
2. **LCG веб-сервер** на порту 8080
|
||||
|
||||
1 **Ollama сервер** (v0.9.5) на порту 11434
|
||||
|
||||
2 **LCG веб-сервер** на порту 8080
|
||||
|
||||
Ollama используется как провайдер LLM для генерации Linux команд.
|
||||
|
||||
## 🚀 Быстрый старт
|
||||
|
||||
### Предварительные требования
|
||||
|
||||
Перед сборкой Docker образа необходимо собрать бинарники:
|
||||
|
||||
```bash
|
||||
# Из корня проекта
|
||||
# Используйте goreleaser для сборки бинарников
|
||||
goreleaser build --snapshot --clean
|
||||
|
||||
# Или используйте скрипт сборки
|
||||
./deploy/4.build-binaries.sh v2.0.15
|
||||
```
|
||||
|
||||
Убедитесь, что в папке `dist/` есть бинарники:
|
||||
|
||||
- `dist/lcg_linux_amd64_v1/lcg_*` для amd64
|
||||
- `dist/lcg_linux_arm64_v8.0/lcg_*` для arm64
|
||||
|
||||
### Сборка образа
|
||||
|
||||
#### Docker
|
||||
|
||||
```bash
|
||||
# Из корня проекта
|
||||
# Из корня проекта (важно: контекст должен быть корень проекта)
|
||||
docker build -f Dockerfiles/OllamaServer/Dockerfile -t lcg-ollama:latest .
|
||||
|
||||
# Или с указанием архитектуры
|
||||
docker buildx build \
|
||||
--platform linux/amd64,linux/arm64 \
|
||||
-f Dockerfiles/OllamaServer/Dockerfile \
|
||||
-t lcg-ollama:latest .
|
||||
```
|
||||
|
||||
#### Podman
|
||||
|
||||
```bash
|
||||
# Из корня проекта
|
||||
podman build -f Dockerfiles/OllamaServer/Dockerfile -t lcg-ollama:latest .
|
||||
|
||||
# Или с указанием архитектуры
|
||||
podman build \
|
||||
--platform linux/amd64,linux/arm64 \
|
||||
-f Dockerfiles/OllamaServer/Dockerfile \
|
||||
-t lcg-ollama:latest .
|
||||
```
|
||||
|
||||
### Запуск контейнера
|
||||
|
||||
#### Docker
|
||||
#### Docker run
|
||||
|
||||
```bash
|
||||
docker run -d \
|
||||
--name lcg-ollama \
|
||||
-p 8080:8080 \
|
||||
-p 11434:11434 \
|
||||
-p 8080:8080 \
|
||||
lcg-ollama:latest
|
||||
ollama serve
|
||||
```
|
||||
|
||||
#### Podman
|
||||
#### Podman run
|
||||
|
||||
```bash
|
||||
podman run -d \
|
||||
--name lcg-ollama \
|
||||
-p 8080:8080 \
|
||||
-p 11434:11434 \
|
||||
lcg-ollama:latest
|
||||
-p 8989:8080 \
|
||||
--restart always \
|
||||
lcg-ollama:latest \
|
||||
ollama serve
|
||||
```
|
||||
|
||||
когда контейнер запущен на удаленном хосте - можете воспользоваться консольными возможностями утилиты lcg следующим образом
|
||||
|
||||
``` bash
|
||||
ssh user@[host_where_contaier_running] 'podman exec -it $(podman ps -q --filter \"ancestor=localhost/lcg-ollama:latest\") lcg [your query]
|
||||
```
|
||||
|
||||
``` bash
|
||||
ssh user@[host_where_contaier_running] 'podman exec -it $(podman ps -q --filter "ancestor=localhost/lcg-ollama:latest") /bin/sh -c "export LCG_MODEL=qwen3:0.6b && lcg config --full"'
|
||||
|
||||
### Использование docker-compose / podman-compose
|
||||
|
||||
#### Docker Compose
|
||||
|
||||
```bash
|
||||
cd Dockerfiles/OllamaServer
|
||||
docker-compose up -d
|
||||
```
|
||||
|
||||
#### Podman Compose
|
||||
|
||||
```bash
|
||||
cd Dockerfiles/OllamaServer
|
||||
podman-compose -f podman-compose.yml up -d
|
||||
```
|
||||
|
||||
Или используйте встроенную поддержку Podman:
|
||||
|
||||
```bash
|
||||
cd Dockerfiles/OllamaServer
|
||||
podman play kube podman-compose.yml
|
||||
@@ -72,8 +121,8 @@ podman play kube podman-compose.yml
|
||||
|
||||
После запуска контейнера доступны:
|
||||
|
||||
- **LCG веб-интерфейс**: http://localhost:8080
|
||||
- **Ollama API**: http://localhost:11434
|
||||
- **LCG веб-интерфейс**: <http://localhost:8080>
|
||||
- **Ollama API**: <http://localhost:11434>
|
||||
|
||||
## ⚙️ Переменные окружения
|
||||
|
||||
@@ -278,7 +327,8 @@ podman logs -f lcg-ollama
|
||||
|
||||
### Просмотр логов
|
||||
|
||||
#### Docker
|
||||
#### Docker log
|
||||
|
||||
```bash
|
||||
# Логи контейнера
|
||||
docker logs lcg-ollama
|
||||
@@ -287,7 +337,8 @@ docker logs lcg-ollama
|
||||
docker logs -f lcg-ollama
|
||||
```
|
||||
|
||||
#### Podman
|
||||
#### Podman log
|
||||
|
||||
```bash
|
||||
# Логи контейнера
|
||||
podman logs lcg-ollama
|
||||
@@ -298,24 +349,28 @@ podman logs -f lcg-ollama
|
||||
|
||||
### Подключение к контейнеру
|
||||
|
||||
#### Docker
|
||||
#### Docker exec
|
||||
|
||||
```bash
|
||||
docker exec -it lcg-ollama sh
|
||||
```
|
||||
|
||||
#### Podman
|
||||
#### Podman exec
|
||||
|
||||
```bash
|
||||
podman exec -it lcg-ollama sh
|
||||
```
|
||||
|
||||
### Проверка процессов
|
||||
|
||||
#### Docker
|
||||
#### Docker check ps
|
||||
|
||||
```bash
|
||||
docker exec lcg-ollama ps aux
|
||||
```
|
||||
|
||||
#### Podman
|
||||
#### Podman check ps
|
||||
|
||||
```bash
|
||||
podman exec lcg-ollama ps aux
|
||||
```
|
||||
@@ -325,6 +380,7 @@ podman exec lcg-ollama ps aux
|
||||
### Рекомендации для продакшена
|
||||
|
||||
1. **Используйте аутентификацию**:
|
||||
|
||||
```bash
|
||||
-e LCG_SERVER_REQUIRE_AUTH=true
|
||||
-e LCG_SERVER_PASSWORD=strong_password
|
||||
@@ -339,6 +395,7 @@ podman exec lcg-ollama ps aux
|
||||
- Используйте SSL сертификаты
|
||||
|
||||
4. **Ограничьте ресурсы**:
|
||||
|
||||
```bash
|
||||
docker run -d \
|
||||
--name lcg-ollama \
|
||||
@@ -390,8 +447,8 @@ docker-compose up -d
|
||||
## ❓ Поддержка
|
||||
|
||||
При возникновении проблем:
|
||||
|
||||
1. Проверьте логи: `docker logs lcg-ollama`
|
||||
2. Проверьте переменные окружения
|
||||
3. Убедитесь, что порты не заняты
|
||||
4. Проверьте, что модели загружены в Ollama
|
||||
|
||||
|
||||
@@ -19,14 +19,21 @@ Dockerfiles/OllamaServer/
|
||||
## Описание файлов
|
||||
|
||||
### Dockerfile
|
||||
Multi-stage Dockerfile, который:
|
||||
1. Собирает бинарник LCG из исходного кода
|
||||
2. Устанавливает Ollama 0.9.5
|
||||
3. Создает пользователя ollama
|
||||
4. Настраивает рабочее окружение
|
||||
|
||||
Dockerfile, который:
|
||||
|
||||
1. Использует готовый образ `ollama/ollama:0.9.5` как базовый
|
||||
2. Копирует предварительно собранный бинарник LCG из папки `dist/`
|
||||
3. Выбирает правильный бинарник в зависимости от архитектуры (amd64/arm64)
|
||||
4. Устанавливает entrypoint.sh для запуска обоих сервисов
|
||||
5. Настраивает рабочее окружение и переменные окружения
|
||||
|
||||
**Важно**: Перед сборкой образа необходимо собрать бинарники с помощью `goreleaser build --snapshot --clean`
|
||||
|
||||
### entrypoint.sh
|
||||
|
||||
Скрипт запуска, который:
|
||||
|
||||
1. Запускает Ollama сервер в фоне
|
||||
2. Ожидает готовности Ollama API
|
||||
3. Запускает LCG сервер в фоне
|
||||
@@ -34,21 +41,27 @@ Multi-stage Dockerfile, который:
|
||||
5. Корректно обрабатывает сигналы завершения
|
||||
|
||||
### docker-compose.yml / podman-compose.yml
|
||||
|
||||
Конфигурация для запуска через compose:
|
||||
|
||||
- Настройки портов
|
||||
- Переменные окружения
|
||||
- Volumes для персистентного хранения
|
||||
- Healthcheck
|
||||
|
||||
### Makefile
|
||||
|
||||
Удобные команды для:
|
||||
|
||||
- Сборки образа
|
||||
- Запуска/остановки контейнера
|
||||
- Просмотра логов
|
||||
- Работы с compose
|
||||
|
||||
### README.md
|
||||
|
||||
Полная документация с:
|
||||
|
||||
- Описанием функциональности
|
||||
- Инструкциями по установке
|
||||
- Настройками переменных окружения
|
||||
@@ -56,6 +69,7 @@ Multi-stage Dockerfile, который:
|
||||
- Решением проблем
|
||||
|
||||
### QUICKSTART.md
|
||||
|
||||
Краткое руководство для быстрого старта.
|
||||
|
||||
## Порты
|
||||
@@ -73,6 +87,7 @@ Multi-stage Dockerfile, который:
|
||||
## Переменные окружения
|
||||
|
||||
Основные переменные (см. README.md для полного списка):
|
||||
|
||||
- `LCG_PROVIDER=ollama`
|
||||
- `LCG_HOST=http://127.0.0.1:11434/`
|
||||
- `LCG_MODEL=codegeex4`
|
||||
@@ -81,31 +96,48 @@ Multi-stage Dockerfile, который:
|
||||
|
||||
## Запуск
|
||||
|
||||
### Предварительная подготовка
|
||||
|
||||
Перед сборкой образа необходимо собрать бинарники:
|
||||
|
||||
```bash
|
||||
# Из корня проекта
|
||||
goreleaser build --snapshot --clean
|
||||
```
|
||||
|
||||
Убедитесь, что в папке `dist/` есть бинарники для нужных архитектур.
|
||||
|
||||
### Docker
|
||||
|
||||
```bash
|
||||
cd Dockerfiles/OllamaServer
|
||||
docker-compose up -d
|
||||
```
|
||||
|
||||
### Podman
|
||||
|
||||
```bash
|
||||
cd Dockerfiles/OllamaServer
|
||||
podman-compose -f podman-compose.yml up -d
|
||||
```
|
||||
|
||||
### Make
|
||||
|
||||
```bash
|
||||
cd Dockerfiles/OllamaServer
|
||||
make compose-up
|
||||
# или
|
||||
make build-all # Собрать бинарники и Docker образ
|
||||
make compose-up # Запустить через docker-compose
|
||||
|
||||
# Или для Podman
|
||||
make build-all-podman
|
||||
make podman-compose-up
|
||||
```
|
||||
|
||||
## Архитектура
|
||||
|
||||
Контейнер запускает два сервиса:
|
||||
|
||||
1. **Ollama** (порт 11434) - LLM сервер
|
||||
2. **LCG** (порт 8080) - Веб-интерфейс и API
|
||||
|
||||
Оба сервиса работают в одном контейнере и общаются через localhost.
|
||||
|
||||
|
||||
@@ -3,8 +3,9 @@ version: '3.8'
|
||||
services:
|
||||
lcg-ollama:
|
||||
build:
|
||||
context: ../..
|
||||
context: ../.. # Контекст сборки - корень проекта (для доступа к dist/)
|
||||
dockerfile: Dockerfiles/OllamaServer/Dockerfile
|
||||
# TARGETARCH определяется автоматически Docker на основе платформы хоста
|
||||
container_name: lcg-ollama
|
||||
ports:
|
||||
- "8080:8080" # LCG веб-сервер
|
||||
|
||||
@@ -32,10 +32,6 @@ cleanup() {
|
||||
kill $LCG_PID 2>/dev/null || true
|
||||
wait $LCG_PID 2>/dev/null || true
|
||||
fi
|
||||
if [ ! -z "$OLLAMA_PID" ]; then
|
||||
kill $OLLAMA_PID 2>/dev/null || true
|
||||
wait $OLLAMA_PID 2>/dev/null || true
|
||||
fi
|
||||
log "Сервисы остановлены"
|
||||
exit 0
|
||||
}
|
||||
@@ -48,11 +44,6 @@ if [ ! -f /usr/local/bin/lcg ]; then
|
||||
exit 1
|
||||
fi
|
||||
|
||||
# Проверка наличия Ollama
|
||||
if [ ! -f /usr/local/bin/ollama ]; then
|
||||
error "Ollama не найден в /usr/local/bin/ollama"
|
||||
exit 1
|
||||
fi
|
||||
|
||||
# Создаем необходимые директории
|
||||
mkdir -p "${LCG_RESULT_FOLDER:-/app/data/results}"
|
||||
@@ -66,8 +57,8 @@ export OLLAMA_ORIGINS="*"
|
||||
|
||||
# Настройка переменных окружения для LCG
|
||||
export LCG_PROVIDER="${LCG_PROVIDER:-ollama}"
|
||||
export LCG_HOST="${LCG_HOST:-http://127.0.0.1:11434/}"
|
||||
export LCG_MODEL="${LCG_MODEL:-codegeex4}"
|
||||
export LCG_HOST="${LCG_HOST:-http://0.0.0.0:11434/}"
|
||||
export LCG_MODEL="${LCG_MODEL:-qwen2.5-coder:1.5b}"
|
||||
export LCG_RESULT_FOLDER="${LCG_RESULT_FOLDER:-/app/data/results}"
|
||||
export LCG_PROMPT_FOLDER="${LCG_PROMPT_FOLDER:-/app/data/prompts}"
|
||||
export LCG_CONFIG_FOLDER="${LCG_CONFIG_FOLDER:-/app/data/config}"
|
||||
@@ -85,39 +76,7 @@ info "LCG Server: http://${LCG_SERVER_HOST}:${LCG_SERVER_PORT}"
|
||||
info "Ollama Host: $OLLAMA_HOST:$OLLAMA_PORT"
|
||||
log "=========================================="
|
||||
|
||||
# Запускаем Ollama сервер в фоне
|
||||
log "Запуск Ollama сервера..."
|
||||
/usr/local/bin/ollama serve &
|
||||
OLLAMA_PID=$!
|
||||
|
||||
# Ждем, пока Ollama запустится
|
||||
log "Ожидание запуска Ollama сервера..."
|
||||
sleep 5
|
||||
|
||||
# Проверяем, что Ollama запущен
|
||||
if ! kill -0 $OLLAMA_PID 2>/dev/null; then
|
||||
error "Ollama сервер не запустился"
|
||||
exit 1
|
||||
fi
|
||||
|
||||
# Проверяем доступность Ollama API
|
||||
max_attempts=30
|
||||
attempt=0
|
||||
while [ $attempt -lt $max_attempts ]; do
|
||||
# Проверяем через localhost, так как OLLAMA_HOST может быть 0.0.0.0
|
||||
if curl -s -f "http://127.0.0.1:${OLLAMA_PORT}/api/tags" > /dev/null 2>&1; then
|
||||
log "Ollama сервер готов!"
|
||||
break
|
||||
fi
|
||||
attempt=$((attempt + 1))
|
||||
if [ $attempt -eq $max_attempts ]; then
|
||||
error "Ollama сервер не отвечает после $max_attempts попыток"
|
||||
exit 1
|
||||
fi
|
||||
sleep 1
|
||||
done
|
||||
|
||||
# Запускаем LCG сервер в фоне
|
||||
log "Запуск LCG сервера..."
|
||||
/usr/local/bin/lcg serve \
|
||||
--host "${LCG_SERVER_HOST}" \
|
||||
@@ -135,37 +94,6 @@ if ! kill -0 $LCG_PID 2>/dev/null; then
|
||||
fi
|
||||
|
||||
log "LCG сервер запущен на http://${LCG_SERVER_HOST}:${LCG_SERVER_PORT}"
|
||||
log "Ollama сервер доступен на http://${OLLAMA_HOST}:${OLLAMA_PORT}"
|
||||
log "=========================================="
|
||||
log "Сервисы запущены и готовы к работе!"
|
||||
log "=========================================="
|
||||
|
||||
# Функция для проверки здоровья процессов
|
||||
health_check() {
|
||||
while true; do
|
||||
# Проверяем Ollama
|
||||
if ! kill -0 $OLLAMA_PID 2>/dev/null; then
|
||||
error "Ollama процесс завершился неожиданно"
|
||||
kill $LCG_PID 2>/dev/null || true
|
||||
exit 1
|
||||
fi
|
||||
|
||||
# Проверяем LCG
|
||||
if ! kill -0 $LCG_PID 2>/dev/null; then
|
||||
error "LCG процесс завершился неожиданно"
|
||||
kill $OLLAMA_PID 2>/dev/null || true
|
||||
exit 1
|
||||
fi
|
||||
|
||||
sleep 10
|
||||
done
|
||||
}
|
||||
|
||||
# Запускаем проверку здоровья в фоне
|
||||
health_check &
|
||||
HEALTH_CHECK_PID=$!
|
||||
|
||||
# Ждем завершения процессов
|
||||
wait $LCG_PID $OLLAMA_PID
|
||||
kill $HEALTH_CHECK_PID 2>/dev/null || true
|
||||
|
||||
# Запускаем переданные аргументы
|
||||
exec "$@"
|
||||
|
||||
@@ -1 +1 @@
|
||||
v2.0.15
|
||||
v.2.0.19
|
||||
|
||||
@@ -27,6 +27,7 @@ type Config struct {
|
||||
ResultHistory string
|
||||
NoHistoryEnv string
|
||||
AllowExecution bool
|
||||
Query string
|
||||
MainFlags MainFlags
|
||||
Server ServerConfig
|
||||
Validation ValidationConfig
|
||||
|
||||
@@ -1 +1 @@
|
||||
v2.0.15
|
||||
v.2.0.19
|
||||
|
||||
@@ -5,7 +5,7 @@ metadata:
|
||||
namespace: lcg
|
||||
data:
|
||||
# Основные настройки
|
||||
LCG_VERSION: "v2.0.14"
|
||||
LCG_VERSION: "v.2.0.19"
|
||||
LCG_BASE_PATH: "/lcg"
|
||||
LCG_SERVER_HOST: "0.0.0.0"
|
||||
LCG_SERVER_PORT: "8080"
|
||||
|
||||
@@ -5,7 +5,7 @@ metadata:
|
||||
namespace: lcg
|
||||
labels:
|
||||
app: lcg
|
||||
version: v2.0.14
|
||||
version: v.2.0.19
|
||||
spec:
|
||||
replicas: 1
|
||||
selector:
|
||||
@@ -18,7 +18,7 @@ spec:
|
||||
spec:
|
||||
containers:
|
||||
- name: lcg
|
||||
image: kuznetcovay/lcg:v2.0.14
|
||||
image: kuznetcovay/lcg:v.2.0.19
|
||||
imagePullPolicy: Always
|
||||
ports:
|
||||
- containerPort: 8080
|
||||
|
||||
@@ -15,11 +15,11 @@ resources:
|
||||
# Common labels
|
||||
# commonLabels:
|
||||
# app: lcg
|
||||
# version: v2.0.14
|
||||
# version: v.2.0.19
|
||||
# managed-by: kustomize
|
||||
|
||||
# Images
|
||||
# images:
|
||||
# - name: lcg
|
||||
# newName: kuznetcovay/lcg
|
||||
# newTag: v2.0.14
|
||||
# newTag: v.2.0.19
|
||||
|
||||
80
main.go
80
main.go
@@ -9,6 +9,7 @@ import (
|
||||
"os/exec"
|
||||
"os/user"
|
||||
"path/filepath"
|
||||
"slices"
|
||||
"strconv"
|
||||
"strings"
|
||||
"time"
|
||||
@@ -76,6 +77,12 @@ func main() {
|
||||
Usage: config.AppConfig.AppName + " - Генерация Linux команд из описаний",
|
||||
Version: Version,
|
||||
Commands: getCommands(),
|
||||
Before: func(c *cli.Context) error {
|
||||
// Применяем флаги приложения к конфигурации перед выполнением любой команды
|
||||
// Это гарантирует, что флаги будут применены даже для команд, которые не используют основной Action
|
||||
applyAppFlagsToConfig(c)
|
||||
return nil
|
||||
},
|
||||
UsageText: `
|
||||
lcg [опции] <описание команды>
|
||||
|
||||
@@ -144,12 +151,25 @@ lcg [опции] <описание команды>
|
||||
Aliases: []string{"f"},
|
||||
Usage: "Read part of the command from a file",
|
||||
},
|
||||
&cli.StringFlag{
|
||||
Name: "model",
|
||||
Aliases: []string{"M"},
|
||||
DefaultText: "Use model from LCG_MODEL or default model",
|
||||
Usage: "Model to use",
|
||||
},
|
||||
&cli.BoolFlag{
|
||||
Name: "no-history",
|
||||
Aliases: []string{"nh"},
|
||||
Usage: "Disable writing/updating command history (overrides LCG_NO_HISTORY)",
|
||||
Value: false,
|
||||
},
|
||||
&cli.StringFlag{
|
||||
Name: "query",
|
||||
Aliases: []string{"Q"},
|
||||
Usage: "Query to send to the model",
|
||||
DefaultText: "Hello? what day is it today?",
|
||||
Value: "Hello? what day is it today?",
|
||||
},
|
||||
&cli.StringFlag{
|
||||
Name: "sys",
|
||||
Aliases: []string{"s"},
|
||||
@@ -181,16 +201,25 @@ lcg [опции] <описание команды>
|
||||
Action: func(c *cli.Context) error {
|
||||
file := c.String("file")
|
||||
system := c.String("sys")
|
||||
model := c.String("model")
|
||||
query := c.String("query")
|
||||
// обновляем конфиг на основе флагов
|
||||
if system != "" {
|
||||
if c.IsSet("sys") && system != "" {
|
||||
config.AppConfig.Prompt = system
|
||||
}
|
||||
if c.IsSet("query") && query != "" {
|
||||
config.AppConfig.Query = query
|
||||
}
|
||||
if c.IsSet("timeout") {
|
||||
config.AppConfig.Timeout = fmt.Sprintf("%d", c.Int("timeout"))
|
||||
}
|
||||
if c.IsSet("model") {
|
||||
config.AppConfig.Model = model
|
||||
}
|
||||
|
||||
promptID := c.Int("prompt-id")
|
||||
timeout := c.Int("timeout")
|
||||
// сохраняем конкретные значения флагов
|
||||
|
||||
config.AppConfig.MainFlags = config.MainFlags{
|
||||
File: file,
|
||||
NoHistory: c.Bool("no-history"),
|
||||
@@ -203,12 +232,9 @@ lcg [опции] <описание команды>
|
||||
|
||||
config.AppConfig.MainFlags.Debug = config.AppConfig.MainFlags.Debug || config.GetEnvBool("LCG_DEBUG", false)
|
||||
|
||||
// fmt.Println("Debug:", config.AppConfig.MainFlags.Debug)
|
||||
// fmt.Println("LCG_DEBUG:", config.GetEnvBool("LCG_DEBUG", false))
|
||||
|
||||
args := c.Args().Slice()
|
||||
|
||||
if len(args) == 0 {
|
||||
if len(args) == 0 && config.AppConfig.Query == "" {
|
||||
cli.ShowAppHelp(c)
|
||||
showTips()
|
||||
return nil
|
||||
@@ -231,6 +257,12 @@ lcg [опции] <описание команды>
|
||||
os.Exit(1)
|
||||
}
|
||||
}
|
||||
|
||||
if config.AppConfig.Query != "" {
|
||||
executeMain(file, system, config.AppConfig.Query, timeout)
|
||||
return nil
|
||||
}
|
||||
|
||||
executeMain(file, system, strings.Join(args, " "), timeout)
|
||||
return nil
|
||||
},
|
||||
@@ -251,6 +283,31 @@ lcg [опции] <описание команды>
|
||||
}
|
||||
}
|
||||
|
||||
// applyAppFlagsToConfig применяет флаги приложения к конфигурации
|
||||
// Работает как для основного Action, так и для команд
|
||||
func applyAppFlagsToConfig(c *cli.Context) {
|
||||
// Применяем флаг model - проверяем и через IsSet, и значение напрямую
|
||||
// так как IsSet может не работать для флагов без значения по умолчанию
|
||||
if model := c.String("model"); model != "" {
|
||||
config.AppConfig.Model = model
|
||||
}
|
||||
|
||||
// Применяем флаг sys
|
||||
if sys := c.String("sys"); sys != "" {
|
||||
config.AppConfig.Prompt = sys
|
||||
}
|
||||
|
||||
// Применяем флаг timeout (только если явно установлен)
|
||||
if c.IsSet("timeout") {
|
||||
config.AppConfig.Timeout = fmt.Sprintf("%d", c.Int("timeout"))
|
||||
}
|
||||
|
||||
// Применяем флаг query (игнорируем значение по умолчанию)
|
||||
if query := c.String("query"); query != "" && query != "Hello? what day is it today?" {
|
||||
config.AppConfig.Query = query
|
||||
}
|
||||
}
|
||||
|
||||
func getCommands() []*cli.Command {
|
||||
commands := []*cli.Command{
|
||||
{
|
||||
@@ -390,6 +447,10 @@ func getCommands() []*cli.Command {
|
||||
},
|
||||
},
|
||||
Action: func(c *cli.Context) error {
|
||||
// Флаги приложения уже применены через глобальный Before hook
|
||||
// Но применяем их еще раз на случай, если глобальный Before не сработал
|
||||
applyAppFlagsToConfig(c)
|
||||
|
||||
if c.Bool("full") {
|
||||
// Выводим полную конфигурацию в JSON формате
|
||||
showFullConfig()
|
||||
@@ -1027,12 +1088,7 @@ func getServerAllowHTTPForHost(host string) bool {
|
||||
// isSecureHost проверяет, является ли хост безопасным для HTTP
|
||||
func isSecureHost(host string) bool {
|
||||
secureHosts := []string{"localhost", "127.0.0.1", "::1"}
|
||||
for _, secureHost := range secureHosts {
|
||||
if host == secureHost {
|
||||
return true
|
||||
}
|
||||
}
|
||||
return false
|
||||
return slices.Contains(secureHosts, host)
|
||||
}
|
||||
|
||||
// showShortConfig показывает краткую конфигурацию
|
||||
|
||||
@@ -127,7 +127,6 @@ func getTokenFromCookie(r *http.Request) (string, error) {
|
||||
func setAuthCookie(w http.ResponseWriter, token string) {
|
||||
cookie := &http.Cookie{
|
||||
Name: "auth_token",
|
||||
Domain: config.AppConfig.Server.Domain,
|
||||
Value: token,
|
||||
Path: config.AppConfig.Server.CookiePath,
|
||||
HttpOnly: true,
|
||||
|
||||
@@ -13,6 +13,13 @@ import (
|
||||
"github.com/direct-dev-ru/linux-command-gpt/config"
|
||||
)
|
||||
|
||||
const (
|
||||
// CSRFTokenLifetimeHours минимальное время жизни CSRF токена в часах (не менее 12 часов)
|
||||
CSRFTokenLifetimeHours = 12
|
||||
// CSRFTokenLifetimeSeconds минимальное время жизни CSRF токена в секундах
|
||||
CSRFTokenLifetimeSeconds = CSRFTokenLifetimeHours * 60 * 60
|
||||
)
|
||||
|
||||
// CSRFManager управляет CSRF токенами
|
||||
type CSRFManager struct {
|
||||
secretKey []byte
|
||||
@@ -113,13 +120,14 @@ func (c *CSRFManager) ValidateToken(token, userID string) bool {
|
||||
return false
|
||||
}
|
||||
|
||||
// Проверяем время жизни токена (24 часа)
|
||||
// Проверяем время жизни токена (минимум 12 часов)
|
||||
timestamp, err := parseInt64(timestampStr)
|
||||
if err != nil {
|
||||
return false
|
||||
}
|
||||
|
||||
if time.Now().Unix()-timestamp > 24*60*60 {
|
||||
// Минимальное время жизни токена: 12 часов (не менее 12 часов согласно требованиям)
|
||||
if time.Now().Unix()-timestamp > CSRFTokenLifetimeSeconds {
|
||||
return false
|
||||
}
|
||||
|
||||
@@ -153,14 +161,15 @@ func GetCSRFTokenFromCookie(r *http.Request) string {
|
||||
|
||||
// setCSRFCookie устанавливает CSRF токен в cookie
|
||||
func setCSRFCookie(w http.ResponseWriter, token string) {
|
||||
// Минимальное время жизни токена: 12 часов (не менее 12 часов согласно требованиям)
|
||||
cookie := &http.Cookie{
|
||||
Name: "csrf_token",
|
||||
Value: token,
|
||||
Path: config.AppConfig.Server.CookiePath,
|
||||
HttpOnly: true,
|
||||
Secure: config.AppConfig.Server.CookieSecure,
|
||||
SameSite: http.SameSiteLaxMode, // Более мягкий режим для reverse proxy
|
||||
MaxAge: 1 * 60 * 60,
|
||||
SameSite: http.SameSiteLaxMode, // Более мягкий режим для reverse proxy
|
||||
MaxAge: CSRFTokenLifetimeSeconds, // Минимум 12 часов в секундах
|
||||
}
|
||||
|
||||
// Добавляем домен если указан
|
||||
|
||||
@@ -72,8 +72,9 @@ var ExecutePageCSSTemplate = template.Must(template.New("execute_css").Parse(`
|
||||
text-align: center;
|
||||
}
|
||||
.header h1 {
|
||||
margin: 0;
|
||||
font-size: 2.5em;
|
||||
margin-bottom: 10px;
|
||||
font-weight: 300;
|
||||
}
|
||||
.header p {
|
||||
opacity: 0.9;
|
||||
|
||||
Reference in New Issue
Block a user