Compare commits

..

1 Commits

Author SHA1 Message Date
e54b99f6f4 v2.0.15 2025-11-08 16:02:52 +06:00
21 changed files with 239 additions and 507 deletions

32
.goreleaser.yaml Normal file
View File

@@ -0,0 +1,32 @@
# Goreleaser configuration version 2
version: 2
builds:
- id: lcg
binary: "lcg_{{ .Version }}"
goos:
- linux
- windows
- darwin
goarch:
- amd64
- arm64
env:
- CGO_ENABLED=0
ldflags:
- -s -w
- -X main.version={{.Version}}
- -X main.commit={{.Commit}}
- -X main.date={{.Date}}
main: .
dir: .
archives:
- id: lcg
ids:
- lcg
formats:
- binary
name_template: "{{ .Binary }}_{{ .Os }}_{{ .Arch }}"
files:
- "lcg_{{ .Version }}"

View File

@@ -1,83 +1,74 @@
# Используем готовый образ Ollama
FROM localhost/ollama_packed:latest
# Multi-stage build для LCG с Ollama
FROM golang:1.24.6-alpine3.22 AS builder
# Устанавливаем bash если его нет (базовый образ ollama может быть на разных дистрибутивах)
RUN if ! command -v bash >/dev/null 2>&1; then \
if command -v apk >/dev/null 2>&1; then \
apk add --no-cache bash; \
elif command -v apt-get >/dev/null 2>&1; then \
apt-get update && apt-get install -y --no-install-recommends bash && rm -rf /var/lib/apt/lists/*; \
fi; \
fi
WORKDIR /build
# Определяем архитектуру для копирования правильного бинарника
# Копируем файлы зависимостей
COPY go.mod go.sum ./
RUN go mod download
# Копируем исходный код
COPY . .
# Собираем бинарник
RUN CGO_ENABLED=0 GOOS=linux go build -ldflags="-w -s -buildid=" -trimpath -o /build/lcg .
# Финальный образ с Ollama
FROM alpine:3.22
# Устанавливаем необходимые пакеты
RUN apk add --no-cache \
curl \
ca-certificates \
bash \
&& rm -rf /var/cache/apk/*
# Устанавливаем Ollama 0.9.5 (поддержка разных архитектур)
ARG TARGETARCH
ARG TARGETOS=linux
# Копируем папку dist с бинарниками
# Структура: dist/lcg_linux_amd64_v1/lcg_* или dist/lcg_linux_arm64_v8.0/lcg_*
COPY dist/ /tmp/dist/
# Выбираем правильный бинарник в зависимости от архитектуры
# Если TARGETARCH не установлен, определяем архитектуру через uname
RUN ARCH="${TARGETARCH:-$(uname -m)}" && \
case "${ARCH}" in \
amd64|x86_64) \
BIN_FILE=$(find /tmp/dist/lcg_linux_amd64_v* -name "lcg_*" -type f 2>/dev/null | head -1) && \
if [ -n "$BIN_FILE" ]; then \
cp "$BIN_FILE" /usr/local/bin/lcg && \
echo "Установлен бинарник для amd64: $BIN_FILE"; \
else \
echo "Бинарник для amd64 не найден в /tmp/dist/" && exit 1; \
fi ;; \
arm64|aarch64|arm) \
BIN_FILE=$(find /tmp/dist/lcg_linux_arm64_v* -name "lcg_*" -type f 2>/dev/null | head -1) && \
if [ -n "$BIN_FILE" ]; then \
cp "$BIN_FILE" /usr/local/bin/lcg && \
echo "Установлен бинарник для arm64: $BIN_FILE"; \
else \
echo "Бинарник для arm64 не найден в /tmp/dist/" && exit 1; \
fi ;; \
*) \
echo "Unsupported architecture: ${ARCH}" && \
echo "Доступные бинарники:" && \
find /tmp/dist -name "lcg_*" -type f 2>/dev/null && \
exit 1 ;; \
RUN case ${TARGETARCH} in \
amd64) OLLAMA_ARCH=amd64 ;; \
arm64) OLLAMA_ARCH=arm64 ;; \
arm) OLLAMA_ARCH=arm64 ;; \
*) echo "Unsupported architecture: ${TARGETARCH}" && exit 1 ;; \
esac && \
chmod +x /usr/local/bin/lcg && \
rm -rf /tmp/dist && \
(lcg --version || echo "Бинарник lcg установлен")
curl -L https://github.com/ollama/ollama/releases/download/v0.9.5/ollama-linux-${OLLAMA_ARCH} -o /usr/local/bin/ollama \
&& chmod +x /usr/local/bin/ollama
# Создаем пользователя для запуска сервисов
RUN addgroup -g 1000 ollama && \
adduser -D -u 1000 -G ollama ollama && \
mkdir -p /home/ollama/.ollama && \
chown -R ollama:ollama /home/ollama
# Копируем бинарник lcg
COPY --from=builder /build/lcg /usr/local/bin/lcg
RUN chmod +x /usr/local/bin/lcg
# Копируем entrypoint скрипт
COPY --chmod=755 Dockerfiles/OllamaServer/entrypoint.sh /entrypoint.sh
# Создаем директории для данных LCG
# В базовом образе ollama уже есть пользователь ollama
RUN mkdir -p /app/data/results /app/data/prompts /app/data/config
# Устанавливаем права доступа (пользователь ollama должен существовать в базовом образе)
RUN chown -R ollama:ollama /app/data 2>/dev/null || \
(chown -R 1000:1000 /app/data 2>/dev/null || true)
# Создаем директории для данных
RUN mkdir -p /app/data/results /app/data/prompts /app/data/config \
&& chown -R ollama:ollama /app/data
# Настройки по умолчанию
ENV TZ='Asia/Omsk'
RUN ln -snf /usr/share/zoneinfo/$TZ /etc/localtime && echo $TZ > /etc/timezone
ENV LCG_PROVIDER=ollama
ENV LCG_HOST=http://127.0.0.1:11434/
ENV LCG_MODEL=qwen2.5-coder:1.5b
ENV LCG_MODEL=codegeex4
ENV LCG_RESULT_FOLDER=/app/data/results
ENV LCG_PROMPT_FOLDER=/app/data/prompts
ENV LCG_CONFIG_FOLDER=/app/data/config
ENV LCG_SERVER_HOST=0.0.0.0
ENV LCG_SERVER_PORT=8080
ENV LCG_DOMAIN="remote.ollama-server.ru"
ENV LCG_COOKIE_PATH="/lcg"
# ENV LCG_SERVER_ALLOW_HTTP=true
# ENV OLLAMA_HOST=127.0.0.1
# ENV OLLAMA_PORT=11434
ENV LCG_SERVER_ALLOW_HTTP=true
ENV OLLAMA_HOST=0.0.0.0
ENV OLLAMA_PORT=11434
# Expose порты
EXPOSE 8080
EXPOSE 8080 11434
# Переключаемся на пользователя ollama
USER ollama
WORKDIR /home/ollama

View File

@@ -23,71 +23,37 @@ help: ## Показать справку
@echo " make podman-compose-up - Запустить через podman-compose"
@echo " make podman-compose-down - Остановить podman-compose"
build: ## Собрать Docker образ (требует собранных бинарников в dist/)
@echo "⚠️ Убедитесь, что бинарники собраны: goreleaser build --snapshot --clean"
build: ## Собрать Docker образ
docker build -f $(DOCKERFILE) -t $(IMAGE_NAME):$(IMAGE_TAG) $(CONTEXT)
@echo "Образ $(IMAGE_NAME):$(IMAGE_TAG) успешно собран"
build-podman: ## Собрать Podman образ (требует собранных бинарников в dist/)
@echo "⚠️ Убедитесь, что бинарники собраны: goreleaser build --snapshot --clean"
build-podman: ## Собрать Podman образ
podman build -f $(DOCKERFILE) -t $(IMAGE_NAME):$(IMAGE_TAG) $(CONTEXT)
@echo "Образ $(IMAGE_NAME):$(IMAGE_TAG) успешно собран"
build-binaries: ## Собрать бинарники перед сборкой образа
@echo "Сборка бинарников..."
cd $(CONTEXT) && goreleaser build --snapshot --clean
@echo "Бинарники собраны в $(CONTEXT)/dist/"
build-all: build-binaries build ## Собрать бинарники и Docker образ
@echo "✅ Все готово!"
build-all-podman: build-binaries build-podman ## Собрать бинарники и Podman образ
@echo "✅ Все готово!"
run: ## Запустить контейнер (Docker)
docker run -d \
--name ${CONTAINER_NAME} \
-p 8989:8080 \
--name $(CONTAINER_NAME) \
-p 8080:8080 \
-p 11434:11434 \
-v ollama-data:/home/ollama/.ollama \
-v lcg-results:/app/data/results \
-v lcg-prompts:/app/data/prompts \
-v lcg-config:/app/data/config \
${IMAGE_NAME}:${IMAGE_TAG}
@echo "Контейнер ${CONTAINER_NAME} запущен"
$(IMAGE_NAME):$(IMAGE_TAG)
@echo "Контейнер $(CONTAINER_NAME) запущен"
run-podman: ## Запустить контейнер (Podman)
echo "Запустить контейнер ${CONTAINER_NAME}"
echo "IMAGE_NAME: ${IMAGE_NAME}"
echo "IMAGE_TAG: ${IMAGE_TAG}"
echo "CONTAINER_NAME: ${CONTAINER_NAME}"
podman run -d \
--name ${CONTAINER_NAME} \
--restart always \
-p 8989:8080 \
--name $(CONTAINER_NAME) \
-p 8080:8080 \
-p 11434:11434 \
-v ollama-data:/home/ollama/.ollama \
-v lcg-results:/app/data/results \
-v lcg-prompts:/app/data/prompts \
-v lcg-config:/app/data/config \
${IMAGE_NAME}:${IMAGE_TAG}
@echo "Контейнер ${CONTAINER_NAME} запущен"
run-podman-nodemon: ## Запустить контейнер (Podman) без -d
echo "Запустить контейнер ${CONTAINER_NAME}"
echo "IMAGE_NAME: ${IMAGE_NAME}"
echo "IMAGE_TAG: ${IMAGE_TAG}"
echo "CONTAINER_NAME: ${CONTAINER_NAME}"
podman run \
--name ${CONTAINER_NAME} \
--restart always \
-p 8989:8080 \
-v ollama-data:/home/ollama/.ollama \
-v lcg-results:/app/data/results \
-v lcg-prompts:/app/data/prompts \
-v lcg-config:/app/data/config \
${IMAGE_NAME}:${IMAGE_TAG}
@echo "Контейнер ${CONTAINER_NAME} запущен"
$(IMAGE_NAME):$(IMAGE_TAG)
@echo "Контейнер $(CONTAINER_NAME) запущен"
stop: ## Остановить контейнер (Docker)
docker stop $(CONTAINER_NAME) || true

View File

@@ -4,17 +4,7 @@
1. Убедитесь, что у вас установлен Docker или Podman
2. Клонируйте репозиторий (если еще не сделали)
3. Соберите бинарники (требуется перед сборкой образа)
```bash
# Из корня проекта
goreleaser build --snapshot --clean
# Или используйте скрипт
./deploy/4.build-binaries.sh v2.0.15
```
4. Перейдите в папку с Dockerfile
3. Перейдите в папку с Dockerfile
```bash
cd Dockerfiles/OllamaServer
@@ -25,16 +15,14 @@ cd Dockerfiles/OllamaServer
### Вариант 1: Docker Compose (рекомендуется)
```bash
# Важно: убедитесь, что бинарники собраны в ../../dist/
docker-compose up -d
```
### Вариант 2: Ручная сборка и запуск
```bash
# Сборка образа (контекст должен быть корень проекта)
cd ../.. # Переходим в корень проекта
docker build -f Dockerfiles/OllamaServer/Dockerfile -t lcg-ollama:latest .
# Сборка образа
docker build -f Dockerfile -t lcg-ollama:latest ../..
# Запуск контейнера
docker run -d \
@@ -57,9 +45,8 @@ podman-compose -f podman-compose.yml up -d
### Вариант 2: Ручная сборка и запуск
```bash
# Сборка образа (контекст должен быть корень проекта)
cd ../.. # Переходим в корень проекта
podman build -f Dockerfiles/OllamaServer/Dockerfile -t lcg-ollama:latest .
# Сборка образа
podman build -f Dockerfile -t lcg-ollama:latest ../..
# Запуск контейнера
podman run -d \

View File

@@ -7,111 +7,62 @@
## 📋 Описание
Контейнер автоматически запускает:
1 **Ollama сервер** (v0.9.5) на порту 11434
2 **LCG веб-сервер** на порту 8080
1. **Ollama сервер** (v0.9.5) на порту 11434
2. **LCG веб-сервер** на порту 8080
Ollama используется как провайдер LLM для генерации Linux команд.
## 🚀 Быстрый старт
### Предварительные требования
Перед сборкой Docker образа необходимо собрать бинарники:
```bash
# Из корня проекта
# Используйте goreleaser для сборки бинарников
goreleaser build --snapshot --clean
# Или используйте скрипт сборки
./deploy/4.build-binaries.sh v2.0.15
```
Убедитесь, что в папке `dist/` есть бинарники:
- `dist/lcg_linux_amd64_v1/lcg_*` для amd64
- `dist/lcg_linux_arm64_v8.0/lcg_*` для arm64
### Сборка образа
#### Docker
```bash
# Из корня проекта (важно: контекст должен быть корень проекта)
# Из корня проекта
docker build -f Dockerfiles/OllamaServer/Dockerfile -t lcg-ollama:latest .
# Или с указанием архитектуры
docker buildx build \
--platform linux/amd64,linux/arm64 \
-f Dockerfiles/OllamaServer/Dockerfile \
-t lcg-ollama:latest .
```
#### Podman
```bash
# Из корня проекта
podman build -f Dockerfiles/OllamaServer/Dockerfile -t lcg-ollama:latest .
# Или с указанием архитектуры
podman build \
--platform linux/amd64,linux/arm64 \
-f Dockerfiles/OllamaServer/Dockerfile \
-t lcg-ollama:latest .
```
### Запуск контейнера
#### Docker run
#### Docker
```bash
docker run -d \
--name lcg-ollama \
-p 8080:8080 \
-p 8080:8080 \
-p 11434:11434 \
lcg-ollama:latest
ollama serve
```
#### Podman run
#### Podman
```bash
podman run -d \
--name lcg-ollama \
-p 8989:8080 \
--restart always \
lcg-ollama:latest \
ollama serve
-p 8080:8080 \
-p 11434:11434 \
lcg-ollama:latest
```
когда контейнер запущен на удаленном хосте - можете воспользоваться консольными возможностями утилиты lcg следующим образом
``` bash
ssh user@[host_where_contaier_running] 'podman exec -it $(podman ps -q --filter \"ancestor=localhost/lcg-ollama:latest\") lcg [your query]
```
``` bash
ssh user@[host_where_contaier_running] 'podman exec -it $(podman ps -q --filter "ancestor=localhost/lcg-ollama:latest") /bin/sh -c "export LCG_MODEL=qwen3:0.6b && lcg config --full"'
### Использование docker-compose / podman-compose
#### Docker Compose
```bash
cd Dockerfiles/OllamaServer
docker-compose up -d
```
#### Podman Compose
```bash
cd Dockerfiles/OllamaServer
podman-compose -f podman-compose.yml up -d
```
Или используйте встроенную поддержку Podman:
```bash
cd Dockerfiles/OllamaServer
podman play kube podman-compose.yml
@@ -121,8 +72,8 @@ podman play kube podman-compose.yml
После запуска контейнера доступны:
- **LCG веб-интерфейс**: <http://localhost:8080>
- **Ollama API**: <http://localhost:11434>
- **LCG веб-интерфейс**: http://localhost:8080
- **Ollama API**: http://localhost:11434
## ⚙️ Переменные окружения
@@ -327,8 +278,7 @@ podman logs -f lcg-ollama
### Просмотр логов
#### Docker log
#### Docker
```bash
# Логи контейнера
docker logs lcg-ollama
@@ -337,8 +287,7 @@ docker logs lcg-ollama
docker logs -f lcg-ollama
```
#### Podman log
#### Podman
```bash
# Логи контейнера
podman logs lcg-ollama
@@ -349,28 +298,24 @@ podman logs -f lcg-ollama
### Подключение к контейнеру
#### Docker exec
#### Docker
```bash
docker exec -it lcg-ollama sh
```
#### Podman exec
#### Podman
```bash
podman exec -it lcg-ollama sh
```
### Проверка процессов
#### Docker check ps
#### Docker
```bash
docker exec lcg-ollama ps aux
```
#### Podman check ps
#### Podman
```bash
podman exec lcg-ollama ps aux
```
@@ -380,7 +325,6 @@ podman exec lcg-ollama ps aux
### Рекомендации для продакшена
1. **Используйте аутентификацию**:
```bash
-e LCG_SERVER_REQUIRE_AUTH=true
-e LCG_SERVER_PASSWORD=strong_password
@@ -395,7 +339,6 @@ podman exec lcg-ollama ps aux
- Используйте SSL сертификаты
4. **Ограничьте ресурсы**:
```bash
docker run -d \
--name lcg-ollama \
@@ -447,8 +390,8 @@ docker-compose up -d
## ❓ Поддержка
При возникновении проблем:
1. Проверьте логи: `docker logs lcg-ollama`
2. Проверьте переменные окружения
3. Убедитесь, что порты не заняты
4. Проверьте, что модели загружены в Ollama

View File

@@ -19,21 +19,14 @@ Dockerfiles/OllamaServer/
## Описание файлов
### Dockerfile
Dockerfile, который:
1. Использует готовый образ `ollama/ollama:0.9.5` как базовый
2. Копирует предварительно собранный бинарник LCG из папки `dist/`
3. Выбирает правильный бинарник в зависимости от архитектуры (amd64/arm64)
4. Устанавливает entrypoint.sh для запуска обоих сервисов
5. Настраивает рабочее окружение и переменные окружения
**Важно**: Перед сборкой образа необходимо собрать бинарники с помощью `goreleaser build --snapshot --clean`
Multi-stage Dockerfile, который:
1. Собирает бинарник LCG из исходного кода
2. Устанавливает Ollama 0.9.5
3. Создает пользователя ollama
4. Настраивает рабочее окружение
### entrypoint.sh
Скрипт запуска, который:
1. Запускает Ollama сервер в фоне
2. Ожидает готовности Ollama API
3. Запускает LCG сервер в фоне
@@ -41,27 +34,21 @@ Dockerfile, который:
5. Корректно обрабатывает сигналы завершения
### docker-compose.yml / podman-compose.yml
Конфигурация для запуска через compose:
- Настройки портов
- Переменные окружения
- Volumes для персистентного хранения
- Healthcheck
### Makefile
Удобные команды для:
- Сборки образа
- Запуска/остановки контейнера
- Просмотра логов
- Работы с compose
### README.md
Полная документация с:
- Описанием функциональности
- Инструкциями по установке
- Настройками переменных окружения
@@ -69,7 +56,6 @@ Dockerfile, который:
- Решением проблем
### QUICKSTART.md
Краткое руководство для быстрого старта.
## Порты
@@ -87,7 +73,6 @@ Dockerfile, который:
## Переменные окружения
Основные переменные (см. README.md для полного списка):
- `LCG_PROVIDER=ollama`
- `LCG_HOST=http://127.0.0.1:11434/`
- `LCG_MODEL=codegeex4`
@@ -96,48 +81,31 @@ Dockerfile, который:
## Запуск
### Предварительная подготовка
Перед сборкой образа необходимо собрать бинарники:
```bash
# Из корня проекта
goreleaser build --snapshot --clean
```
Убедитесь, что в папке `dist/` есть бинарники для нужных архитектур.
### Docker
```bash
cd Dockerfiles/OllamaServer
docker-compose up -d
```
### Podman
```bash
cd Dockerfiles/OllamaServer
podman-compose -f podman-compose.yml up -d
```
### Make
```bash
cd Dockerfiles/OllamaServer
make build-all # Собрать бинарники и Docker образ
make compose-up # Запустить через docker-compose
# Или для Podman
make build-all-podman
make compose-up
# или
make podman-compose-up
```
## Архитектура
Контейнер запускает два сервиса:
1. **Ollama** (порт 11434) - LLM сервер
2. **LCG** (порт 8080) - Веб-интерфейс и API
Оба сервиса работают в одном контейнере и общаются через localhost.

View File

@@ -3,9 +3,8 @@ version: '3.8'
services:
lcg-ollama:
build:
context: ../.. # Контекст сборки - корень проекта (для доступа к dist/)
context: ../..
dockerfile: Dockerfiles/OllamaServer/Dockerfile
# TARGETARCH определяется автоматически Docker на основе платформы хоста
container_name: lcg-ollama
ports:
- "8080:8080" # LCG веб-сервер

View File

@@ -32,6 +32,10 @@ cleanup() {
kill $LCG_PID 2>/dev/null || true
wait $LCG_PID 2>/dev/null || true
fi
if [ ! -z "$OLLAMA_PID" ]; then
kill $OLLAMA_PID 2>/dev/null || true
wait $OLLAMA_PID 2>/dev/null || true
fi
log "Сервисы остановлены"
exit 0
}
@@ -44,6 +48,11 @@ if [ ! -f /usr/local/bin/lcg ]; then
exit 1
fi
# Проверка наличия Ollama
if [ ! -f /usr/local/bin/ollama ]; then
error "Ollama не найден в /usr/local/bin/ollama"
exit 1
fi
# Создаем необходимые директории
mkdir -p "${LCG_RESULT_FOLDER:-/app/data/results}"
@@ -57,14 +66,14 @@ export OLLAMA_ORIGINS="*"
# Настройка переменных окружения для LCG
export LCG_PROVIDER="${LCG_PROVIDER:-ollama}"
export LCG_HOST="${LCG_HOST:-http://0.0.0.0:11434/}"
export LCG_MODEL="${LCG_MODEL:-qwen2.5-coder:1.5b}"
export LCG_HOST="${LCG_HOST:-http://127.0.0.1:11434/}"
export LCG_MODEL="${LCG_MODEL:-codegeex4}"
export LCG_RESULT_FOLDER="${LCG_RESULT_FOLDER:-/app/data/results}"
export LCG_PROMPT_FOLDER="${LCG_PROMPT_FOLDER:-/app/data/prompts}"
export LCG_CONFIG_FOLDER="${LCG_CONFIG_FOLDER:-/app/data/config}"
export LCG_SERVER_HOST="${LCG_SERVER_HOST:-0.0.0.0}"
export LCG_SERVER_PORT="${LCG_SERVER_PORT:-8080}"
export LCG_SERVER_ALLOW_HTTP="${LCG_SERVER_ALLOW_HTTP:-false}"
export LCG_SERVER_ALLOW_HTTP="${LCG_SERVER_ALLOW_HTTP:-true}"
log "=========================================="
log "Запуск LCG с Ollama сервером"
@@ -76,7 +85,39 @@ info "LCG Server: http://${LCG_SERVER_HOST}:${LCG_SERVER_PORT}"
info "Ollama Host: $OLLAMA_HOST:$OLLAMA_PORT"
log "=========================================="
# Запускаем Ollama сервер в фоне
log "Запуск Ollama сервера..."
/usr/local/bin/ollama serve &
OLLAMA_PID=$!
# Ждем, пока Ollama запустится
log "Ожидание запуска Ollama сервера..."
sleep 5
# Проверяем, что Ollama запущен
if ! kill -0 $OLLAMA_PID 2>/dev/null; then
error "Ollama сервер не запустился"
exit 1
fi
# Проверяем доступность Ollama API
max_attempts=30
attempt=0
while [ $attempt -lt $max_attempts ]; do
# Проверяем через localhost, так как OLLAMA_HOST может быть 0.0.0.0
if curl -s -f "http://127.0.0.1:${OLLAMA_PORT}/api/tags" > /dev/null 2>&1; then
log "Ollama сервер готов!"
break
fi
attempt=$((attempt + 1))
if [ $attempt -eq $max_attempts ]; then
error "Ollama сервер не отвечает после $max_attempts попыток"
exit 1
fi
sleep 1
done
# Запускаем LCG сервер в фоне
log "Запуск LCG сервера..."
/usr/local/bin/lcg serve \
--host "${LCG_SERVER_HOST}" \
@@ -88,11 +129,43 @@ sleep 3
# Проверяем, что LCG запущен
if ! kill -0 $LCG_PID 2>/dev/null; then
error "LCG сервер не запустился"
error "LCG сервер не запустился"
kill $OLLAMA_PID 2>/dev/null || true
exit 1
fi
log "LCG сервер запущен на http://${LCG_SERVER_HOST}:${LCG_SERVER_PORT}"
log "Ollama сервер доступен на http://${OLLAMA_HOST}:${OLLAMA_PORT}"
log "=========================================="
log "Сервисы запущены и готовы к работе!"
log "=========================================="
# Функция для проверки здоровья процессов
health_check() {
while true; do
# Проверяем Ollama
if ! kill -0 $OLLAMA_PID 2>/dev/null; then
error "Ollama процесс завершился неожиданно"
kill $LCG_PID 2>/dev/null || true
exit 1
fi
# Проверяем LCG
if ! kill -0 $LCG_PID 2>/dev/null; then
error "LCG процесс завершился неожиданно"
kill $OLLAMA_PID 2>/dev/null || true
exit 1
fi
sleep 10
done
}
# Запускаем проверку здоровья в фоне
health_check &
HEALTH_CHECK_PID=$!
# Ждем завершения процессов
wait $LCG_PID $OLLAMA_PID
kill $HEALTH_CHECK_PID 2>/dev/null || true
# Запускаем переданные аргументы
exec "$@"

View File

@@ -1 +1 @@
v.2.0.20
v2.0.15

View File

@@ -27,7 +27,6 @@ type Config struct {
ResultHistory string
NoHistoryEnv string
AllowExecution bool
Query string
MainFlags MainFlags
Server ServerConfig
Validation ValidationConfig

View File

@@ -1 +1 @@
v.2.0.20
v2.0.15

View File

@@ -5,7 +5,7 @@ metadata:
namespace: lcg
data:
# Основные настройки
LCG_VERSION: "v.2.0.20"
LCG_VERSION: "v2.0.14"
LCG_BASE_PATH: "/lcg"
LCG_SERVER_HOST: "0.0.0.0"
LCG_SERVER_PORT: "8080"

View File

@@ -5,7 +5,7 @@ metadata:
namespace: lcg
labels:
app: lcg
version: v.2.0.20
version: v2.0.14
spec:
replicas: 1
selector:
@@ -18,7 +18,7 @@ spec:
spec:
containers:
- name: lcg
image: kuznetcovay/lcg:v.2.0.20
image: kuznetcovay/lcg:v2.0.14
imagePullPolicy: Always
ports:
- containerPort: 8080

View File

@@ -15,11 +15,11 @@ resources:
# Common labels
# commonLabels:
# app: lcg
# version: v.2.0.20
# version: v2.0.14
# managed-by: kustomize
# Images
# images:
# - name: lcg
# newName: kuznetcovay/lcg
# newTag: v.2.0.20
# newTag: v2.0.14

80
main.go
View File

@@ -9,7 +9,6 @@ import (
"os/exec"
"os/user"
"path/filepath"
"slices"
"strconv"
"strings"
"time"
@@ -77,12 +76,6 @@ func main() {
Usage: config.AppConfig.AppName + " - Генерация Linux команд из описаний",
Version: Version,
Commands: getCommands(),
Before: func(c *cli.Context) error {
// Применяем флаги приложения к конфигурации перед выполнением любой команды
// Это гарантирует, что флаги будут применены даже для команд, которые не используют основной Action
applyAppFlagsToConfig(c)
return nil
},
UsageText: `
lcg [опции] <описание команды>
@@ -151,25 +144,12 @@ lcg [опции] <описание команды>
Aliases: []string{"f"},
Usage: "Read part of the command from a file",
},
&cli.StringFlag{
Name: "model",
Aliases: []string{"M"},
DefaultText: "Use model from LCG_MODEL or default model",
Usage: "Model to use",
},
&cli.BoolFlag{
Name: "no-history",
Aliases: []string{"nh"},
Usage: "Disable writing/updating command history (overrides LCG_NO_HISTORY)",
Value: false,
},
&cli.StringFlag{
Name: "query",
Aliases: []string{"Q"},
Usage: "Query to send to the model",
DefaultText: "Hello? what day is it today?",
Value: "Hello? what day is it today?",
},
&cli.StringFlag{
Name: "sys",
Aliases: []string{"s"},
@@ -201,25 +181,16 @@ lcg [опции] <описание команды>
Action: func(c *cli.Context) error {
file := c.String("file")
system := c.String("sys")
model := c.String("model")
query := c.String("query")
// обновляем конфиг на основе флагов
if c.IsSet("sys") && system != "" {
if system != "" {
config.AppConfig.Prompt = system
}
if c.IsSet("query") && query != "" {
config.AppConfig.Query = query
}
if c.IsSet("timeout") {
config.AppConfig.Timeout = fmt.Sprintf("%d", c.Int("timeout"))
}
if c.IsSet("model") {
config.AppConfig.Model = model
}
promptID := c.Int("prompt-id")
timeout := c.Int("timeout")
// сохраняем конкретные значения флагов
config.AppConfig.MainFlags = config.MainFlags{
File: file,
NoHistory: c.Bool("no-history"),
@@ -232,9 +203,12 @@ lcg [опции] <описание команды>
config.AppConfig.MainFlags.Debug = config.AppConfig.MainFlags.Debug || config.GetEnvBool("LCG_DEBUG", false)
// fmt.Println("Debug:", config.AppConfig.MainFlags.Debug)
// fmt.Println("LCG_DEBUG:", config.GetEnvBool("LCG_DEBUG", false))
args := c.Args().Slice()
if len(args) == 0 && config.AppConfig.Query == "" {
if len(args) == 0 {
cli.ShowAppHelp(c)
showTips()
return nil
@@ -257,12 +231,6 @@ lcg [опции] <описание команды>
os.Exit(1)
}
}
if config.AppConfig.Query != "" {
executeMain(file, system, config.AppConfig.Query, timeout)
return nil
}
executeMain(file, system, strings.Join(args, " "), timeout)
return nil
},
@@ -283,31 +251,6 @@ lcg [опции] <описание команды>
}
}
// applyAppFlagsToConfig применяет флаги приложения к конфигурации
// Работает как для основного Action, так и для команд
func applyAppFlagsToConfig(c *cli.Context) {
// Применяем флаг model - проверяем и через IsSet, и значение напрямую
// так как IsSet может не работать для флагов без значения по умолчанию
if model := c.String("model"); model != "" {
config.AppConfig.Model = model
}
// Применяем флаг sys
if sys := c.String("sys"); sys != "" {
config.AppConfig.Prompt = sys
}
// Применяем флаг timeout (только если явно установлен)
if c.IsSet("timeout") {
config.AppConfig.Timeout = fmt.Sprintf("%d", c.Int("timeout"))
}
// Применяем флаг query (игнорируем значение по умолчанию)
if query := c.String("query"); query != "" && query != "Hello? what day is it today?" {
config.AppConfig.Query = query
}
}
func getCommands() []*cli.Command {
commands := []*cli.Command{
{
@@ -447,10 +390,6 @@ func getCommands() []*cli.Command {
},
},
Action: func(c *cli.Context) error {
// Флаги приложения уже применены через глобальный Before hook
// Но применяем их еще раз на случай, если глобальный Before не сработал
applyAppFlagsToConfig(c)
if c.Bool("full") {
// Выводим полную конфигурацию в JSON формате
showFullConfig()
@@ -1088,7 +1027,12 @@ func getServerAllowHTTPForHost(host string) bool {
// isSecureHost проверяет, является ли хост безопасным для HTTP
func isSecureHost(host string) bool {
secureHosts := []string{"localhost", "127.0.0.1", "::1"}
return slices.Contains(secureHosts, host)
for _, secureHost := range secureHosts {
if host == secureHost {
return true
}
}
return false
}
// showShortConfig показывает краткую конфигурацию

View File

@@ -127,6 +127,7 @@ func getTokenFromCookie(r *http.Request) (string, error) {
func setAuthCookie(w http.ResponseWriter, token string) {
cookie := &http.Cookie{
Name: "auth_token",
Domain: config.AppConfig.Server.Domain,
Value: token,
Path: config.AppConfig.Server.CookiePath,
HttpOnly: true,

View File

@@ -13,13 +13,6 @@ import (
"github.com/direct-dev-ru/linux-command-gpt/config"
)
const (
// CSRFTokenLifetimeHours минимальное время жизни CSRF токена в часах (не менее 12 часов)
CSRFTokenLifetimeHours = 12
// CSRFTokenLifetimeSeconds минимальное время жизни CSRF токена в секундах
CSRFTokenLifetimeSeconds = CSRFTokenLifetimeHours * 60 * 60
)
// CSRFManager управляет CSRF токенами
type CSRFManager struct {
secretKey []byte
@@ -75,8 +68,6 @@ func getCSRFSecretKey() ([]byte, error) {
// GenerateToken генерирует CSRF токен для пользователя
func (c *CSRFManager) GenerateToken(userID string) (string, error) {
fmt.Printf("[CSRF DEBUG] Генерация нового токена для UserID: %s\n", userID)
// Создаем данные токена
data := CSRFData{
Token: generateRandomString(32),
@@ -84,85 +75,53 @@ func (c *CSRFManager) GenerateToken(userID string) (string, error) {
UserID: userID,
}
fmt.Printf("[CSRF DEBUG] Созданные данные токена: Token (первые 20 символов): %s..., Timestamp: %d, UserID: %s\n",
safeSubstring(data.Token, 0, 20), data.Timestamp, data.UserID)
// Создаем подпись
signature := c.createSignature(data)
fmt.Printf("[CSRF DEBUG] Созданная подпись (первые 20 символов): %s...\n", safeSubstring(signature, 0, 20))
// Кодируем данные в base64
encodedData := base64.StdEncoding.EncodeToString([]byte(fmt.Sprintf("%s:%d:%s", data.Token, data.Timestamp, data.UserID)))
fmt.Printf("[CSRF DEBUG] Закодированные данные (первые 30 символов): %s...\n", safeSubstring(encodedData, 0, 30))
token := fmt.Sprintf("%s.%s", encodedData, signature)
fmt.Printf("[CSRF DEBUG] Итоговый токен сгенерирован (первые 50 символов): %s...\n", safeSubstring(token, 0, 50))
return token, nil
return fmt.Sprintf("%s.%s", encodedData, signature), nil
}
// ValidateToken проверяет CSRF токен
func (c *CSRFManager) ValidateToken(token, userID string) bool {
fmt.Printf("[CSRF DEBUG] Начало валидации токена. UserID из запроса: %s\n", userID)
fmt.Printf("[CSRF DEBUG] Токен (первые 50 символов): %s...\n", safeSubstring(token, 0, 50))
// Разделяем токен на данные и подпись
parts := splitToken(token)
if len(parts) != 2 {
fmt.Printf("[CSRF DEBUG] ❌ ОШИБКА: Токен не может быть разделен на 2 части. Получено частей: %d\n", len(parts))
return false
}
encodedData, signature := parts[0], parts[1]
fmt.Printf("[CSRF DEBUG] Токен разделен на encodedData (первые 30 символов): %s... и signature (первые 20 символов): %s...\n",
safeSubstring(encodedData, 0, 30), safeSubstring(signature, 0, 20))
// Декодируем данные
dataBytes, err := base64.StdEncoding.DecodeString(encodedData)
if err != nil {
fmt.Printf("[CSRF DEBUG] ❌ ОШИБКА: Не удалось декодировать base64 данные: %v\n", err)
return false
}
fmt.Printf("[CSRF DEBUG] Данные декодированы. Длина: %d байт\n", len(dataBytes))
// Парсим данные
dataParts := splitString(string(dataBytes), ":")
if len(dataParts) != 3 {
fmt.Printf("[CSRF DEBUG] ❌ ОШИБКА: Данные не могут быть разделены на 3 части. Получено частей: %d. Данные: %s\n", len(dataParts), string(dataBytes))
return false
}
tokenValue, timestampStr, tokenUserID := dataParts[0], dataParts[1], dataParts[2]
fmt.Printf("[CSRF DEBUG] Распарсены данные: tokenValue (первые 20 символов): %s..., timestamp: %s, tokenUserID: %s\n",
safeSubstring(tokenValue, 0, 20), timestampStr, tokenUserID)
// Проверяем пользователя
if tokenUserID != userID {
fmt.Printf("[CSRF DEBUG] ❌ ОШИБКА: UserID не совпадает! Ожидался: '%s', получен из токена: '%s'\n", userID, tokenUserID)
return false
}
fmt.Printf("[CSRF DEBUG] ✅ UserID совпадает: %s\n", userID)
// Проверяем время жизни токена (минимум 12 часов)
// Проверяем время жизни токена (24 часа)
timestamp, err := parseInt64(timestampStr)
if err != nil {
fmt.Printf("[CSRF DEBUG] ❌ ОШИБКА: Не удалось распарсить timestamp '%s': %v\n", timestampStr, err)
return false
}
now := time.Now().Unix()
age := now - timestamp
ageHours := float64(age) / 3600.0
fmt.Printf("[CSRF DEBUG] Текущее время: %d, timestamp токена: %d, возраст токена: %d сек (%.2f часов)\n", now, timestamp, age, ageHours)
// Минимальное время жизни токена: 12 часов (не менее 12 часов согласно требованиям)
if age > CSRFTokenLifetimeSeconds {
fmt.Printf("[CSRF DEBUG] ❌ ОШИБКА: Токен устарел! Возраст: %d сек (%.2f часов), максимум: %d сек (%.2f часов)\n",
age, ageHours, CSRFTokenLifetimeSeconds, float64(CSRFTokenLifetimeSeconds)/3600.0)
if time.Now().Unix()-timestamp > 24*60*60 {
return false
}
fmt.Printf("[CSRF DEBUG] ✅ Токен не устарел (возраст в пределах лимита)\n")
// Создаем данные для проверки подписи
data := CSRFData{
@@ -173,30 +132,7 @@ func (c *CSRFManager) ValidateToken(token, userID string) bool {
// Проверяем подпись
expectedSignature := c.createSignature(data)
signatureMatch := signature == expectedSignature
if !signatureMatch {
fmt.Printf("[CSRF DEBUG] ❌ ОШИБКА: Подпись не совпадает!\n")
fmt.Printf("[CSRF DEBUG] Ожидаемая подпись (первые 20 символов): %s...\n", safeSubstring(expectedSignature, 0, 20))
fmt.Printf("[CSRF DEBUG] Полученная подпись (первые 20 символов): %s...\n", safeSubstring(signature, 0, 20))
fmt.Printf("[CSRF DEBUG] Данные для подписи: Token=%s (первые 20), Timestamp=%d, UserID=%s\n",
safeSubstring(tokenValue, 0, 20), timestamp, tokenUserID)
} else {
fmt.Printf("[CSRF DEBUG] ✅ Подпись совпадает\n")
}
fmt.Printf("[CSRF DEBUG] Результат валидации: %t\n", signatureMatch)
return signatureMatch
}
// safeSubstring безопасно обрезает строку
func safeSubstring(s string, start, length int) string {
if start >= len(s) {
return ""
}
end := start + length
if end > len(s) {
end = len(s)
}
return s[start:end]
return signature == expectedSignature
}
// createSignature создает подпись для данных
@@ -217,35 +153,22 @@ func GetCSRFTokenFromCookie(r *http.Request) string {
// setCSRFCookie устанавливает CSRF токен в cookie
func setCSRFCookie(w http.ResponseWriter, token string) {
fmt.Printf("[CSRF DEBUG] Установка CSRF cookie. Токен (первые 50 символов): %s...\n", safeSubstring(token, 0, 50))
fmt.Printf("[CSRF DEBUG] Cookie настройки: Path=%s, Secure=%t, Domain=%s, MaxAge=%d сек\n",
config.AppConfig.Server.CookiePath,
config.AppConfig.Server.CookieSecure,
config.AppConfig.Server.Domain,
CSRFTokenLifetimeSeconds)
// Минимальное время жизни токена: 12 часов (не менее 12 часов согласно требованиям)
cookie := &http.Cookie{
Name: "csrf_token",
Value: token,
Path: config.AppConfig.Server.CookiePath,
HttpOnly: true,
Secure: config.AppConfig.Server.CookieSecure,
SameSite: http.SameSiteLaxMode, // Более мягкий режим для reverse proxy
MaxAge: CSRFTokenLifetimeSeconds, // Минимум 12 часов в секундах
SameSite: http.SameSiteLaxMode, // Более мягкий режим для reverse proxy
MaxAge: 1 * 60 * 60,
}
// Добавляем домен если указан
if config.AppConfig.Server.Domain != "" {
cookie.Domain = config.AppConfig.Server.Domain
fmt.Printf("[CSRF DEBUG] Cookie Domain установлен: %s\n", cookie.Domain)
} else {
fmt.Printf("[CSRF DEBUG] Cookie Domain не установлен (пустой)\n")
}
http.SetCookie(w, cookie)
fmt.Printf("[CSRF DEBUG] ✅ CSRF cookie установлен: Name=%s, Path=%s, Domain=%s, Secure=%t, HttpOnly=%t, SameSite=%v, MaxAge=%d\n",
cookie.Name, cookie.Path, cookie.Domain, cookie.Secure, cookie.HttpOnly, cookie.SameSite, cookie.MaxAge)
}
// clearCSRFCookie удаляет CSRF cookie

View File

@@ -233,9 +233,6 @@ func handleExecuteRequest(w http.ResponseWriter, r *http.Request) {
return
}
// Устанавливаем CSRF токен в cookie после обработки запроса
setCSRFCookie(w, csrfToken)
data := ExecutePageData{
Title: "Результат выполнения",
Header: "Результат выполнения",

View File

@@ -3,7 +3,6 @@ package serve
import (
"crypto/sha256"
"encoding/hex"
"fmt"
"html/template"
"net/http"
@@ -93,7 +92,6 @@ func RenderLoginPage(w http.ResponseWriter, data LoginPageData) error {
func getSessionID(r *http.Request) string {
// Пытаемся получить из cookie
if cookie, err := r.Cookie("session_id"); err == nil {
fmt.Printf("[CSRF DEBUG] SessionID получен из cookie: %s\n", cookie.Value)
return cookie.Value
}
@@ -101,12 +99,7 @@ func getSessionID(r *http.Request) string {
ip := r.RemoteAddr
userAgent := r.Header.Get("User-Agent")
fmt.Printf("[CSRF DEBUG] SessionID не найден в cookie. Генерация нового на основе IP=%s, User-Agent (первые 50 символов): %s...\n",
ip, safeSubstring(userAgent, 0, 50))
// Создаем простой хеш для сессии
hash := sha256.Sum256([]byte(ip + userAgent))
sessionID := hex.EncodeToString(hash[:])[:16]
fmt.Printf("[CSRF DEBUG] Сгенерирован SessionID: %s\n", sessionID)
return sessionID
return hex.EncodeToString(hash[:])[:16]
}

View File

@@ -1,7 +1,6 @@
package serve
import (
"fmt"
"net/http"
"strings"
@@ -46,70 +45,25 @@ func AuthMiddleware(next http.HandlerFunc) http.HandlerFunc {
// CSRFMiddleware проверяет CSRF токены для POST/PUT/DELETE запросов
func CSRFMiddleware(next http.HandlerFunc) http.HandlerFunc {
return func(w http.ResponseWriter, r *http.Request) {
fmt.Printf("\n[CSRF MIDDLEWARE] ==========================================\n")
fmt.Printf("[CSRF MIDDLEWARE] Обработка запроса: %s %s\n", r.Method, r.URL.Path)
fmt.Printf("[CSRF MIDDLEWARE] RemoteAddr: %s\n", r.RemoteAddr)
fmt.Printf("[CSRF MIDDLEWARE] Host: %s\n", r.Host)
// Выводим все заголовки
fmt.Printf("[CSRF MIDDLEWARE] Заголовки:\n")
for name, values := range r.Header {
if name == "Cookie" {
// Cookie выводим отдельно, разбирая их
fmt.Printf("[CSRF MIDDLEWARE] %s: %s\n", name, strings.Join(values, "; "))
} else {
fmt.Printf("[CSRF MIDDLEWARE] %s: %s\n", name, strings.Join(values, ", "))
}
}
// Выводим все cookies
fmt.Printf("[CSRF MIDDLEWARE] Все cookies:\n")
if len(r.Cookies()) == 0 {
fmt.Printf("[CSRF MIDDLEWARE] (нет cookies)\n")
} else {
for _, cookie := range r.Cookies() {
fmt.Printf("[CSRF MIDDLEWARE] %s = %s (Path: %s, Domain: %s, Secure: %t, HttpOnly: %t, SameSite: %v, MaxAge: %d)\n",
cookie.Name,
safeSubstring(cookie.Value, 0, 50),
cookie.Path,
cookie.Domain,
cookie.Secure,
cookie.HttpOnly,
cookie.SameSite,
cookie.MaxAge)
}
}
// Проверяем только изменяющие запросы
if r.Method == "GET" || r.Method == "HEAD" || r.Method == "OPTIONS" {
fmt.Printf("[CSRF MIDDLEWARE] Пропускаем проверку CSRF для метода %s\n", r.Method)
next(w, r)
return
}
// Исключаем некоторые API endpoints (с учетом BasePath)
if r.URL.Path == makePath("/api/login") || r.URL.Path == makePath("/api/logout") {
fmt.Printf("[CSRF MIDDLEWARE] Пропускаем проверку CSRF для пути %s\n", r.URL.Path)
next(w, r)
return
}
// Получаем CSRF токен из заголовка или формы
csrfTokenFromHeader := r.Header.Get("X-CSRF-Token")
csrfTokenFromForm := r.FormValue("csrf_token")
fmt.Printf("[CSRF MIDDLEWARE] CSRF токен из заголовка X-CSRF-Token: %s\n",
safeSubstring(csrfTokenFromHeader, 0, 50))
fmt.Printf("[CSRF MIDDLEWARE] CSRF токен из формы csrf_token: %s\n",
safeSubstring(csrfTokenFromForm, 0, 50))
csrfToken := csrfTokenFromHeader
csrfToken := r.Header.Get("X-CSRF-Token")
if csrfToken == "" {
csrfToken = csrfTokenFromForm
csrfToken = r.FormValue("csrf_token")
}
if csrfToken == "" {
fmt.Printf("[CSRF MIDDLEWARE] ❌ ОШИБКА: CSRF токен не найден ни в заголовке, ни в форме!\n")
// Для API запросов возвращаем JSON ошибку
if isAPIRequest(r) {
w.Header().Set("Content-Type", "application/json")
@@ -123,47 +77,12 @@ func CSRFMiddleware(next http.HandlerFunc) http.HandlerFunc {
return
}
fmt.Printf("[CSRF MIDDLEWARE] Используемый CSRF токен (первые 50 символов): %s...\n",
safeSubstring(csrfToken, 0, 50))
// Получаем сессионный ID
sessionID := getSessionID(r)
fmt.Printf("[CSRF MIDDLEWARE] SessionID: %s\n", sessionID)
// Получаем CSRF токен из cookie для сравнения
csrfTokenFromCookie := GetCSRFTokenFromCookie(r)
if csrfTokenFromCookie != "" {
fmt.Printf("[CSRF MIDDLEWARE] CSRF токен из cookie (первые 50 символов): %s...\n",
safeSubstring(csrfTokenFromCookie, 0, 50))
if csrfTokenFromCookie != csrfToken {
fmt.Printf("[CSRF MIDDLEWARE] ⚠️ ВНИМАНИЕ: Токен из cookie отличается от токена в запросе!\n")
} else {
fmt.Printf("[CSRF MIDDLEWARE] ✅ Токен из cookie совпадает с токеном в запросе\n")
}
} else {
fmt.Printf("[CSRF MIDDLEWARE] ⚠️ ВНИМАНИЕ: CSRF токен не найден в cookie!\n")
}
// Проверяем CSRF токен
csrfManager := GetCSRFManager()
if csrfManager == nil {
fmt.Printf("[CSRF MIDDLEWARE] ❌ ОШИБКА: CSRF менеджер не инициализирован!\n")
if isAPIRequest(r) {
w.Header().Set("Content-Type", "application/json")
w.WriteHeader(http.StatusForbidden)
w.Write([]byte(`{"success": false, "error": "Invalid CSRF token"}`))
return
}
http.Error(w, "Invalid CSRF token", http.StatusForbidden)
return
}
fmt.Printf("[CSRF MIDDLEWARE] Вызов ValidateToken с токеном и sessionID: %s\n", sessionID)
valid := csrfManager.ValidateToken(csrfToken, sessionID)
fmt.Printf("[CSRF MIDDLEWARE] Результат ValidateToken: %t\n", valid)
if !valid {
fmt.Printf("[CSRF MIDDLEWARE] ❌ ОШИБКА: Валидация CSRF токена не прошла!\n")
if csrfManager == nil || !csrfManager.ValidateToken(csrfToken, sessionID) {
// Для API запросов возвращаем JSON ошибку
if isAPIRequest(r) {
w.Header().Set("Content-Type", "application/json")
@@ -177,8 +96,6 @@ func CSRFMiddleware(next http.HandlerFunc) http.HandlerFunc {
return
}
fmt.Printf("[CSRF MIDDLEWARE] ✅ CSRF токен валиден, продолжаем обработку запроса\n")
fmt.Printf("[CSRF MIDDLEWARE] ==========================================\n\n")
// CSRF токен валиден, продолжаем
next(w, r)
}

View File

@@ -72,9 +72,8 @@ var ExecutePageCSSTemplate = template.Must(template.New("execute_css").Parse(`
text-align: center;
}
.header h1 {
margin: 0;
font-size: 2.5em;
font-weight: 300;
margin-bottom: 10px;
}
.header p {
opacity: 0.9;