mirror of
https://github.com/Direct-Dev-Ru/go-lcg.git
synced 2025-11-16 01:29:55 +00:00
Compare commits
42 Commits
| Author | SHA1 | Date | |
|---|---|---|---|
| 600c9689af | |||
| 8e2e995d50 | |||
| 51023ba058 | |||
| 572c535589 | |||
| 0820e859a6 | |||
| 641124b0bd | |||
| 2659aa4928 | |||
| 278a817709 | |||
| c83fed5591 | |||
| fbf8e0408c | |||
| 7b7142a5c3 | |||
| 1428e0bd5c | |||
| 8348cac2aa | |||
| 9365e0833c | |||
| 731784b420 | |||
| 57f51c5d0e | |||
| a78e1d24bf | |||
| d0b53607c4 | |||
| 487f3d484c | |||
| 814ca9ba7f | |||
| c975e00c50 | |||
| 01488edbee | |||
| 63876a393c | |||
| eb9a7dcf32 | |||
| 49a41c597a | |||
| 93f60c4e36 | |||
| 8cdb31d96d | |||
| a20fb846f0 | |||
| 90cfc6fb0c | |||
| 114146f4d2 | |||
| b4b902cb4c | |||
| 7933abe62d | |||
| d213de7a95 | |||
| 81b01d74ae | |||
| 1fbdd237a3 | |||
| 2d82b91090 | |||
| 5d3829d1fe | |||
| edadedcf80 | |||
| 5ff6d4e072 | |||
| ffc2d6ba0a | |||
| dab94df7d2 | |||
| 281f7f877a |
@@ -1,32 +0,0 @@
|
||||
# Goreleaser configuration version 2
|
||||
version: 2
|
||||
|
||||
builds:
|
||||
- id: lcg
|
||||
binary: "lcg_{{ .Version }}"
|
||||
goos:
|
||||
- linux
|
||||
- windows
|
||||
- darwin
|
||||
goarch:
|
||||
- amd64
|
||||
- arm64
|
||||
env:
|
||||
- CGO_ENABLED=0
|
||||
ldflags:
|
||||
- -s -w
|
||||
- -X main.version={{.Version}}
|
||||
- -X main.commit={{.Commit}}
|
||||
- -X main.date={{.Date}}
|
||||
main: .
|
||||
dir: .
|
||||
|
||||
archives:
|
||||
- id: lcg
|
||||
ids:
|
||||
- lcg
|
||||
formats:
|
||||
- binary
|
||||
name_template: "{{ .Binary }}_{{ .Os }}_{{ .Arch }}"
|
||||
files:
|
||||
- "lcg_{{ .Version }}"
|
||||
52
Dockerfiles/OllamaServer/.dockerignore
Normal file
52
Dockerfiles/OllamaServer/.dockerignore
Normal file
@@ -0,0 +1,52 @@
|
||||
# Git
|
||||
.git
|
||||
.gitignore
|
||||
.gitattributes
|
||||
|
||||
# Build artifacts
|
||||
dist/
|
||||
*.exe
|
||||
*.dll
|
||||
*.so
|
||||
*.dylib
|
||||
lcg
|
||||
go-lcg
|
||||
|
||||
# IDE
|
||||
.idea/
|
||||
.vscode/
|
||||
*.swp
|
||||
*.swo
|
||||
*~
|
||||
|
||||
# Documentation
|
||||
docs/
|
||||
*.md
|
||||
!README.md
|
||||
|
||||
# Tests
|
||||
*_test.go
|
||||
test_*.sh
|
||||
|
||||
# Deployment scripts
|
||||
deploy/
|
||||
shell-code/
|
||||
kustomize/
|
||||
|
||||
# Temporary files
|
||||
*.log
|
||||
*.tmp
|
||||
*.temp
|
||||
|
||||
# OS files
|
||||
.DS_Store
|
||||
Thumbs.db
|
||||
|
||||
# Go
|
||||
vendor/
|
||||
|
||||
# Docker
|
||||
Dockerfile*
|
||||
docker-compose*.yml
|
||||
.dockerignore
|
||||
|
||||
15
Dockerfiles/OllamaServer/.gitignore
vendored
Normal file
15
Dockerfiles/OllamaServer/.gitignore
vendored
Normal file
@@ -0,0 +1,15 @@
|
||||
# Временные файлы
|
||||
*.log
|
||||
*.tmp
|
||||
*.temp
|
||||
|
||||
# IDE
|
||||
.idea/
|
||||
.vscode/
|
||||
*.swp
|
||||
*.swo
|
||||
|
||||
# OS files
|
||||
.DS_Store
|
||||
Thumbs.db
|
||||
|
||||
93
Dockerfiles/OllamaServer/Dockerfile
Normal file
93
Dockerfiles/OllamaServer/Dockerfile
Normal file
@@ -0,0 +1,93 @@
|
||||
# Используем готовый образ Ollama
|
||||
FROM localhost/ollama_packed:latest
|
||||
|
||||
RUN apt-get update && apt-get install -y --no-install-recommends bash && apt-get install -y --no-install-recommends curl \
|
||||
&& apt-get install -y --no-install-recommends jq && apt-get install -y --no-install-recommends wget
|
||||
|
||||
|
||||
# Устанавливаем bash если его нет (базовый образ ollama может быть на разных дистрибутивах)
|
||||
RUN if ! command -v bash >/dev/null 2>&1; then \
|
||||
if command -v apk >/dev/null 2>&1; then \
|
||||
apk add --no-cache bash; \
|
||||
elif command -v apt-get >/dev/null 2>&1; then \
|
||||
apt-get update && apt-get install -y --no-install-recommends bash && rm -rf /var/lib/apt/lists/*; \
|
||||
fi; \
|
||||
fi
|
||||
|
||||
# Определяем архитектуру для копирования правильного бинарника
|
||||
ARG TARGETARCH
|
||||
ARG TARGETOS=linux
|
||||
|
||||
# Копируем папку dist с бинарниками
|
||||
# Структура: dist/lcg_linux_amd64_v1/lcg_* или dist/lcg_linux_arm64_v8.0/lcg_*
|
||||
COPY dist/ /tmp/dist/
|
||||
|
||||
# Выбираем правильный бинарник в зависимости от архитектуры
|
||||
# Если TARGETARCH не установлен, определяем архитектуру через uname
|
||||
RUN ARCH="${TARGETARCH:-$(uname -m)}" && \
|
||||
case "${ARCH}" in \
|
||||
amd64|x86_64) \
|
||||
BIN_FILE=$(find /tmp/dist/lcg_linux_amd64_v* -name "lcg_*" -type f 2>/dev/null | head -1) && \
|
||||
if [ -n "$BIN_FILE" ]; then \
|
||||
cp "$BIN_FILE" /usr/local/bin/lcg && \
|
||||
echo "Установлен бинарник для amd64: $BIN_FILE"; \
|
||||
else \
|
||||
echo "Бинарник для amd64 не найден в /tmp/dist/" && exit 1; \
|
||||
fi ;; \
|
||||
arm64|aarch64|arm) \
|
||||
BIN_FILE=$(find /tmp/dist/lcg_linux_arm64_v* -name "lcg_*" -type f 2>/dev/null | head -1) && \
|
||||
if [ -n "$BIN_FILE" ]; then \
|
||||
cp "$BIN_FILE" /usr/local/bin/lcg && \
|
||||
echo "Установлен бинарник для arm64: $BIN_FILE"; \
|
||||
else \
|
||||
echo "Бинарник для arm64 не найден в /tmp/dist/" && exit 1; \
|
||||
fi ;; \
|
||||
*) \
|
||||
echo "Unsupported architecture: ${ARCH}" && \
|
||||
echo "Доступные бинарники:" && \
|
||||
find /tmp/dist -name "lcg_*" -type f 2>/dev/null && \
|
||||
exit 1 ;; \
|
||||
esac && \
|
||||
chmod +x /usr/local/bin/lcg && \
|
||||
rm -rf /tmp/dist && \
|
||||
(lcg --version || echo "Бинарник lcg установлен")
|
||||
|
||||
# Копируем entrypoint скрипт
|
||||
COPY --chmod=755 Dockerfiles/OllamaServer/entrypoint.sh /entrypoint.sh
|
||||
|
||||
# Создаем директории для данных LCG
|
||||
# В базовом образе ollama уже есть пользователь ollama
|
||||
RUN mkdir -p /app/data/results /app/data/prompts /app/data/config
|
||||
|
||||
# Устанавливаем права доступа (пользователь ollama должен существовать в базовом образе)
|
||||
RUN chown -R ollama:ollama /app/data 2>/dev/null || \
|
||||
(chown -R 1000:1000 /app/data 2>/dev/null || true)
|
||||
|
||||
# Настройки по умолчанию
|
||||
ENV TZ='Asia/Omsk'
|
||||
RUN ln -snf /usr/share/zoneinfo/$TZ /etc/localtime && echo $TZ > /etc/timezone
|
||||
ENV LCG_PROVIDER=ollama
|
||||
ENV LCG_HOST=http://127.0.0.1:11434/
|
||||
ENV LCG_MODEL=qwen2.5-coder:1.5b
|
||||
ENV LCG_RESULT_FOLDER=/app/data/results
|
||||
ENV LCG_PROMPT_FOLDER=/app/data/prompts
|
||||
ENV LCG_CONFIG_FOLDER=/app/data/config
|
||||
ENV LCG_SERVER_HOST=0.0.0.0
|
||||
ENV LCG_SERVER_PORT=8080
|
||||
ENV LCG_DOMAIN="remote.ollama-server.ru"
|
||||
ENV LCG_COOKIE_PATH="/lcg"
|
||||
# ENV LCG_FORCE_NO_CSRF=true
|
||||
|
||||
# ENV LCG_SERVER_ALLOW_HTTP=true
|
||||
# ENV OLLAMA_HOST=127.0.0.1
|
||||
# ENV OLLAMA_PORT=11434
|
||||
|
||||
# Expose порты
|
||||
EXPOSE 8080
|
||||
|
||||
WORKDIR /home/ollama
|
||||
|
||||
# Запускаем entrypoint
|
||||
ENTRYPOINT ["/entrypoint.sh"]
|
||||
CMD []
|
||||
|
||||
141
Dockerfiles/OllamaServer/Makefile
Normal file
141
Dockerfiles/OllamaServer/Makefile
Normal file
@@ -0,0 +1,141 @@
|
||||
.PHONY: build build-podman run run-podman stop stop-podman logs logs-podman clean help
|
||||
|
||||
# Переменные
|
||||
IMAGE_NAME = lcg-ollama
|
||||
IMAGE_TAG = latest
|
||||
CONTAINER_NAME = lcg-ollama
|
||||
DOCKERFILE = Dockerfile
|
||||
CONTEXT = ../..
|
||||
|
||||
help: ## Показать справку
|
||||
@echo "Доступные команды:"
|
||||
@echo " make build - Собрать Docker образ"
|
||||
@echo " make build-podman - Собрать Podman образ"
|
||||
@echo " make run - Запустить контейнер (Docker)"
|
||||
@echo " make run-podman - Запустить контейнер (Podman)"
|
||||
@echo " make stop - Остановить контейнер (Docker)"
|
||||
@echo " make stop-podman - Остановить контейнер (Podman)"
|
||||
@echo " make logs - Показать логи (Docker)"
|
||||
@echo " make logs-podman - Показать логи (Podman)"
|
||||
@echo " make clean - Удалить контейнер и образ"
|
||||
@echo " make compose-up - Запустить через docker-compose"
|
||||
@echo " make compose-down - Остановить docker-compose"
|
||||
@echo " make podman-compose-up - Запустить через podman-compose"
|
||||
@echo " make podman-compose-down - Остановить podman-compose"
|
||||
|
||||
build: ## Собрать Docker образ (требует собранных бинарников в dist/)
|
||||
@echo "⚠️ Убедитесь, что бинарники собраны: goreleaser build --snapshot --clean"
|
||||
docker build -f $(DOCKERFILE) -t $(IMAGE_NAME):$(IMAGE_TAG) $(CONTEXT)
|
||||
@echo "Образ $(IMAGE_NAME):$(IMAGE_TAG) успешно собран"
|
||||
|
||||
build-podman: ## Собрать Podman образ (требует собранных бинарников в dist/)
|
||||
@echo "⚠️ Убедитесь, что бинарники собраны: goreleaser build --snapshot --clean"
|
||||
podman build -f $(DOCKERFILE) -t $(IMAGE_NAME):$(IMAGE_TAG) $(CONTEXT)
|
||||
@echo "Образ $(IMAGE_NAME):$(IMAGE_TAG) успешно собран"
|
||||
|
||||
build-binaries: ## Собрать бинарники перед сборкой образа
|
||||
@echo "Сборка бинарников..."
|
||||
cd $(CONTEXT) && goreleaser build --snapshot --clean
|
||||
@echo "Бинарники собраны в $(CONTEXT)/dist/"
|
||||
|
||||
build-all: build-binaries build ## Собрать бинарники и Docker образ
|
||||
@echo "✅ Все готово!"
|
||||
|
||||
build-all-podman: build-binaries build-podman ## Собрать бинарники и Podman образ
|
||||
@echo "✅ Все готово!"
|
||||
|
||||
run: ## Запустить контейнер (Docker)
|
||||
docker run -d \
|
||||
--name ${CONTAINER_NAME} \
|
||||
-p 8989:8080 \
|
||||
-v ollama-data:/home/ollama/.ollama \
|
||||
-v lcg-results:/app/data/results \
|
||||
-v lcg-prompts:/app/data/prompts \
|
||||
-v lcg-config:/app/data/config \
|
||||
${IMAGE_NAME}:${IMAGE_TAG} ollama serve
|
||||
@echo "Контейнер ${CONTAINER_NAME} запущен"
|
||||
|
||||
run-podman: ## Запустить контейнер (Podman)
|
||||
echo "Запустить контейнер ${CONTAINER_NAME}"
|
||||
echo "IMAGE_NAME: ${IMAGE_NAME}"
|
||||
echo "IMAGE_TAG: ${IMAGE_TAG}"
|
||||
echo "CONTAINER_NAME: ${CONTAINER_NAME}"
|
||||
|
||||
podman run -d \
|
||||
--name ${CONTAINER_NAME} \
|
||||
--restart always \
|
||||
-p 8989:8080 \
|
||||
-v ollama-data:/home/ollama/.ollama \
|
||||
-v lcg-results:/app/data/results \
|
||||
-v lcg-prompts:/app/data/prompts \
|
||||
-v lcg-config:/app/data/config \
|
||||
${IMAGE_NAME}:${IMAGE_TAG} ollama serve
|
||||
@echo "Контейнер ${CONTAINER_NAME} запущен"
|
||||
|
||||
run-podman-nodemon: ## Запустить контейнер (Podman) без -d
|
||||
echo "Запустить контейнер ${CONTAINER_NAME}"
|
||||
echo "IMAGE_NAME: ${IMAGE_NAME}"
|
||||
echo "IMAGE_TAG: ${IMAGE_TAG}"
|
||||
echo "CONTAINER_NAME: ${CONTAINER_NAME}"
|
||||
|
||||
podman run \
|
||||
--name ${CONTAINER_NAME} \
|
||||
--restart always \
|
||||
-p 8989:8080 \
|
||||
-v ollama-data:/home/ollama/.ollama \
|
||||
-v lcg-results:/app/data/results \
|
||||
-v lcg-prompts:/app/data/prompts \
|
||||
-v lcg-config:/app/data/config \
|
||||
${IMAGE_NAME}:${IMAGE_TAG} ollama serve
|
||||
@echo "Контейнер ${CONTAINER_NAME} запущен"
|
||||
|
||||
stop: ## Остановить контейнер (Docker)
|
||||
docker stop $(CONTAINER_NAME) || true
|
||||
docker rm $(CONTAINER_NAME) || true
|
||||
@echo "Контейнер $(CONTAINER_NAME) остановлен и удален"
|
||||
|
||||
stop-podman: ## Остановить контейнер (Podman)
|
||||
podman stop $(CONTAINER_NAME) || true
|
||||
podman rm $(CONTAINER_NAME) || true
|
||||
@echo "Контейнер $(CONTAINER_NAME) остановлен и удален"
|
||||
|
||||
logs: ## Показать логи (Docker)
|
||||
docker logs -f $(CONTAINER_NAME)
|
||||
|
||||
logs-podman: ## Показать логи (Podman)
|
||||
podman logs -f $(CONTAINER_NAME)
|
||||
|
||||
clean: ## Удалить контейнер и образ
|
||||
docker stop $(CONTAINER_NAME) || true
|
||||
docker rm $(CONTAINER_NAME) || true
|
||||
docker rmi $(IMAGE_NAME):$(IMAGE_TAG) || true
|
||||
@echo "Контейнер и образ удалены"
|
||||
|
||||
compose-up: ## Запустить через docker-compose
|
||||
docker-compose up -d
|
||||
@echo "Сервисы запущены через docker-compose"
|
||||
|
||||
compose-down: ## Остановить docker-compose
|
||||
docker-compose down
|
||||
@echo "Сервисы остановлены"
|
||||
|
||||
podman-compose-up: ## Запустить через podman-compose
|
||||
podman-compose -f podman-compose.yml up -d
|
||||
@echo "Сервисы запущены через podman-compose"
|
||||
|
||||
podman-compose-down: ## Остановить podman-compose
|
||||
podman-compose -f podman-compose.yml down
|
||||
@echo "Сервисы остановлены"
|
||||
|
||||
shell: ## Подключиться к контейнеру (Docker)
|
||||
docker exec -it $(CONTAINER_NAME) sh
|
||||
|
||||
shell-podman: ## Подключиться к контейнеру (Podman)
|
||||
podman exec -it $(CONTAINER_NAME) sh
|
||||
|
||||
pull-model: ## Загрузить модель codegeex4 (Docker)
|
||||
docker exec $(CONTAINER_NAME) ollama pull codegeex4
|
||||
|
||||
pull-model-podman: ## Загрузить модель codegeex4 (Podman)
|
||||
podman exec $(CONTAINER_NAME) ollama pull codegeex4
|
||||
|
||||
185
Dockerfiles/OllamaServer/QUICKSTART.md
Normal file
185
Dockerfiles/OllamaServer/QUICKSTART.md
Normal file
@@ -0,0 +1,185 @@
|
||||
# 🚀 Быстрый старт - LCG с Ollama
|
||||
|
||||
## Подготовка
|
||||
|
||||
1. Убедитесь, что у вас установлен Docker или Podman
|
||||
2. Клонируйте репозиторий (если еще не сделали)
|
||||
3. Соберите бинарники (требуется перед сборкой образа)
|
||||
|
||||
```bash
|
||||
# Из корня проекта
|
||||
goreleaser build --snapshot --clean
|
||||
|
||||
# Или используйте скрипт
|
||||
./deploy/4.build-binaries.sh v2.0.15
|
||||
```
|
||||
|
||||
4. Перейдите в папку с Dockerfile
|
||||
|
||||
```bash
|
||||
cd Dockerfiles/OllamaServer
|
||||
```
|
||||
|
||||
## Запуск с Docker
|
||||
|
||||
### Вариант 1: Docker Compose (рекомендуется)
|
||||
|
||||
```bash
|
||||
# Важно: убедитесь, что бинарники собраны в ../../dist/
|
||||
docker-compose up -d
|
||||
```
|
||||
|
||||
### Вариант 2: Ручная сборка и запуск
|
||||
|
||||
```bash
|
||||
# Сборка образа (контекст должен быть корень проекта)
|
||||
cd ../.. # Переходим в корень проекта
|
||||
docker build -f Dockerfiles/OllamaServer/Dockerfile -t lcg-ollama:latest .
|
||||
|
||||
# Запуск контейнера
|
||||
docker run -d \
|
||||
--name lcg-ollama \
|
||||
-p 8080:8080 \
|
||||
-p 11434:11434 \
|
||||
-v ollama-data:/home/ollama/.ollama \
|
||||
-v lcg-results:/app/data/results \
|
||||
lcg-ollama:latest
|
||||
```
|
||||
|
||||
## Запуск с Podman
|
||||
|
||||
### Вариант 1: Podman Compose
|
||||
|
||||
```bash
|
||||
podman-compose -f podman-compose.yml up -d
|
||||
```
|
||||
|
||||
### Вариант 2: Ручная сборка и запуск
|
||||
|
||||
```bash
|
||||
# Сборка образа (контекст должен быть корень проекта)
|
||||
cd ../.. # Переходим в корень проекта
|
||||
podman build -f Dockerfiles/OllamaServer/Dockerfile -t lcg-ollama:latest .
|
||||
|
||||
# Запуск контейнера
|
||||
podman run -d \
|
||||
--name lcg-ollama \
|
||||
-p 8080:8080 \
|
||||
-p 11434:11434 \
|
||||
-v ollama-data:/home/ollama/.ollama \
|
||||
-v lcg-results:/app/data/results \
|
||||
lcg-ollama:latest
|
||||
```
|
||||
|
||||
## Проверка запуска
|
||||
|
||||
### Проверка логов
|
||||
|
||||
```bash
|
||||
# Docker
|
||||
docker logs -f lcg-ollama
|
||||
|
||||
# Podman
|
||||
podman logs -f lcg-ollama
|
||||
```
|
||||
|
||||
Дождитесь сообщений:
|
||||
- `Ollama сервер готов!`
|
||||
- `LCG сервер запущен на http://0.0.0.0:8080`
|
||||
|
||||
### Проверка доступности
|
||||
|
||||
```bash
|
||||
# Проверка Ollama
|
||||
curl http://localhost:11434/api/tags
|
||||
|
||||
# Проверка LCG
|
||||
curl http://localhost:8080/
|
||||
```
|
||||
|
||||
## Загрузка модели
|
||||
|
||||
После запуска контейнера загрузите модель:
|
||||
|
||||
```bash
|
||||
# Docker
|
||||
docker exec lcg-ollama ollama pull codegeex4
|
||||
|
||||
# Podman
|
||||
podman exec lcg-ollama ollama pull codegeex4
|
||||
```
|
||||
|
||||
Или используйте модель по умолчанию, указанную в переменных окружения.
|
||||
|
||||
## Доступ к веб-интерфейсу
|
||||
|
||||
Откройте в браузере: http://localhost:8080
|
||||
|
||||
## Остановка
|
||||
|
||||
```bash
|
||||
# Docker
|
||||
docker-compose down
|
||||
|
||||
# Podman
|
||||
podman-compose -f podman-compose.yml down
|
||||
```
|
||||
|
||||
Или для ручного запуска:
|
||||
|
||||
```bash
|
||||
# Docker
|
||||
docker stop lcg-ollama
|
||||
docker rm lcg-ollama
|
||||
|
||||
# Podman
|
||||
podman stop lcg-ollama
|
||||
podman rm lcg-ollama
|
||||
```
|
||||
|
||||
## Решение проблем
|
||||
|
||||
### Порт занят
|
||||
|
||||
Измените порты в docker-compose.yml или команде run:
|
||||
|
||||
```bash
|
||||
-p 9000:8080 # LCG на порту 9000
|
||||
-p 11435:11434 # Ollama на порту 11435
|
||||
```
|
||||
|
||||
### Контейнер не запускается
|
||||
|
||||
Проверьте логи:
|
||||
|
||||
```bash
|
||||
docker logs lcg-ollama
|
||||
# или
|
||||
podman logs lcg-ollama
|
||||
```
|
||||
|
||||
### Модель не загружена
|
||||
|
||||
Убедитесь, что модель существует:
|
||||
|
||||
```bash
|
||||
docker exec lcg-ollama ollama list
|
||||
# или
|
||||
podman exec lcg-ollama ollama list
|
||||
```
|
||||
|
||||
Если модели нет, загрузите её:
|
||||
|
||||
```bash
|
||||
docker exec lcg-ollama ollama pull codegeex4
|
||||
# или
|
||||
podman exec lcg-ollama ollama pull codegeex4
|
||||
```
|
||||
|
||||
## Следующие шаги
|
||||
|
||||
- Прочитайте полную документацию в [README.md](README.md)
|
||||
- Настройте аутентификацию для продакшена
|
||||
- Настройте reverse proxy для HTTPS
|
||||
- Загрузите нужные модели Ollama
|
||||
|
||||
454
Dockerfiles/OllamaServer/README.md
Normal file
454
Dockerfiles/OllamaServer/README.md
Normal file
@@ -0,0 +1,454 @@
|
||||
# 🐳 LCG с Ollama Server - Docker/Podman контейнер
|
||||
|
||||
Этот образ содержит Linux Command GPT (LCG) и Ollama сервер, работающие вместе в одном контейнере.
|
||||
|
||||
Поддерживается запуск через Docker и Podman.
|
||||
|
||||
## 📋 Описание
|
||||
|
||||
Контейнер автоматически запускает:
|
||||
|
||||
1 **Ollama сервер** (v0.9.5) на порту 11434
|
||||
|
||||
2 **LCG веб-сервер** на порту 8080
|
||||
|
||||
Ollama используется как провайдер LLM для генерации Linux команд.
|
||||
|
||||
## 🚀 Быстрый старт
|
||||
|
||||
### Предварительные требования
|
||||
|
||||
Перед сборкой Docker образа необходимо собрать бинарники:
|
||||
|
||||
```bash
|
||||
# Из корня проекта
|
||||
# Используйте goreleaser для сборки бинарников
|
||||
goreleaser build --snapshot --clean
|
||||
|
||||
# Или используйте скрипт сборки
|
||||
./deploy/4.build-binaries.sh v2.0.15
|
||||
```
|
||||
|
||||
Убедитесь, что в папке `dist/` есть бинарники:
|
||||
|
||||
- `dist/lcg_linux_amd64_v1/lcg_*` для amd64
|
||||
- `dist/lcg_linux_arm64_v8.0/lcg_*` для arm64
|
||||
|
||||
### Сборка образа
|
||||
|
||||
#### Docker
|
||||
|
||||
```bash
|
||||
# Из корня проекта (важно: контекст должен быть корень проекта)
|
||||
docker build -f Dockerfiles/OllamaServer/Dockerfile -t lcg-ollama:latest .
|
||||
|
||||
# Или с указанием архитектуры
|
||||
docker buildx build \
|
||||
--platform linux/amd64,linux/arm64 \
|
||||
-f Dockerfiles/OllamaServer/Dockerfile \
|
||||
-t lcg-ollama:latest .
|
||||
```
|
||||
|
||||
#### Podman
|
||||
|
||||
```bash
|
||||
# Из корня проекта
|
||||
podman build -f Dockerfiles/OllamaServer/Dockerfile -t lcg-ollama:latest .
|
||||
|
||||
# Или с указанием архитектуры
|
||||
podman build \
|
||||
--platform linux/amd64,linux/arm64 \
|
||||
-f Dockerfiles/OllamaServer/Dockerfile \
|
||||
-t lcg-ollama:latest .
|
||||
```
|
||||
|
||||
### Запуск контейнера
|
||||
|
||||
#### Docker run
|
||||
|
||||
```bash
|
||||
docker run -d \
|
||||
--name lcg-ollama \
|
||||
-p 8080:8080 \
|
||||
lcg-ollama:latest
|
||||
ollama serve
|
||||
```
|
||||
|
||||
#### Podman run
|
||||
|
||||
```bash
|
||||
podman run -d \
|
||||
--name lcg-ollama \
|
||||
-p 8989:8080 \
|
||||
--restart always \
|
||||
lcg-ollama:latest \
|
||||
ollama serve
|
||||
```
|
||||
|
||||
когда контейнер запущен на удаленном хосте - можете воспользоваться консольными возможностями утилиты lcg следующим образом
|
||||
|
||||
``` bash
|
||||
ssh user@[host_where_contaier_running] 'podman exec -it $(podman ps -q --filter \"ancestor=localhost/lcg-ollama:latest\") lcg [your query]
|
||||
```
|
||||
|
||||
``` bash
|
||||
ssh user@[host_where_contaier_running] 'podman exec -it $(podman ps -q --filter "ancestor=localhost/lcg-ollama:latest") /bin/sh -c "export LCG_MODEL=qwen3:0.6b && lcg config --full"'
|
||||
|
||||
### Использование docker-compose / podman-compose
|
||||
|
||||
#### Docker Compose
|
||||
|
||||
```bash
|
||||
cd Dockerfiles/OllamaServer
|
||||
docker-compose up -d
|
||||
```
|
||||
|
||||
#### Podman Compose
|
||||
|
||||
```bash
|
||||
cd Dockerfiles/OllamaServer
|
||||
podman-compose -f podman-compose.yml up -d
|
||||
```
|
||||
|
||||
Или используйте встроенную поддержку Podman:
|
||||
|
||||
```bash
|
||||
cd Dockerfiles/OllamaServer
|
||||
podman play kube podman-compose.yml
|
||||
```
|
||||
|
||||
## 🌐 Доступ к сервисам
|
||||
|
||||
После запуска контейнера доступны:
|
||||
|
||||
- **LCG веб-интерфейс**: <http://localhost:8080>
|
||||
- **Ollama API**: <http://localhost:11434>
|
||||
|
||||
## ⚙️ Переменные окружения
|
||||
|
||||
### Настройки LCG
|
||||
|
||||
| Переменная | Значение по умолчанию | Описание |
|
||||
|------------|----------------------|----------|
|
||||
| `LCG_PROVIDER` | `ollama` | Тип провайдера |
|
||||
| `LCG_HOST` | `http://127.0.0.1:11434/` | URL Ollama API |
|
||||
| `LCG_MODEL` | `codegeex4` | Модель для использования |
|
||||
| `LCG_SERVER_HOST` | `0.0.0.0` | Хост LCG сервера |
|
||||
| `LCG_SERVER_PORT` | `8080` | Порт LCG сервера |
|
||||
| `LCG_SERVER_ALLOW_HTTP` | `true` | Разрешить HTTP |
|
||||
| `LCG_RESULT_FOLDER` | `/app/data/results` | Папка для результатов |
|
||||
| `LCG_PROMPT_FOLDER` | `/app/data/prompts` | Папка для промптов |
|
||||
| `LCG_CONFIG_FOLDER` | `/app/data/config` | Папка для конфигурации |
|
||||
|
||||
### Настройки Ollama
|
||||
|
||||
| Переменная | Значение по умолчанию | Описание |
|
||||
|------------|----------------------|----------|
|
||||
| `OLLAMA_HOST` | `127.0.0.1` | Хост Ollama сервера |
|
||||
| `OLLAMA_PORT` | `11434` | Порт Ollama сервера |
|
||||
|
||||
### Безопасность
|
||||
|
||||
| Переменная | Значение по умолчанию | Описание |
|
||||
|------------|----------------------|----------|
|
||||
| `LCG_SERVER_REQUIRE_AUTH` | `false` | Требовать аутентификацию |
|
||||
| `LCG_SERVER_PASSWORD` | `admin#123456` | Пароль для аутентификации |
|
||||
|
||||
## 📦 Volumes
|
||||
|
||||
Рекомендуется монтировать volumes для персистентного хранения данных:
|
||||
|
||||
```bash
|
||||
docker run -d \
|
||||
--name lcg-ollama \
|
||||
-p 8080:8080 \
|
||||
-p 11434:11434 \
|
||||
-v ollama-data:/home/ollama/.ollama \
|
||||
-v lcg-results:/app/data/results \
|
||||
-v lcg-prompts:/app/data/prompts \
|
||||
-v lcg-config:/app/data/config \
|
||||
lcg-ollama:latest
|
||||
```
|
||||
|
||||
### Volumes описание
|
||||
|
||||
- `ollama-data`: Модели и данные Ollama
|
||||
- `lcg-results`: Результаты генерации команд
|
||||
- `lcg-prompts`: Системные промпты
|
||||
- `lcg-config`: Конфигурация LCG
|
||||
|
||||
## 🔧 Примеры использования
|
||||
|
||||
### Запуск с кастомной моделью
|
||||
|
||||
```bash
|
||||
docker run -d \
|
||||
--name lcg-ollama \
|
||||
-p 8080:8080 \
|
||||
-p 11434:11434 \
|
||||
-e LCG_MODEL=llama3:8b \
|
||||
lcg-ollama:latest
|
||||
```
|
||||
|
||||
### Запуск с аутентификацией
|
||||
|
||||
```bash
|
||||
docker run -d \
|
||||
--name lcg-ollama \
|
||||
-p 8080:8080 \
|
||||
-p 11434:11434 \
|
||||
-e LCG_SERVER_REQUIRE_AUTH=true \
|
||||
-e LCG_SERVER_PASSWORD=my_secure_password \
|
||||
lcg-ollama:latest
|
||||
```
|
||||
|
||||
### Запуск с кастомным портом
|
||||
|
||||
```bash
|
||||
docker run -d \
|
||||
--name lcg-ollama \
|
||||
-p 9000:9000 \
|
||||
-p 11434:11434 \
|
||||
-e LCG_SERVER_PORT=9000 \
|
||||
lcg-ollama:latest
|
||||
```
|
||||
|
||||
## 📥 Загрузка моделей Ollama
|
||||
|
||||
После запуска контейнера можно загрузить модели:
|
||||
|
||||
```bash
|
||||
# Подключиться к контейнеру
|
||||
docker exec -it lcg-ollama sh
|
||||
|
||||
# Загрузить модель
|
||||
ollama pull codegeex4
|
||||
ollama pull llama3:8b
|
||||
ollama pull qwen2.5:7b
|
||||
```
|
||||
|
||||
Или извне контейнера:
|
||||
|
||||
```bash
|
||||
# Убедитесь, что Ollama доступен извне (OLLAMA_HOST=0.0.0.0)
|
||||
docker exec lcg-ollama ollama pull codegeex4
|
||||
```
|
||||
|
||||
## 🔍 Проверка работоспособности
|
||||
|
||||
### Проверка Ollama
|
||||
|
||||
```bash
|
||||
# Проверка health
|
||||
curl http://localhost:11434/api/tags
|
||||
|
||||
# Список моделей
|
||||
curl http://localhost:11434/api/tags | jq '.models'
|
||||
```
|
||||
|
||||
### Проверка LCG
|
||||
|
||||
```bash
|
||||
# Проверка веб-интерфейса
|
||||
curl http://localhost:8080/
|
||||
|
||||
# Проверка через API
|
||||
curl -X POST http://localhost:8080/api/execute \
|
||||
-H "Content-Type: application/json" \
|
||||
-d '{"prompt": "создать директорию test"}'
|
||||
```
|
||||
|
||||
## 🐧 Podman специфичные инструкции
|
||||
|
||||
### Запуск с Podman
|
||||
|
||||
Podman работает аналогично Docker, но есть несколько отличий:
|
||||
|
||||
#### Создание сетей (если нужно)
|
||||
|
||||
```bash
|
||||
podman network create lcg-network
|
||||
```
|
||||
|
||||
#### Запуск с сетью
|
||||
|
||||
```bash
|
||||
podman run -d \
|
||||
--name lcg-ollama \
|
||||
--network lcg-network \
|
||||
-p 8080:8080 \
|
||||
-p 11434:11434 \
|
||||
lcg-ollama:latest
|
||||
```
|
||||
|
||||
#### Запуск в rootless режиме
|
||||
|
||||
Podman по умолчанию работает в rootless режиме, что повышает безопасность:
|
||||
|
||||
```bash
|
||||
# Не требует sudo
|
||||
podman run -d \
|
||||
--name lcg-ollama \
|
||||
-p 8080:8080 \
|
||||
-p 11434:11434 \
|
||||
lcg-ollama:latest
|
||||
```
|
||||
|
||||
#### Использование systemd для автозапуска
|
||||
|
||||
Создайте systemd unit файл:
|
||||
|
||||
```bash
|
||||
# Генерируем unit файл
|
||||
podman generate systemd --name lcg-ollama --files
|
||||
|
||||
# Копируем в systemd
|
||||
sudo cp container-lcg-ollama.service /etc/systemd/system/
|
||||
|
||||
# Включаем автозапуск
|
||||
sudo systemctl enable container-lcg-ollama.service
|
||||
sudo systemctl start container-lcg-ollama.service
|
||||
```
|
||||
|
||||
#### Проверка статуса
|
||||
|
||||
```bash
|
||||
# Статус контейнера
|
||||
podman ps
|
||||
|
||||
# Логи
|
||||
podman logs lcg-ollama
|
||||
|
||||
# Логи в реальном времени
|
||||
podman logs -f lcg-ollama
|
||||
```
|
||||
|
||||
## 🐛 Отладка
|
||||
|
||||
### Просмотр логов
|
||||
|
||||
#### Docker log
|
||||
|
||||
```bash
|
||||
# Логи контейнера
|
||||
docker logs lcg-ollama
|
||||
|
||||
# Логи в реальном времени
|
||||
docker logs -f lcg-ollama
|
||||
```
|
||||
|
||||
#### Podman log
|
||||
|
||||
```bash
|
||||
# Логи контейнера
|
||||
podman logs lcg-ollama
|
||||
|
||||
# Логи в реальном времени
|
||||
podman logs -f lcg-ollama
|
||||
```
|
||||
|
||||
### Подключение к контейнеру
|
||||
|
||||
#### Docker exec
|
||||
|
||||
```bash
|
||||
docker exec -it lcg-ollama sh
|
||||
```
|
||||
|
||||
#### Podman exec
|
||||
|
||||
```bash
|
||||
podman exec -it lcg-ollama sh
|
||||
```
|
||||
|
||||
### Проверка процессов
|
||||
|
||||
#### Docker check ps
|
||||
|
||||
```bash
|
||||
docker exec lcg-ollama ps aux
|
||||
```
|
||||
|
||||
#### Podman check ps
|
||||
|
||||
```bash
|
||||
podman exec lcg-ollama ps aux
|
||||
```
|
||||
|
||||
## 🔒 Безопасность
|
||||
|
||||
### Рекомендации для продакшена
|
||||
|
||||
1. **Используйте аутентификацию**:
|
||||
|
||||
```bash
|
||||
-e LCG_SERVER_REQUIRE_AUTH=true
|
||||
-e LCG_SERVER_PASSWORD=strong_password
|
||||
```
|
||||
|
||||
2. **Ограничьте доступ к портам**:
|
||||
- Используйте firewall правила
|
||||
- Не экспортируйте порты на публичный интерфейс
|
||||
|
||||
3. **Используйте HTTPS**:
|
||||
- Настройте reverse proxy (nginx, traefik)
|
||||
- Используйте SSL сертификаты
|
||||
|
||||
4. **Ограничьте ресурсы**:
|
||||
|
||||
```bash
|
||||
docker run -d \
|
||||
--name lcg-ollama \
|
||||
--memory="4g" \
|
||||
--cpus="2" \
|
||||
lcg-ollama:latest
|
||||
```
|
||||
|
||||
## 📊 Мониторинг
|
||||
|
||||
### Healthcheck
|
||||
|
||||
Контейнер включает healthcheck, который проверяет доступность LCG сервера:
|
||||
|
||||
```bash
|
||||
docker inspect lcg-ollama | jq '.[0].State.Health'
|
||||
```
|
||||
|
||||
### Метрики
|
||||
|
||||
LCG предоставляет Prometheus метрики на `/metrics` endpoint (если включено).
|
||||
|
||||
## 🚀 Production Deployment
|
||||
|
||||
### С docker-compose
|
||||
|
||||
```bash
|
||||
cd Dockerfiles/OllamaServer
|
||||
docker-compose up -d
|
||||
```
|
||||
|
||||
### С Kubernetes
|
||||
|
||||
Используйте манифесты из папки `deploy/` или `kustomize/`.
|
||||
|
||||
## 📝 Примечания
|
||||
|
||||
- Ollama версия: 0.9.5
|
||||
- LCG версия: см. VERSION.txt
|
||||
- Минимальные требования: 2GB RAM, 2 CPU cores
|
||||
- Рекомендуется: 4GB+ RAM для больших моделей
|
||||
|
||||
## 🔗 Полезные ссылки
|
||||
|
||||
- [Ollama документация](https://github.com/ollama/ollama)
|
||||
- [LCG документация](../../docs/README.md)
|
||||
- [LCG API Guide](../../docs/API_GUIDE.md)
|
||||
|
||||
## ❓ Поддержка
|
||||
|
||||
При возникновении проблем:
|
||||
|
||||
1. Проверьте логи: `docker logs lcg-ollama`
|
||||
2. Проверьте переменные окружения
|
||||
3. Убедитесь, что порты не заняты
|
||||
4. Проверьте, что модели загружены в Ollama
|
||||
143
Dockerfiles/OllamaServer/STRUCTURE.md
Normal file
143
Dockerfiles/OllamaServer/STRUCTURE.md
Normal file
@@ -0,0 +1,143 @@
|
||||
# 📁 Структура проекта OllamaServer
|
||||
|
||||
## Файлы
|
||||
|
||||
```
|
||||
Dockerfiles/OllamaServer/
|
||||
├── Dockerfile # Multi-stage Dockerfile для сборки образа
|
||||
├── entrypoint.sh # Скрипт запуска LCG и Ollama серверов
|
||||
├── docker-compose.yml # Docker Compose конфигурация
|
||||
├── podman-compose.yml # Podman Compose конфигурация
|
||||
├── Makefile # Команды для сборки и запуска
|
||||
├── README.md # Полная документация
|
||||
├── QUICKSTART.md # Быстрый старт
|
||||
├── STRUCTURE.md # Этот файл
|
||||
├── .dockerignore # Исключения для Docker build
|
||||
└── .gitignore # Исключения для Git
|
||||
```
|
||||
|
||||
## Описание файлов
|
||||
|
||||
### Dockerfile
|
||||
|
||||
Dockerfile, который:
|
||||
|
||||
1. Использует готовый образ `ollama/ollama:0.9.5` как базовый
|
||||
2. Копирует предварительно собранный бинарник LCG из папки `dist/`
|
||||
3. Выбирает правильный бинарник в зависимости от архитектуры (amd64/arm64)
|
||||
4. Устанавливает entrypoint.sh для запуска обоих сервисов
|
||||
5. Настраивает рабочее окружение и переменные окружения
|
||||
|
||||
**Важно**: Перед сборкой образа необходимо собрать бинарники с помощью `goreleaser build --snapshot --clean`
|
||||
|
||||
### entrypoint.sh
|
||||
|
||||
Скрипт запуска, который:
|
||||
|
||||
1. Запускает Ollama сервер в фоне
|
||||
2. Ожидает готовности Ollama API
|
||||
3. Запускает LCG сервер в фоне
|
||||
4. Мониторит состояние процессов
|
||||
5. Корректно обрабатывает сигналы завершения
|
||||
|
||||
### docker-compose.yml / podman-compose.yml
|
||||
|
||||
Конфигурация для запуска через compose:
|
||||
|
||||
- Настройки портов
|
||||
- Переменные окружения
|
||||
- Volumes для персистентного хранения
|
||||
- Healthcheck
|
||||
|
||||
### Makefile
|
||||
|
||||
Удобные команды для:
|
||||
|
||||
- Сборки образа
|
||||
- Запуска/остановки контейнера
|
||||
- Просмотра логов
|
||||
- Работы с compose
|
||||
|
||||
### README.md
|
||||
|
||||
Полная документация с:
|
||||
|
||||
- Описанием функциональности
|
||||
- Инструкциями по установке
|
||||
- Настройками переменных окружения
|
||||
- Примерами использования
|
||||
- Решением проблем
|
||||
|
||||
### QUICKSTART.md
|
||||
|
||||
Краткое руководство для быстрого старта.
|
||||
|
||||
## Порты
|
||||
|
||||
- **8080**: LCG веб-сервер
|
||||
- **11434**: Ollama API
|
||||
|
||||
## Volumes
|
||||
|
||||
- `ollama-data`: Данные Ollama (модели)
|
||||
- `lcg-results`: Результаты генерации команд
|
||||
- `lcg-prompts`: Системные промпты
|
||||
- `lcg-config`: Конфигурация LCG
|
||||
|
||||
## Переменные окружения
|
||||
|
||||
Основные переменные (см. README.md для полного списка):
|
||||
|
||||
- `LCG_PROVIDER=ollama`
|
||||
- `LCG_HOST=http://127.0.0.1:11434/`
|
||||
- `LCG_MODEL=codegeex4`
|
||||
- `OLLAMA_HOST=0.0.0.0`
|
||||
- `OLLAMA_PORT=11434`
|
||||
|
||||
## Запуск
|
||||
|
||||
### Предварительная подготовка
|
||||
|
||||
Перед сборкой образа необходимо собрать бинарники:
|
||||
|
||||
```bash
|
||||
# Из корня проекта
|
||||
goreleaser build --snapshot --clean
|
||||
```
|
||||
|
||||
Убедитесь, что в папке `dist/` есть бинарники для нужных архитектур.
|
||||
|
||||
### Docker
|
||||
|
||||
```bash
|
||||
cd Dockerfiles/OllamaServer
|
||||
docker-compose up -d
|
||||
```
|
||||
|
||||
### Podman
|
||||
|
||||
```bash
|
||||
cd Dockerfiles/OllamaServer
|
||||
podman-compose -f podman-compose.yml up -d
|
||||
```
|
||||
|
||||
### Make
|
||||
|
||||
```bash
|
||||
cd Dockerfiles/OllamaServer
|
||||
make build-all # Собрать бинарники и Docker образ
|
||||
make compose-up # Запустить через docker-compose
|
||||
|
||||
# Или для Podman
|
||||
make build-all-podman
|
||||
make podman-compose-up
|
||||
```
|
||||
|
||||
## Архитектура
|
||||
|
||||
Контейнер запускает два сервиса:
|
||||
|
||||
1. **Ollama** (порт 11434) - LLM сервер
|
||||
2. **LCG** (порт 8080) - Веб-интерфейс и API
|
||||
|
||||
Оба сервиса работают в одном контейнере и общаются через localhost.
|
||||
55
Dockerfiles/OllamaServer/docker-compose.yml
Normal file
55
Dockerfiles/OllamaServer/docker-compose.yml
Normal file
@@ -0,0 +1,55 @@
|
||||
version: '3.8'
|
||||
|
||||
services:
|
||||
lcg-ollama:
|
||||
build:
|
||||
context: ../.. # Контекст сборки - корень проекта (для доступа к dist/)
|
||||
dockerfile: Dockerfiles/OllamaServer/Dockerfile
|
||||
# TARGETARCH определяется автоматически Docker на основе платформы хоста
|
||||
container_name: lcg-ollama
|
||||
ports:
|
||||
- "8080:8080" # LCG веб-сервер
|
||||
- "11434:11434" # Ollama API
|
||||
environment:
|
||||
# Настройки LCG
|
||||
- LCG_PROVIDER=ollama
|
||||
- LCG_HOST=http://127.0.0.1:11434/
|
||||
- LCG_MODEL=codegeex4
|
||||
- LCG_RESULT_FOLDER=/app/data/results
|
||||
- LCG_PROMPT_FOLDER=/app/data/prompts
|
||||
- LCG_CONFIG_FOLDER=/app/data/config
|
||||
- LCG_SERVER_HOST=0.0.0.0
|
||||
- LCG_SERVER_PORT=8080
|
||||
- LCG_SERVER_ALLOW_HTTP=true
|
||||
# Настройки Ollama
|
||||
- OLLAMA_HOST=0.0.0.0
|
||||
- OLLAMA_PORT=11434
|
||||
- OLLAMA_ORIGINS=*
|
||||
# Опционально: настройки безопасности
|
||||
- LCG_SERVER_REQUIRE_AUTH=false
|
||||
- LCG_SERVER_PASSWORD=admin#123456
|
||||
volumes:
|
||||
# Персистентное хранилище для данных Ollama
|
||||
- ollama-data:/home/ollama/.ollama
|
||||
# Персистентное хранилище для результатов LCG
|
||||
- lcg-results:/app/data/results
|
||||
- lcg-prompts:/app/data/prompts
|
||||
- lcg-config:/app/data/config
|
||||
restart: unless-stopped
|
||||
healthcheck:
|
||||
test: ["CMD", "curl", "-f", "http://localhost:8080/"]
|
||||
interval: 30s
|
||||
timeout: 10s
|
||||
retries: 3
|
||||
start_period: 40s
|
||||
|
||||
volumes:
|
||||
ollama-data:
|
||||
driver: local
|
||||
lcg-results:
|
||||
driver: local
|
||||
lcg-prompts:
|
||||
driver: local
|
||||
lcg-config:
|
||||
driver: local
|
||||
|
||||
104
Dockerfiles/OllamaServer/entrypoint.sh
Executable file
104
Dockerfiles/OllamaServer/entrypoint.sh
Executable file
@@ -0,0 +1,104 @@
|
||||
#!/bin/bash
|
||||
set -e
|
||||
|
||||
# Цвета для вывода
|
||||
RED='\033[0;31m'
|
||||
GREEN='\033[0;32m'
|
||||
YELLOW='\033[1;33m'
|
||||
BLUE='\033[0;34m'
|
||||
NC='\033[0m' # No Color
|
||||
|
||||
# Функция для логирования
|
||||
log() {
|
||||
echo -e "${GREEN}[$(date +'%Y-%m-%d %H:%M:%S')]${NC} $1"
|
||||
}
|
||||
|
||||
error() {
|
||||
echo -e "${RED}[ERROR]${NC} $1" >&2
|
||||
}
|
||||
|
||||
warn() {
|
||||
echo -e "${YELLOW}[WARN]${NC} $1"
|
||||
}
|
||||
|
||||
info() {
|
||||
echo -e "${BLUE}[INFO]${NC} $1"
|
||||
}
|
||||
|
||||
# Обработка сигналов для корректного завершения
|
||||
cleanup() {
|
||||
log "Получен сигнал завершения, останавливаем сервисы..."
|
||||
if [ ! -z "$LCG_PID" ]; then
|
||||
kill $LCG_PID 2>/dev/null || true
|
||||
wait $LCG_PID 2>/dev/null || true
|
||||
fi
|
||||
log "Сервисы остановлены"
|
||||
exit 0
|
||||
}
|
||||
|
||||
trap cleanup SIGTERM SIGINT
|
||||
|
||||
# Проверка наличия бинарника lcg
|
||||
if [ ! -f /usr/local/bin/lcg ]; then
|
||||
error "Бинарник lcg не найден в /usr/local/bin/lcg"
|
||||
exit 1
|
||||
fi
|
||||
|
||||
|
||||
# Создаем необходимые директории
|
||||
mkdir -p "${LCG_RESULT_FOLDER:-/app/data/results}"
|
||||
mkdir -p "${LCG_PROMPT_FOLDER:-/app/data/prompts}"
|
||||
mkdir -p "${LCG_CONFIG_FOLDER:-/app/data/config}"
|
||||
|
||||
# Настройка переменных окружения для Ollama
|
||||
export OLLAMA_HOST="${OLLAMA_HOST:-0.0.0.0}"
|
||||
export OLLAMA_PORT="${OLLAMA_PORT:-11434}"
|
||||
export OLLAMA_ORIGINS="*"
|
||||
|
||||
# Настройка переменных окружения для LCG
|
||||
export LCG_PROVIDER="${LCG_PROVIDER:-ollama}"
|
||||
export LCG_HOST="${LCG_HOST:-http://0.0.0.0:11434/}"
|
||||
export LCG_MODEL="${LCG_MODEL:-qwen2.5-coder:1.5b}"
|
||||
export LCG_RESULT_FOLDER="${LCG_RESULT_FOLDER:-/app/data/results}"
|
||||
export LCG_PROMPT_FOLDER="${LCG_PROMPT_FOLDER:-/app/data/prompts}"
|
||||
export LCG_CONFIG_FOLDER="${LCG_CONFIG_FOLDER:-/app/data/config}"
|
||||
export LCG_SERVER_HOST="${LCG_SERVER_HOST:-0.0.0.0}"
|
||||
export LCG_SERVER_PORT="${LCG_SERVER_PORT:-8080}"
|
||||
export LCG_SERVER_ALLOW_HTTP="${LCG_SERVER_ALLOW_HTTP:-false}"
|
||||
export LCG_FORCE_NO_CSRF="${LCG_FORCE_NO_CSRF:-false}"
|
||||
export LCG_CSRF_DEBUG_FILE="${LCG_CSRF_DEBUG_FILE:-/app/data/csrf-debug.log}"
|
||||
|
||||
if [ "$LCG_FORCE_NO_CSRF" = "true" ]; then
|
||||
info "CSRF проверка отключена через LCG_FORCE_NO_CSRF"
|
||||
fi
|
||||
|
||||
log "=========================================="
|
||||
log "Запуск LCG с Ollama сервером"
|
||||
log "=========================================="
|
||||
info "LCG Provider: $LCG_PROVIDER"
|
||||
info "LCG Host: $LCG_HOST"
|
||||
info "LCG Model: $LCG_MODEL"
|
||||
info "LCG Server: http://${LCG_SERVER_HOST}:${LCG_SERVER_PORT}"
|
||||
info "Ollama Host: $OLLAMA_HOST:$OLLAMA_PORT"
|
||||
log "=========================================="
|
||||
|
||||
|
||||
log "Запуск LCG сервера..."
|
||||
/usr/local/bin/lcg serve \
|
||||
--host "${LCG_SERVER_HOST}" \
|
||||
--port "${LCG_SERVER_PORT}" &
|
||||
LCG_PID=$!
|
||||
|
||||
# Ждем, пока LCG запустится
|
||||
sleep 3
|
||||
|
||||
# Проверяем, что LCG запущен
|
||||
if ! kill -0 $LCG_PID 2>/dev/null; then
|
||||
error "LCG сервер не запустился"
|
||||
exit 1
|
||||
fi
|
||||
|
||||
log "LCG сервер запущен на http://${LCG_SERVER_HOST}:${LCG_SERVER_PORT}"
|
||||
|
||||
# Запускаем переданные аргументы
|
||||
exec "$@"
|
||||
54
Dockerfiles/OllamaServer/podman-compose.yml
Normal file
54
Dockerfiles/OllamaServer/podman-compose.yml
Normal file
@@ -0,0 +1,54 @@
|
||||
version: '3.8'
|
||||
|
||||
services:
|
||||
lcg-ollama:
|
||||
build:
|
||||
context: ../..
|
||||
dockerfile: Dockerfiles/OllamaServer/Dockerfile
|
||||
container_name: lcg-ollama
|
||||
ports:
|
||||
- "8080:8080" # LCG веб-сервер
|
||||
- "11434:11434" # Ollama API
|
||||
environment:
|
||||
# Настройки LCG
|
||||
- LCG_PROVIDER=ollama
|
||||
- LCG_HOST=http://127.0.0.1:11434/
|
||||
- LCG_MODEL=codegeex4
|
||||
- LCG_RESULT_FOLDER=/app/data/results
|
||||
- LCG_PROMPT_FOLDER=/app/data/prompts
|
||||
- LCG_CONFIG_FOLDER=/app/data/config
|
||||
- LCG_SERVER_HOST=0.0.0.0
|
||||
- LCG_SERVER_PORT=8080
|
||||
- LCG_SERVER_ALLOW_HTTP=true
|
||||
# Настройки Ollama
|
||||
- OLLAMA_HOST=0.0.0.0
|
||||
- OLLAMA_PORT=11434
|
||||
- OLLAMA_ORIGINS=*
|
||||
# Опционально: настройки безопасности
|
||||
- LCG_SERVER_REQUIRE_AUTH=false
|
||||
- LCG_SERVER_PASSWORD=admin#123456
|
||||
volumes:
|
||||
# Персистентное хранилище для данных Ollama
|
||||
- ollama-data:/home/ollama/.ollama
|
||||
# Персистентное хранилище для результатов LCG
|
||||
- lcg-results:/app/data/results
|
||||
- lcg-prompts:/app/data/prompts
|
||||
- lcg-config:/app/data/config
|
||||
restart: unless-stopped
|
||||
healthcheck:
|
||||
test: ["CMD", "curl", "-f", "http://localhost:8080/"]
|
||||
interval: 30s
|
||||
timeout: 10s
|
||||
retries: 3
|
||||
start_period: 40s
|
||||
|
||||
volumes:
|
||||
ollama-data:
|
||||
driver: local
|
||||
lcg-results:
|
||||
driver: local
|
||||
lcg-prompts:
|
||||
driver: local
|
||||
lcg-config:
|
||||
driver: local
|
||||
|
||||
@@ -1 +1 @@
|
||||
v2.0.14
|
||||
v2.0.28
|
||||
|
||||
@@ -27,6 +27,8 @@ type Config struct {
|
||||
ResultHistory string
|
||||
NoHistoryEnv string
|
||||
AllowExecution bool
|
||||
Think bool
|
||||
Query string
|
||||
MainFlags MainFlags
|
||||
Server ServerConfig
|
||||
Validation ValidationConfig
|
||||
@@ -57,6 +59,7 @@ type ServerConfig struct {
|
||||
CookieSecure bool
|
||||
CookiePath string
|
||||
CookieTTLHours int
|
||||
ForceNoCSRF bool
|
||||
}
|
||||
|
||||
type ValidationConfig struct {
|
||||
@@ -165,6 +168,7 @@ func Load() Config {
|
||||
BasePath: getEnv("LCG_BASE_URL", "/lcg"),
|
||||
HealthUrl: getEnv("LCG_HEALTH_URL", "/api/v1/protected/sberchat/health"),
|
||||
ProxyUrl: getEnv("LCG_PROXY_URL", "/api/v1/protected/sberchat/chat"),
|
||||
ForceNoCSRF: isForceNoCSRF(),
|
||||
},
|
||||
Validation: ValidationConfig{
|
||||
MaxSystemPromptLength: getEnvInt("LCG_MAX_SYSTEM_PROMPT_LENGTH", 2000),
|
||||
@@ -213,6 +217,15 @@ func isCookieSecure() bool {
|
||||
return vLower == "1" || vLower == "true"
|
||||
}
|
||||
|
||||
func isForceNoCSRF() bool {
|
||||
v := strings.TrimSpace(getEnv("LCG_FORCE_NO_CSRF", ""))
|
||||
if v == "" {
|
||||
return false
|
||||
}
|
||||
vLower := strings.ToLower(v)
|
||||
return vLower == "1" || vLower == "true"
|
||||
}
|
||||
|
||||
var AppConfig Config
|
||||
|
||||
func init() {
|
||||
|
||||
@@ -1 +1 @@
|
||||
v2.0.14
|
||||
v2.0.28
|
||||
|
||||
@@ -69,8 +69,8 @@ lcg co -f
|
||||
"host": "localhost"
|
||||
},
|
||||
"validation": {
|
||||
"max_system_prompt_length": 1000,
|
||||
"max_user_message_length": 2000,
|
||||
"max_system_prompt_length": 2000,
|
||||
"max_user_message_length": 4000,
|
||||
"max_prompt_name_length": 2000,
|
||||
"max_prompt_desc_length": 5000,
|
||||
"max_command_length": 8000,
|
||||
@@ -116,12 +116,12 @@ lcg co -f
|
||||
|
||||
### Настройки валидации (validation)
|
||||
|
||||
- **max_system_prompt_length** - максимальная длина системного промпта
|
||||
- **max_user_message_length** - максимальная длина пользовательского сообщения
|
||||
- **max_prompt_name_length** - максимальная длина названия промпта
|
||||
- **max_prompt_desc_length** - максимальная длина описания промпта
|
||||
- **max_command_length** - максимальная длина команды/ответа
|
||||
- **max_explanation_length** - максимальная длина объяснения
|
||||
- **max_system_prompt_length** - максимальная длина системного промпта (по умолчанию: 2000)
|
||||
- **max_user_message_length** - максимальная длина пользовательского сообщения (по умолчанию: 4000)
|
||||
- **max_prompt_name_length** - максимальная длина названия промпта (по умолчанию: 2000)
|
||||
- **max_prompt_desc_length** - максимальная длина описания промпта (по умолчанию: 5000)
|
||||
- **max_command_length** - максимальная длина команды/ответа (по умолчанию: 8000)
|
||||
- **max_explanation_length** - максимальная длина объяснения (по умолчанию: 20000)
|
||||
|
||||
## 🔒 Безопасность
|
||||
|
||||
|
||||
@@ -35,10 +35,17 @@ Explanations:
|
||||
|
||||
Clipboard support requires `xclip` or `xsel`.
|
||||
|
||||
## What's new in 2.0.1
|
||||
## What's new in 2.0.14
|
||||
|
||||
- Mobile UI improvements: better responsiveness (buttons, fonts, spacing) and reduced motion support
|
||||
- Public REST endpoint: `POST /execute` (curl-only) for programmatic access — see `API_GUIDE.md`
|
||||
- Authentication: JWT-based authentication with HTTP-only cookies
|
||||
- CSRF protection: Full CSRF protection with tokens and middleware
|
||||
- Security: Enhanced security with token validation and sessions
|
||||
- Kubernetes deployment: Full set of manifests for Kubernetes deployment with Traefik
|
||||
- Reverse Proxy: Support for working behind reverse proxy with cookie configuration
|
||||
- Web interface: Improved web interface with modern design
|
||||
- Monitoring: Prometheus metrics and ServiceMonitor
|
||||
- Scaling: HPA for automatic scaling
|
||||
- Testing: CSRF protection testing tools
|
||||
|
||||
## Environment
|
||||
|
||||
|
||||
@@ -22,7 +22,7 @@ sudo apt-get install xsel
|
||||
|
||||
```bash
|
||||
|
||||
git clone --depth 1 https://github.com/Direct-Dev-Ru/go-lcg.git ~/.linux-command-gpt
|
||||
git clone --depth 1 https://github.com/Direct-Dev-Ru/linux-command-gpt.git ~/.linux-command-gpt
|
||||
cd ~/.linux-command-gpt
|
||||
go build -o lcg
|
||||
|
||||
@@ -60,7 +60,7 @@ lcg --file /path/to/context.txt "хочу вывести список дирек
|
||||
Действия: (c)копировать, (s)сохранить, (r)перегенерировать, (e)выполнить, (v|vv|vvv)подробно, (n)ничего:
|
||||
```
|
||||
|
||||
### Что нового в 3.0.0
|
||||
### Что нового в 2.0.14
|
||||
|
||||
- **Аутентификация**: Добавлена система аутентификации с JWT токенами и HTTP-only cookies
|
||||
- **CSRF защита**: Полная защита от CSRF атак с токенами и middleware
|
||||
|
||||
@@ -8,26 +8,26 @@
|
||||
|
||||
| Переменная | Описание | По умолчанию |
|
||||
|------------|----------|--------------|
|
||||
| `LCG_MAX_SYSTEM_PROMPT_LENGTH` | Максимальная длина системного промпта | 1000 |
|
||||
| `LCG_MAX_USER_MESSAGE_LENGTH` | Максимальная длина пользовательского сообщения | 2000 |
|
||||
| `LCG_MAX_PROMPT_NAME_LENGTH` | Максимальная длина названия промпта | 200 |
|
||||
| `LCG_MAX_PROMPT_DESC_LENGTH` | Максимальная длина описания промпта | 500 |
|
||||
| `LCG_MAX_COMMAND_LENGTH` | Максимальная длина команды/ответа | 2000 |
|
||||
| `LCG_MAX_EXPLANATION_LENGTH` | Максимальная длина объяснения | 2000 |
|
||||
| `LCG_MAX_SYSTEM_PROMPT_LENGTH` | Максимальная длина системного промпта | 2000 |
|
||||
| `LCG_MAX_USER_MESSAGE_LENGTH` | Максимальная длина пользовательского сообщения | 4000 |
|
||||
| `LCG_MAX_PROMPT_NAME_LENGTH` | Максимальная длина названия промпта | 2000 |
|
||||
| `LCG_MAX_PROMPT_DESC_LENGTH` | Максимальная длина описания промпта | 5000 |
|
||||
| `LCG_MAX_COMMAND_LENGTH` | Максимальная длина команды/ответа | 8000 |
|
||||
| `LCG_MAX_EXPLANATION_LENGTH` | Максимальная длина объяснения | 20000 |
|
||||
|
||||
## 🚀 Примеры использования
|
||||
|
||||
### Установка через переменные окружения
|
||||
|
||||
```bash
|
||||
# Увеличить лимит системного промпта до 2к символов
|
||||
export LCG_MAX_SYSTEM_PROMPT_LENGTH=2000
|
||||
# Увеличить лимит системного промпта до 3к символов
|
||||
export LCG_MAX_SYSTEM_PROMPT_LENGTH=3000
|
||||
|
||||
# Уменьшить лимит пользовательского сообщения до 1к символов
|
||||
export LCG_MAX_USER_MESSAGE_LENGTH=1000
|
||||
# Уменьшить лимит пользовательского сообщения до 2к символов
|
||||
export LCG_MAX_USER_MESSAGE_LENGTH=2000
|
||||
|
||||
# Увеличить лимит названия промпта до 500 символов
|
||||
export LCG_MAX_PROMPT_NAME_LENGTH=500
|
||||
# Увеличить лимит названия промпта до 3000 символов
|
||||
export LCG_MAX_PROMPT_NAME_LENGTH=3000
|
||||
```
|
||||
|
||||
### Установка в .env файле
|
||||
@@ -35,11 +35,11 @@ export LCG_MAX_PROMPT_NAME_LENGTH=500
|
||||
```bash
|
||||
# .env файл
|
||||
LCG_MAX_SYSTEM_PROMPT_LENGTH=2000
|
||||
LCG_MAX_USER_MESSAGE_LENGTH=1500
|
||||
LCG_MAX_PROMPT_NAME_LENGTH=300
|
||||
LCG_MAX_PROMPT_DESC_LENGTH=1000
|
||||
LCG_MAX_COMMAND_LENGTH=3000
|
||||
LCG_MAX_EXPLANATION_LENGTH=5000
|
||||
LCG_MAX_USER_MESSAGE_LENGTH=4000
|
||||
LCG_MAX_PROMPT_NAME_LENGTH=2000
|
||||
LCG_MAX_PROMPT_DESC_LENGTH=5000
|
||||
LCG_MAX_COMMAND_LENGTH=8000
|
||||
LCG_MAX_EXPLANATION_LENGTH=20000
|
||||
```
|
||||
|
||||
### Установка в systemd сервисе
|
||||
@@ -55,8 +55,8 @@ User=lcg
|
||||
WorkingDirectory=/opt/lcg
|
||||
ExecStart=/opt/lcg/lcg serve
|
||||
Environment=LCG_MAX_SYSTEM_PROMPT_LENGTH=2000
|
||||
Environment=LCG_MAX_USER_MESSAGE_LENGTH=1500
|
||||
Environment=LCG_MAX_PROMPT_NAME_LENGTH=300
|
||||
Environment=LCG_MAX_USER_MESSAGE_LENGTH=4000
|
||||
Environment=LCG_MAX_PROMPT_NAME_LENGTH=2000
|
||||
Restart=always
|
||||
|
||||
[Install]
|
||||
@@ -72,7 +72,7 @@ FROM golang:1.21-alpine AS builder
|
||||
FROM alpine:latest
|
||||
COPY --from=builder /app/lcg /usr/local/bin/
|
||||
ENV LCG_MAX_SYSTEM_PROMPT_LENGTH=2000
|
||||
ENV LCG_MAX_USER_MESSAGE_LENGTH=1500
|
||||
ENV LCG_MAX_USER_MESSAGE_LENGTH=4000
|
||||
CMD ["lcg", "serve"]
|
||||
```
|
||||
|
||||
@@ -84,8 +84,8 @@ services:
|
||||
image: lcg:latest
|
||||
environment:
|
||||
- LCG_MAX_SYSTEM_PROMPT_LENGTH=2000
|
||||
- LCG_MAX_USER_MESSAGE_LENGTH=1500
|
||||
- LCG_MAX_PROMPT_NAME_LENGTH=300
|
||||
- LCG_MAX_USER_MESSAGE_LENGTH=4000
|
||||
- LCG_MAX_PROMPT_NAME_LENGTH=2000
|
||||
ports:
|
||||
- "8080:8080"
|
||||
```
|
||||
@@ -153,9 +153,9 @@ validation.FormatLengthInfo(systemPrompt, userMessage)
|
||||
## 📝 Примеры сообщений об ошибках
|
||||
|
||||
```
|
||||
❌ Ошибка: system_prompt: системный промпт слишком длинный: 1500 символов (максимум 1000)
|
||||
❌ Ошибка: user_message: пользовательское сообщение слишком длинное: 2500 символов (максимум 2000)
|
||||
❌ Ошибка: prompt_name: название промпта слишком длинное: 300 символов (максимум 200)
|
||||
❌ Ошибка: system_prompt: системный промпт слишком длинный: 2500 символов (максимум 2000)
|
||||
❌ Ошибка: user_message: пользовательское сообщение слишком длинное: 4500 символов (максимум 4000)
|
||||
❌ Ошибка: prompt_name: название промпта слишком длинное: 2500 символов (максимум 2000)
|
||||
```
|
||||
|
||||
## 🔄 Миграция с жестко заданных значений
|
||||
@@ -179,25 +179,25 @@ if err := validation.ValidateSystemPrompt(prompt); err != nil {
|
||||
### Для разработки
|
||||
```bash
|
||||
export LCG_MAX_SYSTEM_PROMPT_LENGTH=2000
|
||||
export LCG_MAX_USER_MESSAGE_LENGTH=2000
|
||||
export LCG_MAX_PROMPT_NAME_LENGTH=200
|
||||
export LCG_MAX_PROMPT_DESC_LENGTH=500
|
||||
export LCG_MAX_USER_MESSAGE_LENGTH=4000
|
||||
export LCG_MAX_PROMPT_NAME_LENGTH=2000
|
||||
export LCG_MAX_PROMPT_DESC_LENGTH=5000
|
||||
```
|
||||
|
||||
### Для продакшена
|
||||
```bash
|
||||
export LCG_MAX_SYSTEM_PROMPT_LENGTH=1000
|
||||
export LCG_MAX_USER_MESSAGE_LENGTH=1500
|
||||
export LCG_MAX_PROMPT_NAME_LENGTH=100
|
||||
export LCG_MAX_PROMPT_DESC_LENGTH=300
|
||||
export LCG_MAX_SYSTEM_PROMPT_LENGTH=2000
|
||||
export LCG_MAX_USER_MESSAGE_LENGTH=4000
|
||||
export LCG_MAX_PROMPT_NAME_LENGTH=2000
|
||||
export LCG_MAX_PROMPT_DESC_LENGTH=5000
|
||||
```
|
||||
|
||||
### Для высоконагруженных систем
|
||||
```bash
|
||||
export LCG_MAX_SYSTEM_PROMPT_LENGTH=500
|
||||
export LCG_MAX_USER_MESSAGE_LENGTH=1000
|
||||
export LCG_MAX_PROMPT_NAME_LENGTH=50
|
||||
export LCG_MAX_PROMPT_DESC_LENGTH=200
|
||||
export LCG_MAX_SYSTEM_PROMPT_LENGTH=1000
|
||||
export LCG_MAX_USER_MESSAGE_LENGTH=2000
|
||||
export LCG_MAX_PROMPT_NAME_LENGTH=1000
|
||||
export LCG_MAX_PROMPT_DESC_LENGTH=2500
|
||||
```
|
||||
|
||||
---
|
||||
|
||||
10
gpt/gpt.go
10
gpt/gpt.go
@@ -44,11 +44,19 @@ type Chat struct {
|
||||
|
||||
type Gpt3Request struct {
|
||||
Model string `json:"model"`
|
||||
Stream bool `json:"stream"`
|
||||
Stream bool `json:"stream"`
|
||||
Messages []Chat `json:"messages"`
|
||||
Options Gpt3Options `json:"options"`
|
||||
}
|
||||
|
||||
type Gpt3ThinkRequest struct {
|
||||
Model string `json:"model"`
|
||||
Stream bool `json:"stream"`
|
||||
Think bool `json:"think"`
|
||||
Messages []Chat `json:"messages"`
|
||||
Options Gpt3Options `json:"options"`
|
||||
}
|
||||
|
||||
type Gpt3Options struct {
|
||||
Temperature float64 `json:"temperature"`
|
||||
}
|
||||
|
||||
@@ -200,12 +200,26 @@ func (p *ProxyAPIProvider) Health() error {
|
||||
|
||||
// Chat для OllamaProvider
|
||||
func (o *OllamaProvider) Chat(messages []Chat) (string, error) {
|
||||
payload := Gpt3Request{
|
||||
|
||||
think := config.AppConfig.Think
|
||||
|
||||
var payload interface{}
|
||||
if think {
|
||||
payload = Gpt3Request{
|
||||
Model: o.Model,
|
||||
Messages: messages,
|
||||
Stream: false,
|
||||
Stream: false,
|
||||
Options: Gpt3Options{o.Temperature},
|
||||
}
|
||||
} else {
|
||||
payload = Gpt3ThinkRequest{
|
||||
Model: o.Model,
|
||||
Messages: messages,
|
||||
Stream: false,
|
||||
Think: false,
|
||||
Options: Gpt3Options{o.Temperature},
|
||||
}
|
||||
}
|
||||
|
||||
jsonData, err := json.Marshal(payload)
|
||||
if err != nil {
|
||||
|
||||
@@ -5,7 +5,7 @@ metadata:
|
||||
namespace: lcg
|
||||
data:
|
||||
# Основные настройки
|
||||
LCG_VERSION: "v2.0.14"
|
||||
LCG_VERSION: "v2.0.28"
|
||||
LCG_BASE_PATH: "/lcg"
|
||||
LCG_SERVER_HOST: "0.0.0.0"
|
||||
LCG_SERVER_PORT: "8080"
|
||||
|
||||
@@ -5,7 +5,7 @@ metadata:
|
||||
namespace: lcg
|
||||
labels:
|
||||
app: lcg
|
||||
version: v2.0.14
|
||||
version: v2.0.28
|
||||
spec:
|
||||
replicas: 1
|
||||
selector:
|
||||
@@ -18,7 +18,7 @@ spec:
|
||||
spec:
|
||||
containers:
|
||||
- name: lcg
|
||||
image: kuznetcovay/lcg:v2.0.14
|
||||
image: kuznetcovay/lcg:v2.0.28
|
||||
imagePullPolicy: Always
|
||||
ports:
|
||||
- containerPort: 8080
|
||||
|
||||
@@ -15,11 +15,11 @@ resources:
|
||||
# Common labels
|
||||
# commonLabels:
|
||||
# app: lcg
|
||||
# version: v2.0.14
|
||||
# version: v2.0.28
|
||||
# managed-by: kustomize
|
||||
|
||||
# Images
|
||||
# images:
|
||||
# - name: lcg
|
||||
# newName: kuznetcovay/lcg
|
||||
# newTag: v2.0.14
|
||||
# newTag: v2.0.28
|
||||
|
||||
148
main.go
148
main.go
@@ -9,6 +9,7 @@ import (
|
||||
"os/exec"
|
||||
"os/user"
|
||||
"path/filepath"
|
||||
"slices"
|
||||
"strconv"
|
||||
"strings"
|
||||
"time"
|
||||
@@ -60,7 +61,7 @@ func main() {
|
||||
CompileConditions.NoServe = false
|
||||
}
|
||||
|
||||
fmt.Println("Build conditions:", CompileConditions)
|
||||
// fmt.Println("Build conditions:", CompileConditions)
|
||||
|
||||
_ = colorBlue
|
||||
|
||||
@@ -76,6 +77,12 @@ func main() {
|
||||
Usage: config.AppConfig.AppName + " - Генерация Linux команд из описаний",
|
||||
Version: Version,
|
||||
Commands: getCommands(),
|
||||
Before: func(c *cli.Context) error {
|
||||
// Применяем флаги приложения к конфигурации перед выполнением любой команды
|
||||
// Это гарантирует, что флаги будут применены даже для команд, которые не используют основной Action
|
||||
applyAppFlagsToConfig(c)
|
||||
return nil
|
||||
},
|
||||
UsageText: `
|
||||
lcg [опции] <описание команды>
|
||||
|
||||
@@ -87,12 +94,57 @@ lcg [опции] <описание команды>
|
||||
{{.AppName}} - инструмент для генерации Linux команд из описаний на естественном языке.
|
||||
Поддерживает чтение частей промпта из файлов и позволяет сохранять, копировать или перегенерировать результаты.
|
||||
может задавать системный промпт или выбирать из предустановленных промптов.
|
||||
|
||||
Переменные окружения:
|
||||
LCG_HOST Endpoint для LLM API (по умолчанию: http://192.168.87.108:11434/)
|
||||
LCG_MODEL Название модели (по умолчанию: codegeex4)
|
||||
LCG_PROMPT Текст промпта по умолчанию
|
||||
LCG_PROVIDER Тип провайдера: "ollama" или "proxy" (по умолчанию: ollama)
|
||||
LCG_JWT_TOKEN JWT токен для proxy провайдера
|
||||
|
||||
Основные настройки:
|
||||
LCG_HOST Endpoint для LLM API (по умолчанию: http://192.168.87.108:11434/)
|
||||
LCG_MODEL Название модели (по умолчанию: hf.co/yandex/YandexGPT-5-Lite-8B-instruct-GGUF:Q4_K_M)
|
||||
LCG_PROMPT Текст промпта по умолчанию
|
||||
LCG_PROVIDER Тип провайдера: "ollama" или "proxy" (по умолчанию: ollama)
|
||||
LCG_JWT_TOKEN JWT токен для proxy провайдера
|
||||
LCG_PROMPT_ID ID промпта по умолчанию (по умолчанию: 1)
|
||||
LCG_TIMEOUT Таймаут запроса в секундах (по умолчанию: 300)
|
||||
LCG_COMPLETIONS_PATH Путь к API для завершений (по умолчанию: api/chat)
|
||||
LCG_PROXY_URL URL прокси для proxy провайдера (по умолчанию: /api/v1/protected/sberchat/chat)
|
||||
LCG_API_KEY_FILE Файл с API ключом (по умолчанию: .openai_api_key)
|
||||
LCG_APP_NAME Название приложения (по умолчанию: Linux Command GPT)
|
||||
LCG_ALLOW_THINK только для ollama: разрешить модели отправлять свои размышления ("1" или "true" = разрешено, пусто = запрещено). Имеет смысл для моделей, которые поддерживают эти действия: qwen3, deepseek.
|
||||
|
||||
Настройки истории и выполнения:
|
||||
LCG_NO_HISTORY Отключить запись истории ("1" или "true" = отключено, пусто = включено)
|
||||
LCG_ALLOW_EXECUTION Разрешить выполнение команд ("1" или "true" = разрешено, пусто = запрещено)
|
||||
LCG_RESULT_FOLDER Папка для сохранения результатов (по умолчанию: ~/.config/lcg/gpt_results)
|
||||
LCG_RESULT_HISTORY Файл истории результатов (по умолчанию: <result_folder>/lcg_history.json)
|
||||
LCG_PROMPT_FOLDER Папка для системных промптов (по умолчанию: ~/.config/lcg/gpt_sys_prompts)
|
||||
LCG_CONFIG_FOLDER Папка для конфигурации (по умолчанию: ~/.config/lcg/config)
|
||||
|
||||
Настройки сервера (команда serve):
|
||||
LCG_SERVER_PORT Порт сервера (по умолчанию: 8080)
|
||||
LCG_SERVER_HOST Хост сервера (по умолчанию: localhost)
|
||||
LCG_SERVER_ALLOW_HTTP Разрешить HTTP соединения ("true" для localhost, "false" для других хостов)
|
||||
LCG_SERVER_REQUIRE_AUTH Требовать аутентификацию ("1" или "true" = требуется, пусто = не требуется)
|
||||
LCG_SERVER_PASSWORD Пароль администратора (по умолчанию: admin#123456)
|
||||
LCG_SERVER_SSL_CERT_FILE Путь к SSL сертификату
|
||||
LCG_SERVER_SSL_KEY_FILE Путь к приватному ключу SSL
|
||||
LCG_DOMAIN Домен для сервера (по умолчанию: значение LCG_SERVER_HOST)
|
||||
LCG_COOKIE_SECURE Безопасные cookie ("1" или "true" = включено, пусто = выключено)
|
||||
LCG_COOKIE_PATH Путь для cookie (по умолчанию: /lcg)
|
||||
LCG_COOKIE_TTL_HOURS Время жизни cookie в часах (по умолчанию: 168)
|
||||
LCG_BASE_URL Базовый URL приложения (по умолчанию: /lcg)
|
||||
LCG_HEALTH_URL URL для проверки здоровья API (по умолчанию: /api/v1/protected/sberchat/health)
|
||||
|
||||
Настройки валидации:
|
||||
LCG_MAX_SYSTEM_PROMPT_LENGTH Максимальная длина системного промпта (по умолчанию: 2000)
|
||||
LCG_MAX_USER_MESSAGE_LENGTH Максимальная длина пользовательского сообщения (по умолчанию: 4000)
|
||||
LCG_MAX_PROMPT_NAME_LENGTH Максимальная длина названия промпта (по умолчанию: 2000)
|
||||
LCG_MAX_PROMPT_DESC_LENGTH Максимальная длина описания промпта (по умолчанию: 5000)
|
||||
LCG_MAX_COMMAND_LENGTH Максимальная длина команды (по умолчанию: 8000)
|
||||
LCG_MAX_EXPLANATION_LENGTH Максимальная длина объяснения (по умолчанию: 20000)
|
||||
|
||||
Отладка и браузер:
|
||||
LCG_DEBUG Включить режим отладки ("1" или "true" = включено, пусто = выключено)
|
||||
LCG_BROWSER_PATH Путь к браузеру для автоматического открытия (команда serve --browser)
|
||||
`,
|
||||
Flags: []cli.Flag{
|
||||
&cli.StringFlag{
|
||||
@@ -100,12 +152,31 @@ lcg [опции] <описание команды>
|
||||
Aliases: []string{"f"},
|
||||
Usage: "Read part of the command from a file",
|
||||
},
|
||||
&cli.StringFlag{
|
||||
Name: "model",
|
||||
Aliases: []string{"M"},
|
||||
DefaultText: "Use model from LCG_MODEL or default model",
|
||||
Usage: "Model to use",
|
||||
},
|
||||
&cli.BoolFlag{
|
||||
Name: "no-history",
|
||||
Aliases: []string{"nh"},
|
||||
Usage: "Disable writing/updating command history (overrides LCG_NO_HISTORY)",
|
||||
Value: false,
|
||||
},
|
||||
&cli.BoolFlag{
|
||||
Name: "think",
|
||||
Aliases: []string{"T"},
|
||||
Usage: "Разрешить модели отправлять свои размышления",
|
||||
Value: false,
|
||||
},
|
||||
&cli.StringFlag{
|
||||
Name: "query",
|
||||
Aliases: []string{"Q"},
|
||||
Usage: "Query to send to the model",
|
||||
DefaultText: "Привет! Порадуй меня случайной Linux командой ...",
|
||||
Value: "Привет! Порадуй меня случайной Linux командой ...",
|
||||
},
|
||||
&cli.StringFlag{
|
||||
Name: "sys",
|
||||
Aliases: []string{"s"},
|
||||
@@ -137,16 +208,28 @@ lcg [опции] <описание команды>
|
||||
Action: func(c *cli.Context) error {
|
||||
file := c.String("file")
|
||||
system := c.String("sys")
|
||||
model := c.String("model")
|
||||
query := c.String("query")
|
||||
// обновляем конфиг на основе флагов
|
||||
if system != "" {
|
||||
if c.IsSet("sys") && system != "" {
|
||||
config.AppConfig.Prompt = system
|
||||
}
|
||||
if c.IsSet("query") && query != "" {
|
||||
config.AppConfig.Query = query
|
||||
}
|
||||
if c.IsSet("timeout") {
|
||||
config.AppConfig.Timeout = fmt.Sprintf("%d", c.Int("timeout"))
|
||||
}
|
||||
if c.IsSet("model") {
|
||||
config.AppConfig.Model = model
|
||||
}
|
||||
config.AppConfig.Think = false
|
||||
if c.IsSet("think") {
|
||||
config.AppConfig.Think = c.Bool("think")
|
||||
}
|
||||
promptID := c.Int("prompt-id")
|
||||
timeout := c.Int("timeout")
|
||||
// сохраняем конкретные значения флагов
|
||||
|
||||
config.AppConfig.MainFlags = config.MainFlags{
|
||||
File: file,
|
||||
NoHistory: c.Bool("no-history"),
|
||||
@@ -159,12 +242,9 @@ lcg [опции] <описание команды>
|
||||
|
||||
config.AppConfig.MainFlags.Debug = config.AppConfig.MainFlags.Debug || config.GetEnvBool("LCG_DEBUG", false)
|
||||
|
||||
fmt.Println("Debug:", config.AppConfig.MainFlags.Debug)
|
||||
fmt.Println("LCG_DEBUG:", config.GetEnvBool("LCG_DEBUG", false))
|
||||
|
||||
args := c.Args().Slice()
|
||||
|
||||
if len(args) == 0 {
|
||||
if len(args) == 0 && config.AppConfig.Query == "" {
|
||||
cli.ShowAppHelp(c)
|
||||
showTips()
|
||||
return nil
|
||||
@@ -187,6 +267,12 @@ lcg [опции] <описание команды>
|
||||
os.Exit(1)
|
||||
}
|
||||
}
|
||||
|
||||
if config.AppConfig.Query != "" {
|
||||
executeMain(file, system, config.AppConfig.Query, timeout)
|
||||
return nil
|
||||
}
|
||||
|
||||
executeMain(file, system, strings.Join(args, " "), timeout)
|
||||
return nil
|
||||
},
|
||||
@@ -207,6 +293,31 @@ lcg [опции] <описание команды>
|
||||
}
|
||||
}
|
||||
|
||||
// applyAppFlagsToConfig применяет флаги приложения к конфигурации
|
||||
// Работает как для основного Action, так и для команд
|
||||
func applyAppFlagsToConfig(c *cli.Context) {
|
||||
// Применяем флаг model - проверяем и через IsSet, и значение напрямую
|
||||
// так как IsSet может не работать для флагов без значения по умолчанию
|
||||
if model := c.String("model"); model != "" {
|
||||
config.AppConfig.Model = model
|
||||
}
|
||||
|
||||
// Применяем флаг sys
|
||||
if sys := c.String("sys"); sys != "" {
|
||||
config.AppConfig.Prompt = sys
|
||||
}
|
||||
|
||||
// Применяем флаг timeout (только если явно установлен)
|
||||
if c.IsSet("timeout") {
|
||||
config.AppConfig.Timeout = fmt.Sprintf("%d", c.Int("timeout"))
|
||||
}
|
||||
|
||||
// Применяем флаг query (игнорируем значение по умолчанию)
|
||||
if query := c.String("query"); query != "" && query != "Hello? what day is it today?" {
|
||||
config.AppConfig.Query = query
|
||||
}
|
||||
}
|
||||
|
||||
func getCommands() []*cli.Command {
|
||||
commands := []*cli.Command{
|
||||
{
|
||||
@@ -346,6 +457,10 @@ func getCommands() []*cli.Command {
|
||||
},
|
||||
},
|
||||
Action: func(c *cli.Context) error {
|
||||
// Флаги приложения уже применены через глобальный Before hook
|
||||
// Но применяем их еще раз на случай, если глобальный Before не сработал
|
||||
applyAppFlagsToConfig(c)
|
||||
|
||||
if c.Bool("full") {
|
||||
// Выводим полную конфигурацию в JSON формате
|
||||
showFullConfig()
|
||||
@@ -913,7 +1028,7 @@ func printDebugInfo(file, system, commandInput string, timeout int) {
|
||||
fmt.Printf("📁 Файл: %s\n", file)
|
||||
fmt.Printf("🤖 Системный промпт: %s\n", system)
|
||||
fmt.Printf("💬 Запрос: %s\n", commandInput)
|
||||
fmt.Printf("⏱️ Таймаут: %d сек\n", timeout)
|
||||
fmt.Printf("⏱️ Таймаут: %d сек\n", timeout)
|
||||
fmt.Printf("🌐 Провайдер: %s\n", config.AppConfig.ProviderType)
|
||||
fmt.Printf("🏠 Хост: %s\n", config.AppConfig.Host)
|
||||
fmt.Printf("🧠 Модель: %s\n", config.AppConfig.Model)
|
||||
@@ -983,12 +1098,7 @@ func getServerAllowHTTPForHost(host string) bool {
|
||||
// isSecureHost проверяет, является ли хост безопасным для HTTP
|
||||
func isSecureHost(host string) bool {
|
||||
secureHosts := []string{"localhost", "127.0.0.1", "::1"}
|
||||
for _, secureHost := range secureHosts {
|
||||
if host == secureHost {
|
||||
return true
|
||||
}
|
||||
}
|
||||
return false
|
||||
return slices.Contains(secureHosts, host)
|
||||
}
|
||||
|
||||
// showShortConfig показывает краткую конфигурацию
|
||||
|
||||
@@ -127,7 +127,6 @@ func getTokenFromCookie(r *http.Request) (string, error) {
|
||||
func setAuthCookie(w http.ResponseWriter, token string) {
|
||||
cookie := &http.Cookie{
|
||||
Name: "auth_token",
|
||||
Domain: config.AppConfig.Server.Domain,
|
||||
Value: token,
|
||||
Path: config.AppConfig.Server.CookiePath,
|
||||
HttpOnly: true,
|
||||
|
||||
165
serve/csrf.go
165
serve/csrf.go
@@ -8,11 +8,89 @@ import (
|
||||
"fmt"
|
||||
"net/http"
|
||||
"os"
|
||||
"path/filepath"
|
||||
"sync"
|
||||
"time"
|
||||
|
||||
"github.com/direct-dev-ru/linux-command-gpt/config"
|
||||
)
|
||||
|
||||
const (
|
||||
// CSRFTokenLifetimeHours минимальное время жизни CSRF токена в часах (не менее 12 часов)
|
||||
CSRFTokenLifetimeHours = 12
|
||||
// CSRFTokenLifetimeSeconds минимальное время жизни CSRF токена в секундах
|
||||
CSRFTokenLifetimeSeconds = CSRFTokenLifetimeHours * 60 * 60
|
||||
)
|
||||
|
||||
var (
|
||||
// csrfDebugFile файл для отладочного вывода CSRF
|
||||
csrfDebugFile *os.File
|
||||
// csrfDebugFileMutex мьютекс для безопасной записи в файл
|
||||
csrfDebugFileMutex sync.Mutex
|
||||
)
|
||||
|
||||
// initCSRFDebugFile инициализирует файл для отладочного вывода CSRF
|
||||
func initCSRFDebugFile() error {
|
||||
debugFile := os.Getenv("LCG_CSRF_DEBUG_FILE")
|
||||
if debugFile == "" {
|
||||
return nil // Файл не указан, ничего не делаем
|
||||
}
|
||||
|
||||
// Создаем директорию для файла, если нужно
|
||||
dir := filepath.Dir(debugFile)
|
||||
if dir != "." && dir != "" {
|
||||
if err := os.MkdirAll(dir, 0755); err != nil {
|
||||
return fmt.Errorf("failed to create directory for CSRF debug file %s: %v", dir, err)
|
||||
}
|
||||
}
|
||||
|
||||
// Создаем/перезаписываем файл
|
||||
file, err := os.Create(debugFile)
|
||||
if err != nil {
|
||||
return fmt.Errorf("failed to create CSRF debug file %s: %v", debugFile, err)
|
||||
}
|
||||
|
||||
csrfDebugFileMutex.Lock()
|
||||
// Закрываем старый файл, если был открыт
|
||||
if csrfDebugFile != nil {
|
||||
csrfDebugFile.Close()
|
||||
}
|
||||
csrfDebugFile = file
|
||||
csrfDebugFileMutex.Unlock()
|
||||
|
||||
// Записываем заголовок
|
||||
header := fmt.Sprintf("=== CSRF Debug Log Started at %s ===\n", time.Now().Format(time.RFC3339))
|
||||
if _, err := csrfDebugFile.WriteString(header); err != nil {
|
||||
return fmt.Errorf("failed to write header to CSRF debug file: %v", err)
|
||||
}
|
||||
if err := csrfDebugFile.Sync(); err != nil {
|
||||
return fmt.Errorf("failed to sync CSRF debug file: %v", err)
|
||||
}
|
||||
|
||||
return nil
|
||||
}
|
||||
|
||||
// csrfDebugPrint выводит отладочную информацию
|
||||
// Если установлен LCG_CSRF_DEBUG_FILE - всегда пишет в файл (независимо от debug режима)
|
||||
// Если включен debug режим - также пишет в консоль
|
||||
func csrfDebugPrint(format string, args ...any) {
|
||||
message := fmt.Sprintf(format, args...)
|
||||
|
||||
// Записываем в файл, если он установлен
|
||||
csrfDebugFileMutex.Lock()
|
||||
if csrfDebugFile != nil {
|
||||
csrfDebugFile.WriteString(message)
|
||||
// Синхронизируем сразу для отладки (может быть медленно, но гарантирует запись)
|
||||
csrfDebugFile.Sync()
|
||||
}
|
||||
csrfDebugFileMutex.Unlock()
|
||||
|
||||
// Записываем в консоль, если включен debug режим
|
||||
if config.AppConfig.MainFlags.Debug {
|
||||
fmt.Print(message)
|
||||
}
|
||||
}
|
||||
|
||||
// CSRFManager управляет CSRF токенами
|
||||
type CSRFManager struct {
|
||||
secretKey []byte
|
||||
@@ -68,6 +146,8 @@ func getCSRFSecretKey() ([]byte, error) {
|
||||
|
||||
// GenerateToken генерирует CSRF токен для пользователя
|
||||
func (c *CSRFManager) GenerateToken(userID string) (string, error) {
|
||||
csrfDebugPrint("[CSRF DEBUG] Генерация нового токена для UserID: %s\n", userID)
|
||||
|
||||
// Создаем данные токена
|
||||
data := CSRFData{
|
||||
Token: generateRandomString(32),
|
||||
@@ -75,53 +155,85 @@ func (c *CSRFManager) GenerateToken(userID string) (string, error) {
|
||||
UserID: userID,
|
||||
}
|
||||
|
||||
csrfDebugPrint("[CSRF DEBUG] Созданные данные токена: Token (первые 20 символов): %s..., Timestamp: %d, UserID: %s\n",
|
||||
safeSubstring(data.Token, 0, 20), data.Timestamp, data.UserID)
|
||||
|
||||
// Создаем подпись
|
||||
signature := c.createSignature(data)
|
||||
csrfDebugPrint("[CSRF DEBUG] Созданная подпись (первые 20 символов): %s...\n", safeSubstring(signature, 0, 20))
|
||||
|
||||
// Кодируем данные в base64
|
||||
encodedData := base64.StdEncoding.EncodeToString([]byte(fmt.Sprintf("%s:%d:%s", data.Token, data.Timestamp, data.UserID)))
|
||||
csrfDebugPrint("[CSRF DEBUG] Закодированные данные (первые 30 символов): %s...\n", safeSubstring(encodedData, 0, 30))
|
||||
|
||||
return fmt.Sprintf("%s.%s", encodedData, signature), nil
|
||||
token := fmt.Sprintf("%s.%s", encodedData, signature)
|
||||
csrfDebugPrint("[CSRF DEBUG] Итоговый токен сгенерирован (первые 50 символов): %s...\n", safeSubstring(token, 0, 50))
|
||||
|
||||
return token, nil
|
||||
}
|
||||
|
||||
// ValidateToken проверяет CSRF токен
|
||||
func (c *CSRFManager) ValidateToken(token, userID string) bool {
|
||||
csrfDebugPrint("[CSRF DEBUG] Начало валидации токена. UserID из запроса: %s\n", userID)
|
||||
csrfDebugPrint("[CSRF DEBUG] Токен (первые 50 символов): %s...\n", safeSubstring(token, 0, 50))
|
||||
|
||||
// Разделяем токен на данные и подпись
|
||||
parts := splitToken(token)
|
||||
if len(parts) != 2 {
|
||||
csrfDebugPrint("[CSRF DEBUG] ❌ ОШИБКА: Токен не может быть разделен на 2 части. Получено частей: %d\n", len(parts))
|
||||
return false
|
||||
}
|
||||
|
||||
encodedData, signature := parts[0], parts[1]
|
||||
csrfDebugPrint("[CSRF DEBUG] Токен разделен на encodedData (первые 30 символов): %s... и signature (первые 20 символов): %s...\n",
|
||||
safeSubstring(encodedData, 0, 30), safeSubstring(signature, 0, 20))
|
||||
|
||||
// Декодируем данные
|
||||
dataBytes, err := base64.StdEncoding.DecodeString(encodedData)
|
||||
if err != nil {
|
||||
csrfDebugPrint("[CSRF DEBUG] ❌ ОШИБКА: Не удалось декодировать base64 данные: %v\n", err)
|
||||
return false
|
||||
}
|
||||
|
||||
csrfDebugPrint("[CSRF DEBUG] Данные декодированы. Длина: %d байт\n", len(dataBytes))
|
||||
|
||||
// Парсим данные
|
||||
dataParts := splitString(string(dataBytes), ":")
|
||||
if len(dataParts) != 3 {
|
||||
csrfDebugPrint("[CSRF DEBUG] ❌ ОШИБКА: Данные не могут быть разделены на 3 части. Получено частей: %d. Данные: %s\n", len(dataParts), string(dataBytes))
|
||||
return false
|
||||
}
|
||||
|
||||
tokenValue, timestampStr, tokenUserID := dataParts[0], dataParts[1], dataParts[2]
|
||||
csrfDebugPrint("[CSRF DEBUG] Распарсены данные: tokenValue (первые 20 символов): %s..., timestamp: %s, tokenUserID: %s\n",
|
||||
safeSubstring(tokenValue, 0, 20), timestampStr, tokenUserID)
|
||||
|
||||
// Проверяем пользователя
|
||||
if tokenUserID != userID {
|
||||
csrfDebugPrint("[CSRF DEBUG] ❌ ОШИБКА: UserID не совпадает! Ожидался: '%s', получен из токена: '%s'\n", userID, tokenUserID)
|
||||
return false
|
||||
}
|
||||
csrfDebugPrint("[CSRF DEBUG] ✅ UserID совпадает: %s\n", userID)
|
||||
|
||||
// Проверяем время жизни токена (24 часа)
|
||||
// Проверяем время жизни токена (минимум 12 часов)
|
||||
timestamp, err := parseInt64(timestampStr)
|
||||
if err != nil {
|
||||
csrfDebugPrint("[CSRF DEBUG] ❌ ОШИБКА: Не удалось распарсить timestamp '%s': %v\n", timestampStr, err)
|
||||
return false
|
||||
}
|
||||
|
||||
if time.Now().Unix()-timestamp > 24*60*60 {
|
||||
now := time.Now().Unix()
|
||||
age := now - timestamp
|
||||
ageHours := float64(age) / 3600.0
|
||||
csrfDebugPrint("[CSRF DEBUG] Текущее время: %d, timestamp токена: %d, возраст токена: %d сек (%.2f часов)\n", now, timestamp, age, ageHours)
|
||||
|
||||
// Минимальное время жизни токена: 12 часов (не менее 12 часов согласно требованиям)
|
||||
if age > CSRFTokenLifetimeSeconds {
|
||||
csrfDebugPrint("[CSRF DEBUG] ❌ ОШИБКА: Токен устарел! Возраст: %d сек (%.2f часов), максимум: %d сек (%.2f часов)\n",
|
||||
age, ageHours, CSRFTokenLifetimeSeconds, float64(CSRFTokenLifetimeSeconds)/3600.0)
|
||||
return false
|
||||
}
|
||||
csrfDebugPrint("[CSRF DEBUG] ✅ Токен не устарел (возраст в пределах лимита)\n")
|
||||
|
||||
// Создаем данные для проверки подписи
|
||||
data := CSRFData{
|
||||
@@ -132,7 +244,30 @@ func (c *CSRFManager) ValidateToken(token, userID string) bool {
|
||||
|
||||
// Проверяем подпись
|
||||
expectedSignature := c.createSignature(data)
|
||||
return signature == expectedSignature
|
||||
signatureMatch := signature == expectedSignature
|
||||
if !signatureMatch {
|
||||
csrfDebugPrint("[CSRF DEBUG] ❌ ОШИБКА: Подпись не совпадает!\n")
|
||||
csrfDebugPrint("[CSRF DEBUG] Ожидаемая подпись (первые 20 символов): %s...\n", safeSubstring(expectedSignature, 0, 20))
|
||||
csrfDebugPrint("[CSRF DEBUG] Полученная подпись (первые 20 символов): %s...\n", safeSubstring(signature, 0, 20))
|
||||
csrfDebugPrint("[CSRF DEBUG] Данные для подписи: Token=%s (первые 20), Timestamp=%d, UserID=%s\n",
|
||||
safeSubstring(tokenValue, 0, 20), timestamp, tokenUserID)
|
||||
} else {
|
||||
csrfDebugPrint("[CSRF DEBUG] ✅ Подпись совпадает\n")
|
||||
}
|
||||
csrfDebugPrint("[CSRF DEBUG] Результат валидации: %t\n", signatureMatch)
|
||||
return signatureMatch
|
||||
}
|
||||
|
||||
// safeSubstring безопасно обрезает строку
|
||||
func safeSubstring(s string, start, length int) string {
|
||||
if start >= len(s) {
|
||||
return ""
|
||||
}
|
||||
end := start + length
|
||||
if end > len(s) {
|
||||
end = len(s)
|
||||
}
|
||||
return s[start:end]
|
||||
}
|
||||
|
||||
// createSignature создает подпись для данных
|
||||
@@ -153,22 +288,35 @@ func GetCSRFTokenFromCookie(r *http.Request) string {
|
||||
|
||||
// setCSRFCookie устанавливает CSRF токен в cookie
|
||||
func setCSRFCookie(w http.ResponseWriter, token string) {
|
||||
csrfDebugPrint("[CSRF DEBUG] Установка CSRF cookie. Токен (первые 50 символов): %s...\n", safeSubstring(token, 0, 50))
|
||||
csrfDebugPrint("[CSRF DEBUG] Cookie настройки: Path=%s, Secure=%t, Domain=%s, MaxAge=%d сек\n",
|
||||
config.AppConfig.Server.CookiePath,
|
||||
config.AppConfig.Server.CookieSecure,
|
||||
config.AppConfig.Server.Domain,
|
||||
CSRFTokenLifetimeSeconds)
|
||||
|
||||
// Минимальное время жизни токена: 12 часов (не менее 12 часов согласно требованиям)
|
||||
cookie := &http.Cookie{
|
||||
Name: "csrf_token",
|
||||
Value: token,
|
||||
Path: config.AppConfig.Server.CookiePath,
|
||||
HttpOnly: true,
|
||||
Secure: config.AppConfig.Server.CookieSecure,
|
||||
SameSite: http.SameSiteLaxMode, // Более мягкий режим для reverse proxy
|
||||
MaxAge: 1 * 60 * 60,
|
||||
SameSite: http.SameSiteLaxMode, // Более мягкий режим для reverse proxy
|
||||
MaxAge: CSRFTokenLifetimeSeconds, // Минимум 12 часов в секундах
|
||||
}
|
||||
|
||||
// Добавляем домен если указан
|
||||
if config.AppConfig.Server.Domain != "" {
|
||||
cookie.Domain = config.AppConfig.Server.Domain
|
||||
csrfDebugPrint("[CSRF DEBUG] Cookie Domain установлен: %s\n", cookie.Domain)
|
||||
} else {
|
||||
csrfDebugPrint("[CSRF DEBUG] Cookie Domain не установлен (пустой)\n")
|
||||
}
|
||||
|
||||
http.SetCookie(w, cookie)
|
||||
csrfDebugPrint("[CSRF DEBUG] ✅ CSRF cookie установлен: Name=%s, Path=%s, Domain=%s, Secure=%t, HttpOnly=%t, SameSite=%v, MaxAge=%d\n",
|
||||
cookie.Name, cookie.Path, cookie.Domain, cookie.Secure, cookie.HttpOnly, cookie.SameSite, cookie.MaxAge)
|
||||
}
|
||||
|
||||
// clearCSRFCookie удаляет CSRF cookie
|
||||
@@ -252,6 +400,11 @@ var csrfManager *CSRFManager
|
||||
|
||||
// InitCSRFManager инициализирует глобальный CSRF менеджер
|
||||
func InitCSRFManager() error {
|
||||
// Инициализируем файл для отладки CSRF, если указан LCG_CSRF_DEBUG_FILE
|
||||
if err := initCSRFDebugFile(); err != nil {
|
||||
return fmt.Errorf("failed to initialize CSRF debug file: %v", err)
|
||||
}
|
||||
|
||||
var err error
|
||||
csrfManager, err = NewCSRFManager()
|
||||
return err
|
||||
|
||||
@@ -233,6 +233,9 @@ func handleExecuteRequest(w http.ResponseWriter, r *http.Request) {
|
||||
return
|
||||
}
|
||||
|
||||
// Устанавливаем CSRF токен в cookie после обработки запроса
|
||||
setCSRFCookie(w, csrfToken)
|
||||
|
||||
data := ExecutePageData{
|
||||
Title: "Результат выполнения",
|
||||
Header: "Результат выполнения",
|
||||
|
||||
@@ -92,6 +92,7 @@ func RenderLoginPage(w http.ResponseWriter, data LoginPageData) error {
|
||||
func getSessionID(r *http.Request) string {
|
||||
// Пытаемся получить из cookie
|
||||
if cookie, err := r.Cookie("session_id"); err == nil {
|
||||
csrfDebugPrint("[CSRF DEBUG] SessionID получен из cookie: %s\n", cookie.Value)
|
||||
return cookie.Value
|
||||
}
|
||||
|
||||
@@ -99,7 +100,12 @@ func getSessionID(r *http.Request) string {
|
||||
ip := r.RemoteAddr
|
||||
userAgent := r.Header.Get("User-Agent")
|
||||
|
||||
csrfDebugPrint("[CSRF DEBUG] SessionID не найден в cookie. Генерация нового на основе IP=%s, User-Agent (первые 50 символов): %s...\n",
|
||||
ip, safeSubstring(userAgent, 0, 50))
|
||||
|
||||
// Создаем простой хеш для сессии
|
||||
hash := sha256.Sum256([]byte(ip + userAgent))
|
||||
return hex.EncodeToString(hash[:])[:16]
|
||||
sessionID := hex.EncodeToString(hash[:])[:16]
|
||||
csrfDebugPrint("[CSRF DEBUG] Сгенерирован SessionID: %s\n", sessionID)
|
||||
return sessionID
|
||||
}
|
||||
|
||||
@@ -45,25 +45,77 @@ func AuthMiddleware(next http.HandlerFunc) http.HandlerFunc {
|
||||
// CSRFMiddleware проверяет CSRF токены для POST/PUT/DELETE запросов
|
||||
func CSRFMiddleware(next http.HandlerFunc) http.HandlerFunc {
|
||||
return func(w http.ResponseWriter, r *http.Request) {
|
||||
// Проверяем, нужно ли пропустить CSRF проверку
|
||||
if config.AppConfig.Server.ForceNoCSRF {
|
||||
csrfDebugPrint("[CSRF MIDDLEWARE] ⚠️ CSRF проверка отключена через LCG_FORCE_NO_CSRF\n")
|
||||
next(w, r)
|
||||
return
|
||||
}
|
||||
|
||||
csrfDebugPrint("\n[CSRF MIDDLEWARE] ==========================================\n")
|
||||
csrfDebugPrint("[CSRF MIDDLEWARE] Обработка запроса: %s %s\n", r.Method, r.URL.Path)
|
||||
csrfDebugPrint("[CSRF MIDDLEWARE] RemoteAddr: %s\n", r.RemoteAddr)
|
||||
csrfDebugPrint("[CSRF MIDDLEWARE] Host: %s\n", r.Host)
|
||||
|
||||
// Выводим все заголовки
|
||||
csrfDebugPrint("[CSRF MIDDLEWARE] Заголовки:\n")
|
||||
for name, values := range r.Header {
|
||||
if name == "Cookie" {
|
||||
// Cookie выводим отдельно, разбирая их
|
||||
csrfDebugPrint("[CSRF MIDDLEWARE] %s: %s\n", name, strings.Join(values, "; "))
|
||||
} else {
|
||||
csrfDebugPrint("[CSRF MIDDLEWARE] %s: %s\n", name, strings.Join(values, ", "))
|
||||
}
|
||||
}
|
||||
|
||||
// Выводим все cookies
|
||||
csrfDebugPrint("[CSRF MIDDLEWARE] Все cookies:\n")
|
||||
if len(r.Cookies()) == 0 {
|
||||
csrfDebugPrint("[CSRF MIDDLEWARE] (нет cookies)\n")
|
||||
} else {
|
||||
for _, cookie := range r.Cookies() {
|
||||
csrfDebugPrint("[CSRF MIDDLEWARE] %s = %s (Path: %s, Domain: %s, Secure: %t, HttpOnly: %t, SameSite: %v, MaxAge: %d)\n",
|
||||
cookie.Name,
|
||||
safeSubstring(cookie.Value, 0, 50),
|
||||
cookie.Path,
|
||||
cookie.Domain,
|
||||
cookie.Secure,
|
||||
cookie.HttpOnly,
|
||||
cookie.SameSite,
|
||||
cookie.MaxAge)
|
||||
}
|
||||
}
|
||||
|
||||
// Проверяем только изменяющие запросы
|
||||
if r.Method == "GET" || r.Method == "HEAD" || r.Method == "OPTIONS" {
|
||||
csrfDebugPrint("[CSRF MIDDLEWARE] Пропускаем проверку CSRF для метода %s\n", r.Method)
|
||||
next(w, r)
|
||||
return
|
||||
}
|
||||
|
||||
// Исключаем некоторые API endpoints (с учетом BasePath)
|
||||
if r.URL.Path == makePath("/api/login") || r.URL.Path == makePath("/api/logout") {
|
||||
csrfDebugPrint("[CSRF MIDDLEWARE] Пропускаем проверку CSRF для пути %s\n", r.URL.Path)
|
||||
next(w, r)
|
||||
return
|
||||
}
|
||||
|
||||
// Получаем CSRF токен из заголовка или формы
|
||||
csrfToken := r.Header.Get("X-CSRF-Token")
|
||||
csrfTokenFromHeader := r.Header.Get("X-CSRF-Token")
|
||||
csrfTokenFromForm := r.FormValue("csrf_token")
|
||||
|
||||
csrfDebugPrint("[CSRF MIDDLEWARE] CSRF токен из заголовка X-CSRF-Token: %s\n",
|
||||
safeSubstring(csrfTokenFromHeader, 0, 50))
|
||||
csrfDebugPrint("[CSRF MIDDLEWARE] CSRF токен из формы csrf_token: %s\n",
|
||||
safeSubstring(csrfTokenFromForm, 0, 50))
|
||||
|
||||
csrfToken := csrfTokenFromHeader
|
||||
if csrfToken == "" {
|
||||
csrfToken = r.FormValue("csrf_token")
|
||||
csrfToken = csrfTokenFromForm
|
||||
}
|
||||
|
||||
if csrfToken == "" {
|
||||
csrfDebugPrint("[CSRF MIDDLEWARE] ❌ ОШИБКА: CSRF токен не найден ни в заголовке, ни в форме!\n")
|
||||
// Для API запросов возвращаем JSON ошибку
|
||||
if isAPIRequest(r) {
|
||||
w.Header().Set("Content-Type", "application/json")
|
||||
@@ -77,12 +129,67 @@ func CSRFMiddleware(next http.HandlerFunc) http.HandlerFunc {
|
||||
return
|
||||
}
|
||||
|
||||
csrfDebugPrint("[CSRF MIDDLEWARE] Используемый CSRF токен (первые 50 символов): %s...\n",
|
||||
safeSubstring(csrfToken, 0, 50))
|
||||
|
||||
// Получаем сессионный ID
|
||||
sessionID := getSessionID(r)
|
||||
csrfDebugPrint("[CSRF MIDDLEWARE] SessionID: %s\n", sessionID)
|
||||
|
||||
// Получаем CSRF токен из cookie для сравнения
|
||||
csrfTokenFromCookie := GetCSRFTokenFromCookie(r)
|
||||
valid := true
|
||||
if csrfTokenFromCookie != "" {
|
||||
csrfDebugPrint("[CSRF MIDDLEWARE] CSRF токен из cookie (первые 50 символов): %s...\n",
|
||||
safeSubstring(csrfTokenFromCookie, 0, 50))
|
||||
if csrfTokenFromCookie != csrfToken {
|
||||
csrfDebugPrint("[CSRF MIDDLEWARE] ⚠️ ВНИМАНИЕ: Токен из cookie отличается от токена в запросе!\n")
|
||||
valid = false
|
||||
} else {
|
||||
csrfDebugPrint("[CSRF MIDDLEWARE] ✅ Токен из cookie совпадает с токеном в запросе\n")
|
||||
valid = true
|
||||
}
|
||||
} else {
|
||||
csrfDebugPrint("[CSRF MIDDLEWARE] ⚠️ ВНИМАНИЕ: CSRF токен не найден в cookie!\n")
|
||||
valid = false
|
||||
}
|
||||
|
||||
// Проверяем CSRF токен
|
||||
|
||||
if !valid {
|
||||
csrfDebugPrint("[CSRF MIDDLEWARE] ❌ ОШИБКА: Валидация CSRF токена не прошла!\n")
|
||||
// Для API запросов возвращаем JSON ошибку
|
||||
if isAPIRequest(r) {
|
||||
w.Header().Set("Content-Type", "application/json")
|
||||
w.WriteHeader(http.StatusForbidden)
|
||||
w.Write([]byte(`{"success": false, "error": "Invalid CSRF token"}`))
|
||||
return
|
||||
}
|
||||
|
||||
// Для веб-запросов возвращаем ошибку
|
||||
http.Error(w, "Invalid OR Empty CSRF token", http.StatusForbidden)
|
||||
return
|
||||
}
|
||||
|
||||
csrfManager := GetCSRFManager()
|
||||
if csrfManager == nil || !csrfManager.ValidateToken(csrfToken, sessionID) {
|
||||
if csrfManager == nil {
|
||||
csrfDebugPrint("[CSRF MIDDLEWARE] ❌ ОШИБКА: CSRF менеджер не инициализирован!\n")
|
||||
if isAPIRequest(r) {
|
||||
w.Header().Set("Content-Type", "application/json")
|
||||
w.WriteHeader(http.StatusForbidden)
|
||||
w.Write([]byte(`{"success": false, "error": "Invalid CSRF token"}`))
|
||||
return
|
||||
}
|
||||
http.Error(w, "Invalid CSRF token", http.StatusForbidden)
|
||||
return
|
||||
}
|
||||
|
||||
csrfDebugPrint("[CSRF MIDDLEWARE] Вызов ValidateToken с токеном и sessionID: %s\n", sessionID)
|
||||
valid = csrfManager.ValidateToken(csrfToken, sessionID)
|
||||
csrfDebugPrint("[CSRF MIDDLEWARE] Результат ValidateToken: %t\n", valid)
|
||||
|
||||
if !valid {
|
||||
csrfDebugPrint("[CSRF MIDDLEWARE] ❌ ОШИБКА: Валидация CSRF токена не прошла!\n")
|
||||
// Для API запросов возвращаем JSON ошибку
|
||||
if isAPIRequest(r) {
|
||||
w.Header().Set("Content-Type", "application/json")
|
||||
@@ -96,6 +203,8 @@ func CSRFMiddleware(next http.HandlerFunc) http.HandlerFunc {
|
||||
return
|
||||
}
|
||||
|
||||
csrfDebugPrint("[CSRF MIDDLEWARE] ✅ CSRF токен валиден, продолжаем обработку запроса\n")
|
||||
csrfDebugPrint("[CSRF MIDDLEWARE] ==========================================\n\n")
|
||||
// CSRF токен валиден, продолжаем
|
||||
next(w, r)
|
||||
}
|
||||
|
||||
@@ -232,11 +232,11 @@ func registerRoutesExceptHome() {
|
||||
http.HandleFunc(makePath("/api/add-to-history"), AuthMiddleware(CSRFMiddleware(handleAddToHistory)))
|
||||
|
||||
// Catch-all 404 для любых незарегистрированных путей (только когда BasePath задан)
|
||||
if getBasePath() != "" {
|
||||
http.HandleFunc("/", func(w http.ResponseWriter, r *http.Request) {
|
||||
renderNotFound(w, "Страница не найдена", getBasePath())
|
||||
})
|
||||
}
|
||||
// if getBasePath() != "" {
|
||||
// http.HandleFunc("/", func(w http.ResponseWriter, r *http.Request) {
|
||||
// renderNotFound(w, "Страница не найдена", getBasePath())
|
||||
// })
|
||||
// }
|
||||
}
|
||||
|
||||
// registerRoutes регистрирует все маршруты сервера
|
||||
|
||||
@@ -72,8 +72,9 @@ var ExecutePageCSSTemplate = template.Must(template.New("execute_css").Parse(`
|
||||
text-align: center;
|
||||
}
|
||||
.header h1 {
|
||||
margin: 0;
|
||||
font-size: 2.5em;
|
||||
margin-bottom: 10px;
|
||||
font-weight: 300;
|
||||
}
|
||||
.header p {
|
||||
opacity: 0.9;
|
||||
|
||||
@@ -53,6 +53,16 @@ const NotFoundTemplate = `
|
||||
backdrop-filter: blur(10px);
|
||||
text-align: center;
|
||||
}
|
||||
@keyframes pulse {
|
||||
0%, 100% {
|
||||
transform: scale(1);
|
||||
text-shadow: 0 8px 40px var(--accentGlow);
|
||||
}
|
||||
50% {
|
||||
transform: scale(1.15);
|
||||
text-shadow: 0 12px 60px var(--accentGlow), 0 0 30px var(--accentGlow2);
|
||||
}
|
||||
}
|
||||
.code {
|
||||
font-size: clamp(48px, 12vw, 120px);
|
||||
line-height: 0.9;
|
||||
@@ -64,6 +74,8 @@ const NotFoundTemplate = `
|
||||
color: transparent;
|
||||
margin: 8px 0 12px 0;
|
||||
text-shadow: 0 8px 40px var(--accentGlow);
|
||||
animation: pulse 2.5s ease-in-out infinite;
|
||||
transform-origin: center;
|
||||
}
|
||||
.title {
|
||||
font-size: clamp(18px, 3.2vw, 28px);
|
||||
@@ -133,7 +145,7 @@ const NotFoundTemplate = `
|
||||
<div class="card">
|
||||
<div class="code">404</div>
|
||||
<div class="title">Страница не найдена</div>
|
||||
<p class="desc">{{.Message}}</p>
|
||||
<p class="desc">Такой страницы не существует. Вы можете вернуться на главную страницу или выполнить команду.</p>
|
||||
<div class="btns">
|
||||
<a class="btn" href="{{.BasePath}}/">🏠 На главную</a>
|
||||
<a class="btn secondary" href="{{.BasePath}}/run">🚀 К выполнению</a>
|
||||
@@ -143,5 +155,3 @@ const NotFoundTemplate = `
|
||||
</body>
|
||||
</html>
|
||||
`
|
||||
|
||||
|
||||
|
||||
Reference in New Issue
Block a user