mirror of
https://github.com/Direct-Dev-Ru/go-lcg.git
synced 2025-11-16 01:29:55 +00:00
Compare commits
9 Commits
| Author | SHA1 | Date | |
|---|---|---|---|
| 600c9689af | |||
| 8e2e995d50 | |||
| 51023ba058 | |||
| 572c535589 | |||
| 0820e859a6 | |||
| 641124b0bd | |||
| 2659aa4928 | |||
| 278a817709 | |||
| c83fed5591 |
@@ -1,6 +1,10 @@
|
||||
# Используем готовый образ Ollama
|
||||
FROM localhost/ollama_packed:latest
|
||||
|
||||
RUN apt-get update && apt-get install -y --no-install-recommends bash && apt-get install -y --no-install-recommends curl \
|
||||
&& apt-get install -y --no-install-recommends jq && apt-get install -y --no-install-recommends wget
|
||||
|
||||
|
||||
# Устанавливаем bash если его нет (базовый образ ollama может быть на разных дистрибутивах)
|
||||
RUN if ! command -v bash >/dev/null 2>&1; then \
|
||||
if command -v apk >/dev/null 2>&1; then \
|
||||
@@ -72,6 +76,8 @@ ENV LCG_SERVER_HOST=0.0.0.0
|
||||
ENV LCG_SERVER_PORT=8080
|
||||
ENV LCG_DOMAIN="remote.ollama-server.ru"
|
||||
ENV LCG_COOKIE_PATH="/lcg"
|
||||
# ENV LCG_FORCE_NO_CSRF=true
|
||||
|
||||
# ENV LCG_SERVER_ALLOW_HTTP=true
|
||||
# ENV OLLAMA_HOST=127.0.0.1
|
||||
# ENV OLLAMA_PORT=11434
|
||||
|
||||
@@ -52,7 +52,7 @@ run: ## Запустить контейнер (Docker)
|
||||
-v lcg-results:/app/data/results \
|
||||
-v lcg-prompts:/app/data/prompts \
|
||||
-v lcg-config:/app/data/config \
|
||||
${IMAGE_NAME}:${IMAGE_TAG}
|
||||
${IMAGE_NAME}:${IMAGE_TAG} ollama serve
|
||||
@echo "Контейнер ${CONTAINER_NAME} запущен"
|
||||
|
||||
run-podman: ## Запустить контейнер (Podman)
|
||||
@@ -69,7 +69,7 @@ run-podman: ## Запустить контейнер (Podman)
|
||||
-v lcg-results:/app/data/results \
|
||||
-v lcg-prompts:/app/data/prompts \
|
||||
-v lcg-config:/app/data/config \
|
||||
${IMAGE_NAME}:${IMAGE_TAG}
|
||||
${IMAGE_NAME}:${IMAGE_TAG} ollama serve
|
||||
@echo "Контейнер ${CONTAINER_NAME} запущен"
|
||||
|
||||
run-podman-nodemon: ## Запустить контейнер (Podman) без -d
|
||||
@@ -86,7 +86,7 @@ run-podman-nodemon: ## Запустить контейнер (Podman) без -d
|
||||
-v lcg-results:/app/data/results \
|
||||
-v lcg-prompts:/app/data/prompts \
|
||||
-v lcg-config:/app/data/config \
|
||||
${IMAGE_NAME}:${IMAGE_TAG}
|
||||
${IMAGE_NAME}:${IMAGE_TAG} ollama serve
|
||||
@echo "Контейнер ${CONTAINER_NAME} запущен"
|
||||
|
||||
stop: ## Остановить контейнер (Docker)
|
||||
|
||||
@@ -65,7 +65,8 @@ export LCG_CONFIG_FOLDER="${LCG_CONFIG_FOLDER:-/app/data/config}"
|
||||
export LCG_SERVER_HOST="${LCG_SERVER_HOST:-0.0.0.0}"
|
||||
export LCG_SERVER_PORT="${LCG_SERVER_PORT:-8080}"
|
||||
export LCG_SERVER_ALLOW_HTTP="${LCG_SERVER_ALLOW_HTTP:-false}"
|
||||
export LCG_FORCE_NO_CSRF="${LCG_FORCE_NO_CSRF:-true}"
|
||||
export LCG_FORCE_NO_CSRF="${LCG_FORCE_NO_CSRF:-false}"
|
||||
export LCG_CSRF_DEBUG_FILE="${LCG_CSRF_DEBUG_FILE:-/app/data/csrf-debug.log}"
|
||||
|
||||
if [ "$LCG_FORCE_NO_CSRF" = "true" ]; then
|
||||
info "CSRF проверка отключена через LCG_FORCE_NO_CSRF"
|
||||
|
||||
@@ -1 +1 @@
|
||||
v.2.0.21
|
||||
v2.0.28
|
||||
|
||||
@@ -27,6 +27,7 @@ type Config struct {
|
||||
ResultHistory string
|
||||
NoHistoryEnv string
|
||||
AllowExecution bool
|
||||
Think bool
|
||||
Query string
|
||||
MainFlags MainFlags
|
||||
Server ServerConfig
|
||||
|
||||
@@ -1 +1 @@
|
||||
v.2.0.21
|
||||
v2.0.28
|
||||
|
||||
10
gpt/gpt.go
10
gpt/gpt.go
@@ -44,11 +44,19 @@ type Chat struct {
|
||||
|
||||
type Gpt3Request struct {
|
||||
Model string `json:"model"`
|
||||
Stream bool `json:"stream"`
|
||||
Stream bool `json:"stream"`
|
||||
Messages []Chat `json:"messages"`
|
||||
Options Gpt3Options `json:"options"`
|
||||
}
|
||||
|
||||
type Gpt3ThinkRequest struct {
|
||||
Model string `json:"model"`
|
||||
Stream bool `json:"stream"`
|
||||
Think bool `json:"think"`
|
||||
Messages []Chat `json:"messages"`
|
||||
Options Gpt3Options `json:"options"`
|
||||
}
|
||||
|
||||
type Gpt3Options struct {
|
||||
Temperature float64 `json:"temperature"`
|
||||
}
|
||||
|
||||
@@ -200,12 +200,26 @@ func (p *ProxyAPIProvider) Health() error {
|
||||
|
||||
// Chat для OllamaProvider
|
||||
func (o *OllamaProvider) Chat(messages []Chat) (string, error) {
|
||||
payload := Gpt3Request{
|
||||
|
||||
think := config.AppConfig.Think
|
||||
|
||||
var payload interface{}
|
||||
if think {
|
||||
payload = Gpt3Request{
|
||||
Model: o.Model,
|
||||
Messages: messages,
|
||||
Stream: false,
|
||||
Stream: false,
|
||||
Options: Gpt3Options{o.Temperature},
|
||||
}
|
||||
} else {
|
||||
payload = Gpt3ThinkRequest{
|
||||
Model: o.Model,
|
||||
Messages: messages,
|
||||
Stream: false,
|
||||
Think: false,
|
||||
Options: Gpt3Options{o.Temperature},
|
||||
}
|
||||
}
|
||||
|
||||
jsonData, err := json.Marshal(payload)
|
||||
if err != nil {
|
||||
|
||||
@@ -5,7 +5,7 @@ metadata:
|
||||
namespace: lcg
|
||||
data:
|
||||
# Основные настройки
|
||||
LCG_VERSION: "v.2.0.21"
|
||||
LCG_VERSION: "v2.0.28"
|
||||
LCG_BASE_PATH: "/lcg"
|
||||
LCG_SERVER_HOST: "0.0.0.0"
|
||||
LCG_SERVER_PORT: "8080"
|
||||
|
||||
@@ -5,7 +5,7 @@ metadata:
|
||||
namespace: lcg
|
||||
labels:
|
||||
app: lcg
|
||||
version: v.2.0.21
|
||||
version: v2.0.28
|
||||
spec:
|
||||
replicas: 1
|
||||
selector:
|
||||
@@ -18,7 +18,7 @@ spec:
|
||||
spec:
|
||||
containers:
|
||||
- name: lcg
|
||||
image: kuznetcovay/lcg:v.2.0.21
|
||||
image: kuznetcovay/lcg:v2.0.28
|
||||
imagePullPolicy: Always
|
||||
ports:
|
||||
- containerPort: 8080
|
||||
|
||||
@@ -15,11 +15,11 @@ resources:
|
||||
# Common labels
|
||||
# commonLabels:
|
||||
# app: lcg
|
||||
# version: v.2.0.21
|
||||
# version: v2.0.28
|
||||
# managed-by: kustomize
|
||||
|
||||
# Images
|
||||
# images:
|
||||
# - name: lcg
|
||||
# newName: kuznetcovay/lcg
|
||||
# newTag: v.2.0.21
|
||||
# newTag: v2.0.28
|
||||
|
||||
18
main.go
18
main.go
@@ -109,6 +109,7 @@ lcg [опции] <описание команды>
|
||||
LCG_PROXY_URL URL прокси для proxy провайдера (по умолчанию: /api/v1/protected/sberchat/chat)
|
||||
LCG_API_KEY_FILE Файл с API ключом (по умолчанию: .openai_api_key)
|
||||
LCG_APP_NAME Название приложения (по умолчанию: Linux Command GPT)
|
||||
LCG_ALLOW_THINK только для ollama: разрешить модели отправлять свои размышления ("1" или "true" = разрешено, пусто = запрещено). Имеет смысл для моделей, которые поддерживают эти действия: qwen3, deepseek.
|
||||
|
||||
Настройки истории и выполнения:
|
||||
LCG_NO_HISTORY Отключить запись истории ("1" или "true" = отключено, пусто = включено)
|
||||
@@ -163,12 +164,18 @@ lcg [опции] <описание команды>
|
||||
Usage: "Disable writing/updating command history (overrides LCG_NO_HISTORY)",
|
||||
Value: false,
|
||||
},
|
||||
&cli.BoolFlag{
|
||||
Name: "think",
|
||||
Aliases: []string{"T"},
|
||||
Usage: "Разрешить модели отправлять свои размышления",
|
||||
Value: false,
|
||||
},
|
||||
&cli.StringFlag{
|
||||
Name: "query",
|
||||
Aliases: []string{"Q"},
|
||||
Usage: "Query to send to the model",
|
||||
DefaultText: "Hello? what day is it today?",
|
||||
Value: "Hello? what day is it today?",
|
||||
DefaultText: "Привет! Порадуй меня случайной Linux командой ...",
|
||||
Value: "Привет! Порадуй меня случайной Linux командой ...",
|
||||
},
|
||||
&cli.StringFlag{
|
||||
Name: "sys",
|
||||
@@ -216,7 +223,10 @@ lcg [опции] <описание команды>
|
||||
if c.IsSet("model") {
|
||||
config.AppConfig.Model = model
|
||||
}
|
||||
|
||||
config.AppConfig.Think = false
|
||||
if c.IsSet("think") {
|
||||
config.AppConfig.Think = c.Bool("think")
|
||||
}
|
||||
promptID := c.Int("prompt-id")
|
||||
timeout := c.Int("timeout")
|
||||
|
||||
@@ -1018,7 +1028,7 @@ func printDebugInfo(file, system, commandInput string, timeout int) {
|
||||
fmt.Printf("📁 Файл: %s\n", file)
|
||||
fmt.Printf("🤖 Системный промпт: %s\n", system)
|
||||
fmt.Printf("💬 Запрос: %s\n", commandInput)
|
||||
fmt.Printf("⏱️ Таймаут: %d сек\n", timeout)
|
||||
fmt.Printf("⏱️ Таймаут: %d сек\n", timeout)
|
||||
fmt.Printf("🌐 Провайдер: %s\n", config.AppConfig.ProviderType)
|
||||
fmt.Printf("🏠 Хост: %s\n", config.AppConfig.Host)
|
||||
fmt.Printf("🧠 Модель: %s\n", config.AppConfig.Model)
|
||||
|
||||
@@ -8,6 +8,8 @@ import (
|
||||
"fmt"
|
||||
"net/http"
|
||||
"os"
|
||||
"path/filepath"
|
||||
"sync"
|
||||
"time"
|
||||
|
||||
"github.com/direct-dev-ru/linux-command-gpt/config"
|
||||
@@ -20,10 +22,72 @@ const (
|
||||
CSRFTokenLifetimeSeconds = CSRFTokenLifetimeHours * 60 * 60
|
||||
)
|
||||
|
||||
// csrfDebugPrint выводит отладочную информацию только если включен debug режим
|
||||
func csrfDebugPrint(format string, args ...interface{}) {
|
||||
var (
|
||||
// csrfDebugFile файл для отладочного вывода CSRF
|
||||
csrfDebugFile *os.File
|
||||
// csrfDebugFileMutex мьютекс для безопасной записи в файл
|
||||
csrfDebugFileMutex sync.Mutex
|
||||
)
|
||||
|
||||
// initCSRFDebugFile инициализирует файл для отладочного вывода CSRF
|
||||
func initCSRFDebugFile() error {
|
||||
debugFile := os.Getenv("LCG_CSRF_DEBUG_FILE")
|
||||
if debugFile == "" {
|
||||
return nil // Файл не указан, ничего не делаем
|
||||
}
|
||||
|
||||
// Создаем директорию для файла, если нужно
|
||||
dir := filepath.Dir(debugFile)
|
||||
if dir != "." && dir != "" {
|
||||
if err := os.MkdirAll(dir, 0755); err != nil {
|
||||
return fmt.Errorf("failed to create directory for CSRF debug file %s: %v", dir, err)
|
||||
}
|
||||
}
|
||||
|
||||
// Создаем/перезаписываем файл
|
||||
file, err := os.Create(debugFile)
|
||||
if err != nil {
|
||||
return fmt.Errorf("failed to create CSRF debug file %s: %v", debugFile, err)
|
||||
}
|
||||
|
||||
csrfDebugFileMutex.Lock()
|
||||
// Закрываем старый файл, если был открыт
|
||||
if csrfDebugFile != nil {
|
||||
csrfDebugFile.Close()
|
||||
}
|
||||
csrfDebugFile = file
|
||||
csrfDebugFileMutex.Unlock()
|
||||
|
||||
// Записываем заголовок
|
||||
header := fmt.Sprintf("=== CSRF Debug Log Started at %s ===\n", time.Now().Format(time.RFC3339))
|
||||
if _, err := csrfDebugFile.WriteString(header); err != nil {
|
||||
return fmt.Errorf("failed to write header to CSRF debug file: %v", err)
|
||||
}
|
||||
if err := csrfDebugFile.Sync(); err != nil {
|
||||
return fmt.Errorf("failed to sync CSRF debug file: %v", err)
|
||||
}
|
||||
|
||||
return nil
|
||||
}
|
||||
|
||||
// csrfDebugPrint выводит отладочную информацию
|
||||
// Если установлен LCG_CSRF_DEBUG_FILE - всегда пишет в файл (независимо от debug режима)
|
||||
// Если включен debug режим - также пишет в консоль
|
||||
func csrfDebugPrint(format string, args ...any) {
|
||||
message := fmt.Sprintf(format, args...)
|
||||
|
||||
// Записываем в файл, если он установлен
|
||||
csrfDebugFileMutex.Lock()
|
||||
if csrfDebugFile != nil {
|
||||
csrfDebugFile.WriteString(message)
|
||||
// Синхронизируем сразу для отладки (может быть медленно, но гарантирует запись)
|
||||
csrfDebugFile.Sync()
|
||||
}
|
||||
csrfDebugFileMutex.Unlock()
|
||||
|
||||
// Записываем в консоль, если включен debug режим
|
||||
if config.AppConfig.MainFlags.Debug {
|
||||
fmt.Printf(format, args...)
|
||||
fmt.Print(message)
|
||||
}
|
||||
}
|
||||
|
||||
@@ -336,6 +400,11 @@ var csrfManager *CSRFManager
|
||||
|
||||
// InitCSRFManager инициализирует глобальный CSRF менеджер
|
||||
func InitCSRFManager() error {
|
||||
// Инициализируем файл для отладки CSRF, если указан LCG_CSRF_DEBUG_FILE
|
||||
if err := initCSRFDebugFile(); err != nil {
|
||||
return fmt.Errorf("failed to initialize CSRF debug file: %v", err)
|
||||
}
|
||||
|
||||
var err error
|
||||
csrfManager, err = NewCSRFManager()
|
||||
return err
|
||||
|
||||
@@ -138,19 +138,39 @@ func CSRFMiddleware(next http.HandlerFunc) http.HandlerFunc {
|
||||
|
||||
// Получаем CSRF токен из cookie для сравнения
|
||||
csrfTokenFromCookie := GetCSRFTokenFromCookie(r)
|
||||
valid := true
|
||||
if csrfTokenFromCookie != "" {
|
||||
csrfDebugPrint("[CSRF MIDDLEWARE] CSRF токен из cookie (первые 50 символов): %s...\n",
|
||||
safeSubstring(csrfTokenFromCookie, 0, 50))
|
||||
if csrfTokenFromCookie != csrfToken {
|
||||
csrfDebugPrint("[CSRF MIDDLEWARE] ⚠️ ВНИМАНИЕ: Токен из cookie отличается от токена в запросе!\n")
|
||||
valid = false
|
||||
} else {
|
||||
csrfDebugPrint("[CSRF MIDDLEWARE] ✅ Токен из cookie совпадает с токеном в запросе\n")
|
||||
valid = true
|
||||
}
|
||||
} else {
|
||||
csrfDebugPrint("[CSRF MIDDLEWARE] ⚠️ ВНИМАНИЕ: CSRF токен не найден в cookie!\n")
|
||||
valid = false
|
||||
}
|
||||
|
||||
// Проверяем CSRF токен
|
||||
|
||||
if !valid {
|
||||
csrfDebugPrint("[CSRF MIDDLEWARE] ❌ ОШИБКА: Валидация CSRF токена не прошла!\n")
|
||||
// Для API запросов возвращаем JSON ошибку
|
||||
if isAPIRequest(r) {
|
||||
w.Header().Set("Content-Type", "application/json")
|
||||
w.WriteHeader(http.StatusForbidden)
|
||||
w.Write([]byte(`{"success": false, "error": "Invalid CSRF token"}`))
|
||||
return
|
||||
}
|
||||
|
||||
// Для веб-запросов возвращаем ошибку
|
||||
http.Error(w, "Invalid OR Empty CSRF token", http.StatusForbidden)
|
||||
return
|
||||
}
|
||||
|
||||
csrfManager := GetCSRFManager()
|
||||
if csrfManager == nil {
|
||||
csrfDebugPrint("[CSRF MIDDLEWARE] ❌ ОШИБКА: CSRF менеджер не инициализирован!\n")
|
||||
@@ -165,7 +185,7 @@ func CSRFMiddleware(next http.HandlerFunc) http.HandlerFunc {
|
||||
}
|
||||
|
||||
csrfDebugPrint("[CSRF MIDDLEWARE] Вызов ValidateToken с токеном и sessionID: %s\n", sessionID)
|
||||
valid := csrfManager.ValidateToken(csrfToken, sessionID)
|
||||
valid = csrfManager.ValidateToken(csrfToken, sessionID)
|
||||
csrfDebugPrint("[CSRF MIDDLEWARE] Результат ValidateToken: %t\n", valid)
|
||||
|
||||
if !valid {
|
||||
|
||||
Reference in New Issue
Block a user