Przejdź do głównej zawartości
Wersja: 2026 R1

AI Proxy Self-hosted

AI Proxy Self-hosted umożliwia uruchomienie komponentu AI w infrastrukturze klienta (on-premise, private cloud, Azure). Zapewnia pełną kontrolę nad danymi i środowiskiem wykonawczym.

Architektura

AI Proxy działa jako warstwa pośrednicząca między WEBCON a dostawcami AI:

  1. WEBCON wysyła żądanie do AI Proxy
  2. AI Proxy:
    • Waliduje żądanie
    • Wybiera dostawcę/model zgodnie z konfiguracją
    • Uwierzytelnia się przy użyciu kluczy API
    • Przekazuje żądanie do dostawcy AI
  3. Odpowiedź wraca przez AI Proxy do WEBCON

scheme

Przypadki użycia

Wymagania compliance i bezpieczeństwa:

  • Branże regulowane (finanse, healthcare, sektor publiczny)
  • RODO, ISO 27001 i inne standardy
  • Wewnętrzne polityki bezpieczeństwa danych

Środowiska deweloperskie:

  • Lokalne testowanie bez kosztów chmury
  • Rozwój i prototypowanie
  • Integracja CI/CD

Produkcja on-premise:

  • Pełna kontrola nad infrastrukturą
  • Dane nie opuszczają infrastruktury klienta
  • Możliwość audytu i monitorowania

Multi-vendor:

  • Elastyczność w wyborze dostawców AI
  • Strategie failover między dostawcami
  • Optymalizacja kosztów

Technologie

  • .NET 8 - runtime aplikacji
  • Docker - konteneryzacja
  • JSON - konfiguracja
  • HTTPS/TLS - bezpieczna komunikacja

Obsługiwani dostawcy

  • Google Vertex AI (Gemini)
  • Azure AI Foundry
  • OpenAI

Komponenty

  • Obraz Docker: webconbps/aiproxy:1.0.0.235
  • Porty: 8080 (HTTP), 8081 (HTTPS)
  • Pliki konfiguracyjne:
    • aiconfiguration.json - definicje połączeń i modeli
    • Certyfikat SSL/TLS (PEM lub PFX)

Następne kroki

  1. Getting Started - wybierz dostawcę AI i skonfiguruj dostęp
  2. Docker Configuration - uruchom kontener Docker
  3. AI Configuration - skonfiguruj modele i strategie