Przejdź do głównej zawartości
Wersja: 2026 R1

Azure AI Foundry

Azure AI Foundry to platforma Microsoft zapewniająca dostęp do wielu modeli AI - od sprawdzonych GPT-4o, przez ekonomiczne GPT-3.5-turbo, aż po najnowsze modele jak DeepSeek. Oferuje enterprise-grade SLA, wsparcie techniczne Microsoft i łatwą integrację z ekosystemem Azure.

Kiedy wybrać Azure AI Foundry

Już korzystasz z Azure:

  • Infrastruktura w Azure
  • Centralne zarządzanie kosztami i subskrypcjami
  • Integracja z Azure AD, Key Vault, Application Insights

Wymagania enterprise:

  • SLA 99.9% dla modeli
  • Wsparcie techniczne Microsoft
  • Zgodność z politykami korporacyjnymi

Elastyczność w wyborze modeli:

  • Dostęp do modeli OpenAI (GPT-4o, GPT-4o-mini)
  • Modele open-source (DeepSeek, Llama, Mistral)
  • Model Router - automatyczny wybór najlepszego modelu

Kontrola kosztów:

  • Wspólne limity TPM dla wielu deployments
  • Szczegółowe raporty wykorzystania w Azure Cost Management
  • Możliwość ustawienia budżetów i alertów

Bezpieczeństwo i compliance:

  • Dane pozostają w wybranym regionie Azure
  • Zgodność z RODO i innymi regulacjami
  • Private endpoints i VNET integration

Wymagania

  • Aktywna subskrypcja Azure
  • Azure AI Foundry workspace z wdrożonym modelem
  • Klucz API i Endpoint URL

Krok 1: Przygotowanie w Azure

Pobierz dane dostępu

  1. Zaloguj się do Azure Portal
  2. Przejdź do swojego Azure AI Foundry workspace
  3. W menu wybierz Keys and Endpoint
  4. Skopiuj:
    • Key (API Key)
    • Endpoint OpenAI URL

Wdróż model

  1. W workspace przejdź do Deployments
  2. Kliknij Create new deployment
  3. Wybierz model (np. GPT-4o, GPT-4o-mini, lub inny model wspierający responses)
  4. Nadaj nazwę deployment (np. gpt-4o-mini)
  5. Kliknij Create
Obsługiwane modele

Możesz użyć różnych modeli dostępnych w Azure AI Foundry:

  • Modele GPT (gpt-4o, gpt-4o-mini, gpt-35-turbo)
  • Model-router (automatyczny wybór modelu)
  • DeepSeek i inne modele wspierające responses

Krok 2: Konfiguracja AI Proxy

Przykład aiconfiguration.json

{
"ProviderConnections": {
"AzureFoundry": {
"Description": "Azure AI Foundry Connection",
"Type": "AzureAi",
"ProviderConfiguration": {
"ApiKey": "your-azure-api-key-here",
"Endpoint": "https://your-workspace.openai.azure.com/"
}
}
},
"ProviderModels": [
{
"ConnectionName": "AzureFoundry",
"Priority": 100,
"Name": "Azure GPT-4o-mini",
"Description": "",
"TextModel": {
"ModelName": "gpt-4o-mini"
},
"ImageModel": {
"ModelName": "gpt-4o-mini"
},
"EmbeddingModel": {
"ModelName": "text-embedding-3-small"
}
}
],
"MethodTypesConfiguration": {
"ConciergePrompt": [ "Azure GPT-4o-mini" ],
"ConciergeExecuteTool": [ "Azure GPT-4o-mini" ]
}
}
Ważne

W polu ModelName wpisz nazwę deployment którą utworzyłeś w Azure (nie nazwę modelu). Jeśli nazwałeś deployment my-gpt4, użyj "ModelName": "my-gpt4".

Przykład docker-compose.yml

name: aiproxy_containers
services:
ai-proxy:
image: webconbps/aiproxy:1.0.0.235
container_name: ai-proxy
restart: unless-stopped
ports:
- "5298:8080"
- "7033:8081"
environment:
- ASPNETCORE_ENVIRONMENT=Production
- AppConfiguration__SelfHosted__Certificate__Path=/app/https/certificate.pem
- Logging__LogLevel__Default=Information
- Logging__LogLevel__Microsoft=Warning
volumes:
- ./certificates/certificate.pem:/app/https/certificate.pem:ro
- ./aiconfiguration.json:/app/aiconfiguration.json:ro

Krok 3: Uruchomienie

# Upewnij się że masz przygotowane pliki
# - ./certificates/certificate.pem
# - ./aiconfiguration.json (z uzupełnionymi danymi)

# Uruchom kontener
docker-compose up -d

# Sprawdź logi
docker-compose logs -f ai-proxy

Rozwiązywanie problemów

Błąd: 401 Unauthorized

Przyczyny:

  • Nieprawidłowy API Key
  • Nieprawidłowy Endpoint URL

Rozwiązanie:

# Sprawdź czy klucz i endpoint są poprawne w aiconfiguration.json
# Zweryfikuj w Azure Portal > Keys and Endpoint
# Zrestartuj kontener
docker-compose restart ai-proxy

Błąd: 404 Not Found / Model not found

Przyczyny:

  • Nazwa deployment w ModelName jest nieprawidłowa
  • Deployment nie istnieje lub nie jest aktywny

Rozwiązanie:

# Sprawdź nazwę deployment w Azure Portal > Deployments
# Upewnij się że deployment ma status "Succeeded"
# Zaktualizuj ModelName w aiconfiguration.json
# Zrestartuj kontener
docker-compose restart ai-proxy

Błąd: 429 Too Many Requests

Przyczyna:

  • Przekroczono limit TPM (Tokens Per Minute) deployment

Rozwiązanie:

  • Poczekaj chwilę przed kolejnymi requestami
  • Rozważ zwiększenie limitów TPM w Azure dla swojego deployment

Popularne modele w Azure AI Foundry

Podczas tworzenia deployment możesz wybrać:

  • gpt-4o - najnowszy model GPT-4 Optimized
  • gpt-4o-mini - szybsza i tańsza wersja
  • gpt-4-turbo - GPT-4 z większym kontekstem
  • gpt-35-turbo - model GPT-3.5 (w Azure nazywany 35 zamiast 3.5)
  • text-embedding-3-small - do tworzenia embeddingów
  • model-router - automatyczny wybór najlepszego modelu
  • deepseek i inne modele wspierające responses
informacja

Wszystkie modele muszą wspierać responses API aby działać poprawnie z AI Proxy.