Azure AI Foundry
Azure AI Foundry to platforma Microsoft zapewniająca dostęp do wielu modeli AI - od sprawdzonych GPT-4o, przez ekonomiczne GPT-3.5-turbo, aż po najnowsze modele jak DeepSeek. Oferuje enterprise-grade SLA, wsparcie techniczne Microsoft i łatwą integrację z ekosystemem Azure.
Kiedy wybrać Azure AI Foundry
Już korzystasz z Azure:
- Infrastruktura w Azure
- Centralne zarządzanie kosztami i subskrypcjami
- Integracja z Azure AD, Key Vault, Application Insights
Wymagania enterprise:
- SLA 99.9% dla modeli
- Wsparcie techniczne Microsoft
- Zgodność z politykami korporacyjnymi
Elastyczność w wyborze modeli:
- Dostęp do modeli OpenAI (GPT-4o, GPT-4o-mini)
- Modele open-source (DeepSeek, Llama, Mistral)
- Model Router - automatyczny wybór najlepszego modelu
Kontrola kosztów:
- Wspólne limity TPM dla wielu deployments
- Szczegółowe raporty wykorzystania w Azure Cost Management
- Możliwość ustawienia budżetów i alertów
Bezpieczeństwo i compliance:
- Dane pozostają w wybranym regionie Azure
- Zgodność z RODO i innymi regulacjami
- Private endpoints i VNET integration
Wymagania
- Aktywna subskrypcja Azure
- Azure AI Foundry workspace z wdrożonym modelem
- Klucz API i Endpoint URL
Krok 1: Przygotowanie w Azure
Pobierz dane dostępu
- Zaloguj się do Azure Portal
- Przejdź do swojego Azure AI Foundry workspace
- W menu wybierz Keys and Endpoint
- Skopiuj:
- Key (API Key)
- Endpoint OpenAI URL
Wdróż model
- W workspace przejdź do Deployments
- Kliknij Create new deployment
- Wybierz model (np. GPT-4o, GPT-4o-mini, lub inny model wspierający responses)
- Nadaj nazwę deployment (np.
gpt-4o-mini) - Kliknij Create
Obsługiwane modele
Możesz użyć różnych modeli dostępnych w Azure AI Foundry:
- Modele GPT (gpt-4o, gpt-4o-mini, gpt-35-turbo)
- Model-router (automatyczny wybór modelu)
- DeepSeek i inne modele wspierające responses
Krok 2: Konfiguracja AI Proxy
Przykład aiconfiguration.json
{
"ProviderConnections": {
"AzureFoundry": {
"Description": "Azure AI Foundry Connection",
"Type": "AzureAi",
"ProviderConfiguration": {
"ApiKey": "your-azure-api-key-here",
"Endpoint": "https://your-workspace.openai.azure.com/"
}
}
},
"ProviderModels": [
{
"ConnectionName": "AzureFoundry",
"Priority": 100,
"Name": "Azure GPT-4o-mini",
"Description": "",
"TextModel": {
"ModelName": "gpt-4o-mini"
},
"ImageModel": {
"ModelName": "gpt-4o-mini"
},
"EmbeddingModel": {
"ModelName": "text-embedding-3-small"
}
}
],
"MethodTypesConfiguration": {
"ConciergePrompt": [ "Azure GPT-4o-mini" ],
"ConciergeExecuteTool": [ "Azure GPT-4o-mini" ]
}
}
Ważne
W polu ModelName wpisz nazwę deployment którą utworzyłeś w Azure (nie nazwę modelu). Jeśli nazwałeś deployment my-gpt4, użyj "ModelName": "my-gpt4".
Przykład docker-compose.yml
name: aiproxy_containers
services:
ai-proxy:
image: webconbps/aiproxy:1.0.0.235
container_name: ai-proxy
restart: unless-stopped
ports:
- "5298:8080"
- "7033:8081"
environment:
- ASPNETCORE_ENVIRONMENT=Production
- AppConfiguration__SelfHosted__Certificate__Path=/app/https/certificate.pem
- Logging__LogLevel__Default=Information
- Logging__LogLevel__Microsoft=Warning
volumes:
- ./certificates/certificate.pem:/app/https/certificate.pem:ro
- ./aiconfiguration.json:/app/aiconfiguration.json:ro
Krok 3: Uruchomienie
# Upewnij się że masz przygotowane pliki
# - ./certificates/certificate.pem
# - ./aiconfiguration.json (z uzupełnionymi danymi)
# Uruchom kontener
docker-compose up -d
# Sprawdź logi
docker-compose logs -f ai-proxy
Rozwiązywanie problemów
Błąd: 401 Unauthorized
Przyczyny:
- Nieprawidłowy API Key
- Nieprawidłowy Endpoint URL
Rozwiązanie:
# Sprawdź czy klucz i endpoint są poprawne w aiconfiguration.json
# Zweryfikuj w Azure Portal > Keys and Endpoint
# Zrestartuj kontener
docker-compose restart ai-proxy
Błąd: 404 Not Found / Model not found
Przyczyny:
- Nazwa deployment w
ModelNamejest nieprawidłowa - Deployment nie istnieje lub nie jest aktywny
Rozwiązanie:
# Sprawdź nazwę deployment w Azure Portal > Deployments
# Upewnij się że deployment ma status "Succeeded"
# Zaktualizuj ModelName w aiconfiguration.json
# Zrestartuj kontener
docker-compose restart ai-proxy