Unterstützte Programmiersprachen für Modelle im Azure KI-Modellinferenzdienst
Im Azure KI-Modellinferenzdienst bereitgestellte Modelle können mit verschiedenen SDKs und Programmiermodellen verwendet werden. In diesem Dokument wird die jeweilige Verwendung beschrieben:
Alle Modelle
Alle im Azure KI-Modellinferenzdienst bereitgestellten Modelle unterstützen die Azure KI-Modellinferenz-API und die zugehörige SDK-Familie.
Um diese SDKs zu verwenden, verbinden Sie sie mit dem Azure KI-Modellinferenz-URI (in der Regel im Format https://<resource-name>.services.ai.azure.com/models
).
Azure KI-Rückschlusspaket
Mit dem Azure KI-Rückschlusspaket können Sie alle Modelle nutzen, die für den Azure KI-Modellrückschluss-Dienst bereitgestellt wurden, und sie können problemlos geändert werden. Das Azure KI-Rückschlusspaket ist Teil des Azure AI Foundry SDK.
Sprache | Dokumentation | Paket | Beispiele |
---|---|---|---|
C# | Referenz | azure-ai-inference (NuGet) | C#-Beispiele |
Java | Referenz | azure-ai-inference (Maven) | Java-Beispiele |
JavaScript | Referenz | @azure/ai-inference (npm) | JavaScript-Beispiele |
Python | Referenz | azure-ai-inference (PyPi) | Python-Beispiele |
Azure KI-Projektpaket
Das Azure KI-Projektpaket ermöglicht Kunden den Zugriff auf einen umfassenden Satz von Funktionen aus einem Azure KI-Projekt. Zu diesen Funktionen gehören die Azure KI-Modellinferenz, aber auch erweiterte Funktionen wie Ablaufverfolgung, Auswertung und Datenspeicher. Das Azure KI-Projektpaket ist Teil des Azure AI Foundry SDK und nutzt das Azure KI-Rückschlusspaket und das Azure OpenAI-Paket, um abhängig von den Anforderungen der Benutzer eine Ableitung durchzuführen.
Sprache | Dokumentation | Paket | Beispiele |
---|---|---|---|
C# | Referenz | Azure.AI.Projects (NuGet) | C#-Beispiele |
Python | Referenz | azure-ai-projects (PyPi) | Python-Beispiele |
Integrationen
Framework | Sprache | Dokumentation | Paket | Beispiele |
---|---|---|---|---|
LangChain | Python | Referenz | langchain-azure-ai (PyPi) | Python-Beispiele |
Llama-Index | Python | Referenz |
llama-index-llms-azure-inference (PyPi) llama-index-embeddings-azure-inference (PyPi) |
Python-Beispiele |
Semantischer Kernel | Python | Referenz | semantic-kernel[azure] (PyPi) | Python-Beispiele |
AutoGen | Python | Referenz | autogen-ext[azure] (PyPi) | Schnellstart |
Azure OpenAI-Modelle
Azure OpenAI-Modelle können mit den folgenden SDKs und Programmiersprachen genutzt werden.
Um diese SDKs zu verwenden, verbinden Sie sie mit dem Azure OpenAI Service-URI (in der Regel im Format https://<resource-name>.openai.azure.com
).
OpenAI und Azure OpenAI SDK
Sprache | Quellcode | Paket | Beispiele |
---|---|---|---|
C# | Quellcode | Azure.AI.OpenAI (NuGet) | C#-Beispiele |
Go | Quellcode | azopenai (Go) | Go-Beispiele |
Java | Quellcode | azure-ai-openai (Maven) | Java-Beispiele |
JavaScript | Quellcode | @azure/openai (npm) | JavaScript-Beispiele |
Python | Quellcode | openai (PyPi) | Python-Beispiele |
Integrationen
Framework | Sprache | Dokumentation | Paket | Beispiele |
---|---|---|---|---|
LangChain | Python | Referenz | langchain-openai (PyPi) | Python-Beispiele |
Llama-Index | Python | Referenz |
llama-index-llms-openai (PyPi) llama-index-embeddings-openai (PyPi) |
Python-Beispiele |
AutoGen | Python | Referenz | autogen-ext[openai] (PyPi) | Schnellstart |
Einschränkungen
Warnung
Die SDKs für Cohere und Mistral werden im Azure KI-Modellinferenzdienst in Azure AI Foundry nicht unterstützt.
Nächste Schritte
- Informationen zu den derzeit unterstützten Modellen finden Sie im Abschnitt Modelle.