Nagy nyelvi modell API-kéréseinek válaszainak gyorsítótárazása
A KÖVETKEZŐRE VONATKOZIK: Minden API Management-szint
A llm-semantic-cache-store
szabályzat gyorsítótárazza a csevegés befejező API-jának válaszait és a konfigurált külső gyorsítótárba irányuló befejezési API-kéréseket. A válasz gyorsítótárazása csökkenti a háttérbeli Azure OpenAI API-ra vonatkozó sávszélességet és feldolgozási követelményeket, és csökkenti az API-felhasználók által érzékelt késést.
Feljegyzés
- Ennek a szabályzatnak rendelkeznie kell egy megfelelő Get cached responses to large language model API requests policy-rel.
- A szemantikai gyorsítótárazás engedélyezésének előfeltételeit és lépéseit az Azure OpenAI API-k szemantikai gyorsítótárazásának engedélyezése az Azure API Managementben című témakörben találja.
- Ez a szabályzat jelenleg előzetes verzióban érhető el.
Feljegyzés
Állítsa be a szabályzat elemeit és gyermekelemeit a szabályzatutasításban megadott sorrendben. További információ az API Management-szabályzatok beállításáról és szerkesztéséről.
Támogatott modellek
Használja a szabályzatot az Azure API Managementhez hozzáadott LLM API-kkal, amelyek az Azure AI Model Inference API-val érhetők el.
Szabályzatutasítás
<llm-semantic-cache-store duration="seconds"/>
Attribútumok
Attribútum | Leírás | Kötelező | Alapértelmezett |
---|---|---|---|
időtartam | A gyorsítótárazott bejegyzések élettartamának beállítása másodpercben megadva. A szabályzatkifejezések engedélyezettek. | Igen | n/a |
Használat
- Szabályzatszakaszok: kimenő
- Szabályzat hatókörei: globális, termék, API, művelet
- Átjárók: klasszikus, v2, használat
Használati megjegyzések
- Ez a szabályzat csak egyszer használható egy szabályzatszakaszban.
- Ha a gyorsítótár-keresés sikertelen, a gyorsítótárral kapcsolatos műveletet használó API-hívás nem okoz hibát, és a gyorsítótár-művelet sikeresen befejeződik.
Példák
Példa a megfelelő llm-szemantic-cache-lookup szabályzattal
<policies>
<inbound>
<base />
<llm-semantic-cache-lookup
score-threshold="0.05"
embeddings-backend-id ="llm-backend"
embeddings-backend-auth ="system-assigned" >
<vary-by>@(context.Subscription.Id)</vary-by>
</llm-semantic-cache-lookup>
</inbound>
<outbound>
<llm-semantic-cache-store duration="60" />
<base />
</outbound>
</policies>
Kapcsolódó szabályzatok
Kapcsolódó tartalom
A szabályzatok használatával kapcsolatos további információkért lásd:
- Oktatóanyag: AZ API átalakítása és védelme
- Szabályzathivatkozás a szabályzatutasságok és azok beállításainak teljes listájához
- Házirend-kifejezések
- Házirendek beállítása vagy szerkesztése
- Szabályzatkonfigurációk újrafelhasználása
- Szabályzatrészletek adattára
- Azure API Management policy toolkit
- Szabályzatok létrehozása a Microsoft Copilot használatával az Azure-ban