Megosztás a következőn keresztül:


Nagy nyelvi modell API-kéréseinek válaszainak gyorsítótárazása

A KÖVETKEZŐRE VONATKOZIK: Minden API Management-szint

A llm-semantic-cache-store szabályzat gyorsítótárazza a csevegés befejező API-jának válaszait és a konfigurált külső gyorsítótárba irányuló befejezési API-kéréseket. A válasz gyorsítótárazása csökkenti a háttérbeli Azure OpenAI API-ra vonatkozó sávszélességet és feldolgozási követelményeket, és csökkenti az API-felhasználók által érzékelt késést.

Feljegyzés

Feljegyzés

Állítsa be a szabályzat elemeit és gyermekelemeit a szabályzatutasításban megadott sorrendben. További információ az API Management-szabályzatok beállításáról és szerkesztéséről.

Támogatott modellek

Használja a szabályzatot az Azure API Managementhez hozzáadott LLM API-kkal, amelyek az Azure AI Model Inference API-val érhetők el.

Szabályzatutasítás

<llm-semantic-cache-store duration="seconds"/>

Attribútumok

Attribútum Leírás Kötelező Alapértelmezett
időtartam A gyorsítótárazott bejegyzések élettartamának beállítása másodpercben megadva. A szabályzatkifejezések engedélyezettek. Igen n/a

Használat

Használati megjegyzések

  • Ez a szabályzat csak egyszer használható egy szabályzatszakaszban.
  • Ha a gyorsítótár-keresés sikertelen, a gyorsítótárral kapcsolatos műveletet használó API-hívás nem okoz hibát, és a gyorsítótár-művelet sikeresen befejeződik.

Példák

Példa a megfelelő llm-szemantic-cache-lookup szabályzattal

<policies>
    <inbound>
        <base />
        <llm-semantic-cache-lookup
            score-threshold="0.05"
            embeddings-backend-id ="llm-backend"
            embeddings-backend-auth ="system-assigned" >
            <vary-by>@(context.Subscription.Id)</vary-by>
        </llm-semantic-cache-lookup>
    </inbound>
    <outbound>
        <llm-semantic-cache-store duration="60" />
        <base />
    </outbound>
</policies>

A szabályzatok használatával kapcsolatos további információkért lásd: