Glossario per il kernel semantico
👋 Ciao! È stato incluso un glossario riportato di seguito con la terminologia chiave.
Termine/Parola | Definizione |
---|---|
Agente | Un agente è uno strumento di intelligenza artificiale che può rispondere alle domande e automatizzare i processi per gli utenti. È disponibile un'ampia gamma di agenti che possono essere creati, da semplici chat bot ad assistenti di intelligenza artificiale completamente automatizzati. Con il kernel semantico, vengono forniti gli strumenti per creare agenti sempre più sofisticati che non richiedono l'uso di un esperto di intelligenza artificiale. |
API | Interfaccia di programmazione dell'applicazione. Set di regole e specifiche che consentono ai componenti software di comunicare e scambiare dati. |
Autonomo | Agenti che possono rispondere agli stimoli con un intervento umano minimo. |
Chatbot | Una semplice chat avanti e indietro con un utente e un agente di intelligenza artificiale. |
Connettori | I connettori consentono di integrare le API esistenti (Application Programming Interface) con LLMs (Large Language Models). Ad esempio, un connettore Microsoft Graph può essere usato per inviare automaticamente l'output di una richiesta in un messaggio di posta elettronica o per compilare una descrizione delle relazioni in un organigramma. |
Copilot | Agenti che funzionano side-by-side con un utente per completare un'attività. |
Kernel | Analogamente al sistema operativo, il kernel è responsabile della gestione delle risorse necessarie per eseguire "codice" in un'applicazione di intelligenza artificiale. Ciò include la gestione dei modelli di intelligenza artificiale, dei servizi e dei plug-in necessari sia per il codice nativo che per i servizi di intelligenza artificiale da eseguire insieme. Poiché il kernel ha tutti i servizi e i plug-in necessari per eseguire sia il codice nativo che i servizi di intelligenza artificiale, viene usato da quasi ogni componente all'interno di Semantic Kernel SDK. Ciò significa che se si esegue un prompt o un codice nel kernel semantico, verrà sempre eseguito un kernel. |
LLM | I modelli linguistici di grandi dimensioni sono strumenti di intelligenza artificiale che possono riepilogare, leggere o generare testo sotto forma di frasi simili a come un uomo parla e scrive. Llms può essere incorporato in vari prodotti in Microsoft per scoprire un valore utente più ricco. |
Memoria | I ricordi sono un modo potente per fornire un contesto più ampio per la tua domanda. Storicamente, abbiamo sempre chiamato la memoria come componente principale per il funzionamento dei computer: pensare alla RAM nel portatile. Per con solo una CPU che può scricchiolare i numeri, il computer non è così utile a meno che non sappia quali numeri si preoccupano. I ricordi sono ciò che rende il calcolo rilevante per l'attività a portata di mano. |
Plug-in | Per generare questo piano, il copilota richiede prima di tutto le funzionalità necessarie per eseguire questi passaggi. Ecco dove arrivano i plug-in. I plug-in consentono di fornire le competenze dell'agente tramite codice. Ad esempio, è possibile creare un plug-in che invia messaggi di posta elettronica, recupera informazioni da un database, richiede aiuto o addirittura salva e recupera i ricordi dalle conversazioni precedenti. |
Pianificatori | Per usare un plug-in (e collegarli con altri passaggi), il copilota dovrà prima generare un piano. Ecco dove arrivano i pianificatori. Gli planner sono prompt speciali che consentono a un agente di generare un piano per completare un'attività. I planner più semplici sono solo un unico prompt che consente all'agente di usare la chiamata di funzione per completare un'attività. |
Prompt | Le richieste svolgono un ruolo fondamentale nella comunicazione e nell'indirizzamento del comportamento dell'intelligenza artificiale dei modelli linguistici di grandi dimensioni. Fungono da input o query che gli utenti possono fornire per ottenere risposte specifiche da un modello. |
Progettazione dei prompt | A causa della quantità di controllo esistente, la progettazione dei prompt è una competenza fondamentale per chiunque lavori con i modelli di intelligenza artificiale LLM. Si tratta anche di una competenza molto richiesta perché più organizzazioni adottano modelli di intelligenza artificiale LLM per automatizzare le attività e migliorare la produttività. Un buon tecnico può aiutare le organizzazioni a sfruttare al meglio i propri modelli di intelligenza artificiale LLM progettando richieste che producono gli output desiderati. |
RAG | Generazione aumentata di recupero: un termine che fa riferimento al processo di recupero di dati aggiuntivi da fornire come contesto a un LLM da usare durante la generazione di una risposta (completamento) alla domanda (prompt) di un utente. |