Condividi tramite


Informazioni di riferimento sulle API REST di Azure OpenAI nei modelli Microsoft Foundry v1

Con l'API v1 sono attualmente supportati solo un subset di operazioni. Per altre informazioni, vedere la guida sul ciclo di vita della versione dell'API.

Creare il completamento della chat

POST {endpoint}/openai/v1/chat/completions

Crea un completamento della chat.

Parametri

Nome In Obbligatorio TIPO Descrzione
endpoint path corda
URL.
Endpoint OpenAI supportati di Azure (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure). https://{nome-risorsa}.openai.azure.com
versione-api query NO Versione esplicita dell'API Microsoft Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.

Intestazione della richiesta

Usare l'autenticazione basata su token o la chiave API. L'autenticazione con l'autenticazione basata su token è consigliata e più sicura.

Nome Obbligatorio TIPO Descrzione
Autorizzazione Vero corda Esempio:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Per generare un token di autenticazione tramite l'interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
ambito: https://cognitiveservices.azure.com/.default
api-key Vero corda Fornire qui la chiave API di Azure OpenAI

Corpo della richiesta

Content-Type: application/json

Nome TIPO Descrzione Obbligatorio Default
audio oggetto Parametri dell'output audio. Obbligatorio quando viene richiesto l'output audio con
modalities: ["audio"].
NO
└* formato enum Specifica il formato audio di output. Deve essere uno di wav, mp3, flac,
opus, o pcm16.
Valori possibili: wav, aacmp3, flac, , opuspcm16
NO
└─ voce oggetto NO
data_sources array Origini dati da usare per la funzionalità On Your Data, esclusiva di Azure OpenAI. NO
penalità di frequenza numero Numero compreso tra -2.0 e 2.0. I valori positivi penalizzano i nuovi token in base a
la loro frequenza esistente nel testo fino a ora, riducendo l'efficienza del modello.
probabilità di ripetere la stessa riga verbatim.
NO 0
function_call enum Specificare una determinata funzione tramite {"name": "my_function"} impone al modello di chiamare tale funzione.
Valori possibili: none, auto
NO
functions array Deprecato e sostituito da tools.

Un elenco di funzioni per cui il modello può generare input JSON.
NO
bias del logit oggetto Modificare la probabilità che i token specificati vengano visualizzati nel completamento.

Accetta un oggetto JSON che esegue il mapping dei token (specificato dall'ID del token in
tokenizer) a un valore di bias associato da -100 a 100. Matematicamente
la distorsione viene aggiunta ai logits generati dal modello prima del campionamento.
L'effetto esatto varia in base al modello, ma i valori tra -1 e 1 devono
diminuire o aumentare la probabilità di selezione; valori come -100 o 100
deve comportare un divieto o una selezione esclusiva del token pertinente.
NO None
logprobs boolean Indica se restituire o non restituire le probabilità di log dei token di output. Se true,
restituisce le probabilità di log di ogni token di output restituito in
content di message.
NO Falso
max_completion_tokens numero intero Limite superiore per il numero di token che possono essere generati per un oggetto
completamento, inclusi i token visibili di output e i token di ragionamento.
NO
numero massimo di token numero intero Numero massimo di token che possono essere generati al momento del completamento della chat.
Questo valore può essere usato per controllare i costi per il testo generato tramite API.

Questo valore è ora deprecato a favore di max_completion_tokense è
non compatibile con i modelli serie o1.
NO
messages array Elenco di messaggi che comprendono la conversazione effettuata finora. A seconda del
modello usato, tipi di messaggio diversi (modalità) supportati,
come testo, immagini e audio.
metadata oggetto Set di 16 coppie chiave-valore che possono essere collegate a un oggetto. Può trattarsi di
utile per archiviare informazioni aggiuntive sull'oggetto in un oggetto strutturato
formattare ed eseguire query per gli oggetti tramite l'API o il dashboard.

Le chiavi sono stringhe con una lunghezza massima di 64 caratteri. I valori sono stringhe
con una lunghezza massima di 512 caratteri.
NO
modalities oggetto Tipi di output che si desidera generare il modello.
La maggior parte dei modelli è in grado di generare testo, in base all'impostazione predefinita:

["text"]

Il modello gpt-4o-audio-preview può essere usato anche per generare audio. Per richiedere che questo modello generi
sia risposte di testo che audio, è possibile usare:

["text", "audio"]
NO
model corda Identificatore di distribuzione del modello da usare per la richiesta di completamento della chat.
n numero intero Quante opzioni di completamento della chat generare per ogni messaggio di input. Tenere presente che verranno addebitati i costi in base al numero di token generati in tutte le scelte. Mantenere n come 1 per ridurre al minimo i costi. NO 1
chiamate_parallele_agli_strumenti oggetto Indica se abilitare o meno la chiamata di funzioni parallele durante l'uso dello strumento. NO
stima oggetto Rappresentazione di base dell'output stimato da un modello. NO
└─ Tipo OpenAI.ChatOutputPredictionType NO
penalità_di_presenza numero Numero compreso tra -2.0 e 2.0. I valori positivi penalizzano i nuovi token in base a
se appaiono nel testo fino a questo momento, aumentando la probabilità del modello
per parlare di nuovi argomenti.
NO 0
sforzo di ragionamento oggetto solo modelli di ragionamento

Vincola lo sforzo sul ragionamento per
modelli di ragionamento.
I valori attualmente supportati sono low, medium e high. Ridurre
l'impegno di ragionamento può comportare risposte più veloci e meno token usati
sul ragionamento in una risposta.
NO
formato_risposta oggetto NO
└─ Tipo enum
Valori possibili: text, json_object, json_schema
NO
seed numero intero Questa funzionalità è in versione beta.
Se specificato, il nostro sistema esegue un'operazione ottimale per campionare in modo deterministico, in modo che le richieste ripetute con gli stessi seed e gli stessi parametri restituiscano lo stesso risultato.
Il determinismo non è garantito ed è necessario fare riferimento al parametro di risposta system_fingerprint per monitorare le modifiche nel back-end.
NO
fermare oggetto Non supportato con i modelli o3 di ragionamento più recenti e o4-mini.

Fino a 4 sequenze in cui l'API smetterà di generare altri token. Il valore di
il testo restituito non conterrà la sequenza di interruzione.
NO
store boolean Decidere se salvare o meno l'output della richiesta di completamento della chat per
utilizzare nella distillazione del modello o nei prodotti di valutazione.
NO Falso
torrente boolean Se impostato su true, i dati di risposta del modello verranno trasmessi al client
generato tramite eventi inviati dal server.
NO Falso
stream_options oggetto Opzioni per la risposta in streaming. Impostare questa opzione solo quando si imposta stream: true. NO
└─ uso_includi boolean Se impostato, un blocco aggiuntivo verrà trasmesso prima del data: [DONE]
criteri.). Il usage campo in questo blocco mostra le statistiche di utilizzo dei token
per l'intera richiesta e il choices campo sarà sempre vuoto
array

Tutti gli altri blocchi includeranno anche un usage campo, ma con un valore Null
valore. NOTA: Se il flusso viene interrotto, è possibile che non venga ricevuto
blocco di utilizzo finale che contiene l'utilizzo totale dei token per la richiesta.
NO
temperatura numero Temperatura di campionamento da usare, compresa tra 0 e 2. Valori più elevati come 0.8 renderanno l'output più casuale, mentre valori più bassi come 0.2 lo renderanno più mirato e deterministico.
In genere si consiglia di modificare questo valore o top_p ma non entrambi.
NO 1
tool_choice OpenAI.ChatCompletionToolChoiceOption Controlla quale strumento (se presente) viene chiamato dal modello.
none indica che il modello non chiamerà alcuno strumento e genera invece un messaggio.
auto indica che il modello può scegliere tra la generazione di un messaggio o la chiamata di uno o più strumenti.
required indica che il modello deve chiamare uno o più strumenti.
Se si specifica uno strumento specifico tramite {"type": "function", "function": {"name": "my_function"}} impone al modello di chiamare tale strumento.

none è l'impostazione predefinita quando non sono presenti strumenti. auto è l'impostazione predefinita quando sono presenti strumenti.
NO
strumenti array Elenco di strumenti che il modello può chiamare. Attualmente, solo le funzioni sono supportate come strumento. Usare questa opzione per fornire un elenco di funzioni per cui il modello può generare input JSON. Sono supportate al massimo 128 funzioni. NO
top_logprobs numero intero Un numero intero compreso tra 0 e 20 che specifica il numero di token più probabili da restituire in ogni posizione del token, ognuno con una probabilità di log associata. NO
top_p numero Un'alternativa al campionamento con temperatura, denominata campionamento nucleo,
dove il modello considera i risultati dei token con probabilità top_p
massa. Quindi 0,1 significa solo i token che comprendono il 10% superiore della massa di probabilità%
sono considerati.

In genere si consiglia di modificare questo valore o temperature ma non entrambi.
NO 1
utente corda Identificatore univoco che rappresenta l'utente finale, che può essere utile
monitorare e rilevare abusi.
NO
user_security_context AzureUserSecurityContext Il contesto di sicurezza utente contiene diversi parametri che descrivono l'applicazione stessa e l'utente finale che interagisce con l'applicazione. Questi campi sono utili al team delle operazioni per la sicurezza per analizzare e mitigare gli incidenti di sicurezza fornendo un approccio esaustivo alla protezione delle applicazioni IA. Altre informazioni sulla protezione delle applicazioni di IA con Microsoft Defender per il cloud. NO

Responses

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Tipo Descrizione
application/json AzureCreateChatCompletionResponse
text/event-stream AzureCreateChatCompletionStreamResponse

Codice di stato: impostazione predefinita

Descrizione: risposta di errore imprevista.

Tipo di contenuto Tipo Descrizione
application/json AzureErrorResponse

Esempi

Example

Crea un completamento per i prompt forniti, i parametri e il modello scelto.

POST {endpoint}/openai/v1/chat/completions

{
 "model": "gpt-4o-mini",
 "messages": [
  {
   "role": "system",
   "content": "you are a helpful assistant that talks like a pirate"
  },
  {
   "role": "user",
   "content": "can you tell me how to care for a parrot?"
  }
 ]
}

Risposte: Codice di stato: 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Ahoy matey! So ye be wantin' to care for a fine squawkin' parrot, eh?..."
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Creare incorporazione

POST {endpoint}/openai/v1/embeddings

Crea un vettore di incorporamento che rappresenta il testo di input.

Parametri

Nome In Obbligatorio TIPO Descrzione
endpoint path corda
URL.
Endpoint OpenAI supportati di Azure (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure). https://{nome-risorsa}.openai.azure.com
versione-api query NO Versione esplicita dell'API Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.

Intestazione della richiesta

Usare l'autenticazione basata su token o la chiave API. L'autenticazione con l'autenticazione basata su token è consigliata e più sicura.

Nome Obbligatorio TIPO Descrzione
Autorizzazione Vero corda Esempio:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Per generare un token di autenticazione tramite l'interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
ambito: https://cognitiveservices.azure.com/.default
api-key Vero corda Fornire qui la chiave API di Azure OpenAI

Corpo della richiesta

Content-Type: application/json

Nome TIPO Descrzione Obbligatorio Default
dimensions numero intero Numero di dimensioni che devono essere presenti negli incorporamenti di output risultanti. Supportato solo in text-embedding-3 e modelli successivi. NO
encoding_format enum Formato in cui restituire gli incorporamenti. Può essere float o base64.
Valori possibili: float, base64
NO
ingresso stringa o matrice
model corda Modello da usare per la richiesta di incorporamento.
utente corda Identificatore univoco che rappresenta l'utente finale, che consente a OpenAI di monitorare e rilevare gli abusi. NO

Responses

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Tipo Descrizione
application/json OpenAI.CreateEmbeddingResponse

Codice di stato: impostazione predefinita

Descrizione: risposta di errore imprevista.

Tipo di contenuto Tipo Descrizione
application/json AzureErrorResponse

Esempi

Example

Restituisce gli incorporamenti per un prompt specificato.

POST {endpoint}/openai/v1/embeddings

{
 "model": "text-embedding-ada-002",
 "input": [
  "this is a test"
 ]
}

Risposte: Codice di stato: 200

{
  "body": {
    "data": [
      {
        "index": 0,
        "embedding": [
          -0.012838088,
          -0.007421397,
          -0.017617522,
          -0.028278312,
          -0.018666342,
          0.01737855,
          -0.01821495,
          -0.006950092,
          -0.009937238,
          -0.038580645,
          0.010674067,
          0.02412286,
          -0.013647936,
          0.013189907,
          0.0021125758,
          0.012406612,
          0.020790534,
          0.00074595667,
          0.008397198,
          -0.00535031,
          0.008968075,
          0.014351576,
          -0.014086051,
          0.015055214,
          -0.022211088,
          -0.025198232,
          0.0065186154,
          -0.036350243,
          0.009180495,
          -0.009698266,
          0.009446018,
          -0.008463579,
          -0.0040426035,
          -0.03443847,
          -0.00091273896,
          -0.0019217303,
          0.002349888,
          -0.021560553,
          0.016515596,
          -0.015572986,
          0.0038666942,
          -8.432463e-05,
          0.0032178196,
          -0.020365695,
          -0.009631885,
          -0.007647093,
          0.0033837722,
          -0.026764825,
          -0.010501476,
          0.020219658,
          0.024640633,
          -0.0066912062,
          -0.036456455,
          -0.0040923897,
          -0.013966565,
          0.017816665,
          0.005366905,
          0.022835068,
          0.0103488,
          -0.0010811808,
          -0.028942121,
          0.0074280356,
          -0.017033368,
          0.0074877786,
          0.021640211,
          0.002499245,
          0.013316032,
          0.0021524043,
          0.010129742,
          0.0054731146,
          0.03143805,
          0.014856071,
          0.0023366117,
          -0.0008243692,
          0.022781964,
          0.003038591,
          -0.017617522,
          0.0013309394,
          0.0022154662,
          0.00097414135,
          0.012041516,
          -0.027906578,
          -0.023817508,
          0.013302756,
          -0.003003741,
          -0.006890349,
          0.0016744611
        ]
      }
    ],
    "usage": {
      "prompt_tokens": 4,
      "total_tokens": 4
    }
  }
}

Elenco valutazioni

GET {endpoint}/openai/v1/evals

Elencare le valutazioni per un progetto.

Parametri

Nome In Obbligatorio TIPO Descrzione
endpoint path corda
URL.
Endpoint OpenAI supportati di Azure (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure). https://{nome-risorsa}.openai.azure.com
versione-api query NO Versione esplicita dell'API Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
aoai-evals intestazione corda
Valori possibili: preview
Consente l'accesso a AOAI Evals, una funzionalità di anteprima.
Questa funzionalità richiede che l'intestazione 'aoai-evals' sia impostata su 'preview'.
dopo query NO corda Identificatore per l'ultima valutazione della richiesta di paginazione precedente.
limit query NO numero intero Limite per il numero di valori da restituire in una singola risposta di impaginazione.
order query NO corda
Valori possibili: asc, desc
Ordina le valutazioni in base al timestamp. Usare asc per l'ordine crescente o
desc per l'ordine decrescente.
ordina per query NO corda
Valori possibili: created_at, updated_at
Le valutazioni possono essere ordinate in base all'ora di creazione o all'ultima ora di aggiornamento. Utilizzo
created_at per l'ora di creazione o updated_at per quella dell'ultimo aggiornamento
.

Intestazione della richiesta

Usare l'autenticazione basata su token o la chiave API. L'autenticazione con l'autenticazione basata su token è consigliata e più sicura.

Nome Obbligatorio TIPO Descrzione
Autorizzazione Vero corda Esempio:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Per generare un token di autenticazione tramite l'interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
ambito: https://cognitiveservices.azure.com/.default
api-key Vero corda Fornire qui la chiave API di Azure OpenAI

Responses

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Tipo Descrizione
application/json OpenAI.EvalList

Codice di stato: impostazione predefinita

Descrizione: risposta di errore imprevista.

Tipo di contenuto Tipo Descrizione
application/json AzureErrorResponse

Creare valutazione

POST {endpoint}/openai/v1/evals

Creare la struttura di una valutazione che può essere usata per testare le prestazioni di un modello.

Una valutazione è un set di criteri di test e un'origine dati. Dopo aver creato una valutazione, è possibile eseguirla in modelli e parametri del modello diversi. Sono supportati diversi tipi di classificatori e origini dati.

Annotazioni

Questa operazione OpenAI di Azure è in anteprima e soggetta a modifiche.

Parametri

Nome In Obbligatorio TIPO Descrzione
endpoint path corda
URL.
Endpoint OpenAI supportati di Azure (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure). https://{nome-risorsa}.openai.azure.com
versione-api query NO Versione esplicita dell'API Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
aoai-evals intestazione corda
Valori possibili: preview
Consente l'accesso a AOAI Evals, una funzionalità di anteprima.
Questa funzionalità richiede che l'intestazione 'aoai-evals' sia impostata su 'preview'.

Intestazione della richiesta

Usare l'autenticazione basata su token o la chiave API. L'autenticazione con l'autenticazione basata su token è consigliata e più sicura.

Nome Obbligatorio TIPO Descrzione
Autorizzazione Vero corda Esempio:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Per generare un token di autenticazione tramite l'interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
ambito: https://cognitiveservices.azure.com/.default
api-key Vero corda Fornire qui la chiave API di Azure OpenAI

Corpo della richiesta

Content-Type: application/json

Nome TIPO Descrzione Obbligatorio Default
configurazione_sorgente_dati oggetto
└─ Tipo OpenAI.EvalDataSourceConfigType NO
metadata oggetto Set di 16 coppie chiave-valore che possono essere collegate a un oggetto. Può trattarsi di
utile per archiviare informazioni aggiuntive sull'oggetto in un oggetto strutturato
formattare ed eseguire query per gli oggetti tramite l'API o il dashboard.

Le chiavi sono stringhe con una lunghezza massima di 64 caratteri. I valori sono stringhe
con una lunghezza massima di 512 caratteri.
NO
nome corda Nome della valutazione. NO
statusCode enum
Valori possibili: 201
criteri_di_test array Elenco di classificatori per tutte le esecuzioni di valutazione in questo gruppo. I classificatori possono fare riferimento alle variabili nell'origine dati usando la notazione con parentesi graffe doppie, ad esempio {{item.variable_name}}. Per fare riferimento all'output del modello, usare lo spazio dei nomi sample (ad esempio, {{sample.output_text}}).

Responses

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Tipo Descrizione
application/json OpenAI.Eval

Codice di stato: impostazione predefinita

Descrizione: risposta di errore imprevista.

Tipo di contenuto Tipo Descrizione
application/json AzureErrorResponse

Ottieni valutazione

GET {endpoint}/openai/v1/evals/{eval_id}

Recupera una valutazione in base al relativo ID. Recupera una valutazione in base al relativo ID.

Annotazioni

Questa operazione OpenAI di Azure è in anteprima e soggetta a modifiche.

Parametri

Nome In Obbligatorio TIPO Descrzione
endpoint path corda
URL.
Endpoint OpenAI supportati di Azure (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure). https://{nome-risorsa}.openai.azure.com
versione-api query NO Versione esplicita dell'API Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
aoai-evals intestazione corda
Valori possibili: preview
Consente l'accesso a AOAI Evals, una funzionalità di anteprima.
Questa funzionalità richiede che l'intestazione 'aoai-evals' sia impostata su 'preview'.
eval_id path corda

Intestazione della richiesta

Usare l'autenticazione basata su token o la chiave API. L'autenticazione con l'autenticazione basata su token è consigliata e più sicura.

Nome Obbligatorio TIPO Descrzione
Autorizzazione Vero corda Esempio:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Per generare un token di autenticazione tramite l'interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
ambito: https://cognitiveservices.azure.com/.default
api-key Vero corda Fornire qui la chiave API di Azure OpenAI

Responses

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Tipo Descrizione
application/json OpenAI.Eval

Codice di stato: impostazione predefinita

Descrizione: risposta di errore imprevista.

Tipo di contenuto Tipo Descrizione
application/json AzureErrorResponse

Aggiorna valutazione

POST {endpoint}/openai/v1/evals/{eval_id}

Aggiornare le proprietà selezionabili e modificabili di una valutazione specificata.

Annotazioni

Questa operazione OpenAI di Azure è in anteprima e soggetta a modifiche.

Parametri

Nome In Obbligatorio TIPO Descrzione
endpoint path corda
URL.
Endpoint OpenAI supportati di Azure (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure). https://{nome-risorsa}.openai.azure.com
versione-api query NO Versione esplicita dell'API Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
aoai-evals intestazione corda
Valori possibili: preview
Consente l'accesso a AOAI Evals, una funzionalità di anteprima.
Questa funzionalità richiede che l'intestazione 'aoai-evals' sia impostata su 'preview'.
eval_id path corda

Intestazione della richiesta

Usare l'autenticazione basata su token o la chiave API. L'autenticazione con l'autenticazione basata su token è consigliata e più sicura.

Nome Obbligatorio TIPO Descrzione
Autorizzazione Vero corda Esempio:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Per generare un token di autenticazione tramite l'interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
ambito: https://cognitiveservices.azure.com/.default
api-key Vero corda Fornire qui la chiave API di Azure OpenAI

Corpo della richiesta

Content-Type: application/json

Nome TIPO Descrzione Obbligatorio Default
metadata OpenAI.MetadataPropertyForRequest Set di 16 coppie chiave-valore che possono essere collegate a un oggetto. Può trattarsi di
utile per archiviare informazioni aggiuntive sull'oggetto in un oggetto strutturato
formattare ed eseguire query per gli oggetti tramite l'API o il dashboard.

Le chiavi sono stringhe con una lunghezza massima di 64 caratteri. I valori sono stringhe
con una lunghezza massima di 512 caratteri.
NO
nome corda NO

Responses

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Tipo Descrizione
application/json OpenAI.Eval

Codice di stato: impostazione predefinita

Descrizione: risposta di errore imprevista.

Tipo di contenuto Tipo Descrizione
application/json AzureErrorResponse

Elimina valutazione

DELETE {endpoint}/openai/v1/evals/{eval_id}

Eliminare una valutazione specificata.

Annotazioni

Questa operazione OpenAI di Azure è in anteprima e soggetta a modifiche.

Parametri

Nome In Obbligatorio TIPO Descrzione
endpoint path corda
URL.
Endpoint OpenAI supportati di Azure (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure). https://{nome-risorsa}.openai.azure.com
versione-api query NO Versione esplicita dell'API Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
aoai-evals intestazione corda
Valori possibili: preview
Consente l'accesso a AOAI Evals, una funzionalità di anteprima.
Questa funzionalità richiede che l'intestazione 'aoai-evals' sia impostata su 'preview'.
eval_id path corda

Intestazione della richiesta

Usare l'autenticazione basata su token o la chiave API. L'autenticazione con l'autenticazione basata su token è consigliata e più sicura.

Nome Obbligatorio TIPO Descrzione
Autorizzazione Vero corda Esempio:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Per generare un token di autenticazione tramite l'interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
ambito: https://cognitiveservices.azure.com/.default
api-key Vero corda Fornire qui la chiave API di Azure OpenAI

Responses

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Tipo Descrizione
application/json oggetto

Codice di stato: impostazione predefinita

Descrizione: risposta di errore imprevista.

Tipo di contenuto Tipo Descrizione
application/json AzureErrorResponse

Ottenere le esecuzioni di valutazione

GET {endpoint}/openai/v1/evals/{eval_id}/runs

Recuperare un elenco di esecuzioni per una valutazione specificata.

Annotazioni

Questa operazione OpenAI di Azure è in anteprima e soggetta a modifiche.

Parametri

Nome In Obbligatorio TIPO Descrzione
endpoint path corda
URL.
Endpoint OpenAI supportati di Azure (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure). https://{nome-risorsa}.openai.azure.com
versione-api query NO Versione esplicita dell'API Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
aoai-evals intestazione corda
Valori possibili: preview
Consente l'accesso a AOAI Evals, una funzionalità di anteprima.
Questa funzionalità richiede che l'intestazione 'aoai-evals' sia impostata su 'preview'.
eval_id path corda
dopo query NO corda
limit query NO numero intero
order query NO corda
Valori possibili: asc, desc
stato query NO corda
Valori possibili: queued, in_progresscompleted, , canceled,failed

Intestazione della richiesta

Usare l'autenticazione basata su token o la chiave API. L'autenticazione con l'autenticazione basata su token è consigliata e più sicura.

Nome Obbligatorio TIPO Descrzione
Autorizzazione Vero corda Esempio:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Per generare un token di autenticazione tramite l'interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
ambito: https://cognitiveservices.azure.com/.default
api-key Vero corda Fornire qui la chiave API di Azure OpenAI

Responses

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Tipo Descrizione
application/json OpenAI.EvalRunList

Codice di stato: impostazione predefinita

Descrizione: risposta di errore imprevista.

Tipo di contenuto Tipo Descrizione
application/json AzureErrorResponse

Creare l'esecuzione di valutazione

POST {endpoint}/openai/v1/evals/{eval_id}/runs

Creare una nuova esecuzione di valutazione, iniziando il processo di valutazione.

Annotazioni

Questa operazione OpenAI di Azure è in anteprima e soggetta a modifiche.

Parametri

Nome In Obbligatorio TIPO Descrzione
endpoint path corda
URL.
Endpoint OpenAI supportati di Azure (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure). https://{nome-risorsa}.openai.azure.com
versione-api query NO Versione esplicita dell'API Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
aoai-evals intestazione corda
Valori possibili: preview
Consente l'accesso a AOAI Evals, una funzionalità di anteprima.
Questa funzionalità richiede che l'intestazione 'aoai-evals' sia impostata su 'preview'.
eval_id path corda

Intestazione della richiesta

Usare l'autenticazione basata su token o la chiave API. L'autenticazione con l'autenticazione basata su token è consigliata e più sicura.

Nome Obbligatorio TIPO Descrzione
Autorizzazione Vero corda Esempio:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Per generare un token di autenticazione tramite l'interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
ambito: https://cognitiveservices.azure.com/.default
api-key Vero corda Fornire qui la chiave API di Azure OpenAI

Corpo della richiesta

Content-Type: application/json

Nome TIPO Descrzione Obbligatorio Default
fonte_dati oggetto
└─ Tipo OpenAI.EvalRunDataSourceType NO
metadata oggetto Set di 16 coppie chiave-valore che possono essere collegate a un oggetto. Può trattarsi di
utile per archiviare informazioni aggiuntive sull'oggetto in un oggetto strutturato
formattare ed eseguire query per gli oggetti tramite l'API o il dashboard.

Le chiavi sono stringhe con una lunghezza massima di 64 caratteri. I valori sono stringhe
con una lunghezza massima di 512 caratteri.
NO
nome corda Nome della corsa. NO

Responses

Codice di stato: 201

Descrizione: la richiesta è riuscita e di conseguenza è stata creata una nuova risorsa.

Tipo di contenuto Tipo Descrizione
application/json OpenAI.EvalRun

Codice di stato: impostazione predefinita

Descrizione: risposta di errore imprevista.

Tipo di contenuto Tipo Descrizione
application/json AzureErrorResponse

Ottenere l'esecuzione della valutazione

GET {endpoint}/openai/v1/evals/{eval_id}/runs/{run_id}

Recuperare una valutazione specifica eseguita in base al relativo ID.

Annotazioni

Questa operazione OpenAI di Azure è in anteprima e soggetta a modifiche.

Parametri

Nome In Obbligatorio TIPO Descrzione
endpoint path corda
URL.
Endpoint OpenAI supportati di Azure (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure). https://{nome-risorsa}.openai.azure.com
versione-api query NO Versione esplicita dell'API Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
aoai-evals intestazione corda
Valori possibili: preview
Consente l'accesso a AOAI Evals, una funzionalità di anteprima.
Questa funzionalità richiede che l'intestazione 'aoai-evals' sia impostata su 'preview'.
eval_id path corda
run_id path corda

Intestazione della richiesta

Usare l'autenticazione basata su token o la chiave API. L'autenticazione con l'autenticazione basata su token è consigliata e più sicura.

Nome Obbligatorio TIPO Descrzione
Autorizzazione Vero corda Esempio:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Per generare un token di autenticazione tramite l'interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
ambito: https://cognitiveservices.azure.com/.default
api-key Vero corda Fornire qui la chiave API di Azure OpenAI

Responses

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Tipo Descrizione
application/json OpenAI.EvalRun

Codice di stato: impostazione predefinita

Descrizione: risposta di errore imprevista.

Tipo di contenuto Tipo Descrizione
application/json AzureErrorResponse

Annulla esecuzione valutazione

POST {endpoint}/openai/v1/evals/{eval_id}/runs/{run_id}

Annullare un'esecuzione di valutazione specifica in base al relativo ID.

Annotazioni

Questa operazione OpenAI di Azure è in anteprima e soggetta a modifiche.

Parametri

Nome In Obbligatorio TIPO Descrzione
endpoint path corda
URL.
Endpoint OpenAI supportati di Azure (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure). https://{nome-risorsa}.openai.azure.com
versione-api query NO Versione esplicita dell'API Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
aoai-evals intestazione corda
Valori possibili: preview
Consente l'accesso a AOAI Evals, una funzionalità di anteprima.
Questa funzionalità richiede che l'intestazione 'aoai-evals' sia impostata su 'preview'.
eval_id path corda
run_id path corda

Intestazione della richiesta

Usare l'autenticazione basata su token o la chiave API. L'autenticazione con l'autenticazione basata su token è consigliata e più sicura.

Nome Obbligatorio TIPO Descrzione
Autorizzazione Vero corda Esempio:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Per generare un token di autenticazione tramite l'interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
ambito: https://cognitiveservices.azure.com/.default
api-key Vero corda Fornire qui la chiave API di Azure OpenAI

Responses

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Tipo Descrizione
application/json OpenAI.EvalRun

Codice di stato: impostazione predefinita

Descrizione: risposta di errore imprevista.

Tipo di contenuto Tipo Descrizione
application/json AzureErrorResponse

Eliminare l'esecuzione di valutazioni

DELETE {endpoint}/openai/v1/evals/{eval_id}/runs/{run_id}

Eliminare una valutazione specifica eseguita in base al relativo ID.

Annotazioni

Questa operazione OpenAI di Azure è in anteprima e soggetta a modifiche.

Parametri

Nome In Obbligatorio TIPO Descrzione
endpoint path corda
URL.
Endpoint OpenAI supportati di Azure (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure). https://{nome-risorsa}.openai.azure.com
versione-api query NO Versione esplicita dell'API Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
aoai-evals intestazione corda
Valori possibili: preview
Consente l'accesso a AOAI Evals, una funzionalità di anteprima.
Questa funzionalità richiede che l'intestazione 'aoai-evals' sia impostata su 'preview'.
eval_id path corda
run_id path corda

Intestazione della richiesta

Usare l'autenticazione basata su token o la chiave API. L'autenticazione con l'autenticazione basata su token è consigliata e più sicura.

Nome Obbligatorio TIPO Descrzione
Autorizzazione Vero corda Esempio:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Per generare un token di autenticazione tramite l'interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
ambito: https://cognitiveservices.azure.com/.default
api-key Vero corda Fornire qui la chiave API di Azure OpenAI

Responses

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Tipo Descrizione
application/json oggetto

Codice di stato: impostazione predefinita

Descrizione: risposta di errore imprevista.

Tipo di contenuto Tipo Descrizione
application/json AzureErrorResponse

Ottenere gli elementi di output dell'esecuzione della valutazione

GET {endpoint}/openai/v1/evals/{eval_id}/runs/{run_id}/output_items

Ottenere un elenco di elementi di output per un'esecuzione di valutazione specificata.

Annotazioni

Questa operazione OpenAI di Azure è in anteprima e soggetta a modifiche.

Parametri

Nome In Obbligatorio TIPO Descrzione
endpoint path corda
URL.
Endpoint OpenAI supportati di Azure (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure). https://{nome-risorsa}.openai.azure.com
versione-api query NO Versione esplicita dell'API Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
aoai-evals intestazione corda
Valori possibili: preview
Consente l'accesso a AOAI Evals, una funzionalità di anteprima.
Questa funzionalità richiede che l'intestazione 'aoai-evals' sia impostata su 'preview'.
eval_id path corda
run_id path corda
dopo query NO corda
limit query NO numero intero
stato query NO corda
Valori possibili: fail, pass
order query NO corda
Valori possibili: asc, desc

Intestazione della richiesta

Usare l'autenticazione basata su token o la chiave API. L'autenticazione con l'autenticazione basata su token è consigliata e più sicura.

Nome Obbligatorio TIPO Descrzione
Autorizzazione Vero corda Esempio:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Per generare un token di autenticazione tramite l'interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
ambito: https://cognitiveservices.azure.com/.default
api-key Vero corda Fornire qui la chiave API di Azure OpenAI

Responses

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Tipo Descrizione
application/json OpenAI.EvalRunOutputItemList

Codice di stato: impostazione predefinita

Descrizione: risposta di errore imprevista.

Tipo di contenuto Tipo Descrizione
application/json AzureErrorResponse

Ottenere l'elemento di output dell'esecuzione della valutazione

GET {endpoint}/openai/v1/evals/{eval_id}/runs/{run_id}/output_items/{output_item_id}

Recuperare un elemento di output specifico da una valutazione eseguita in base al relativo ID.

Annotazioni

Questa operazione OpenAI di Azure è in anteprima e soggetta a modifiche.

Parametri

Nome In Obbligatorio TIPO Descrzione
endpoint path corda
URL.
Endpoint OpenAI supportati di Azure (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure). https://{nome-risorsa}.openai.azure.com
versione-api query NO Versione esplicita dell'API Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
aoai-evals intestazione corda
Valori possibili: preview
Consente l'accesso a AOAI Evals, una funzionalità di anteprima.
Questa funzionalità richiede che l'intestazione 'aoai-evals' sia impostata su 'preview'.
eval_id path corda
run_id path corda
output_item_id path corda

Intestazione della richiesta

Usare l'autenticazione basata su token o la chiave API. L'autenticazione con l'autenticazione basata su token è consigliata e più sicura.

Nome Obbligatorio TIPO Descrzione
Autorizzazione Vero corda Esempio:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Per generare un token di autenticazione tramite l'interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
ambito: https://cognitiveservices.azure.com/.default
api-key Vero corda Fornire qui la chiave API di Azure OpenAI

Responses

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Tipo Descrizione
application/json OpenAI.EvalRunOutputItem

Codice di stato: impostazione predefinita

Descrizione: risposta di errore imprevista.

Tipo di contenuto Tipo Descrizione
application/json AzureErrorResponse

Crea un file

POST {endpoint}/openai/v1/files

Parametri

Nome In Obbligatorio TIPO Descrzione
endpoint path corda
URL.
Endpoint OpenAI supportati di Azure (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure). https://{nome-risorsa}.openai.azure.com
versione-api query NO Versione esplicita dell'API Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.

Intestazione della richiesta

Usare l'autenticazione basata su token o la chiave API. L'autenticazione con l'autenticazione basata su token è consigliata e più sicura.

Nome Obbligatorio TIPO Descrzione
Autorizzazione Vero corda Esempio:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Per generare un token di autenticazione tramite l'interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
ambito: https://cognitiveservices.azure.com/.default
api-key Vero corda Fornire qui la chiave API di Azure OpenAI

Corpo della richiesta

Tipo di contenuto: multipart/form-data

Nome TIPO Descrzione Obbligatorio Default
scade dopo oggetto
Ancoraggio └* AzureFileExpiryAnchor NO
└─ secondi numero intero NO
documento corda
purpose enum Scopo previsto del file caricato. Uno dei seguenti: - assistants: usato nell'API Assistenti - batch: usato nell'API Batch - fine-tune: usato per l'ottimizzazione - evals: usato per set di dati di valutazione
Valori possibili: assistants, batch, fine-tune, evals

Responses

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Tipo Descrizione
application/json AzureOpenAIFile

Codice di stato: impostazione predefinita

Descrizione: risposta di errore imprevista.

Tipo di contenuto Tipo Descrizione
application/json AzureErrorResponse

Esempi

Example

POST {endpoint}/openai/v1/files

Elencare file

GET {endpoint}/openai/v1/files

Parametri

Nome In Obbligatorio TIPO Descrzione
endpoint path corda
URL.
Endpoint OpenAI supportati di Azure (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure). https://{nome-risorsa}.openai.azure.com
versione-api query NO Versione esplicita dell'API Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
purpose query NO corda

Intestazione della richiesta

Usare l'autenticazione basata su token o la chiave API. L'autenticazione con l'autenticazione basata su token è consigliata e più sicura.

Nome Obbligatorio TIPO Descrzione
Autorizzazione Vero corda Esempio:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Per generare un token di autenticazione tramite l'interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
ambito: https://cognitiveservices.azure.com/.default
api-key Vero corda Fornire qui la chiave API di Azure OpenAI

Responses

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Tipo Descrizione
application/json AzureListFilesResponse

Codice di stato: impostazione predefinita

Descrizione: risposta di errore imprevista.

Tipo di contenuto Tipo Descrizione
application/json AzureErrorResponse

Recuperare il file

GET {endpoint}/openai/v1/files/{file_id}

Parametri

Nome In Obbligatorio TIPO Descrzione
endpoint path corda
URL.
Endpoint OpenAI supportati di Azure (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure). https://{nome-risorsa}.openai.azure.com
versione-api query NO Versione esplicita dell'API Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
ID del file path corda ID del file da utilizzare per questa richiesta.

Intestazione della richiesta

Usare l'autenticazione basata su token o la chiave API. L'autenticazione con l'autenticazione basata su token è consigliata e più sicura.

Nome Obbligatorio TIPO Descrzione
Autorizzazione Vero corda Esempio:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Per generare un token di autenticazione tramite l'interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
ambito: https://cognitiveservices.azure.com/.default
api-key Vero corda Fornire qui la chiave API di Azure OpenAI

Responses

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Tipo Descrizione
application/json AzureOpenAIFile

Codice di stato: impostazione predefinita

Descrizione: risposta di errore imprevista.

Tipo di contenuto Tipo Descrizione
application/json AzureErrorResponse

Elimina file

DELETE {endpoint}/openai/v1/files/{file_id}

Parametri

Nome In Obbligatorio TIPO Descrzione
endpoint path corda
URL.
Endpoint OpenAI supportati di Azure (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure). https://{nome-risorsa}.openai.azure.com
versione-api query NO Versione esplicita dell'API Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
ID del file path corda ID del file da utilizzare per questa richiesta.

Intestazione della richiesta

Usare l'autenticazione basata su token o la chiave API. L'autenticazione con l'autenticazione basata su token è consigliata e più sicura.

Nome Obbligatorio TIPO Descrzione
Autorizzazione Vero corda Esempio:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Per generare un token di autenticazione tramite l'interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
ambito: https://cognitiveservices.azure.com/.default
api-key Vero corda Fornire qui la chiave API di Azure OpenAI

Responses

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Tipo Descrizione
application/json OpenAI.DeleteFileResponse

Codice di stato: impostazione predefinita

Descrizione: risposta di errore imprevista.

Tipo di contenuto Tipo Descrizione
application/json AzureErrorResponse

Scaricare il file

GET {endpoint}/openai/v1/files/{file_id}/content

Parametri

Nome In Obbligatorio TIPO Descrzione
endpoint path corda
URL.
Endpoint OpenAI supportati di Azure (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure). https://{nome-risorsa}.openai.azure.com
versione-api query NO Versione esplicita dell'API Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
ID del file path corda ID del file da utilizzare per questa richiesta.

Intestazione della richiesta

Usare l'autenticazione basata su token o la chiave API. L'autenticazione con l'autenticazione basata su token è consigliata e più sicura.

Nome Obbligatorio TIPO Descrzione
Autorizzazione Vero corda Esempio:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Per generare un token di autenticazione tramite l'interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
ambito: https://cognitiveservices.azure.com/.default
api-key Vero corda Fornire qui la chiave API di Azure OpenAI

Responses

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Tipo Descrizione
application/octet-stream corda

Codice di stato: impostazione predefinita

Descrizione: risposta di errore imprevista.

Tipo di contenuto Tipo Descrizione
application/json AzureErrorResponse

Esegui classificatore

POST {endpoint}/openai/v1/fine_tuning/alpha/graders/run

Eseguire un classificatore.

Parametri

Nome In Obbligatorio TIPO Descrzione
endpoint path corda
URL.
Endpoint OpenAI supportati di Azure (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure). https://{nome-risorsa}.openai.azure.com
versione-api query NO Versione esplicita dell'API Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.

Intestazione della richiesta

Usare l'autenticazione basata su token o la chiave API. L'autenticazione con l'autenticazione basata su token è consigliata e più sicura.

Nome Obbligatorio TIPO Descrzione
Autorizzazione Vero corda Esempio:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Per generare un token di autenticazione tramite l'interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
ambito: https://cognitiveservices.azure.com/.default
api-key Vero corda Fornire qui la chiave API di Azure OpenAI

Corpo della richiesta

Content-Type: application/json

Nome TIPO Descrzione Obbligatorio Default
cernitore oggetto Oggetto StringCheckGrader che esegue un confronto di stringhe tra input e riferimento usando un'operazione specificata.
└' calculate_output corda Formula per calcolare l'output in base ai risultati del classificatore. NO
└' evaluation_metric enum Metrica di valutazione da usare. Uno di fuzzy_match, bleu, gleu, meteor, rouge_1, rouge_2, rouge_3, rouge_4, rouge_5 o rouge_l.
Valori possibili: fuzzy_match, bleu, gleumeteor, rouge_1, rouge_2, rouge_3, rouge_4, rouge_5rouge_l
NO
└️ voti oggetto NO
└' image_tag corda Tag immagine da usare per lo script Python. NO
└ Input array Testo di input. Ciò può includere stringhe di modello. NO
└─ Modello corda Modello da utilizzare per la valutazione. NO
└> nome corda Nome del grader. NO
└─ Operazione enum Operazione di controllo della stringa da eseguire. Uno tra eq, ne, like o ilike.
Valori possibili: eq, ne, like, ilike
NO
└* intervallo array La gamma del punteggio. Il valore predefinito è [0, 1]. NO
Riferimento corda Testo che viene valutato. NO
└sampling_params Parametri di campionamento per il modello. NO
└─ sorgente corda Codice sorgente dello script Python. NO
└─ Tipo enum Il tipo di oggetto, che è sempre multi.
Valori possibili: multi
NO
oggetto Elemento del set di dati fornito al classificatore. Verrà usato per popolare
lo spazio dei nomi item. Per altri dettagli, vedere la guida.
NO
model_sample corda Esempio di modello da valutare. Questo valore verrà usato per popolare
lo spazio dei nomi sample. Per altri dettagli, vedere la guida.
La variabile output_json verrà popolata se l'esempio di modello è una
stringa JSON valida.

Responses

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Tipo Descrizione
application/json OpenAI.RunGraderResponse

Codice di stato: impostazione predefinita

Descrizione: risposta di errore imprevista.

Tipo di contenuto Tipo Descrizione
application/json AzureErrorResponse

Convalida classificatore

POST {endpoint}/openai/v1/fine_tuning/alpha/graders/validate

Convalidare un classificatore.

Parametri

Nome In Obbligatorio TIPO Descrzione
endpoint path corda
URL.
Endpoint OpenAI supportati di Azure (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure). https://{nome-risorsa}.openai.azure.com
versione-api query NO Versione esplicita dell'API Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.

Intestazione della richiesta

Usare l'autenticazione basata su token o la chiave API. L'autenticazione con l'autenticazione basata su token è consigliata e più sicura.

Nome Obbligatorio TIPO Descrzione
Autorizzazione Vero corda Esempio:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Per generare un token di autenticazione tramite l'interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
ambito: https://cognitiveservices.azure.com/.default
api-key Vero corda Fornire qui la chiave API di Azure OpenAI

Corpo della richiesta

Content-Type: application/json

Nome TIPO Descrzione Obbligatorio Default
cernitore oggetto Oggetto StringCheckGrader che esegue un confronto di stringhe tra input e riferimento usando un'operazione specificata.
└' calculate_output corda Formula per calcolare l'output in base ai risultati del classificatore. NO
└' evaluation_metric enum Metrica di valutazione da usare. Uno di fuzzy_match, bleu, gleu, meteor, rouge_1, rouge_2, rouge_3, rouge_4, rouge_5 o rouge_l.
Valori possibili: fuzzy_match, bleu, gleumeteor, rouge_1, rouge_2, rouge_3, rouge_4, rouge_5rouge_l
NO
└️ voti oggetto NO
└' image_tag corda Tag immagine da usare per lo script Python. NO
└ Input array Testo di input. Ciò può includere stringhe di modello. NO
└─ Modello corda Modello da utilizzare per la valutazione. NO
└> nome corda Nome del grader. NO
└─ Operazione enum Operazione di controllo della stringa da eseguire. Uno tra eq, ne, like o ilike.
Valori possibili: eq, ne, like, ilike
NO
└* intervallo array La gamma del punteggio. Il valore predefinito è [0, 1]. NO
Riferimento corda Testo che viene valutato. NO
└sampling_params Parametri di campionamento per il modello. NO
└─ sorgente corda Codice sorgente dello script Python. NO
└─ Tipo enum Il tipo di oggetto, che è sempre multi.
Valori possibili: multi
NO

Responses

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Tipo Descrizione
application/json OpenAI.ValidateGraderResponse

Codice di stato: impostazione predefinita

Descrizione: risposta di errore imprevista.

Tipo di contenuto Tipo Descrizione
application/json AzureErrorResponse

Creare un processo di ottimizzazione

POST {endpoint}/openai/v1/fine_tuning/jobs

Crea un processo di ottimizzazione che inizia il processo di creazione di un nuovo modello da un set di dati specificato.

La risposta include i dettagli del processo accodato, inclusi lo stato del processo e il nome dei modelli ottimizzati al termine.

Altre informazioni sull'ottimizzazione

Parametri

Nome In Obbligatorio TIPO Descrzione
endpoint path corda
URL.
Endpoint OpenAI supportati di Azure (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure). https://{nome-risorsa}.openai.azure.com
versione-api query NO Versione esplicita dell'API Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.

Intestazione della richiesta

Usare l'autenticazione basata su token o la chiave API. L'autenticazione con l'autenticazione basata su token è consigliata e più sicura.

Nome Obbligatorio TIPO Descrzione
Autorizzazione Vero corda Esempio:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Per generare un token di autenticazione tramite l'interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
ambito: https://cognitiveservices.azure.com/.default
api-key Vero corda Fornire qui la chiave API di Azure OpenAI

Corpo della richiesta

Content-Type: application/json

Nome TIPO Descrzione Obbligatorio Default
iperparametri oggetto Iperparametri usati per il processo di ottimizzazione.
Questo valore è ora deprecato a favore di methode deve essere passato sotto il parametro method.
NO
└' batch_size enum
Valori possibili: auto
NO
└' learning_rate_multiplier enum
Valori possibili: auto
NO
└' n_epochs enum
Valori possibili: auto
NO
integrazioni array Elenco di integrazioni da abilitare per il processo di ottimizzazione. NO
metadata oggetto Set di 16 coppie chiave-valore che possono essere collegate a un oggetto. Può trattarsi di
utile per archiviare informazioni aggiuntive sull'oggetto in un oggetto strutturato
formattare ed eseguire query per gli oggetti tramite l'API o il dashboard.

Le chiavi sono stringhe con una lunghezza massima di 64 caratteri. I valori sono stringhe
con una lunghezza massima di 512 caratteri.
NO
method OpenAI.FineTuneMethod Metodo utilizzato per l'ottimizzazione. NO
model string (vedere modelli validi di seguito) Nome del modello da ottimizzare. È possibile selezionare uno dei
modelli supportati.
seed numero intero Il seme controlla la riproducibilità del lavoro. Il passaggio degli stessi parametri di inizializzazione e processo dovrebbe produrre gli stessi risultati, ma in rari casi può differire.
Se non viene specificato un valore di inizializzazione, ne verrà generato uno automaticamente.
NO
suffix corda Stringa di un massimo di 64 caratteri che verrà aggiunta al nome del modello ottimizzato.

Ad esempio, un suffix oggetto "custom-model-name" produrrebbe un nome di modello come ft:gpt-4o-mini:openai:custom-model-name:7p4lURel.
NO None
file di allenamento corda ID di un file caricato che contiene i dati di training.

Per informazioni su come caricare un file, vedere Caricare un file.

Il set di dati deve essere formattato come file JSONL. Inoltre, è necessario caricare il file con lo scopo fine-tune.

Il contenuto del file deve variare a seconda che il modello usi la chat o se il metodo di ottimizzazione usa il formato preferenza.

Per altri dettagli, vedere la guida all'ottimizzazione.
file_di_validazione corda ID di un file caricato contenente i dati di convalida.

Se si specifica questo file, i dati vengono usati per generare la convalida
metriche periodicamente durante l'ottimizzazione. Queste metriche possono essere visualizzate nel
file dei risultati dell'ottimizzazione.
Gli stessi dati non devono essere presenti sia nei file di training sia nei file di convalida.

Il set di dati deve essere formattato come file JSONL. È necessario caricare il file con lo scopo fine-tune.

Per altri dettagli, vedere la guida all'ottimizzazione.
NO

Responses

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Tipo Descrizione
application/json OpenAI.FineTuningJob

Codice di stato: impostazione predefinita

Descrizione: risposta di errore imprevista.

Tipo di contenuto Tipo Descrizione
application/json AzureErrorResponse

Elencare i processi di ottimizzazione impaginati

GET {endpoint}/openai/v1/fine_tuning/jobs

Elencare i processi di ottimizzazione dell'organizzazione

Parametri

Nome In Obbligatorio TIPO Descrzione
endpoint path corda
URL.
Endpoint OpenAI supportati di Azure (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure). https://{nome-risorsa}.openai.azure.com
versione-api query NO Versione esplicita dell'API Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
dopo query NO corda Identificatore dell'ultimo processo della richiesta di paginazione precedente.
limit query NO numero intero Numero di processi di ottimizzazione da recuperare.

Intestazione della richiesta

Usare l'autenticazione basata su token o la chiave API. L'autenticazione con l'autenticazione basata su token è consigliata e più sicura.

Nome Obbligatorio TIPO Descrzione
Autorizzazione Vero corda Esempio:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Per generare un token di autenticazione tramite l'interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
ambito: https://cognitiveservices.azure.com/.default
api-key Vero corda Fornire qui la chiave API di Azure OpenAI

Responses

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Tipo Descrizione
application/json OpenAI.ListPaginatedFineTuningJobsResponse

Codice di stato: impostazione predefinita

Descrizione: risposta di errore imprevista.

Tipo di contenuto Tipo Descrizione
application/json AzureErrorResponse

Recuperare il processo di ottimizzazione

GET {endpoint}/openai/v1/fine_tuning/jobs/{fine_tuning_job_id}

Ottenere informazioni su un processo di ottimizzazione.

Altre informazioni sull'ottimizzazione

Parametri

Nome In Obbligatorio TIPO Descrzione
endpoint path corda
URL.
Endpoint OpenAI supportati di Azure (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure). https://{nome-risorsa}.openai.azure.com
versione-api query NO Versione esplicita dell'API Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
id_lavoro_affinamento path corda ID del processo di ottimizzazione.

Intestazione della richiesta

Usare l'autenticazione basata su token o la chiave API. L'autenticazione con l'autenticazione basata su token è consigliata e più sicura.

Nome Obbligatorio TIPO Descrzione
Autorizzazione Vero corda Esempio:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Per generare un token di autenticazione tramite l'interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
ambito: https://cognitiveservices.azure.com/.default
api-key Vero corda Fornire qui la chiave API di Azure OpenAI

Responses

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Tipo Descrizione
application/json OpenAI.FineTuningJob

Codice di stato: impostazione predefinita

Descrizione: risposta di errore imprevista.

Tipo di contenuto Tipo Descrizione
application/json AzureErrorResponse

Annullare il processo di ottimizzazione

POST {endpoint}/openai/v1/fine_tuning/jobs/{fine_tuning_job_id}/cancel

Annullare immediatamente un processo di ottimizzazione.

Parametri

Nome In Obbligatorio TIPO Descrzione
endpoint path corda
URL.
Endpoint OpenAI supportati di Azure (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure). https://{nome-risorsa}.openai.azure.com
versione-api query NO Versione esplicita dell'API Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
id_lavoro_affinamento path corda ID del processo di ottimizzazione da annullare.

Intestazione della richiesta

Usare l'autenticazione basata su token o la chiave API. L'autenticazione con l'autenticazione basata su token è consigliata e più sicura.

Nome Obbligatorio TIPO Descrzione
Autorizzazione Vero corda Esempio:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Per generare un token di autenticazione tramite l'interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
ambito: https://cognitiveservices.azure.com/.default
api-key Vero corda Fornire qui la chiave API di Azure OpenAI

Responses

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Tipo Descrizione
application/json OpenAI.FineTuningJob

Codice di stato: impostazione predefinita

Descrizione: risposta di errore imprevista.

Tipo di contenuto Tipo Descrizione
application/json AzureErrorResponse

Elencare i checkpoint dei processi di ottimizzazione

GET {endpoint}/openai/v1/fine_tuning/jobs/{fine_tuning_job_id}/checkpoints

Elencare i checkpoint per un processo di ottimizzazione.

Parametri

Nome In Obbligatorio TIPO Descrzione
endpoint path corda
URL.
Endpoint OpenAI supportati di Azure (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure). https://{nome-risorsa}.openai.azure.com
versione-api query NO Versione esplicita dell'API Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
id_lavoro_affinamento path corda ID del processo di ottimizzazione per cui ottenere i checkpoint.
dopo query NO corda Identificatore dell'ultimo ID del checkpoint della richiesta di paginazione precedente.
limit query NO numero intero Numero di checkpoint da recuperare.

Intestazione della richiesta

Usare l'autenticazione basata su token o la chiave API. L'autenticazione con l'autenticazione basata su token è consigliata e più sicura.

Nome Obbligatorio TIPO Descrzione
Autorizzazione Vero corda Esempio:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Per generare un token di autenticazione tramite l'interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
ambito: https://cognitiveservices.azure.com/.default
api-key Vero corda Fornire qui la chiave API di Azure OpenAI

Responses

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Tipo Descrizione
application/json OpenAI.ListFineTuningJobCheckpointsResponse

Codice di stato: impostazione predefinita

Descrizione: risposta di errore imprevista.

Tipo di contenuto Tipo Descrizione
application/json AzureErrorResponse

Ottimizzazione- Copiare il checkpoint

POST {endpoint}/openai/v1/fine_tuning/jobs/{fine_tuning_job_id}/checkpoints/{fine_tuning_checkpoint_name}/copy

Crea una copia di un checkpoint di ottimizzazione nell'account e nell'area di destinazione specificati.

Annotazioni

Questa operazione OpenAI di Azure è in anteprima e soggetta a modifiche.

Parametri

Nome In Obbligatorio TIPO Descrzione
endpoint path corda
URL.
Endpoint OpenAI supportati di Azure (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure). https://{nome-risorsa}.openai.azure.com
versione-api query NO Versione esplicita dell'API Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
aoai-copy-ft-checkpoints intestazione corda
Valori possibili: preview
Consente l'accesso alle operazioni di copia del checkpoint per i modelli, una funzionalità di anteprima di AOAI.
Questa funzionalità richiede che l'intestazione "aoai-copy-ft-checkpoints" sia impostata su "preview".
accettare intestazione corda
Valori possibili: application/json
id_lavoro_affinamento path corda
fine_tuning_checkpoint_name path corda

Intestazione della richiesta

Usare l'autenticazione basata su token o la chiave API. L'autenticazione con l'autenticazione basata su token è consigliata e più sicura.

Nome Obbligatorio TIPO Descrzione
Autorizzazione Vero corda Esempio:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Per generare un token di autenticazione tramite l'interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
ambito: https://cognitiveservices.azure.com/.default
api-key Vero corda Fornire qui la chiave API di Azure OpenAI

Corpo della richiesta

Content-Type: application/json

Nome TIPO Descrzione Obbligatorio Default
destinationResourceId corda ID della risorsa di destinazione da copiare.
region corda Area in cui copiare il modello.

Responses

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Tipo Descrizione
application/json CopyModelResponse

Codice di stato: impostazione predefinita

Descrizione: risposta di errore imprevista.

Tipo di contenuto Tipo Descrizione
application/json AzureErrorResponse

Ottimizzazione- Recupero del checkpoint

GET {endpoint}/openai/v1/fine_tuning/jobs/{fine_tuning_job_id}/checkpoints/{fine_tuning_checkpoint_name}/copy

Ottiene lo stato di una copia del checkpoint di ottimizzazione.

Annotazioni

Questa operazione OpenAI di Azure è in anteprima e soggetta a modifiche.

Parametri

Nome In Obbligatorio TIPO Descrzione
endpoint path corda
URL.
Endpoint OpenAI supportati di Azure (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure). https://{nome-risorsa}.openai.azure.com
versione-api query NO Versione esplicita dell'API Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
aoai-copy-ft-checkpoints intestazione corda
Valori possibili: preview
Consente l'accesso alle operazioni di copia del checkpoint per i modelli, una funzionalità di anteprima di AOAI.
Questa funzionalità richiede che l'intestazione "aoai-copy-ft-checkpoints" sia impostata su "preview".
accettare intestazione corda
Valori possibili: application/json
id_lavoro_affinamento path corda
fine_tuning_checkpoint_name path corda

Intestazione della richiesta

Usare l'autenticazione basata su token o la chiave API. L'autenticazione con l'autenticazione basata su token è consigliata e più sicura.

Nome Obbligatorio TIPO Descrzione
Autorizzazione Vero corda Esempio:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Per generare un token di autenticazione tramite l'interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
ambito: https://cognitiveservices.azure.com/.default
api-key Vero corda Fornire qui la chiave API di Azure OpenAI

Responses

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Tipo Descrizione
application/json CopyModelResponse

Codice di stato: impostazione predefinita

Descrizione: risposta di errore imprevista.

Tipo di contenuto Tipo Descrizione
application/json AzureErrorResponse

Elencare gli eventi di ottimizzazione

GET {endpoint}/openai/v1/fine_tuning/jobs/{fine_tuning_job_id}/events

Ottenere gli aggiornamenti dello stato per un processo di ottimizzazione.

Parametri

Nome In Obbligatorio TIPO Descrzione
endpoint path corda
URL.
Endpoint OpenAI supportati di Azure (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure). https://{nome-risorsa}.openai.azure.com
versione-api query NO Versione esplicita dell'API Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
id_lavoro_affinamento path corda ID del processo di ottimizzazione per cui ottenere gli eventi.
dopo query NO corda Identificatore dell'ultimo evento della richiesta di paginazione precedente.
limit query NO numero intero Numero di eventi da recuperare.

Intestazione della richiesta

Usare l'autenticazione basata su token o la chiave API. L'autenticazione con l'autenticazione basata su token è consigliata e più sicura.

Nome Obbligatorio TIPO Descrzione
Autorizzazione Vero corda Esempio:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Per generare un token di autenticazione tramite l'interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
ambito: https://cognitiveservices.azure.com/.default
api-key Vero corda Fornire qui la chiave API di Azure OpenAI

Responses

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Tipo Descrizione
application/json OpenAI.ListFineTuningJobEventsResponse

Codice di stato: impostazione predefinita

Descrizione: risposta di errore imprevista.

Tipo di contenuto Tipo Descrizione
application/json AzureErrorResponse

Sospendere il processo di ottimizzazione

POST {endpoint}/openai/v1/fine_tuning/jobs/{fine_tuning_job_id}/pause

Sospendere un processo di ottimizzazione.

Parametri

Nome In Obbligatorio TIPO Descrzione
endpoint path corda
URL.
Endpoint OpenAI supportati di Azure (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure). https://{nome-risorsa}.openai.azure.com
versione-api query NO Versione esplicita dell'API Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
id_lavoro_affinamento path corda ID del processo di ottimizzazione da sospendere.

Intestazione della richiesta

Usare l'autenticazione basata su token o la chiave API. L'autenticazione con l'autenticazione basata su token è consigliata e più sicura.

Nome Obbligatorio TIPO Descrzione
Autorizzazione Vero corda Esempio:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Per generare un token di autenticazione tramite l'interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
ambito: https://cognitiveservices.azure.com/.default
api-key Vero corda Fornire qui la chiave API di Azure OpenAI

Responses

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Tipo Descrizione
application/json OpenAI.FineTuningJob

Codice di stato: impostazione predefinita

Descrizione: risposta di errore imprevista.

Tipo di contenuto Tipo Descrizione
application/json AzureErrorResponse

Riprendere il processo di ottimizzazione

POST {endpoint}/openai/v1/fine_tuning/jobs/{fine_tuning_job_id}/resume

Riprendere un processo di ottimizzazione sospeso.

Parametri

Nome In Obbligatorio TIPO Descrzione
endpoint path corda
URL.
Endpoint OpenAI supportati di Azure (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure). https://{nome-risorsa}.openai.azure.com
versione-api query NO Versione esplicita dell'API Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
id_lavoro_affinamento path corda ID del processo di ottimizzazione da riprendere.

Intestazione della richiesta

Usare l'autenticazione basata su token o la chiave API. L'autenticazione con l'autenticazione basata su token è consigliata e più sicura.

Nome Obbligatorio TIPO Descrzione
Autorizzazione Vero corda Esempio:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Per generare un token di autenticazione tramite l'interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
ambito: https://cognitiveservices.azure.com/.default
api-key Vero corda Fornire qui la chiave API di Azure OpenAI

Responses

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Tipo Descrizione
application/json OpenAI.FineTuningJob

Codice di stato: impostazione predefinita

Descrizione: risposta di errore imprevista.

Tipo di contenuto Tipo Descrizione
application/json AzureErrorResponse

Ottenere l'elenco dei modelli

GET {endpoint}/openai/v1/models

Elenca i modelli attualmente disponibili e fornisce informazioni di base su ognuno di essi, ad esempio il proprietario e la disponibilità.

Parametri

Nome In Obbligatorio TIPO Descrzione
endpoint path corda
URL.
Endpoint OpenAI supportati di Azure (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure). https://{nome-risorsa}.openai.azure.com
versione-api query NO Versione esplicita dell'API Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.

Intestazione della richiesta

Usare l'autenticazione basata su token o la chiave API. L'autenticazione con l'autenticazione basata su token è consigliata e più sicura.

Nome Obbligatorio TIPO Descrzione
Autorizzazione Vero corda Esempio:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Per generare un token di autenticazione tramite l'interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
ambito: https://cognitiveservices.azure.com/.default
api-key Vero corda Fornire qui la chiave API di Azure OpenAI

Responses

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Tipo Descrizione
application/json OpenAI.ListModelsResponse

Codice di stato: impostazione predefinita

Descrizione: risposta di errore imprevista.

Tipo di contenuto Tipo Descrizione
application/json AzureErrorResponse

Recuperare il modello

GET {endpoint}/openai/v1/models/{model}

Recupera un'istanza del modello, fornendo informazioni di base sul modello, ad esempio il proprietario e le autorizzazioni.

Parametri

Nome In Obbligatorio TIPO Descrzione
endpoint path corda
URL.
Endpoint OpenAI supportati di Azure (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure). https://{nome-risorsa}.openai.azure.com
versione-api query NO Versione esplicita dell'API Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
model path corda ID del modello da utilizzare per questa richiesta.

Intestazione della richiesta

Usare l'autenticazione basata su token o la chiave API. L'autenticazione con l'autenticazione basata su token è consigliata e più sicura.

Nome Obbligatorio TIPO Descrzione
Autorizzazione Vero corda Esempio:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Per generare un token di autenticazione tramite l'interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
ambito: https://cognitiveservices.azure.com/.default
api-key Vero corda Fornire qui la chiave API di Azure OpenAI

Responses

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Tipo Descrizione
application/json OpenAI.Model

Codice di stato: impostazione predefinita

Descrizione: risposta di errore imprevista.

Tipo di contenuto Tipo Descrizione
application/json AzureErrorResponse

Creare una risposta

POST {endpoint}/openai/v1/responses

Crea una risposta del modello.

Parametri

Nome In Obbligatorio TIPO Descrzione
endpoint path corda
URL.
Endpoint OpenAI supportati di Azure (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure). https://{nome-risorsa}.openai.azure.com
versione-api query NO Versione esplicita dell'API Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.

Intestazione della richiesta

Usare l'autenticazione basata su token o la chiave API. L'autenticazione con l'autenticazione basata su token è consigliata e più sicura.

Nome Obbligatorio TIPO Descrzione
Autorizzazione Vero corda Esempio:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Per generare un token di autenticazione tramite l'interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
ambito: https://cognitiveservices.azure.com/.default
api-key Vero corda Fornire qui la chiave API di Azure OpenAI

Corpo della richiesta

Content-Type: application/json

Nome TIPO Descrzione Obbligatorio Default
sfondo boolean Indica se eseguire la risposta del modello in background.
Ulteriori informazioni.
NO Falso
includi array Specificare dati di output aggiuntivi da includere nella risposta del modello. Attualmente
i valori supportati sono:
- code_interpreter_call.outputs: include gli output dell'esecuzione del codice Python
negli elementi di chiamata dello strumento dell'interprete di codice.
- computer_call_output.output.image_url: includere gli URL delle immagini provenienti dall'output della chiamata computer.
- file_search_call.results: includere i risultati della ricerca di
richiesta allo strumento di ricerca dei file.
- message.input_image.image_url: includere gli URL dell'immagine dal messaggio di input.
- message.output_text.logprobs: includere logprob con messaggi di assistente.
- reasoning.encrypted_content: include una versione crittografata del motivo
token nell'output dell'elemento di ragionamento. In questo modo è possibile utilizzare gli elementi di ragionamento in
conversazioni a più turni quando si usa l'API Risposte senza stato (ad esempio
quando il store parametro è impostato su false o quando un'organizzazione è
registrato nel programma a conservazione dati nulla.
NO
ingresso stringa o matrice NO
instructions corda Messaggio di sistema (o sviluppatore) inserito nel contesto del modello.

Quando si utilizza insieme a previous_response_id, le istruzioni della fase precedente
la risposta non verrà portata alla risposta successiva. In questo modo è semplice
per sostituire i messaggi di sistema (o sviluppatore) nelle nuove risposte.
NO
max_output_tokens numero intero Limite superiore per il numero di token che possono essere generati per una risposta, inclusi i token di output visibili e i token di ragionamento. NO
max_tool_calls numero intero Numero massimo di chiamate totali agli strumenti predefiniti che possono essere elaborati in una risposta. Questo numero massimo si applica a tutte le chiamate di strumenti predefinite, non a ogni singolo strumento. Eventuali altri tentativi di chiamare uno strumento da parte del modello verranno ignorati. NO
metadata oggetto Set di 16 coppie chiave-valore che possono essere collegate a un oggetto. Può trattarsi di
utile per archiviare informazioni aggiuntive sull'oggetto in un oggetto strutturato
formattare ed eseguire query per gli oggetti tramite l'API o il dashboard.

Le chiavi sono stringhe con una lunghezza massima di 64 caratteri. I valori sono stringhe
con una lunghezza massima di 512 caratteri.
NO
model corda Il modello di distribuzione da utilizzare per la creazione di questa risposta.
chiamate_parallele_agli_strumenti boolean Indica se consentire al modello di eseguire chiamate degli strumenti in parallelo. NO Vero
previous_response_id corda ID univoco della risposta precedente al modello. Usare questa opzione per
creare conversazioni a più turni.
NO
prompt oggetto Riferimento a un modello di richiesta e alle relative variabili.
NO
└* id corda Identificatore univoco del modello di richiesta da utilizzare. NO
** └─ Variabili OpenAI.ResponsePromptVariables Mappa facoltativa di valori da sostituire con le variabili nella
richiesta. I valori di sostituzione possono essere stringhe o altri
Tipi di input di risposta come immagini o file.
NO
└─ versione corda Versione facoltativa del modello di richiesta. NO
reasoning oggetto solo modelli di ragionamento

Opzioni di configurazione per
modelli di ragionamento.
NO
└* sforzo Sforzo di Ragionamento OpenAI solo modelli di ragionamento

Vincola lo sforzo sul ragionamento per
modelli di ragionamento.
I valori attualmente supportati sono low, medium e high. Ridurre
l'impegno di ragionamento può comportare risposte più veloci e meno token usati
sul ragionamento in una risposta.
NO
└─ genera_sommario enum Deprecato: usare summary invece.

Riepilogo del ragionamento eseguito dal modello. Può trattarsi di
utile per eseguire il debug e comprendere il processo di ragionamento del modello.
Uno tra auto, concise e detailed.
Valori possibili: auto, concise, detailed
NO
└─ Riepilogo enum Riepilogo del ragionamento eseguito dal modello. Può trattarsi di
utile per eseguire il debug e comprendere il processo di ragionamento del modello.
Uno tra auto, concise e detailed.
Valori possibili: auto, concise, detailed
NO
store boolean Indica se archiviare la risposta del modello generata per il recupero successivo tramite
API.
NO Vero
torrente boolean Se impostato su true, i dati di risposta del modello verranno trasmessi al client
generato tramite eventi inviati dal server.
Vedere la sezione Streaming di seguito
per altre informazioni.
NO Falso
temperatura numero Temperatura di campionamento da usare, compresa tra 0 e 2. Valori più elevati come 0.8 renderanno l'output più casuale, mentre valori più bassi come 0.2 lo renderanno più mirato e deterministico.
In genere si consiglia di modificare questo valore o top_p ma non entrambi.
NO 1
Testo oggetto Opzioni di configurazione per una risposta di testo dal modello. Possono essere
dati JSON strutturati o semplice testo. Altre informazioni: Output strutturati
NO
└* formato OpenAI.ResponseTextFormatConfiguration NO
tool_choice oggetto Controlla quale strumento (se presente) viene chiamato dal modello.

none indica che il modello non chiamerà alcuno strumento e genera invece un messaggio.

auto indica che il modello può scegliere tra la generazione di un messaggio o la chiamata di uno o
più strumenti

required indica che il modello deve chiamare uno o più strumenti.
NO
└─ Tipo OpenAI.ToolChoiceObjectType Indica che il modello deve usare uno strumento predefinito per generare una risposta. NO
strumenti array Una matrice di strumenti che il modello può chiamare durante la generazione di una risposta. Tu
può specificare quale strumento usare impostando il tool_choice parametro .

Le due categorie di strumenti che è possibile fornire al modello sono:

- Strumenti integrati: strumenti forniti da OpenAI che estendono
funzionalità del modello, ad esempio la ricerca di file.
- Chiamate di funzione (strumenti personalizzati): funzioni definite dall'utente,
abilitazione del modello a chiamare il proprio codice.
NO
top_logprobs numero intero Un numero intero compreso tra 0 e 20 che specifica il numero di token più probabili da restituire in ogni posizione del token, ognuno con una probabilità di log associata. NO
top_p numero Un'alternativa al campionamento con temperatura, denominata campionamento nucleo,
dove il modello considera i risultati dei token con probabilità top_p
massa. Quindi 0,1 significa solo i token che comprendono il 10% superiore della massa di probabilità%
sono considerati.

In genere si consiglia di modificare questo valore o temperature ma non entrambi.
NO 1
truncation enum Strategia di troncamento da usare per la risposta del modello.
- auto: se il contesto di questa risposta e quelli precedenti supera
la dimensione della finestra di contesto del modello, il modello troncherà la
risposta per adattare la finestra di contesto eliminando gli elementi di input nel
nel mezzo della conversazione
- disabled (impostazione predefinita): se una risposta del modello supera la finestra di contesto
dimensione per un modello, la richiesta fallirà con un errore 400.
Valori possibili: auto, disabled
NO
utente corda Identificatore univoco che rappresenta l'utente finale, che consente a OpenAI di monitorare e rilevare gli abusi. NO

Responses

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Tipo Descrizione
application/json AzureResponse
text/event-stream OpenAI.ResponseStreamEvent

Codice di stato: impostazione predefinita

Descrizione: risposta di errore imprevista.

Tipo di contenuto Tipo Descrizione
application/json AzureErrorResponse

Esempi

Example

Creare una risposta al modello

POST {endpoint}/openai/v1/responses

Ottenere la risposta

GET {endpoint}/openai/v1/responses/{response_id}

Recupera una risposta del modello con l'ID specificato.

Parametri

Nome In Obbligatorio TIPO Descrzione
endpoint path corda
URL.
Endpoint OpenAI supportati di Azure (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure). https://{nome-risorsa}.openai.azure.com
versione-api query NO Versione esplicita dell'API Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
response_id path corda
include_obfuscation query NO boolean Se true, l'offuscamento del flusso verrà abilitato. L'offuscamento del flusso aggiunge caratteri casuali a un campo obfuscation sugli eventi delta di streaming per normalizzare le dimensioni del payload come mitigazione di determinati attacchi sul canale laterale. Questi campi offuscamento sono inclusi per impostazione predefinita, ma aggiungono una piccola quantità di overhead al flusso di dati. È possibile impostare include_obfuscation su false per ottimizzare la larghezza di banda se si considera attendibile i collegamenti di rete tra l'applicazione e l'API OpenAI.
include[] query NO array

Intestazione della richiesta

Usare l'autenticazione basata su token o la chiave API. L'autenticazione con l'autenticazione basata su token è consigliata e più sicura.

Nome Obbligatorio TIPO Descrzione
Autorizzazione Vero corda Esempio:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Per generare un token di autenticazione tramite l'interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
ambito: https://cognitiveservices.azure.com/.default
api-key Vero corda Fornire qui la chiave API di Azure OpenAI

Responses

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Tipo Descrizione
application/json AzureResponse

Codice di stato: impostazione predefinita

Descrizione: risposta di errore imprevista.

Tipo di contenuto Tipo Descrizione
application/json AzureErrorResponse

Eliminare la risposta

DELETE {endpoint}/openai/v1/responses/{response_id}

Elimina una risposta in base all'ID.

Parametri

Nome In Obbligatorio TIPO Descrzione
endpoint path corda
URL.
Endpoint OpenAI supportati di Azure (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure). https://{nome-risorsa}.openai.azure.com
versione-api query NO Versione esplicita dell'API Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
response_id path corda

Intestazione della richiesta

Usare l'autenticazione basata su token o la chiave API. L'autenticazione con l'autenticazione basata su token è consigliata e più sicura.

Nome Obbligatorio TIPO Descrzione
Autorizzazione Vero corda Esempio:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Per generare un token di autenticazione tramite l'interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
ambito: https://cognitiveservices.azure.com/.default
api-key Vero corda Fornire qui la chiave API di Azure OpenAI

Responses

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Tipo Descrizione
application/json oggetto

Codice di stato: impostazione predefinita

Descrizione: risposta di errore imprevista.

Tipo di contenuto Tipo Descrizione
application/json AzureErrorResponse

Elencare gli elementi di input

GET {endpoint}/openai/v1/responses/{response_id}/input_items

Restituisce un elenco di elementi di input per una determinata risposta.

Parametri

Nome In Obbligatorio TIPO Descrzione
endpoint path corda
URL.
Endpoint OpenAI supportati di Azure (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure). https://{nome-risorsa}.openai.azure.com
versione-api query NO Versione esplicita dell'API Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
response_id path corda
limit query NO numero intero Limite al numero di oggetti da restituire. Il limite può variare tra 1 e 100 e
il valore predefinito è 20.
order query NO corda
Valori possibili: asc, desc
Ordinare l'ordinamento in base al created_at timestamp degli oggetti. asc per l'ordine crescente edesc
per ordine decrescente.
dopo query NO corda Cursore da usare nell'impaginazione. after è un ID oggetto che definisce la posizione nell'elenco.
Ad esempio, se si effettua una richiesta di elenco e si ricevono 100 oggetti, terminando con obj_foo, allora il
La chiamata successiva può contenere after=obj_foo per ottenere la pagina successiva dell'elenco.
before query NO corda Cursore da usare nell'impaginazione. before è un ID oggetto che definisce la posizione nell'elenco.
Ad esempio, se si effettua una richiesta di elenco e si ricevono 100 oggetti, terminando con obj_foo, allora il
la chiamata successiva può includere before=obj_foo per recuperare la pagina precedente dell'elenco.

Intestazione della richiesta

Usare l'autenticazione basata su token o la chiave API. L'autenticazione con l'autenticazione basata su token è consigliata e più sicura.

Nome Obbligatorio TIPO Descrzione
Autorizzazione Vero corda Esempio:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Per generare un token di autenticazione tramite l'interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
ambito: https://cognitiveservices.azure.com/.default
api-key Vero corda Fornire qui la chiave API di Azure OpenAI

Responses

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Tipo Descrizione
application/json OpenAI.ResponseItemList

Codice di stato: impostazione predefinita

Descrizione: risposta di errore imprevista.

Tipo di contenuto Tipo Descrizione
application/json AzureErrorResponse

Elencare archivi vettoriali

GET {endpoint}/openai/v1/vector_stores

Restituisce un elenco di archivi vettoriali.

Parametri

Nome In Obbligatorio TIPO Descrzione
endpoint path corda
URL.
Endpoint OpenAI supportati di Azure (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure). https://{nome-risorsa}.openai.azure.com
versione-api query NO Versione esplicita dell'API Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
limit query NO numero intero Limite al numero di oggetti da restituire. Il limite può variare tra 1 e 100 e
il valore predefinito è 20.
order query NO corda
Valori possibili: asc, desc
Ordinare l'ordinamento in base al created_at timestamp degli oggetti. asc per l'ordine crescente edesc
per ordine decrescente.
dopo query NO corda Cursore da usare nell'impaginazione. after è un ID oggetto che definisce la posizione nell'elenco.
Ad esempio, se si effettua una richiesta di elenco e si ricevono 100 oggetti, terminando con obj_foo, allora il
La chiamata successiva può contenere after=obj_foo per ottenere la pagina successiva dell'elenco.
before query NO corda Cursore da usare nell'impaginazione. before è un ID oggetto che definisce la posizione nell'elenco.
Ad esempio, se si effettua una richiesta di elenco e si ricevono 100 oggetti, terminando con obj_foo, allora il
la chiamata successiva può includere before=obj_foo per recuperare la pagina precedente dell'elenco.

Intestazione della richiesta

Usare l'autenticazione basata su token o la chiave API. L'autenticazione con l'autenticazione basata su token è consigliata e più sicura.

Nome Obbligatorio TIPO Descrzione
Autorizzazione Vero corda Esempio:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Per generare un token di autenticazione tramite l'interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
ambito: https://cognitiveservices.azure.com/.default
api-key Vero corda Fornire qui la chiave API di Azure OpenAI

Responses

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Tipo Descrizione
application/json OpenAI.ListVectorStoresResponse

Codice di stato: impostazione predefinita

Descrizione: risposta di errore imprevista.

Tipo di contenuto Tipo Descrizione
application/json AzureErrorResponse

Createvectorstore

POST {endpoint}/openai/v1/vector_stores

Crea un archivio vettoriale.

Parametri

Nome In Obbligatorio TIPO Descrzione
endpoint path corda
URL.
Endpoint OpenAI supportati di Azure (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure). https://{nome-risorsa}.openai.azure.com
versione-api query NO Versione esplicita dell'API Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.

Intestazione della richiesta

Usare l'autenticazione basata su token o la chiave API. L'autenticazione con l'autenticazione basata su token è consigliata e più sicura.

Nome Obbligatorio TIPO Descrzione
Autorizzazione Vero corda Esempio:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Per generare un token di autenticazione tramite l'interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
ambito: https://cognitiveservices.azure.com/.default
api-key Vero corda Fornire qui la chiave API di Azure OpenAI

Corpo della richiesta

Content-Type: application/json

Nome TIPO Descrzione Obbligatorio Default
chunking_strategy oggetto Strategia predefinita. Attualmente, questa strategia usa un max_chunk_size_tokens di 800 e chunk_overlap_tokens di 400. NO
└─ statico OpenAI.StaticChunkingStrategy NO
└─ Tipo enum Sempre static.
Valori possibili: static
NO
scade dopo OpenAI.VectorStoreExpirationAfter I criteri di scadenza per un archivio vettoriale. NO
identificatori_di_file array Elenco di ID file che devono essere usati dall'archivio vettoriale. Utile per strumenti come file_search che possono accedere ai file. NO
metadata oggetto Set di 16 coppie chiave-valore che possono essere collegate a un oggetto. Può trattarsi di
utile per archiviare informazioni aggiuntive sull'oggetto in un oggetto strutturato
formattare ed eseguire query per gli oggetti tramite l'API o il dashboard.

Le chiavi sono stringhe con una lunghezza massima di 64 caratteri. I valori sono stringhe
con una lunghezza massima di 512 caratteri.
NO
nome corda Il nome dell’archivio vettoriale. NO

Responses

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Tipo Descrizione
application/json OpenAI.VectorStoreObject

Codice di stato: impostazione predefinita

Descrizione: risposta di errore imprevista.

Tipo di contenuto Tipo Descrizione
application/json AzureErrorResponse

Esempi

File di esempio non trovato: ./examples/vector_stores.json

Ottieni - Archivio vettoriale

GET {endpoint}/openai/v1/vector_stores/{vector_store_id}

Recupera un archivio vettoriale.

Parametri

Nome In Obbligatorio TIPO Descrzione
endpoint path corda
URL.
Endpoint OpenAI supportati di Azure (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure). https://{nome-risorsa}.openai.azure.com
versione-api query NO Versione esplicita dell'API Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
ID del negozio vettoriale path corda ID dell'archivio vettoriale da recuperare.

Intestazione della richiesta

Usare l'autenticazione basata su token o la chiave API. L'autenticazione con l'autenticazione basata su token è consigliata e più sicura.

Nome Obbligatorio TIPO Descrzione
Autorizzazione Vero corda Esempio:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Per generare un token di autenticazione tramite l'interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
ambito: https://cognitiveservices.azure.com/.default
api-key Vero corda Fornire qui la chiave API di Azure OpenAI

Responses

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Tipo Descrizione
application/json OpenAI.VectorStoreObject

Codice di stato: impostazione predefinita

Descrizione: risposta di errore imprevista.

Tipo di contenuto Tipo Descrizione
application/json AzureErrorResponse

Modificare l'archivio vettoriale

POST {endpoint}/openai/v1/vector_stores/{vector_store_id}

Modifica un archivio vettoriale.

Parametri

Nome In Obbligatorio TIPO Descrzione
endpoint path corda
URL.
Endpoint OpenAI supportati di Azure (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure). https://{nome-risorsa}.openai.azure.com
versione-api query NO Versione esplicita dell'API Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
ID del negozio vettoriale path corda ID dell'archivio vettoriale da modificare.

Intestazione della richiesta

Usare l'autenticazione basata su token o la chiave API. L'autenticazione con l'autenticazione basata su token è consigliata e più sicura.

Nome Obbligatorio TIPO Descrzione
Autorizzazione Vero corda Esempio:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Per generare un token di autenticazione tramite l'interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
ambito: https://cognitiveservices.azure.com/.default
api-key Vero corda Fornire qui la chiave API di Azure OpenAI

Corpo della richiesta

Content-Type: application/json

Nome TIPO Descrzione Obbligatorio Default
scade dopo oggetto I criteri di scadenza per un archivio vettoriale. NO
Ancoraggio └* enum Timestamp di ancoraggio dopo il quale si applicano i criteri di scadenza. Ancoraggi supportati: last_active_at.
Valori possibili: last_active_at
NO
└* giorni numero intero Numero di giorni dopo l'ora di ancoraggio in cui scadrà l'archivio vettoriale. NO
metadata oggetto Set di 16 coppie chiave-valore che possono essere collegate a un oggetto. Può trattarsi di
utile per archiviare informazioni aggiuntive sull'oggetto in un oggetto strutturato
formattare ed eseguire query per gli oggetti tramite l'API o il dashboard.

Le chiavi sono stringhe con una lunghezza massima di 64 caratteri. I valori sono stringhe
con una lunghezza massima di 512 caratteri.
NO
nome corda Il nome dell’archivio vettoriale. NO

Responses

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Tipo Descrizione
application/json OpenAI.VectorStoreObject

Codice di stato: impostazione predefinita

Descrizione: risposta di errore imprevista.

Tipo di contenuto Tipo Descrizione
application/json AzureErrorResponse

Elimina archivio vettoriale

DELETE {endpoint}/openai/v1/vector_stores/{vector_store_id}

Elimina un archivio vettoriale.

Parametri

Nome In Obbligatorio TIPO Descrzione
endpoint path corda
URL.
Endpoint OpenAI supportati di Azure (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure). https://{nome-risorsa}.openai.azure.com
versione-api query NO Versione esplicita dell'API Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
ID del negozio vettoriale path corda ID dell'archivio vettoriale da eliminare.

Intestazione della richiesta

Usare l'autenticazione basata su token o la chiave API. L'autenticazione con l'autenticazione basata su token è consigliata e più sicura.

Nome Obbligatorio TIPO Descrzione
Autorizzazione Vero corda Esempio:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Per generare un token di autenticazione tramite l'interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
ambito: https://cognitiveservices.azure.com/.default
api-key Vero corda Fornire qui la chiave API di Azure OpenAI

Responses

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Tipo Descrizione
application/json OpenAI.DeleteVectorStoreResponse

Codice di stato: impostazione predefinita

Descrizione: risposta di errore imprevista.

Tipo di contenuto Tipo Descrizione
application/json AzureErrorResponse

Crea - Batch file archivio vettoriale

POST {endpoint}/openai/v1/vector_stores/{vector_store_id}/file_batches

Crea una batch di file dell’archivio vettoriale.

Parametri

Nome In Obbligatorio TIPO Descrzione
endpoint path corda
URL.
Endpoint OpenAI supportati di Azure (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure). https://{nome-risorsa}.openai.azure.com
versione-api query NO Versione esplicita dell'API Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
ID del negozio vettoriale path corda ID dell'archivio vettoriale per il quale creare un batch di file.

Intestazione della richiesta

Usare l'autenticazione basata su token o la chiave API. L'autenticazione con l'autenticazione basata su token è consigliata e più sicura.

Nome Obbligatorio TIPO Descrzione
Autorizzazione Vero corda Esempio:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Per generare un token di autenticazione tramite l'interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
ambito: https://cognitiveservices.azure.com/.default
api-key Vero corda Fornire qui la chiave API di Azure OpenAI

Corpo della richiesta

Content-Type: application/json

Nome TIPO Descrzione Obbligatorio Default
attributes oggetto Set di 16 coppie chiave-valore che possono essere collegate a un oggetto. Può trattarsi di
utile per archiviare informazioni aggiuntive sull'oggetto in un oggetto strutturato
formattare ed eseguire query per gli oggetti tramite l'API o il dashboard. Le chiavi sono stringhe
con una lunghezza massima di 64 caratteri. I valori sono stringhe con una lunghezza massima
lunghezza di 512 caratteri, booleani o numeri.
NO
chunking_strategy OpenAI.ChunkingStrategyRequestParam Strategia di suddivisione in blocchi usata per suddividere i file. Se non impostato, userà la strategia di auto. NO
identificatori_di_file array Elenco di ID file che devono essere usati dall'archivio vettoriale. Utile per strumenti come file_search che possono accedere ai file.

Responses

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Tipo Descrizione
application/json OpenAI.VectorStoreFileBatchObject

Codice di stato: impostazione predefinita

Descrizione: risposta di errore imprevista.

Tipo di contenuto Tipo Descrizione
application/json AzureErrorResponse

Ottieni il batch di file dell'archivio vettoriale

GET {endpoint}/openai/v1/vector_stores/{vector_store_id}/file_batches/{batch_id}

Recupera un batch di file dell’archivio vettoriale.

Parametri

Nome In Obbligatorio TIPO Descrzione
endpoint path corda
URL.
Endpoint OpenAI supportati di Azure (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure). https://{nome-risorsa}.openai.azure.com
versione-api query NO Versione esplicita dell'API Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
ID del negozio vettoriale path corda ID dell'archivio vettoriale a cui appartiene il batch di file.
batch_id path corda ID del batch di file in fase di recupero.

Intestazione della richiesta

Usare l'autenticazione basata su token o la chiave API. L'autenticazione con l'autenticazione basata su token è consigliata e più sicura.

Nome Obbligatorio TIPO Descrzione
Autorizzazione Vero corda Esempio:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Per generare un token di autenticazione tramite l'interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
ambito: https://cognitiveservices.azure.com/.default
api-key Vero corda Fornire qui la chiave API di Azure OpenAI

Responses

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Tipo Descrizione
application/json OpenAI.VectorStoreFileBatchObject

Codice di stato: impostazione predefinita

Descrizione: risposta di errore imprevista.

Tipo di contenuto Tipo Descrizione
application/json AzureErrorResponse

Annulla il batch file dell'archivio vettoriale

POST {endpoint}/openai/v1/vector_stores/{vector_store_id}/file_batches/{batch_id}/cancel

Annulla un batch di file dell’archivio vettoriale. In questo modo si tenta di annullare il prima possibile l'elaborazione dei file in questo batch.

Parametri

Nome In Obbligatorio TIPO Descrzione
endpoint path corda
URL.
Endpoint OpenAI supportati di Azure (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure). https://{nome-risorsa}.openai.azure.com
versione-api query NO Versione esplicita dell'API Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
ID del negozio vettoriale path corda ID dell'archivio vettoriale a cui appartiene il batch di file.
batch_id path corda ID del lotto di file da annullare.

Intestazione della richiesta

Usare l'autenticazione basata su token o la chiave API. L'autenticazione con l'autenticazione basata su token è consigliata e più sicura.

Nome Obbligatorio TIPO Descrzione
Autorizzazione Vero corda Esempio:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Per generare un token di autenticazione tramite l'interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
ambito: https://cognitiveservices.azure.com/.default
api-key Vero corda Fornire qui la chiave API di Azure OpenAI

Responses

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Tipo Descrizione
application/json OpenAI.VectorStoreFileBatchObject

Codice di stato: impostazione predefinita

Descrizione: risposta di errore imprevista.

Tipo di contenuto Tipo Descrizione
application/json AzureErrorResponse

Elencare i file nel batch dell'archivio vettoriale

GET {endpoint}/openai/v1/vector_stores/{vector_store_id}/file_batches/{batch_id}/files

Restituisce un elenco di file dell’archivio di vettori in un batch.

Parametri

Nome In Obbligatorio TIPO Descrzione
endpoint path corda
URL.
Endpoint OpenAI supportati di Azure (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure). https://{nome-risorsa}.openai.azure.com
versione-api query NO Versione esplicita dell'API Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
ID del negozio vettoriale path corda ID dell'archivio vettoriale a cui appartiene il batch di file.
batch_id path corda ID del batch di file a cui appartengono i file.
limit query NO numero intero Limite al numero di oggetti da restituire. Il limite può variare tra 1 e 100 e
il valore predefinito è 20.
order query NO corda
Valori possibili: asc, desc
Ordinare l'ordinamento in base al created_at timestamp degli oggetti. asc per l'ordine crescente edesc
per ordine decrescente.
dopo query NO corda Cursore da usare nell'impaginazione. after è un ID oggetto che definisce la posizione nell'elenco.
Ad esempio, se si effettua una richiesta di elenco e si ricevono 100 oggetti, terminando con obj_foo, allora il
La chiamata successiva può contenere after=obj_foo per ottenere la pagina successiva dell'elenco.
before query NO corda Cursore da usare nell'impaginazione. before è un ID oggetto che definisce la posizione nell'elenco.
Ad esempio, se si effettua una richiesta di elenco e si ricevono 100 oggetti, terminando con obj_foo, allora il
la chiamata successiva può includere before=obj_foo per recuperare la pagina precedente dell'elenco.
filtro query NO Filtrare in base allo stato del file. Uno di in_progress, completed, failed, cancelled.

Intestazione della richiesta

Usare l'autenticazione basata su token o la chiave API. L'autenticazione con l'autenticazione basata su token è consigliata e più sicura.

Nome Obbligatorio TIPO Descrzione
Autorizzazione Vero corda Esempio:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Per generare un token di autenticazione tramite l'interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
ambito: https://cognitiveservices.azure.com/.default
api-key Vero corda Fornire qui la chiave API di Azure OpenAI

Responses

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Tipo Descrizione
application/json OpenAI.ListVectorStoreFilesResponse

Codice di stato: impostazione predefinita

Descrizione: risposta di errore imprevista.

Tipo di contenuto Tipo Descrizione
application/json AzureErrorResponse

Elenca - File dell’archivio di vettori

GET {endpoint}/openai/v1/vector_stores/{vector_store_id}/files

Restituisce un elenco di file dell’archivio di vettori.

Parametri

Nome In Obbligatorio TIPO Descrzione
endpoint path corda
URL.
Endpoint OpenAI supportati di Azure (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure). https://{nome-risorsa}.openai.azure.com
versione-api query NO Versione esplicita dell'API Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
ID del negozio vettoriale path corda ID dell'archivio vettoriale a cui appartengono i file.
limit query NO numero intero Limite al numero di oggetti da restituire. Il limite può variare tra 1 e 100 e
il valore predefinito è 20.
order query NO corda
Valori possibili: asc, desc
Ordinare l'ordinamento in base al created_at timestamp degli oggetti. asc per l'ordine crescente edesc
per ordine decrescente.
dopo query NO corda Cursore da usare nell'impaginazione. after è un ID oggetto che definisce la posizione nell'elenco.
Ad esempio, se si effettua una richiesta di elenco e si ricevono 100 oggetti, terminando con obj_foo, allora il
La chiamata successiva può contenere after=obj_foo per ottenere la pagina successiva dell'elenco.
before query NO corda Cursore da usare nell'impaginazione. before è un ID oggetto che definisce la posizione nell'elenco.
Ad esempio, se si effettua una richiesta di elenco e si ricevono 100 oggetti, terminando con obj_foo, allora il
la chiamata successiva può includere before=obj_foo per recuperare la pagina precedente dell'elenco.
filtro query NO Filtrare in base allo stato del file. Uno di in_progress, completed, failed, cancelled.

Intestazione della richiesta

Usare l'autenticazione basata su token o la chiave API. L'autenticazione con l'autenticazione basata su token è consigliata e più sicura.

Nome Obbligatorio TIPO Descrzione
Autorizzazione Vero corda Esempio:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Per generare un token di autenticazione tramite l'interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
ambito: https://cognitiveservices.azure.com/.default
api-key Vero corda Fornire qui la chiave API di Azure OpenAI

Responses

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Tipo Descrizione
application/json OpenAI.ListVectorStoreFilesResponse

Codice di stato: impostazione predefinita

Descrizione: risposta di errore imprevista.

Tipo di contenuto Tipo Descrizione
application/json AzureErrorResponse

Crea - File archivio vettoriale

POST {endpoint}/openai/v1/vector_stores/{vector_store_id}/files

Creare un file dell'archivio vettoriale allegando un file a un archivio vettoriale.

Parametri

Nome In Obbligatorio TIPO Descrzione
endpoint path corda
URL.
Endpoint OpenAI supportati di Azure (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure). https://{nome-risorsa}.openai.azure.com
versione-api query NO Versione esplicita dell'API Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
ID del negozio vettoriale path corda ID dell'archivio vettoriale per il quale creare un file.

Intestazione della richiesta

Usare l'autenticazione basata su token o la chiave API. L'autenticazione con l'autenticazione basata su token è consigliata e più sicura.

Nome Obbligatorio TIPO Descrzione
Autorizzazione Vero corda Esempio:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Per generare un token di autenticazione tramite l'interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
ambito: https://cognitiveservices.azure.com/.default
api-key Vero corda Fornire qui la chiave API di Azure OpenAI

Corpo della richiesta

Content-Type: application/json

Nome TIPO Descrzione Obbligatorio Default
attributes oggetto Set di 16 coppie chiave-valore che possono essere collegate a un oggetto. Può trattarsi di
utile per archiviare informazioni aggiuntive sull'oggetto in un oggetto strutturato
formattare ed eseguire query per gli oggetti tramite l'API o il dashboard. Le chiavi sono stringhe
con una lunghezza massima di 64 caratteri. I valori sono stringhe con una lunghezza massima
lunghezza di 512 caratteri, booleani o numeri.
NO
chunking_strategy OpenAI.ChunkingStrategyRequestParam Strategia di suddivisione in blocchi usata per suddividere i file. Se non impostato, userà la strategia di auto. NO
ID del file corda Un ID file che deve essere usato dall'archivio vettoriale. Utile per strumenti come file_search che possono accedere ai file.

Responses

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Tipo Descrizione
application/json OpenAI.VectorStoreFileObject

Codice di stato: impostazione predefinita

Descrizione: risposta di errore imprevista.

Tipo di contenuto Tipo Descrizione
application/json AzureErrorResponse

Ottieni - File dell’archivio di vettori

GET {endpoint}/openai/v1/vector_stores/{vector_store_id}/files/{file_id}

Recupera un file dell’archivio vettoriale.

Parametri

Nome In Obbligatorio TIPO Descrzione
endpoint path corda
URL.
Endpoint OpenAI supportati di Azure (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure). https://{nome-risorsa}.openai.azure.com
versione-api query NO Versione esplicita dell'API Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
ID del negozio vettoriale path corda ID dell'archivio vettoriale a cui appartiene il file.
ID del file path corda ID del file da recuperare.

Intestazione della richiesta

Usare l'autenticazione basata su token o la chiave API. L'autenticazione con l'autenticazione basata su token è consigliata e più sicura.

Nome Obbligatorio TIPO Descrzione
Autorizzazione Vero corda Esempio:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Per generare un token di autenticazione tramite l'interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
ambito: https://cognitiveservices.azure.com/.default
api-key Vero corda Fornire qui la chiave API di Azure OpenAI

Responses

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Tipo Descrizione
application/json OpenAI.VectorStoreFileObject

Codice di stato: impostazione predefinita

Descrizione: risposta di errore imprevista.

Tipo di contenuto Tipo Descrizione
application/json AzureErrorResponse

Aggiornare gli attributi del file dell'archivio vettoriale

POST {endpoint}/openai/v1/vector_stores/{vector_store_id}/files/{file_id}

Parametri

Nome In Obbligatorio TIPO Descrzione
endpoint path corda
URL.
Endpoint OpenAI supportati di Azure (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure). https://{nome-risorsa}.openai.azure.com
versione-api query NO Versione esplicita dell'API Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
ID del negozio vettoriale path corda
ID del file path corda

Intestazione della richiesta

Usare l'autenticazione basata su token o la chiave API. L'autenticazione con l'autenticazione basata su token è consigliata e più sicura.

Nome Obbligatorio TIPO Descrzione
Autorizzazione Vero corda Esempio:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Per generare un token di autenticazione tramite l'interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
ambito: https://cognitiveservices.azure.com/.default
api-key Vero corda Fornire qui la chiave API di Azure OpenAI

Corpo della richiesta

Content-Type: application/json

Nome TIPO Descrzione Obbligatorio Default
attributes oggetto Set di 16 coppie chiave-valore che possono essere collegate a un oggetto. Può trattarsi di
utile per archiviare informazioni aggiuntive sull'oggetto in un oggetto strutturato
formattare ed eseguire query per gli oggetti tramite l'API o il dashboard. Le chiavi sono stringhe
con una lunghezza massima di 64 caratteri. I valori sono stringhe con una lunghezza massima
lunghezza di 512 caratteri, booleani o numeri.

Responses

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Tipo Descrizione
application/json OpenAI.VectorStoreFileObject

Codice di stato: impostazione predefinita

Descrizione: risposta di errore imprevista.

Tipo di contenuto Tipo Descrizione
application/json AzureErrorResponse

Elimina file archivio vettoriale

DELETE {endpoint}/openai/v1/vector_stores/{vector_store_id}/files/{file_id}

Elimina un file dell’archivio vettoriale. Il file verrà rimosso dall'archivio vettoriale, ma il file stesso non verrà eliminato. Per eliminare il file, usare l'endpoint del file di eliminazione.

Parametri

Nome In Obbligatorio TIPO Descrzione
endpoint path corda
URL.
Endpoint OpenAI supportati di Azure (protocollo e nome host, ad esempio: https://aoairesource.openai.azure.com. Sostituire "aoairesource" con il nome della risorsa OpenAI di Azure). https://{nome-risorsa}.openai.azure.com
versione-api query NO Versione esplicita dell'API Foundry Models da usare per questa richiesta.
v1 se non specificato diversamente.
ID del negozio vettoriale path corda ID dell'archivio vettoriale a cui appartiene il file.
ID del file path corda ID del file da eliminare.

Intestazione della richiesta

Usare l'autenticazione basata su token o la chiave API. L'autenticazione con l'autenticazione basata su token è consigliata e più sicura.

Nome Obbligatorio TIPO Descrzione
Autorizzazione Vero corda Esempio:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Per generare un token di autenticazione tramite l'interfaccia della riga di comando di Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL autorizzazione: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
ambito: https://cognitiveservices.azure.com/.default
api-key Vero corda Fornire qui la chiave API di Azure OpenAI

Responses

Codice di stato: 200

Descrizione: la richiesta ha avuto esito positivo.

Tipo di contenuto Tipo Descrizione
application/json OpenAI.DeleteVectorStoreFileResponse

Codice di stato: impostazione predefinita

Descrizione: risposta di errore imprevista.

Tipo di contenuto Tipo Descrizione
application/json AzureErrorResponse

Components

AzureAIFoundryModelsApiVersion

Proprietà Value
Tipo corda
Valori v1
preview

AzureChatCompletionResponseMessage

Componente del modello di risposta esteso per i messaggi di risposta di completamento della chat nel servizio Azure OpenAI. Questo modello aggiunge il supporto per il contesto dei messaggi di chat, usato dalla funzionalità On Your Data per finalità, citazioni e altre informazioni correlate alla generazione aumentata di recupero eseguita.

Nome TIPO Descrzione Obbligatorio Default
annotazioni array Annotazioni per il messaggio, se applicabile, come quando si usa lo strumento di ricercaweb. NO
audio oggetto Se viene richiesta la modalità di output audio, questo oggetto contiene dati
sulla risposta audio dal modello. .
NO
└* dati corda Byte audio con codifica Base64 generati dal modello, nel formato
specificato nella richiesta.
NO
└─ scadenza_a numero intero Timestamp Unix (in secondi) per il momento in cui verrà restituita questa risposta audio
non sarà più accessibile sul server per l'uso con conversazioni
a più turni.
NO
└* id corda Identificatore univoco per questa risposta audio. NO
└─ trascrizione corda Trascrizione dell'audio generato dal modello. NO
contenuto corda Contenuto del messaggio.
context oggetto Una proprietà aggiuntiva, aggiunta ai messaggi di risposta nel completamento della chat, generati dal servizio Azure OpenAI durante l'utilizzo.
comportamento dell'estensione. Sono incluse informazioni sull'intento e sul riferimento della funzionalità Sul tuo Dati.
NO
└all_retrieved_documents oggetto Informazioni di riepilogo sui documenti recuperati dall'operazione di recupero dei dati. NO
└chunk_id corda ID blocco per la citazione. NO
└> contenuto corda Il contenuto della citazione. NO
└indice_sorgente_dati numero intero Indice dell'origine dati utilizzata per il recupero. NO
└─ percorso del file corda Percorso del file per la citazione. NO
└─ motivo_filtro enum Se applicabile, indica il motivo per cui il documento è stato filtrato.
Valori possibili: score, rerank
NO
└ original_search_score numero Punteggio di ricerca originale per il recupero. NO
└─ punteggio_riordino numero Punteggio di rerank per il recupero. NO
└─ search_queries array Le query di ricerca sono state eseguite per recuperare i documenti. NO
└> titolo corda Titolo della citazione. NO
└─ URL corda L'URL della citazione. NO
└─ citazioni array Citazioni prodotte dal recupero dei dati. NO
└─ finalità corda Finalità rilevata dalla cronologia delle chat, usata per trasportare il contesto di conversazione tra le interazioni NO
function_call oggetto Deprecato e sostituito da tool_calls. Nome e argomenti di una funzione che deve essere chiamata, come generati dal modello. NO
└─ Argomenti corda NO
└> nome corda NO
reasoning_content corda Proprietà di estensione specifica di Azure contenente contenuto di ragionamento generato dai modelli supportati. NO
refusal corda Messaggio di rifiuto generato dal modello.
ruolo enum Ruolo dell'autore del messaggio.
Valori possibili: assistant
tool_calls ChatCompletionMessageToolCallsItem Le chiamate degli strumenti generate dal modello, ad esempio le chiamate di funzioni. NO

AzureChatCompletionStreamResponseDelta

Modello di risposta esteso per un messaggio di risposta di chat in streaming nel servizio Azure OpenAI. Questo modello aggiunge il supporto per il contesto dei messaggi di chat, usato dalla funzionalità On Your Data per finalità, citazioni e altre informazioni correlate alla generazione aumentata di recupero eseguita.

Nome TIPO Descrzione Obbligatorio Default
audio oggetto NO
└* dati corda NO
└─ scadenza_a numero intero NO
└* id corda NO
└─ trascrizione corda NO
contenuto corda Contenuto del messaggio del blocco. NO
context oggetto Una proprietà aggiuntiva, aggiunta ai messaggi di risposta nel completamento della chat, generati dal servizio Azure OpenAI durante l'utilizzo.
comportamento dell'estensione. Sono incluse informazioni sull'intento e sul riferimento della funzionalità Sul tuo Dati.
NO
└all_retrieved_documents oggetto Informazioni di riepilogo sui documenti recuperati dall'operazione di recupero dei dati. NO
└chunk_id corda ID blocco per la citazione. NO
└> contenuto corda Il contenuto della citazione. NO
└indice_sorgente_dati numero intero Indice dell'origine dati utilizzata per il recupero. NO
└─ percorso del file corda Percorso del file per la citazione. NO
└─ motivo_filtro enum Se applicabile, indica il motivo per cui il documento è stato filtrato.
Valori possibili: score, rerank
NO
└ original_search_score numero Punteggio di ricerca originale per il recupero. NO
└─ punteggio_riordino numero Punteggio di rerank per il recupero. NO
└─ search_queries array Le query di ricerca sono state eseguite per recuperare i documenti. NO
└> titolo corda Titolo della citazione. NO
└─ URL corda L'URL della citazione. NO
└─ citazioni array Citazioni prodotte dal recupero dei dati. NO
└─ finalità corda Finalità rilevata dalla cronologia delle chat, usata per trasportare il contesto di conversazione tra le interazioni NO
function_call oggetto Deprecato e sostituito da tool_calls. Nome e argomenti di una funzione che deve essere chiamata, come generati dal modello. NO
└─ Argomenti corda NO
└> nome corda NO
reasoning_content corda Proprietà di estensione specifica di Azure contenente contenuto di ragionamento generato dai modelli supportati. NO
refusal corda Messaggio di rifiuto generato dal modello. NO
ruolo oggetto Ruolo dell'autore di un messaggio NO
tool_calls array NO

AzureChatDataSource

Rappresentazione dei dati di configurazione per una singola origine dati di chat OpenAI di Azure. Verrà usata da una richiesta di completamento chat che deve usare estensioni chat di Azure OpenAI per aumentare il comportamento della risposta. L'uso di questa configurazione è compatibile solo con Azure OpenAI.

Discriminare per AzureChatDataSource

Questo componente usa la proprietà type per distinguere tra tipi diversi:

Valore tipo Schema
azure_search AzureSearchChatDataSource
azure_cosmos_db AzureCosmosDBChatDataSource
elasticsearch ElasticsearchChatDataSource
pinecone PineconeChatDataSource
mongo_db MongoDBChatDataSource
Nome TIPO Descrzione Obbligatorio Default
type oggetto

AzureChatDataSourceAccessTokenAuthenticationOptions

Nome TIPO Descrzione Obbligatorio Default
access_token corda
type enum
Valori possibili: access_token

AzureChatDataSourceApiKeyAuthenticationOptions

Nome TIPO Descrzione Obbligatorio Default
chiave corda
type enum
Valori possibili: api_key

AzureChatDataSourceAuthenticationOptions

Discriminare per AzureChatDataSourceAuthenticationOptions

Questo componente usa la proprietà type per distinguere tra tipi diversi:

Valore tipo Schema
system_assigned_managed_identity AzureChatDataSourceSystemAssignedManagedIdentityAuthenticationOptions
user_assigned_managed_identity AzureChatDataSourceUserAssignedManagedIdentityAuthenticationOptions
access_token AzureChatDataSourceAccessTokenAuthenticationOptions
connection_string AzureChatDataSourceConnectionStringAuthenticationOptions
key_and_key_id AzureChatDataSourceKeyAndKeyIdAuthenticationOptions
encoded_api_key AzureChatDataSourceEncodedApiKeyAuthenticationOptions
username_and_password AzureChatDataSourceUsernameAndPasswordAuthenticationOptions
Nome TIPO Descrzione Obbligatorio Default
type AzureChatDataSourceAuthenticationOptionsType

AzureChatDataSourceAuthenticationOptionsType

Proprietà Value
Tipo corda
Valori api_key
username_and_password
connection_string
key_and_key_id
encoded_api_key
access_token
system_assigned_managed_identity
user_assigned_managed_identity

AzureChatDataSourceConnectionStringAuthenticationOptions

Nome TIPO Descrzione Obbligatorio Default
connection_string corda
type enum
Valori possibili: connection_string

AzureChatDataSourceDeploymentNameVectorizationSource

Rappresenta un'origine di vettorizzazione che effettua chiamate interne al servizio per una distribuzione del modello di incorporamento OpenAI di Azure. A differenza dell'origine di vettorizzazione basata su endpoint, un'origine di vettorizzazione basata su nome distribuzione deve far parte della stessa risorsa OpenAI di Azure, ma può essere usata anche nelle reti private.

Nome TIPO Descrzione Obbligatorio Default
nome_di_distribuzione corda Distribuzione del modello di embedding da usare per la vettorizzazione. Questa distribuzione deve esistere all'interno della stessa istanza di Azure OpenAI
risorsa come quella del modello di distribuzione utilizzato per i completamenti della chat.
dimensions numero intero Numero di dimensioni da richiedere per gli incorporamenti.
Supportato solo nei modelli "text-embedding-3" e versioni successive.
NO
type enum Identificatore del tipo, sempre "deployment_name" per questo tipo di origine di vettorizzazione.
Valori possibili: deployment_name

AzureChatDataSourceEncodedApiKeyAuthenticationOptions

Nome TIPO Descrzione Obbligatorio Default
encoded_api_key corda
type enum
Valori possibili: encoded_api_key

AzureChatDataSourceEndpointVectorizationSource

Rappresenta un'origine di vettorizzazione che effettua chiamate di servizio pubblico a una distribuzione del modello di incorporamento di Azure OpenAI.

Nome TIPO Descrzione Obbligatorio Default
autenticazione oggetto
└─ access_token corda NO
└─ tasto corda NO
└─ Tipo enum
Valori possibili: access_token
NO
dimensions numero intero Numero di dimensioni da richiedere per gli incorporamenti.
Supportato solo nei modelli "text-embedding-3" e versioni successive.
NO
endpoint corda Specifica l'URL dell'endpoint della risorsa da cui recuperare gli incorporamenti.
Deve essere nel formato di:
https://YOUR_RESOURCE_NAME.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT_NAME/embeddings.
Il parametro di query api-version non è consentito.
type enum Identificatore del tipo, sempre "endpoint" per questo tipo di origine di vettorializzazione.
Valori possibili: endpoint

AzureChatDataSourceIntegratedVectorizationSource

Rappresenta un'origine di vettorizzazione integrata definita all'interno della risorsa di ricerca di supporto.

Nome TIPO Descrzione Obbligatorio Default
type enum Identificatore del tipo, sempre "integrato" per questo tipo di origine di vettorizzazione.
Valori possibili: integrated

AzureChatDataSourceKeyAndKeyIdAuthenticationOptions

Nome TIPO Descrzione Obbligatorio Default
chiave corda
key_id corda
type enum
Valori possibili: key_and_key_id

AzureChatDataSourceModelIdVectorizationSource

Rappresenta un'origine di vettorizzazione che effettua chiamate di servizio in base a un ID modello del servizio di ricerca. Questo tipo di origine è attualmente supportato solo da Elasticsearch.

Nome TIPO Descrzione Obbligatorio Default
model_id corda ID di compilazione del modello di incorporamento da usare per la vettorializzazione.
type enum Identificatore del tipo, sempre "model_id" per questo tipo di origine di vettorializzazione.
Valori possibili: model_id

AzureChatDataSourceSystemAssignedManagedIdentityAuthenticationOptions

Nome TIPO Descrzione Obbligatorio Default
type enum
Valori possibili: system_assigned_managed_identity

AzureChatDataSourceType

Proprietà Value
Tipo corda
Valori azure_search
azure_cosmos_db
elasticsearch
pinecone
mongo_db

AzureChatDataSourceUserAssignedManagedIdentityAuthenticationOptions

Nome TIPO Descrzione Obbligatorio Default
managed_identity_resource_id corda
type enum
Valori possibili: user_assigned_managed_identity

AzureChatDataSourceUsernameAndPasswordAuthenticationOptions

Nome TIPO Descrzione Obbligatorio Default
parola d’ordine corda
type enum
Valori possibili: username_and_password
username corda

AzureChatDataSourceVectorizationSource

Rappresentazione di un'origine di vettorizzazione dei dati utilizzabile come risorsa di incapsulamento con un'origine di dati.

Discriminare per AzureChatDataSourceVectorizationSource

Questo componente usa la proprietà type per distinguere tra tipi diversi:

Valore tipo Schema
deployment_name AzureChatDataSourceDeploymentNameVectorizationSource
integrated AzureChatDataSourceIntegratedVectorizationSource
model_id AzureChatDataSourceModelIdVectorizationSource
Nome TIPO Descrzione Obbligatorio Default
type oggetto

AzureChatDataSourceVectorizationSourceType

Proprietà Value
Tipo corda
Valori endpoint
deployment_name
model_id
integrated

AzureChatMessageContext

Proprietà aggiuntiva, aggiunta ai messaggi di risposta di completamento della chat, prodotti dal servizio Azure OpenAI quando si usa il comportamento dell'estensione. Sono incluse informazioni sull'intento e sul riferimento della funzionalità Sul tuo Dati.

Nome TIPO Descrzione Obbligatorio Default
all_retrieved_documents oggetto Informazioni di riepilogo sui documenti recuperati dall'operazione di recupero dei dati. NO
└chunk_id corda ID blocco per la citazione. NO
└> contenuto corda Il contenuto della citazione. NO
└indice_sorgente_dati numero intero Indice dell'origine dati utilizzata per il recupero. NO
└─ percorso del file corda Percorso del file per la citazione. NO
└─ motivo_filtro enum Se applicabile, indica il motivo per cui il documento è stato filtrato.
Valori possibili: score, rerank
NO
└ original_search_score numero Punteggio di ricerca originale per il recupero. NO
└─ punteggio_riordino numero Punteggio di rerank per il recupero. NO
└─ search_queries array Le query di ricerca sono state eseguite per recuperare i documenti. NO
└> titolo corda Titolo della citazione. NO
└─ URL corda L'URL della citazione. NO
citations array Citazioni prodotte dal recupero dei dati. NO
intent corda Finalità rilevata dalla cronologia delle chat, usata per trasportare il contesto di conversazione tra le interazioni NO

AzureContentFilterBlocklistResult

Raccolta di risultati di filtro true/false per gli elenchi di blocchi personalizzati configurati.

Nome TIPO Descrzione Obbligatorio Default
details array Coppie di ID elenco di blocchi singoli e se hanno generato un'azione di filtro. NO
filtered boolean Valore che indica se uno degli elenchi di blocchi dettagliati ha generato un'azione di filtro.

AzureContentFilterCompletionTextSpan

Rappresentazione di un intervallo di testo di completamento usato dai risultati del filtro del contenuto OpenAI di Azure.

Nome TIPO Descrzione Obbligatorio Default
completion_end_offset numero intero Offset del primo punto di codice UTF32 escluso dall'intervallo. Questo campo è sempre uguale a completion_start_offset per intervalli vuoti. Questo campo è sempre più grande di completion_start_offset per intervalli non vuoti.
completion_start_offset numero intero Offset del punto di codice UTF32 che inizia l'intervallo.

AzureContentFilterCompletionTextSpanDetectionResult

Nome TIPO Descrzione Obbligatorio Default
details array Informazioni dettagliate sugli intervalli di testo di completamento rilevati.
detected boolean Indica se la categoria di contenuto etichettata è stata rilevata nel contenuto.
filtered boolean Indica se il rilevamento del contenuto ha generato un'azione di filtro del contenuto.

AzureContentFilterCustomTopicResult

Raccolta di risultati del filtro true/false per gli argomenti personalizzati configurati.

Nome TIPO Descrzione Obbligatorio Default
details array Coppie di ID singolo argomento e se vengono rilevati. NO
filtered boolean Valore che indica se uno degli argomenti dettagliati ha generato un'azione di filtro.

AzureContentFilterDetectionResult

Elemento del risultato del filtro contenuto con etichetta che indica se il contenuto è stato rilevato e se il contenuto è stato filtrato.

Nome TIPO Descrzione Obbligatorio Default
detected boolean Indica se la categoria di contenuto etichettata è stata rilevata nel contenuto.
filtered boolean Indica se il rilevamento del contenuto ha generato un'azione di filtro del contenuto.

AzureContentFilterPersonallyIdentifiableInformationResult

Risultato del rilevamento del filtro del contenuto per informazioni personali che includono estensioni dannose.

Nome TIPO Descrzione Obbligatorio Default
redacted_text corda Testo scritto con informazioni personali rimosse o mascherate. NO
sub_categories array Risultati dettagliati per singoli PIIHarmSubCategory. NO

AzureContentFilterResultForChoice

Risultato di un filtro contenuto per un singolo elemento di risposta prodotto da un sistema di intelligenza artificiale generativo.

Nome TIPO Descrzione Obbligatorio Default
custom_blocklists oggetto Raccolta di risultati di filtro true/false per gli elenchi di blocchi personalizzati configurati. NO
└* dettagli array Coppie di ID elenco di blocchi singoli e se hanno generato un'azione di filtro. NO
└* filtrato boolean Valore che indica se uno degli elenchi di blocchi dettagliati ha generato un'azione di filtro. NO
custom_topics oggetto Raccolta di risultati del filtro true/false per gli argomenti personalizzati configurati. NO
└* dettagli array Coppie di ID singolo argomento e se vengono rilevati. NO
└* filtrato boolean Valore che indica se uno degli argomenti dettagliati ha generato un'azione di filtro. NO
Errore oggetto Se presente, vengono fornite informazioni dettagliate su un errore che impediva il completamento della valutazione del filtro del contenuto. NO
└─ codice numero intero Codice distinto e leggibile dal computer associato all'errore. NO
└* messaggio corda Messaggio leggibile associato all'errore. NO
hate oggetto Elemento risultato filtro contenuto etichettato che indica se il contenuto è stato filtrato e quali sono i valori qualitativi
il livello di gravità del contenuto è stato valutato in base alla configurazione del filtro contenuto per la categoria.
NO
└* filtrato boolean Indica se la gravità del contenuto ha generato un'azione di filtro del contenuto. NO
└> gravità enum La gravità etichettata del contenuto.
Valori possibili: safe, low, medium, high
NO
personally_identifiable_information oggetto Risultato del rilevamento del filtro del contenuto per informazioni personali che includono estensioni dannose. NO
└ redacted_text corda Testo scritto con informazioni personali rimosse o mascherate. NO
└ sotto_categorie array Risultati dettagliati per singoli PIIHarmSubCategory. NO
profanity oggetto Elemento del risultato del filtro contenuto etichettato che indica se il contenuto è stato rilevato e se è presente.
Filtrata.
NO
└> rilevato boolean Indica se la categoria di contenuto etichettata è stata rilevata nel contenuto. NO
└* filtrato boolean Indica se il rilevamento del contenuto ha generato un'azione di filtro del contenuto. NO
protected_material_code oggetto Risultato del rilevamento che descrive una corrispondenza rispetto al codice concesso in licenza o ad altri materiali di origine protetti. NO
└─ Citazione oggetto Se disponibile, i dettagli della citazione che descrivono la licenza associata e la relativa posizione. NO
└─ URL corda URL associato alla licenza. NO
└─ licenza corda Nome o identificatore della licenza associata al rilevamento. NO
└> rilevato boolean Indica se la categoria di contenuto etichettata è stata rilevata nel contenuto. NO
└* filtrato boolean Indica se il rilevamento del contenuto ha generato un'azione di filtro del contenuto. NO
protected_material_text oggetto Elemento del risultato del filtro contenuto etichettato che indica se il contenuto è stato rilevato e se è presente.
Filtrata.
NO
└> rilevato boolean Indica se la categoria di contenuto etichettata è stata rilevata nel contenuto. NO
└* filtrato boolean Indica se il rilevamento del contenuto ha generato un'azione di filtro del contenuto. NO
self_harm oggetto Elemento risultato filtro contenuto etichettato che indica se il contenuto è stato filtrato e quali sono i valori qualitativi
il livello di gravità del contenuto è stato valutato in base alla configurazione del filtro contenuto per la categoria.
NO
└* filtrato boolean Indica se la gravità del contenuto ha generato un'azione di filtro del contenuto. NO
└> gravità enum La gravità etichettata del contenuto.
Valori possibili: safe, low, medium, high
NO
sexual oggetto Elemento risultato filtro contenuto etichettato che indica se il contenuto è stato filtrato e quali sono i valori qualitativi
il livello di gravità del contenuto è stato valutato in base alla configurazione del filtro contenuto per la categoria.
NO
└* filtrato boolean Indica se la gravità del contenuto ha generato un'azione di filtro del contenuto. NO
└> gravità enum La gravità etichettata del contenuto.
Valori possibili: safe, low, medium, high
NO
ungrounded_material AzureContentFilterCompletionTextSpanDetectionResult NO
violence oggetto Elemento risultato filtro contenuto etichettato che indica se il contenuto è stato filtrato e quali sono i valori qualitativi
il livello di gravità del contenuto è stato valutato in base alla configurazione del filtro contenuto per la categoria.
NO
└* filtrato boolean Indica se la gravità del contenuto ha generato un'azione di filtro del contenuto. NO
└> gravità enum La gravità etichettata del contenuto.
Valori possibili: safe, low, medium, high
NO

AzureContentFilterResultForPrompt

Risultato di un filtro contenuto associato a un singolo elemento del prompt di input in un sistema di intelligenza artificiale generativo.

Nome TIPO Descrzione Obbligatorio Default
content_filter_results oggetto Dettagli della categoria del filtro contenuto per il risultato. NO
└─ liste_blocchi_personalizzate oggetto Raccolta di risultati di filtro true/false per gli elenchi di blocchi personalizzati configurati. NO
└* dettagli array Coppie di ID elenco di blocchi singoli e se hanno generato un'azione di filtro. NO
└* filtrato boolean Valore che indica se uno degli elenchi di blocchi dettagliati ha generato un'azione di filtro. NO
└' custom_topics oggetto Raccolta di risultati del filtro true/false per gli argomenti personalizzati configurati. NO
└* dettagli array Coppie di ID singolo argomento e se vengono rilevati. NO
└* filtrato boolean Valore che indica se uno degli argomenti dettagliati ha generato un'azione di filtro. NO
└─ Errore oggetto Se presente, vengono fornite informazioni dettagliate su un errore che impediva il completamento della valutazione del filtro del contenuto. NO
└─ codice numero intero Codice distinto e leggibile dal computer associato all'errore. NO
└* messaggio corda Messaggio leggibile associato all'errore. NO
└> odio oggetto Elemento risultato filtro contenuto etichettato che indica se il contenuto è stato filtrato e quali sono i valori qualitativi
il livello di gravità del contenuto è stato valutato in base alla configurazione del filtro contenuto per la categoria.
NO
└* filtrato boolean Indica se la gravità del contenuto ha generato un'azione di filtro del contenuto. NO
└> gravità enum La gravità etichettata del contenuto.
Valori possibili: safe, low, medium, high
NO
└attacco indiretto oggetto Elemento del risultato del filtro contenuto etichettato che indica se il contenuto è stato rilevato e se è presente.
Filtrata.
NO
└> rilevato boolean Indica se la categoria di contenuto etichettata è stata rilevata nel contenuto. NO
└* filtrato boolean Indica se il rilevamento del contenuto ha generato un'azione di filtro del contenuto. NO
└* jailbreak oggetto Elemento del risultato del filtro contenuto etichettato che indica se il contenuto è stato rilevato e se è presente.
Filtrata.
NO
└> rilevato boolean Indica se la categoria di contenuto etichettata è stata rilevata nel contenuto. NO
└* filtrato boolean Indica se il rilevamento del contenuto ha generato un'azione di filtro del contenuto. NO
└* volgarità oggetto Elemento del risultato del filtro contenuto etichettato che indica se il contenuto è stato rilevato e se è presente.
Filtrata.
NO
└> rilevato boolean Indica se la categoria di contenuto etichettata è stata rilevata nel contenuto. NO
└* filtrato boolean Indica se il rilevamento del contenuto ha generato un'azione di filtro del contenuto. NO
└─ autolesionismo oggetto Elemento risultato filtro contenuto etichettato che indica se il contenuto è stato filtrato e quali sono i valori qualitativi
il livello di gravità del contenuto è stato valutato in base alla configurazione del filtro contenuto per la categoria.
NO
└* filtrato boolean Indica se la gravità del contenuto ha generato un'azione di filtro del contenuto. NO
└> gravità enum La gravità etichettata del contenuto.
Valori possibili: safe, low, medium, high
NO
└─ sessuale oggetto Elemento risultato filtro contenuto etichettato che indica se il contenuto è stato filtrato e quali sono i valori qualitativi
il livello di gravità del contenuto è stato valutato in base alla configurazione del filtro contenuto per la categoria.
NO
└* filtrato boolean Indica se la gravità del contenuto ha generato un'azione di filtro del contenuto. NO
└> gravità enum La gravità etichettata del contenuto.
Valori possibili: safe, low, medium, high
NO
└* violenza oggetto Elemento risultato filtro contenuto etichettato che indica se il contenuto è stato filtrato e quali sono i valori qualitativi
il livello di gravità del contenuto è stato valutato in base alla configurazione del filtro contenuto per la categoria.
NO
└* filtrato boolean Indica se la gravità del contenuto ha generato un'azione di filtro del contenuto. NO
└> gravità enum La gravità etichettata del contenuto.
Valori possibili: safe, low, medium, high
NO
prompt_index numero intero Indice del prompt di input associato alle categorie di risultati del filtro contenuto associato. NO

AzureContentFilterSeverityResult

Elemento del risultato del filtro contenuto etichettato che indica se il contenuto è stato filtrato e quale livello di gravità qualitativo del contenuto è stato valutato in base alla configurazione del filtro contenuto per la categoria.

Nome TIPO Descrzione Obbligatorio Default
filtered boolean Indica se la gravità del contenuto ha generato un'azione di filtro del contenuto.
severity enum La gravità etichettata del contenuto.
Valori possibili: safe, low, medium, high

AzureCosmosDBChatDataSource

Rappresenta una configurazione dell'origine dati che userà una risorsa di Azure CosmosDB.

Nome TIPO Descrzione Obbligatorio Default
parameters oggetto Informazioni sui parametri per gestire l'utilizzo dell'origine dati di Azure CosmosDB.
└─ consenti_risultato_parziale boolean Se impostato su true, il sistema consentirà l'uso di risultati parziali della ricerca e la richiesta avrà esito negativo se tutti i risultati della ricerca non saranno disponibili.
le query parziali hanno esito negativo. Se non specificato, o specificato come false, la richiesta avrà esito negativo se una query di ricerca ha esito negativo.
NO Falso
Autenticazione AzureChatDataSourceConnectionStringAuthenticationOptions NO
└─ container_name corda NO
└─database_name corda NO
└─ dipendenza_embedded AzureChatDataSourceVectorizationSource Rappresentazione di un'origine di vettorizzazione dei dati utilizzabile come risorsa di incapsulamento con un'origine di dati. NO
└ fields_mapping oggetto NO
└content_fields array NO
└─content_fields_separator corda NO
└filepath_field corda NO
└─ campo_titolo corda NO
└url_field corda NO
└vector_fields array NO
└ in_scope boolean Indica se le query devono essere limitate all'uso dei dati indicizzati. NO
└include_contexts array Proprietà del contesto di output da includere nella risposta.
Per impostazione predefinita, verranno richieste citazioni e finalità.
NO ['citazioni', 'intento']
└ index_name corda NO
└max_search_queries numero intero Numero massimo di query riscritte che devono essere inviate al provider di ricerca per un singolo messaggio utente.
Per impostazione predefinita, il sistema effettuerà una determinazione automatica.
NO
└* rigidità numero intero La rigidità configurata del filtro di pertinenza della ricerca.
Una maggiore rigidità aumenterà la precisione, ma diminuirà il richiamo della risposta.
NO
└top_n_documents numero intero Il numero configurato di documenti da includere nella query. NO
type enum Identificatore di tipo discriminato, che è sempre "azure_cosmos_db".
Valori possibili: azure_cosmos_db

AzureCreateChatCompletionRequest

Modello di richiesta estesa per il completamento della chat nel servizio OpenAI di Azure. In questo modo è possibile fornire origini dati per la funzionalità On Your Data .

Nome TIPO Descrzione Obbligatorio Default
audio oggetto Parametri dell'output audio. Obbligatorio quando viene richiesto l'output audio con
modalities: ["audio"].
NO
└* formato enum Specifica il formato audio di output. Deve essere uno di wav, mp3, flac,
opus, o pcm16.
Valori possibili: wav, aacmp3, flac, , opuspcm16
NO
└─ voce oggetto NO
data_sources array Origini dati da usare per la funzionalità On Your Data, esclusiva di Azure OpenAI. NO
penalità di frequenza numero Numero compreso tra -2.0 e 2.0. I valori positivi penalizzano i nuovi token in base a
la loro frequenza esistente nel testo fino a ora, riducendo l'efficienza del modello.
probabilità di ripetere la stessa riga verbatim.
NO 0
function_call enum Specificare una determinata funzione tramite {"name": "my_function"} impone al modello di chiamare tale funzione.
Valori possibili: none, auto
NO
functions array Deprecato e sostituito da tools.

Un elenco di funzioni per cui il modello può generare input JSON.
NO
bias del logit oggetto Modificare la probabilità che i token specificati vengano visualizzati nel completamento.

Accetta un oggetto JSON che esegue il mapping dei token (specificato dall'ID del token in
tokenizer) a un valore di bias associato da -100 a 100. Matematicamente
la distorsione viene aggiunta ai logits generati dal modello prima del campionamento.
L'effetto esatto varia in base al modello, ma i valori tra -1 e 1 devono
diminuire o aumentare la probabilità di selezione; valori come -100 o 100
deve comportare un divieto o una selezione esclusiva del token pertinente.
NO None
logprobs boolean Indica se restituire o non restituire le probabilità di log dei token di output. Se true,
restituisce le probabilità di log di ogni token di output restituito in
content di message.
NO Falso
max_completion_tokens numero intero Limite superiore per il numero di token che possono essere generati per un oggetto
completamento, inclusi i token visibili di output e i token di ragionamento.
NO
numero massimo di token numero intero Numero massimo di token che possono essere generati al momento del completamento della chat.
Questo valore può essere usato per controllare i costi per il testo generato tramite API.

Questo valore è ora deprecato a favore di max_completion_tokense è
non compatibile con i modelli serie o1.
NO
messages array Elenco di messaggi che comprendono la conversazione effettuata finora. A seconda del
modello usato, tipi di messaggio diversi (modalità) supportati,
come testo, immagini e audio.
metadata oggetto Set di 16 coppie chiave-valore che possono essere collegate a un oggetto. Può trattarsi di
utile per archiviare informazioni aggiuntive sull'oggetto in un oggetto strutturato
formattare ed eseguire query per gli oggetti tramite l'API o il dashboard.

Le chiavi sono stringhe con una lunghezza massima di 64 caratteri. I valori sono stringhe
con una lunghezza massima di 512 caratteri.
NO
modalities oggetto Tipi di output che si desidera generare il modello.
La maggior parte dei modelli è in grado di generare testo, in base all'impostazione predefinita:

["text"]

Il modello gpt-4o-audio-preview può essere usato anche per generare audio. Per richiedere che questo modello generi
sia risposte di testo che audio, è possibile usare:

["text", "audio"]
NO
model corda Identificatore di distribuzione del modello da usare per la richiesta di completamento della chat.
n numero intero Quante opzioni di completamento della chat generare per ogni messaggio di input. Tenere presente che verranno addebitati i costi in base al numero di token generati in tutte le scelte. Mantenere n come 1 per ridurre al minimo i costi. NO 1
chiamate_parallele_agli_strumenti oggetto Indica se abilitare o meno la chiamata di funzioni parallele durante l'uso dello strumento. NO
stima oggetto Rappresentazione di base dell'output stimato da un modello. NO
└─ Tipo OpenAI.ChatOutputPredictionType NO
penalità_di_presenza numero Numero compreso tra -2.0 e 2.0. I valori positivi penalizzano i nuovi token in base a
se appaiono nel testo fino a questo momento, aumentando la probabilità del modello
per parlare di nuovi argomenti.
NO 0
sforzo di ragionamento oggetto solo modelli di ragionamento

Vincola lo sforzo sul ragionamento per
modelli di ragionamento.
I valori attualmente supportati sono low, medium e high. Ridurre
l'impegno di ragionamento può comportare risposte più veloci e meno token usati
sul ragionamento in una risposta.
NO
formato_risposta oggetto NO
└─ Tipo enum
Valori possibili: text, json_object, json_schema
NO
seed numero intero Questa funzionalità è in versione beta.
Se specificato, il nostro sistema esegue un'operazione ottimale per campionare in modo deterministico, in modo che le richieste ripetute con gli stessi seed e gli stessi parametri restituiscano lo stesso risultato.
Il determinismo non è garantito ed è necessario fare riferimento al parametro di risposta system_fingerprint per monitorare le modifiche nel back-end.
NO
fermare oggetto Non supportato con i modelli o3 di ragionamento più recenti e o4-mini.

Fino a 4 sequenze in cui l'API smetterà di generare altri token. Il valore di
il testo restituito non conterrà la sequenza di interruzione.
NO
store boolean Decidere se salvare o meno l'output della richiesta di completamento della chat per
utilizzare nella distillazione del modello o nei prodotti di valutazione.
NO Falso
torrente boolean Se impostato su true, i dati di risposta del modello verranno trasmessi al client
generato tramite eventi inviati dal server.
NO Falso
stream_options oggetto Opzioni per la risposta in streaming. Impostare questa opzione solo quando si imposta stream: true. NO
└─ uso_includi boolean Se impostato, un blocco aggiuntivo verrà trasmesso prima del data: [DONE]
criteri.). Il usage campo in questo blocco mostra le statistiche di utilizzo dei token
per l'intera richiesta e il choices campo sarà sempre vuoto
array

Tutti gli altri blocchi includeranno anche un usage campo, ma con un valore Null
valore. NOTA: Se il flusso viene interrotto, è possibile che non venga ricevuto
blocco di utilizzo finale che contiene l'utilizzo totale dei token per la richiesta.
NO
temperatura numero Temperatura di campionamento da usare, compresa tra 0 e 2. Valori più elevati come 0.8 renderanno l'output più casuale, mentre valori più bassi come 0.2 lo renderanno più mirato e deterministico.
In genere si consiglia di modificare questo valore o top_p ma non entrambi.
NO 1
tool_choice OpenAI.ChatCompletionToolChoiceOption Controlla quale strumento (se presente) viene chiamato dal modello.
none indica che il modello non chiamerà alcuno strumento e genera invece un messaggio.
auto indica che il modello può scegliere tra la generazione di un messaggio o la chiamata di uno o più strumenti.
required indica che il modello deve chiamare uno o più strumenti.
Se si specifica uno strumento specifico tramite {"type": "function", "function": {"name": "my_function"}} impone al modello di chiamare tale strumento.

none è l'impostazione predefinita quando non sono presenti strumenti. auto è l'impostazione predefinita quando sono presenti strumenti.
NO
strumenti array Elenco di strumenti che il modello può chiamare. Attualmente, solo le funzioni sono supportate come strumento. Usare questa opzione per fornire un elenco di funzioni per cui il modello può generare input JSON. Sono supportate al massimo 128 funzioni. NO
top_logprobs numero intero Un numero intero compreso tra 0 e 20 che specifica il numero di token più probabili da restituire in ogni posizione del token, ognuno con una probabilità di log associata. NO
top_p numero Un'alternativa al campionamento con temperatura, denominata campionamento nucleo,
dove il modello considera i risultati dei token con probabilità top_p
massa. Quindi 0,1 significa solo i token che comprendono il 10% superiore della massa di probabilità%
sono considerati.

In genere si consiglia di modificare questo valore o temperature ma non entrambi.
NO 1
utente corda Identificatore univoco che rappresenta l'utente finale, che può essere utile
monitorare e rilevare abusi.
NO
user_security_context AzureUserSecurityContext Il contesto di sicurezza utente contiene diversi parametri che descrivono l'applicazione stessa e l'utente finale che interagisce con l'applicazione. Questi campi sono utili al team delle operazioni per la sicurezza per analizzare e mitigare gli incidenti di sicurezza fornendo un approccio esaustivo alla protezione delle applicazioni IA. Altre informazioni sulla protezione delle applicazioni di IA con Microsoft Defender per il cloud. NO

AzureCreateChatCompletionResponse

Il modello di risposta di completamento della chat di primo livello esteso per il servizio OpenAI di Azure. Questo modello aggiunge annotazioni di filtro del contenuto di intelligenza artificiale responsabile per l'input della richiesta.

Nome TIPO Descrzione Obbligatorio Default
choices array
created numero intero Timestamp Unix (in secondi) di quando è stato creato il completamento della chat.
id corda Identificatore univoco per il completamento della chat.
model corda Modello usato per il completamento della chat.
oggetto enum Il tipo di oggetto, che è sempre chat.completion.
Valori possibili: chat.completion
prompt_filter_results array Annotazioni del filtro del contenuto di intelligenza artificiale responsabile associate agli input delle richieste nei completamenti della chat. NO
system_fingerprint corda Questa impronta digitale rappresenta la configurazione back-end con cui viene eseguito il modello.

Può essere usata insieme al parametro di richiesta seed per comprendere quando sono state apportate modifiche back-end che potrebbero influire sul determinismo.
NO
usage OpenAI.CompletionUsage Statistiche di utilizzo per la richiesta di completamento. NO

AzureCreateChatCompletionStreamResponse

Nome TIPO Descrzione Obbligatorio Default
choices array Elenco di scelte di completamento della chat. Può contenere più elementi se n è maggiore di 1. Può anche essere vuoto per il
ultimo blocco se si imposta stream_options: {"include_usage": true}.
content_filter_results AzureContentFilterResultForChoice Risultato di un filtro contenuto per un singolo elemento di risposta prodotto da un sistema di intelligenza artificiale generativo. NO
created numero intero Timestamp Unix (in secondi) di quando è stato creato il completamento della chat. Ogni blocco ha lo stesso timestamp.
delta AzureChatCompletionStreamResponseDelta Modello di risposta esteso per un messaggio di risposta di chat in streaming nel servizio Azure OpenAI.
Questo modello aggiunge il supporto per il contesto dei messaggi di chat, usato dalla funzionalità On Your Data per finalità, citazioni e altre
informazioni relative alla generazione con recupero aumentato eseguita
NO
id corda Identificatore univoco per il completamento della chat. Ogni blocco ha lo stesso ID.
model corda Modello per generare il completamento.
oggetto enum Il tipo di oggetto, che è sempre chat.completion.chunk.
Valori possibili: chat.completion.chunk
system_fingerprint corda Questa impronta digitale rappresenta la configurazione back-end con cui viene eseguito il modello.
Può essere usata insieme al parametro di richiesta seed per comprendere quando sono state apportate modifiche back-end che potrebbero influire sul determinismo.
NO
usage oggetto Statistiche di utilizzo per la richiesta di completamento. NO
└completion_tokens numero intero Numero di token nel completamento generato. NO 0
└─ dettagli_token_completamento oggetto Scomposizione dei token usati in un completamento. NO
└─ token_di_predizione_accettati numero intero Quando si usano le uscite previste, il numero di token nell'oggetto
previsione che è apparsa durante il completamento.
NO 0
└audio_tokens numero intero Token dell'input audio generati dal modello. NO 0
└─ token_di_ragionamento numero intero Token generati dal modello per il ragionamento. NO 0
└rejected_prediction_tokens numero intero Quando si usano le uscite previste, il numero di token nell'oggetto
previsione che non è stata visualizzata nel risultato. Tuttavia, come
token di ragionamento, questi token vengono ancora conteggiati nel totale
token di completamento per la fatturazione, l'output e la finestra di contesto
Limiti.
NO 0
└prompt_tokens numero intero Numero di token nel prompt. NO 0
└prompt_tokens_details oggetto Suddivisione dei token usati nel prompt. NO
└audio_tokens numero intero Token di input audio presenti nel prompt. NO 0
└cached_tokens numero intero Token memorizzati nella cache presenti nel prompt. NO 0
└total_tokens numero intero Numero totale di token usati nella richiesta (prompt + completamento). NO 0

AzureCreateEmbeddingRequest

Nome TIPO Descrzione Obbligatorio Default
dimensions numero intero Numero di dimensioni che devono essere presenti negli incorporamenti di output risultanti. Supportato solo in text-embedding-3 e modelli successivi. NO
encoding_format enum Formato in cui restituire gli incorporamenti. Può essere float o base64.
Valori possibili: float, base64
NO
ingresso stringa o matrice
model corda Modello da usare per la richiesta di incorporamento.
utente corda Identificatore univoco che rappresenta l'utente finale, che consente a OpenAI di monitorare e rilevare gli abusi. NO

AzureCreateFileRequestMultiPart

Nome TIPO Descrzione Obbligatorio Default
scade dopo oggetto
Ancoraggio └* AzureFileExpiryAnchor NO
└─ secondi numero intero NO
documento corda
purpose enum Scopo previsto del file caricato. Uno dei seguenti: - assistants: usato nell'API Assistenti - batch: usato nell'API Batch - fine-tune: usato per l'ottimizzazione - evals: usato per set di dati di valutazione
Valori possibili: assistants, batch, fine-tune, evals

AzureCreateResponse

Nome TIPO Descrzione Obbligatorio Default
sfondo boolean Indica se eseguire la risposta del modello in background.
Ulteriori informazioni.
NO Falso
includi array Specificare dati di output aggiuntivi da includere nella risposta del modello. Attualmente
i valori supportati sono:
- code_interpreter_call.outputs: include gli output dell'esecuzione del codice Python
negli elementi di chiamata dello strumento dell'interprete di codice.
- computer_call_output.output.image_url: includere gli URL delle immagini provenienti dall'output della chiamata computer.
- file_search_call.results: includere i risultati della ricerca di
richiesta allo strumento di ricerca dei file.
- message.input_image.image_url: includere gli URL dell'immagine dal messaggio di input.
- message.output_text.logprobs: includere logprob con messaggi di assistente.
- reasoning.encrypted_content: include una versione crittografata del motivo
token nell'output dell'elemento di ragionamento. In questo modo è possibile utilizzare gli elementi di ragionamento in
conversazioni a più turni quando si usa l'API Risposte senza stato (ad esempio
quando il store parametro è impostato su false o quando un'organizzazione è
registrato nel programma a conservazione dati nulla.
NO
ingresso stringa o matrice NO
instructions corda Messaggio di sistema (o sviluppatore) inserito nel contesto del modello.

Quando si utilizza insieme a previous_response_id, le istruzioni della fase precedente
la risposta non verrà portata alla risposta successiva. In questo modo è semplice
per sostituire i messaggi di sistema (o sviluppatore) nelle nuove risposte.
NO
max_output_tokens numero intero Limite superiore per il numero di token che possono essere generati per una risposta, inclusi i token di output visibili e i token di ragionamento. NO
max_tool_calls numero intero Numero massimo di chiamate totali agli strumenti predefiniti che possono essere elaborati in una risposta. Questo numero massimo si applica a tutte le chiamate di strumenti predefinite, non a ogni singolo strumento. Eventuali altri tentativi di chiamare uno strumento da parte del modello verranno ignorati. NO
metadata oggetto Set di 16 coppie chiave-valore che possono essere collegate a un oggetto. Può trattarsi di
utile per archiviare informazioni aggiuntive sull'oggetto in un oggetto strutturato
formattare ed eseguire query per gli oggetti tramite l'API o il dashboard.

Le chiavi sono stringhe con una lunghezza massima di 64 caratteri. I valori sono stringhe
con una lunghezza massima di 512 caratteri.
NO
model corda Il modello di distribuzione da utilizzare per la creazione di questa risposta.
chiamate_parallele_agli_strumenti boolean Indica se consentire al modello di eseguire chiamate degli strumenti in parallelo. NO Vero
previous_response_id corda ID univoco della risposta precedente al modello. Usare questa opzione per
creare conversazioni a più turni.
NO
prompt oggetto Riferimento a un modello di richiesta e alle relative variabili.
NO
└* id corda Identificatore univoco del modello di richiesta da utilizzare. NO
** └─ Variabili OpenAI.ResponsePromptVariables Mappa facoltativa di valori da sostituire con le variabili nella
richiesta. I valori di sostituzione possono essere stringhe o altri
Tipi di input di risposta come immagini o file.
NO
└─ versione corda Versione facoltativa del modello di richiesta. NO
reasoning oggetto solo modelli di ragionamento

Opzioni di configurazione per
modelli di ragionamento.
NO
└* sforzo Sforzo di Ragionamento OpenAI solo modelli di ragionamento

Vincola lo sforzo sul ragionamento per
modelli di ragionamento.
I valori attualmente supportati sono low, medium e high. Ridurre
l'impegno di ragionamento può comportare risposte più veloci e meno token usati
sul ragionamento in una risposta.
NO
└─ genera_sommario enum Deprecato: usare summary invece.

Riepilogo del ragionamento eseguito dal modello. Può trattarsi di
utile per eseguire il debug e comprendere il processo di ragionamento del modello.
Uno tra auto, concise e detailed.
Valori possibili: auto, concise, detailed
NO
└─ Riepilogo enum Riepilogo del ragionamento eseguito dal modello. Può trattarsi di
utile per eseguire il debug e comprendere il processo di ragionamento del modello.
Uno tra auto, concise e detailed.
Valori possibili: auto, concise, detailed
NO
store boolean Indica se archiviare la risposta del modello generata per il recupero successivo tramite
API.
NO Vero
torrente boolean Se impostato su true, i dati di risposta del modello verranno trasmessi al client
generato tramite eventi inviati dal server.
Vedere la sezione Streaming di seguito
per altre informazioni.
NO Falso
temperatura numero Temperatura di campionamento da usare, compresa tra 0 e 2. Valori più elevati come 0.8 renderanno l'output più casuale, mentre valori più bassi come 0.2 lo renderanno più mirato e deterministico.
In genere si consiglia di modificare questo valore o top_p ma non entrambi.
NO 1
Testo oggetto Opzioni di configurazione per una risposta di testo dal modello. Possono essere
dati JSON strutturati o semplice testo. Altre informazioni: Output strutturati
NO
└* formato OpenAI.ResponseTextFormatConfiguration NO
tool_choice oggetto Controlla quale strumento (se presente) viene chiamato dal modello.

none indica che il modello non chiamerà alcuno strumento e genera invece un messaggio.

auto indica che il modello può scegliere tra la generazione di un messaggio o la chiamata di uno o
più strumenti

required indica che il modello deve chiamare uno o più strumenti.
NO
└─ Tipo OpenAI.ToolChoiceObjectType Indica che il modello deve usare uno strumento predefinito per generare una risposta. NO
strumenti array Una matrice di strumenti che il modello può chiamare durante la generazione di una risposta. Tu
può specificare quale strumento usare impostando il tool_choice parametro .

Le due categorie di strumenti che è possibile fornire al modello sono:

- Strumenti integrati: strumenti forniti da OpenAI che estendono
funzionalità del modello, ad esempio la ricerca di file.
- Chiamate di funzione (strumenti personalizzati): funzioni definite dall'utente,
abilitazione del modello a chiamare il proprio codice.
NO
top_logprobs numero intero Un numero intero compreso tra 0 e 20 che specifica il numero di token più probabili da restituire in ogni posizione del token, ognuno con una probabilità di log associata. NO
top_p numero Un'alternativa al campionamento con temperatura, denominata campionamento nucleo,
dove il modello considera i risultati dei token con probabilità top_p
massa. Quindi 0,1 significa solo i token che comprendono il 10% superiore della massa di probabilità%
sono considerati.

In genere si consiglia di modificare questo valore o temperature ma non entrambi.
NO 1
truncation enum Strategia di troncamento da usare per la risposta del modello.
- auto: se il contesto di questa risposta e quelli precedenti supera
la dimensione della finestra di contesto del modello, il modello troncherà la
risposta per adattare la finestra di contesto eliminando gli elementi di input nel
nel mezzo della conversazione
- disabled (impostazione predefinita): se una risposta del modello supera la finestra di contesto
dimensione per un modello, la richiesta fallirà con un errore 400.
Valori possibili: auto, disabled
NO
utente corda Identificatore univoco che rappresenta l'utente finale, che consente a OpenAI di monitorare e rilevare gli abusi. NO

AzureErrorResponse

Nome TIPO Descrzione Obbligatorio Default
Errore oggetto Dettagli dell'errore. NO
└─ codice corda Identificatore distinto generato dal computer per l'errore. NO
└─ errore_interno NO
└* messaggio corda Messaggio leggibile associato all'errore. NO
└* param corda Se applicabile, il parametro di input della richiesta associato all'errore NO
└─ Tipo enum Tipo di oggetto, sempre 'error'.
Valori possibili: error
NO

AzureEvalAPICompletionsSamplingParams

Nome TIPO Descrzione Obbligatorio Default
chiamate_parallele_agli_strumenti boolean NO
formato_risposta OpenAI.ResponseTextFormatConfiguration NO
strumenti array NO

AzureEvalAPIModelSamplingParams

Nome TIPO Descrzione Obbligatorio Default
numero massimo di token numero intero Numero massimo di token nell'output generato. NO
sforzo di ragionamento enum Controllare il livello di sforzo di ragionamento applicato durante la generazione.
Valori possibili: low, medium, high
NO
seed numero intero Valore di inizializzazione per inizializzare la casualità durante il campionamento. NO
temperatura numero Una temperatura più elevata aumenta la casualità negli output. NO
top_p numero Un'alternativa alla temperatura per il campionamento del nucleo; 1.0 include tutti i token. NO

AzureEvalAPIResponseSamplingParams

Nome TIPO Descrzione Obbligatorio Default
chiamate_parallele_agli_strumenti boolean NO
formato_risposta OpenAI.ResponseTextFormatConfiguration NO
strumenti array NO

AzureFileExpiryAnchor

Proprietà Value
Tipo corda
Valori created_at

AzureFineTuneReinforcementMethod

Nome TIPO Descrzione Obbligatorio Default
cernitore oggetto Oggetto StringCheckGrader che esegue un confronto di stringhe tra input e riferimento usando un'operazione specificata.
└' calculate_output corda Formula per calcolare l'output in base ai risultati del classificatore. NO
└' evaluation_metric enum Metrica di valutazione da usare. Uno di fuzzy_match, bleu, gleu, meteor, rouge_1, rouge_2, rouge_3, rouge_4, rouge_5 o rouge_l.
Valori possibili: fuzzy_match, bleu, gleumeteor, rouge_1, rouge_2, rouge_3, rouge_4, rouge_5rouge_l
NO
└️ voti oggetto NO
└ Input array Testo di input. Ciò può includere stringhe di modello. NO
└─ Modello corda Modello da utilizzare per la valutazione. NO
└> nome corda Nome del grader. NO
└─ Operazione enum Operazione di controllo della stringa da eseguire. Uno tra eq, ne, like o ilike.
Valori possibili: eq, ne, like, ilike
NO
└* intervallo array La gamma del punteggio. Il valore predefinito è [0, 1]. NO
Riferimento corda Testo che viene valutato. NO
└sampling_params Parametri di campionamento per il modello. NO
└─ Tipo enum Il tipo di oggetto, che è sempre multi.
Valori possibili: multi
NO
iperparametri OpenAI.FineTuneReinforcementHyperparameters Iperparametri usati per il processo di ottimizzazione per rinforzo. NO
formato_risposta oggetto NO
└ json_schema oggetto Schema JSON per il formato di risposta NO
└─ Tipo enum Tipo di formato della risposta
Valori possibili: json_schema
NO

AzureListFilesResponse

Nome TIPO Descrzione Obbligatorio Default
data array
first_id corda
ha_di_piu boolean
last_id corda
oggetto enum
Valori possibili: list

AzureOpenAIFile

Nome TIPO Descrzione Obbligatorio Default
bytes numero intero Le dimensioni del file in byte.
creato_il numero intero Timestamp Unix (in secondi) per la creazione del file.
scade_il numero intero Timestamp Unix (in secondi) per la scadenza del file. NO
filename corda Nome del file.
id corda Identificatore di file a cui è possibile fare riferimento negli endpoint dell'API.
oggetto enum Il tipo di oggetto, che è sempre file.
Valori possibili: file
purpose enum Scopo previsto del file. I valori supportati sono assistants, assistants_output, batch, batch_output, fine-tune e fine-tune-results.
Valori possibili: assistants, assistants_output, batch, batch_output, fine-tune, fine-tune-results, evals
stato enum
Valori possibili: uploaded, pending, running, processed, error, deleting, deleted
dettagli dello stato corda Deprecated. Per informazioni dettagliate sul motivo per cui la convalida di un file di training di ottimizzazione non è riuscita, vedere il campo error in fine_tuning.job. NO

AzurePiiSubCategoryResult

Dettagli dei risultati per singoli PIIHarmSubCategory(s).

Nome TIPO Descrzione Obbligatorio Default
detected boolean Indica se la sottocategoria contenuto etichettata è stata rilevata nel contenuto.
filtered boolean Indica se il rilevamento del contenuto ha generato un'azione di filtro del contenuto per questa sottocategoria.
Redatto boolean Indica se il contenuto è stato redatto per questa sottocategoria.
sub_category corda PIIHarmSubCategory valutato.

AzureResponse

Nome TIPO Descrzione Obbligatorio Default
sfondo boolean Indica se eseguire la risposta del modello in background.
Ulteriori informazioni.
NO Falso
creato_il numero intero Timestamp Unix (in secondi) di quando è stata creata questa risposta.
Errore oggetto Oggetto di errore restituito quando il modello non riesce a generare una risposta.
└─ codice OpenAI.ResponseErrorCode Codice di errore per la risposta. NO
└* messaggio corda Descrizione leggibile dell'errore. NO
id corda Identificatore univoco per questa risposta.
incomplete_details oggetto Informazioni dettagliate sul motivo per cui la risposta è incompleta.
└* motivo enum Motivo per cui la risposta è incompleta.
Valori possibili: max_output_tokens, content_filter
NO
instructions stringa o matrice
max_output_tokens numero intero Limite superiore per il numero di token che possono essere generati per una risposta, inclusi i token di output visibili e i token di ragionamento. NO
max_tool_calls numero intero Numero massimo di chiamate totali agli strumenti predefiniti che possono essere elaborati in una risposta. Questo numero massimo si applica a tutte le chiamate di strumenti predefinite, non a ogni singolo strumento. Eventuali altri tentativi di chiamare uno strumento da parte del modello verranno ignorati. NO
metadata oggetto Set di 16 coppie chiave-valore che possono essere collegate a un oggetto. Può trattarsi di
utile per archiviare informazioni aggiuntive sull'oggetto in un oggetto strutturato
formattare ed eseguire query per gli oggetti tramite l'API o il dashboard.

Le chiavi sono stringhe con una lunghezza massima di 64 caratteri. I valori sono stringhe
con una lunghezza massima di 512 caratteri.
model corda Modello usato per generare questa risposta.
oggetto enum Tipo di oggetto di questa risorsa: sempre impostato su response.
Valori possibili: response
output array Matrice di elementi di contenuto generati dal modello.

- La lunghezza e l'ordine degli elementi nella output matrice dipendono
sulla risposta del modello.
- Anziché accedere al primo elemento nella matrice output e
presupponendo che si tratti di un assistant messaggio con il contenuto generato da
il modello, è consigliabile usare la proprietà output_text se
supportato negli SDK.
output_text corda Proprietà pratica di SDK che contiene l'output di testo aggregato
da tutti gli output_text elementi nella output matrice, se presenti.
Supportato negli SDK Python e JavaScript.
NO
chiamate_parallele_agli_strumenti boolean Indica se consentire al modello di eseguire chiamate degli strumenti in parallelo. Vero
previous_response_id corda ID univoco della risposta precedente al modello. Usare questa opzione per
creare conversazioni a più turni.
NO
prompt oggetto Riferimento a un modello di richiesta e alle relative variabili.
NO
└* id corda Identificatore univoco del modello di richiesta da utilizzare. NO
** └─ Variabili OpenAI.ResponsePromptVariables Mappa facoltativa di valori da sostituire con le variabili nella
richiesta. I valori di sostituzione possono essere stringhe o altri
Tipi di input di risposta come immagini o file.
NO
└─ versione corda Versione facoltativa del modello di richiesta. NO
reasoning oggetto solo modelli di ragionamento

Opzioni di configurazione per
modelli di ragionamento.
NO
└* sforzo Sforzo di Ragionamento OpenAI solo modelli di ragionamento

Vincola lo sforzo sul ragionamento per
modelli di ragionamento.
I valori attualmente supportati sono low, medium e high. Ridurre
l'impegno di ragionamento può comportare risposte più veloci e meno token usati
sul ragionamento in una risposta.
NO
└─ genera_sommario enum Deprecato: usare summary invece.

Riepilogo del ragionamento eseguito dal modello. Può trattarsi di
utile per eseguire il debug e comprendere il processo di ragionamento del modello.
Uno tra auto, concise e detailed.
Valori possibili: auto, concise, detailed
NO
└─ Riepilogo enum Riepilogo del ragionamento eseguito dal modello. Può trattarsi di
utile per eseguire il debug e comprendere il processo di ragionamento del modello.
Uno tra auto, concise e detailed.
Valori possibili: auto, concise, detailed
NO
stato enum Stato della generazione della risposta. Uno di completed, failed,
in_progress, cancelled, queued, o incomplete.
Valori possibili: completed, failedin_progress, cancelled, , queuedincomplete
NO
temperatura numero Temperatura di campionamento da usare, compresa tra 0 e 2. Valori più elevati come 0.8 renderanno l'output più casuale, mentre valori più bassi come 0.2 lo renderanno più mirato e deterministico.
In genere si consiglia di modificare questo valore o top_p ma non entrambi.
Testo oggetto Opzioni di configurazione per una risposta di testo dal modello. Possono essere
dati JSON strutturati o semplice testo. Altre informazioni: Output strutturati
NO
└* formato OpenAI.ResponseTextFormatConfiguration NO
tool_choice oggetto Controlla quale strumento (se presente) viene chiamato dal modello.

none indica che il modello non chiamerà alcuno strumento e genera invece un messaggio.

auto indica che il modello può scegliere tra la generazione di un messaggio o la chiamata di uno o
più strumenti

required indica che il modello deve chiamare uno o più strumenti.
NO
└─ Tipo OpenAI.ToolChoiceObjectType Indica che il modello deve usare uno strumento predefinito per generare una risposta. NO
strumenti array Una matrice di strumenti che il modello può chiamare durante la generazione di una risposta. Tu
può specificare quale strumento usare impostando il tool_choice parametro .

Le due categorie di strumenti che è possibile fornire al modello sono:

- Strumenti integrati: strumenti forniti da OpenAI che estendono
le funzionalità del modello, ad esempio ricerca Web o ricerca di file.
NO
top_logprobs numero intero Un numero intero compreso tra 0 e 20 che specifica il numero di token più probabili da restituire in ogni posizione del token, ognuno con una probabilità di log associata. NO
top_p numero Un'alternativa al campionamento con temperatura, denominata campionamento nucleo,
dove il modello considera i risultati dei token con probabilità top_p
massa. Quindi 0,1 significa solo i token che comprendono il 10% superiore della massa di probabilità%
sono considerati.

In genere si consiglia di modificare questo valore o temperature ma non entrambi.
truncation enum Strategia di troncamento da usare per la risposta del modello.
- auto: se il contesto di questa risposta e quelli precedenti supera
la dimensione della finestra di contesto del modello, il modello troncherà la
risposta per adattare la finestra di contesto eliminando gli elementi di input nel
nel mezzo della conversazione
- disabled (impostazione predefinita): se una risposta del modello supera la finestra di contesto
dimensione per un modello, la richiesta fallirà con un errore 400.
Valori possibili: auto, disabled
NO
usage OpenAI.ResponseUsage Rappresenta i dettagli di utilizzo dei token, inclusi i token di input, i token di output,
suddivisione dei token di output e dei token totali usati.
NO
utente corda Identificatore univoco che rappresenta l'utente finale, che consente a OpenAI di monitorare e rilevare gli abusi.

AzureSearchChatDataSource

Rappresenta una configurazione dell'origine dati che userà una risorsa di Ricerca di Azure.

Nome TIPO Descrzione Obbligatorio Default
parameters oggetto Informazioni sui parametri per controllare l'utilizzo dell'origine dati di Azure Search.
└─ consenti_risultato_parziale boolean Se impostato su true, il sistema consentirà l'uso di risultati parziali della ricerca e la richiesta avrà esito negativo se tutti i risultati della ricerca non saranno disponibili.
le query parziali hanno esito negativo. Se non specificato, o specificato come false, la richiesta avrà esito negativo se una query di ricerca ha esito negativo.
NO Falso
Autenticazione oggetto NO
└─ access_token corda NO
└─ tasto corda NO
└managed_identity_resource_id corda NO
└─ Tipo enum
Valori possibili: access_token
NO
└─ dipendenza_embedded oggetto Rappresenta un'origine di vettorizzazione che effettua chiamate di servizio pubblico a una distribuzione del modello di incorporamento di Azure OpenAI. NO
Autenticazione AzureChatDataSourceApiKeyAuthenticationOptions o AzureChatDataSourceAccessTokenAuthenticationOptions Meccanismo di autenticazione da usare con la fonte di vettorializzazione basata sugli endpoint.
L'autenticazione degli endpoint supporta meccanismi di chiave API e token di accesso.
NO
└─ nome_distribuzione corda Distribuzione del modello di embedding da usare per la vettorizzazione. Questa distribuzione deve esistere all'interno della stessa istanza di Azure OpenAI
risorsa come quella del modello di distribuzione utilizzato per i completamenti della chat.
NO
└─ dimensioni numero intero Numero di dimensioni da richiedere per gli incorporamenti.
Supportato solo nei modelli "text-embedding-3" e versioni successive.
NO
Endpoint └* corda Specifica l'URL dell'endpoint della risorsa da cui recuperare gli incorporamenti.
Deve essere nel formato di:
https://YOUR_RESOURCE_NAME.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT_NAME/embeddings.
Il parametro di query api-version non è consentito.
NO
└─ Tipo enum Identificatore del tipo, sempre "integrato" per questo tipo di origine di vettorizzazione.
Valori possibili: integrated
NO
Endpoint └* corda Percorso assoluto dell'endpoint per la risorsa di Ricerca di Azure da usare. NO
└ fields_mapping oggetto Mappature dei campi da utilizzare con la risorsa di Azure Search. NO
└content_fields array I nomi dei campi di indice che devono essere gestiti come contenuto. NO
└─content_fields_separator corda Il modello separatore che devono usare i campi di contenuto. NO
└filepath_field corda Il nome del campo di indice da usare come percorso file. NO
└─ campi_di_vettore_immagine array Il nome dei campi che rappresentano i dati del vettore dell’immagine. NO
└─ campo_titolo corda Il nome del campo indice da usare come titolo. NO
└url_field corda Nome del campo di indice da usare come URL. NO
└vector_fields array Nomi dei campi che rappresentano dati vettoriali. NO
└─ Filtro corda Filtro da applicare alla ricerca. NO
└ in_scope boolean Indica se le query devono essere limitate all'uso dei dati indicizzati. NO
└include_contexts array Proprietà del contesto di output da includere nella risposta.
Per impostazione predefinita, verranno richieste citazioni e finalità.
NO ['citazioni', 'intento']
└ index_name corda Nome dell'indice da usare, come specificato nella risorsa di Ricerca di Azure. NO
└max_search_queries numero intero Numero massimo di query riscritte che devono essere inviate al provider di ricerca per un singolo messaggio utente.
Per impostazione predefinita, il sistema effettuerà una determinazione automatica.
NO
└query_type enum Tipo di query da usare per la risorsa di Ricerca di Azure.
Valori possibili: simple, semanticvector, , vector_simple_hybrid,vector_semantic_hybrid
NO
└─ configurazione_semantica corda Configurazione semantica aggiuntiva per la query. NO
└* rigidità numero intero La rigidità configurata del filtro di pertinenza della ricerca.
Una maggiore rigidità aumenterà la precisione, ma diminuirà il richiamo della risposta.
NO
└top_n_documents numero intero Il numero configurato di documenti da includere nella query. NO
type enum Identificatore di tipo discriminato, che è sempre "azure_search".
Valori possibili: azure_search

AzureUserSecurityContext

Il contesto di sicurezza utente contiene diversi parametri che descrivono l'applicazione stessa e l'utente finale che interagisce con l'applicazione. Questi campi sono utili al team delle operazioni per la sicurezza per analizzare e mitigare gli incidenti di sicurezza fornendo un approccio esaustivo alla protezione delle applicazioni IA. Altre informazioni sulla protezione delle applicazioni di IA con Microsoft Defender per il cloud.

Nome TIPO Descrzione Obbligatorio Default
application_name corda Nome dell'applicazione. I dati personali sensibili non devono essere inclusi in questo campo. NO
end_user_id corda Questo identificatore è il Microsoft Entra ID (in precedenza Azure Active Directory) usato per autenticare gli utenti finali all'interno dell'applicazione di IA generativa. I dati personali sensibili non devono essere inclusi in questo campo. NO
end_user_tenant_id corda ID del tenant di Microsoft 365 a cui appartiene l'utente finale. È necessario quando l'applicazione di intelligenza artificiale generativa è multi-tenant. NO
source_ip corda Acquisisce l'indirizzo IP del client originale. NO

ChatCompletionMessageToolCallsItem

Le chiamate degli strumenti generate dal modello, ad esempio le chiamate di funzioni.

Matrice di: OpenAI.ChatCompletionMessageToolCall

CopiedAccountDetails

Nome TIPO Descrzione Obbligatorio Default
destinationResourceId corda ID della risorsa di destinazione in cui è stato copiato il modello.
region corda Area in cui è stato copiato il modello.
stato enum Stato dell'operazione di copia.
Valori possibili: Completed, Failed, InProgress

CopyModelRequest

Nome TIPO Descrzione Obbligatorio Default
destinationResourceId corda ID della risorsa di destinazione da copiare.
region corda Area in cui copiare il modello.

CopyModelResponse

Nome TIPO Descrzione Obbligatorio Default
checkpointedModelName corda ID del modello copiato.
copiedAccountDetails array ID dell'ID risorsa di destinazione in cui è stato copiato
fineTuningJobId corda ID del processo di ottimizzazione da cui è stato copiato il checkpoint.

ElasticsearchChatDataSource

Nome TIPO Descrzione Obbligatorio Default
parameters oggetto Informazioni sui parametri per controllare l'uso dell'origine dati Elasticsearch.
└─ consenti_risultato_parziale boolean Se impostato su true, il sistema consentirà l'uso di risultati parziali della ricerca e la richiesta avrà esito negativo se tutti i risultati della ricerca non saranno disponibili.
le query parziali hanno esito negativo. Se non specificato, o specificato come false, la richiesta avrà esito negativo se una query di ricerca ha esito negativo.
NO Falso
Autenticazione oggetto NO
└─ chiave_api_cifrata corda NO
└─ tasto corda NO
└─key_id corda NO
└─ Tipo enum
Valori possibili: encoded_api_key
NO
└─ dipendenza_embedded AzureChatDataSourceVectorizationSource Rappresentazione di un'origine di vettorizzazione dei dati utilizzabile come risorsa di incapsulamento con un'origine di dati. NO
Endpoint └* corda NO
└ fields_mapping oggetto NO
└content_fields array NO
└─content_fields_separator corda NO
└filepath_field corda NO
└─ campo_titolo corda NO
└url_field corda NO
└vector_fields array NO
└ in_scope boolean Indica se le query devono essere limitate all'uso dei dati indicizzati. NO
└include_contexts array Proprietà del contesto di output da includere nella risposta.
Per impostazione predefinita, verranno richieste citazioni e finalità.
NO ['citazioni', 'intento']
└ index_name corda NO
└max_search_queries numero intero Numero massimo di query riscritte che devono essere inviate al provider di ricerca per un singolo messaggio utente.
Per impostazione predefinita, il sistema effettuerà una determinazione automatica.
NO
└query_type enum
Valori possibili: simple, vector
NO
└* rigidità numero intero La rigidità configurata del filtro di pertinenza della ricerca.
Una maggiore rigidità aumenterà la precisione, ma diminuirà il richiamo della risposta.
NO
└top_n_documents numero intero Il numero configurato di documenti da includere nella query. NO
type enum Identificatore di tipo discriminato, che è sempre "elasticsearch".
Valori possibili: elasticsearch

MongoDBChatDataSource

Nome TIPO Descrzione Obbligatorio Default
parameters oggetto Informazioni sui parametri per controllare l'uso dell'origine dati MongoDB.
└─ consenti_risultato_parziale boolean Se impostato su true, il sistema consentirà l'uso di risultati parziali della ricerca e la richiesta avrà esito negativo se tutti i risultati della ricerca non saranno disponibili.
le query parziali hanno esito negativo. Se non specificato, o specificato come false, la richiesta avrà esito negativo se una query di ricerca ha esito negativo.
NO Falso
└ app_name corda Nome dell'applicazione MongoDB. NO
Autenticazione oggetto NO
└ password corda NO
└─ Tipo enum
Valori possibili: username_and_password
NO
└\ nome utente corda NO
└collection_name corda Nome della raccolta MongoDB. NO
└─database_name corda Nome del database MongoDB. NO
└─ dipendenza_embedded oggetto Rappresenta un'origine di vettorizzazione che effettua chiamate di servizio pubblico a una distribuzione del modello di incorporamento di Azure OpenAI. NO
Autenticazione AzureChatDataSourceApiKeyAuthenticationOptions o AzureChatDataSourceAccessTokenAuthenticationOptions Meccanismo di autenticazione da usare con la fonte di vettorializzazione basata sugli endpoint.
L'autenticazione degli endpoint supporta meccanismi di chiave API e token di accesso.
NO
└─ nome_distribuzione corda Distribuzione del modello di embedding da usare per la vettorizzazione. Questa distribuzione deve esistere all'interno della stessa istanza di Azure OpenAI
risorsa come quella del modello di distribuzione utilizzato per i completamenti della chat.
NO
└─ dimensioni numero intero Numero di dimensioni da richiedere per gli incorporamenti.
Supportato solo nei modelli "text-embedding-3" e versioni successive.
NO
Endpoint └* corda Specifica l'URL dell'endpoint della risorsa da cui recuperare gli incorporamenti.
Deve essere nel formato di:
https://YOUR_RESOURCE_NAME.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT_NAME/embeddings.
Il parametro di query api-version non è consentito.
NO
└─ Tipo enum Identificatore del tipo, sempre "deployment_name" per questo tipo di origine di vettorizzazione.
Valori possibili: deployment_name
NO
Endpoint └* corda Nome dell'endpoint del cluster MongoDB. NO
└ fields_mapping oggetto Mappature dei campi da applicare ai dati utilizzati dalla sorgente dati MongoDB.
Si noti che i mapping del contenuto e dei campi vettoriali sono necessari per MongoDB.
NO
└content_fields array NO
└─content_fields_separator corda NO
└filepath_field corda NO
└─ campo_titolo corda NO
└url_field corda NO
└vector_fields array NO
└ in_scope boolean Indica se le query devono essere limitate all'uso dei dati indicizzati. NO
└include_contexts array Proprietà del contesto di output da includere nella risposta.
Per impostazione predefinita, verranno richieste citazioni e finalità.
NO ['citazioni', 'intento']
└ index_name corda Nome dell'indice MongoDB. NO
└max_search_queries numero intero Numero massimo di query riscritte che devono essere inviate al provider di ricerca per un singolo messaggio utente.
Per impostazione predefinita, il sistema effettuerà una determinazione automatica.
NO
└* rigidità numero intero La rigidità configurata del filtro di pertinenza della ricerca.
Una maggiore rigidità aumenterà la precisione, ma diminuirà il richiamo della risposta.
NO
└top_n_documents numero intero Il numero configurato di documenti da includere nella query. NO
type enum L'identificatore di tipo discriminato, che è sempre "mongo_db".
Valori possibili: mongo_db

OpenAI.Annotation

Discriminare per OpenAI.Annotation

Questo componente usa la proprietà type per distinguere tra tipi diversi:

Valore tipo Schema
file_citation OpenAI.AnnotationFileCitation
url_citation OpenAI.AnnotationUrlCitation
file_path OpenAI.AnnotationFilePath
Nome TIPO Descrzione Obbligatorio Default
type OpenAI.AnnotationType

OpenAI.AnnotationFileCitation

Citazione in un file.

Nome TIPO Descrzione Obbligatorio Default
ID del file corda ID del file.
filename corda Nome file del file citato.
indice numero intero Indice del file nell'elenco di file.
type enum Tipo di citazione del file. Sempre file_citation.
Valori possibili: file_citation

OpenAI.AnnotationFilePath

Percorso di un file.

Nome TIPO Descrzione Obbligatorio Default
ID del file corda ID del file.
indice numero intero Indice del file nell'elenco di file.
type enum Tipo del percorso del file. Sempre file_path.
Valori possibili: file_path

OpenAI.AnnotationType

Proprietà Value
Tipo corda
Valori file_citation
url_citation
file_path
container_file_citation

OpenAI.AnnotationUrlCitation

Citazione per una risorsa Web usata per generare una risposta del modello.

Nome TIPO Descrzione Obbligatorio Default
end_index numero intero Indice dell'ultimo carattere della citazione URL nel messaggio.
start_index numero intero Indice del primo carattere della citazione URL nel messaggio.
title corda Titolo della risorsa Web.
type enum Tipo di citazione URL. Sempre url_citation.
Valori possibili: url_citation
URL. corda URL della risorsa Web.

OpenAI.PosizioneApprossimativa

Nome TIPO Descrzione Obbligatorio Default
città corda NO
country corda NO
region corda NO
timezone corda NO
type enum
Valori possibili: approximate

OpenAI.AutoChunkingStrategyRequestParam

Strategia predefinita. Attualmente, questa strategia usa un max_chunk_size_tokens di 800 e chunk_overlap_tokens di 400.

Nome TIPO Descrzione Obbligatorio Default
type enum Sempre auto.
Valori possibili: auto

OpenAI.ChatCompletionFunctionCallOption

Specificare una determinata funzione tramite {"name": "my_function"} impone al modello di chiamare tale funzione.

Nome TIPO Descrzione Obbligatorio Default
nome corda Nome della funzione da chiamare.

OpenAI.ChatCompletionFunctions

Nome TIPO Descrzione Obbligatorio Default
descrizione corda Descrizione delle operazioni della funzione, usate dal modello per scegliere quando e come chiamare la funzione. NO
nome corda Nome della funzione che deve essere chiamata. Deve essere a-z, A-Z, 0-9 o contenere caratteri di sottolineatura e trattini, con una lunghezza massima di 64 caratteri.
parameters I parametri accettati dalle funzioni, descritti come oggetto Schema JSON.
Vedere le informazioni di riferimento sullo schema JSON
per la documentazione sul formato.

L'omissione di parameters definisce una funzione con un elenco di parametri vuoto.
NO

OpenAI.ChatCompletionMessageAudioChunk

Nome TIPO Descrzione Obbligatorio Default
data corda NO
scade_il numero intero NO
id corda NO
transcript corda NO

OpenAI.ChatCompletionMessageToolCall

Nome TIPO Descrzione Obbligatorio Default
funzione oggetto Funzione chiamata dal modello.
└─ Argomenti corda Argomenti con cui chiamare la funzione, come generato dal modello in formato JSON. Il modello non genera sempre codice JSON valido e può generare allucinazioni con parametri non definiti nello schema della funzione. Convalidare gli argomenti nel codice prima di chiamare la funzione. NO
└> nome corda Nome della funzione da chiamare. NO
id corda ID della chiamata allo strumento.
type enum Tipo dello strumento. Attualmente è supportato solo function.
Valori possibili: function

OpenAI.ChatCompletionMessageToolCallChunk

Nome TIPO Descrzione Obbligatorio Default
funzione oggetto NO
└─ Argomenti corda Argomenti con cui chiamare la funzione, come generato dal modello in formato JSON. Il modello non genera sempre codice JSON valido e può generare allucinazioni con parametri non definiti nello schema della funzione. Convalidare gli argomenti nel codice prima di chiamare la funzione. NO
└> nome corda Nome della funzione da chiamare. NO
id corda ID della chiamata allo strumento. NO
indice numero intero
type enum Tipo dello strumento. Attualmente è supportato solo function.
Valori possibili: function
NO

OpenAI.ChatCompletionNamedToolChoice

Specifica uno strumento che il modello deve usare. Usare per forzare il modello a chiamare una funzione specifica.

Nome TIPO Descrzione Obbligatorio Default
funzione oggetto
└> nome corda Nome della funzione da chiamare. NO
type enum Tipo dello strumento. Attualmente è supportato solo function.
Valori possibili: function

OpenAI.ChatCompletionRequestAssistantMessage

Messaggi inviati dal modello in risposta ai messaggi utente.

Nome TIPO Descrzione Obbligatorio Default
audio oggetto Dati relativi a una risposta audio precedente dal modello. NO
└* id corda Identificatore univoco per una risposta audio precedente dal modello. NO
contenuto stringa o matrice NO
function_call oggetto Deprecato e sostituito da tool_calls. Nome e argomenti di una funzione che deve essere chiamata, come generati dal modello. NO
└─ Argomenti corda NO
└> nome corda NO
nome corda Nome facoltativo per il partecipante. Fornisce le informazioni sul modello per distinguere i partecipanti con lo stesso ruolo. NO
refusal corda Messaggio di rifiuto dell'assistente. NO
ruolo enum Il ruolo dell'autore dei messaggi, in questo caso assistant.
Valori possibili: assistant
tool_calls ChatCompletionMessageToolCallsItem Le chiamate degli strumenti generate dal modello, ad esempio le chiamate di funzioni. NO

OpenAI.ChatCompletionRequestAssistantMessageContentPart

Nome TIPO Descrzione Obbligatorio Default
refusal corda Messaggio di rifiuto generato dal modello.
Testo corda Contenuto di testo.
type enum Tipo della parte di contenuto.
Valori possibili: refusal

OpenAI.ChatCompletionRequestDeveloperMessage

Istruzioni fornite dallo sviluppatore che il modello deve seguire, indipendentemente dai messaggi inviati dall'utente. Con i modelli o1 e versioni successive, i messaggi developer sostituiscono i messaggi system precedenti.

Nome TIPO Descrzione Obbligatorio Default
contenuto stringa o matrice
nome corda Nome facoltativo per il partecipante. Fornisce le informazioni sul modello per distinguere i partecipanti con lo stesso ruolo. NO
ruolo enum Il ruolo dell'autore dei messaggi, in questo caso developer.
Valori possibili: developer

OpenAI.ChatCompletionRequestFunctionMessage

Nome TIPO Descrzione Obbligatorio Default
contenuto corda Contenuto del messaggio della funzione.
nome corda Nome della funzione da chiamare.
ruolo enum Il ruolo dell'autore dei messaggi, in questo caso function.
Valori possibili: function

OpenAI.ChatCompletionRequestMessage

Discriminare per OpenAI.ChatCompletionRequestMessage

Questo componente usa la proprietà role per distinguere tra tipi diversi:

Valore tipo Schema
system OpenAI.ChatCompletionRequestSystemMessage
developer OpenAI.ChatCompletionRequestDeveloperMessage
user OpenAI.ChatCompletionRequestUserMessage
assistant OpenAI.ChatCompletionRequestAssistantMessage
tool OpenAI.ChatCompletionRequestToolMessage
function OpenAI.ChatCompletionRequestFunctionMessage
Nome TIPO Descrzione Obbligatorio Default
contenuto stringa o matrice NO
ruolo oggetto Ruolo dell'autore di un messaggio

OpenAI.ChatCompletionRequestMessageContentPart

Discriminatore per OpenAI.ChatCompletionRequestMessageContentPart

Questo componente usa la proprietà type per distinguere tra tipi diversi:

Valore tipo Schema
text OpenAI.ChatCompletionRequestMessageContentPartText
image_url OpenAI.ChatCompletionRequestMessageContentPartImage
refusal OpenAI.ChatCompletionRequestMessageContentPartRefusal
file OpenAI.ChatCompletionRequestMessageContentPartFile
input_audio OpenAI.ChatCompletionRequestMessageContentPartAudio
Nome TIPO Descrzione Obbligatorio Default
type OpenAI.ChatCompletionRequestMessageContentPartType

OpenAI.ChatCompletionRequestMessageContentPartAudio

Nome TIPO Descrzione Obbligatorio Default
input_audio oggetto
└* dati corda Dati audio con codifica Base64. NO
└* formato enum Formato dei dati audio codificati. Attualmente supporta "wav" e "mp3".
Valori possibili: wav, mp3
NO
type enum Tipo della parte di contenuto. Sempre input_audio.
Valori possibili: input_audio

OpenAI.ChatCompletionRequestMessageContentPartFile

Nome TIPO Descrzione Obbligatorio Default
documento oggetto
└file_data corda Dati di file con codifica Base64, usati quando si passa il file al modello
come stringa.
NO
└ file_id corda ID di un file caricato da usare come input. NO
└─ nome file corda Nome del file, utilizzato quando si passa il file al modello come
string.
NO
type enum Tipo della parte di contenuto. Sempre file.
Valori possibili: file

OpenAI.ChatCompletionRequestMessageContentPartImage

Nome TIPO Descrzione Obbligatorio Default
image_url oggetto
└─ dettaglio enum Specifica il livello di dettaglio dell'immagine.
Valori possibili: auto, low, high
NO
└─ URL corda URL dell'immagine o dati dell'immagine con codifica base64. NO
type enum Tipo della parte di contenuto.
Valori possibili: image_url

OpenAI.ChatCompletionRequestMessageContentPartRefusal

Nome TIPO Descrzione Obbligatorio Default
refusal corda Messaggio di rifiuto generato dal modello.
type enum Tipo della parte di contenuto.
Valori possibili: refusal

OpenAI.ChatCompletionRequestMessageContentPartText

Nome TIPO Descrzione Obbligatorio Default
Testo corda Contenuto di testo.
type enum Tipo della parte di contenuto.
Valori possibili: text

OpenAI.ChatCompletionRequestMessageContentPartType

Proprietà Value
Tipo corda
Valori text
file
input_audio
image_url
refusal

OpenAI.ChatCompletionRequestSystemMessage

Istruzioni fornite dallo sviluppatore che il modello deve seguire, indipendentemente dai messaggi inviati dall'utente. Con i modelli o1 e versioni successive, usare i messaggi developer invece per questo scopo.

Nome TIPO Descrzione Obbligatorio Default
contenuto stringa o matrice
nome corda Nome facoltativo per il partecipante. Fornisce le informazioni sul modello per distinguere i partecipanti con lo stesso ruolo. NO
ruolo enum Il ruolo dell'autore dei messaggi, in questo caso system.
Valori possibili: system

OpenAI.ChatCompletionRequestSystemMessageContentPart

Riferimenti: OpenAI.ChatCompletionRequestMessageContentPartText

OpenAI.ChatCompletionRequestToolMessage

Nome TIPO Descrzione Obbligatorio Default
contenuto stringa o matrice
ruolo enum Il ruolo dell'autore dei messaggi, in questo caso tool.
Valori possibili: tool
tool_call_id corda Chiamata dello strumento a cui risponde questo messaggio.

OpenAI.ChatCompletionRequestToolMessageContentPart

Riferimenti: OpenAI.ChatCompletionRequestMessageContentPartText

OpenAI.ChatCompletionRequestUserMessage

Messaggi inviati da un utente finale, contenenti richieste o informazioni di contesto aggiuntive.

Nome TIPO Descrzione Obbligatorio Default
contenuto stringa o matrice
nome corda Nome facoltativo per il partecipante. Fornisce le informazioni sul modello per distinguere i partecipanti con lo stesso ruolo. NO
ruolo enum Il ruolo dell'autore dei messaggi, in questo caso user.
Valori possibili: user

OpenAI.ChatCompletionRequestUserMessageContentPart

Nome TIPO Descrzione Obbligatorio Default
documento oggetto
└file_data corda Dati di file con codifica Base64, usati quando si passa il file al modello
come stringa.
NO
└ file_id corda ID di un file caricato da usare come input. NO
└─ nome file corda Nome del file, utilizzato quando si passa il file al modello come
string.
NO
image_url oggetto
└─ dettaglio enum Specifica il livello di dettaglio dell'immagine.
Valori possibili: auto, low, high
NO
└─ URL corda URL dell'immagine o dati dell'immagine con codifica base64. NO
input_audio oggetto
└* dati corda Dati audio con codifica Base64. NO
└* formato enum Formato dei dati audio codificati. Attualmente supporta "wav" e "mp3".
Valori possibili: wav, mp3
NO
Testo corda Contenuto di testo.
type enum Tipo della parte di contenuto. Sempre file.
Valori possibili: file

OpenAI.ChatCompletionRole

Ruolo dell'autore di un messaggio

Proprietà Value
Descrizione Ruolo dell'autore di un messaggio
Tipo corda
Valori system
developer
user
assistant
tool
function

OpenAI.ChatCompletionStreamOptions

Opzioni per la risposta in streaming. Impostare questa opzione solo quando si imposta stream: true.

Nome TIPO Descrzione Obbligatorio Default
include_usage boolean Se impostato, un blocco aggiuntivo verrà trasmesso prima del data: [DONE]
criteri.). Il usage campo in questo blocco mostra le statistiche di utilizzo dei token
per l'intera richiesta e il choices campo sarà sempre vuoto
array

Tutti gli altri blocchi includeranno anche un usage campo, ma con un valore Null
valore. NOTA: Se il flusso viene interrotto, è possibile che non venga ricevuto
blocco di utilizzo finale che contiene l'utilizzo totale dei token per la richiesta.
NO

OpenAI.ChatCompletionStreamResponseDelta

Delta di completamento della chat generato dalle risposte del modello trasmesso.

Nome TIPO Descrzione Obbligatorio Default
audio oggetto NO
└* dati corda NO
└─ scadenza_a numero intero NO
└* id corda NO
└─ trascrizione corda NO
contenuto corda Contenuto del messaggio del blocco. NO
function_call oggetto Deprecato e sostituito da tool_calls. Nome e argomenti di una funzione che deve essere chiamata, come generati dal modello. NO
└─ Argomenti corda NO
└> nome corda NO
refusal corda Messaggio di rifiuto generato dal modello. NO
ruolo oggetto Ruolo dell'autore di un messaggio NO
tool_calls array NO

OpenAI.ChatCompletionTokenLogprob

Nome TIPO Descrzione Obbligatorio Default
bytes array Un elenco di numeri interi che rappresentano la rappresentazione in byte UTF-8 del token. Utile nei casi in cui i caratteri sono rappresentati da più token e le relative rappresentazioni in byte devono essere combinate per generare la rappresentazione di testo corretta. Può essere null se non è presente alcuna rappresentazione in byte per il token.
logprob numero Probabilità di log di questo token, se si trova all'interno dei primi 20 token più probabili. In caso contrario, il valore -9999.0 viene usato per indicare che il token è molto improbabile.
token corda Token.
top_logprobs array Elenco dei token più probabili e della loro probabilità di log, in questa posizione del token. In rari casi, potrebbe venire restituito un numero di top_logprobs inferiore a quelli richiesti.

OpenAI.ChatCompletionTool

Nome TIPO Descrzione Obbligatorio Default
funzione OpenAI.FunctionObject
type enum Tipo dello strumento. Attualmente è supportato solo function.
Valori possibili: function

OpenAI.ChatCompletionToolChoiceOption

Controlla quale strumento (se presente) viene chiamato dal modello. none indica che il modello non chiamerà alcuno strumento e genera invece un messaggio. auto indica che il modello può scegliere tra la generazione di un messaggio o la chiamata di uno o più strumenti. required indica che il modello deve chiamare uno o più strumenti. Se si specifica uno strumento specifico tramite {"type": "function", "function": {"name": "my_function"}} impone al modello di chiamare tale strumento.

none è l'impostazione predefinita quando non sono presenti strumenti. auto è l'impostazione predefinita quando sono presenti strumenti.

Nome TIPO Descrzione Obbligatorio Default
funzione oggetto
└> nome corda Nome della funzione da chiamare. NO
type enum Tipo dello strumento. Attualmente è supportato solo function.
Valori possibili: function

OpenAI.ChatOutputPrediction

Rappresentazione di base dell'output stimato da un modello.

Discriminare per OpenAI.ChatOutputPrediction

Questo componente usa la proprietà type per distinguere tra tipi diversi:

Valore tipo Schema
content OpenAI.ChatOutputPredictionContent
Nome TIPO Descrzione Obbligatorio Default
type OpenAI.ChatOutputPredictionType

OpenAI.ChatOutputPredictionContent

Contenuto di output statico stimato, ad esempio il contenuto di un file di testo che viene rigenerato.

Nome TIPO Descrzione Obbligatorio Default
contenuto stringa o matrice
type enum Tipo di contenuto previsto da fornire. Questo tipo è
attualmente sempre content.
Valori possibili: content

OpenAI.ChatOutputPredictionType

Proprietà Value
Tipo corda
Valori content

OpenAI.ChunkingStrategyRequestParam

Strategia di suddivisione in blocchi usata per suddividere i file. Se non impostato, userà la strategia di auto.

Discriminatore per OpenAI.ChunkingStrategyRequestParam

Questo componente usa la proprietà type per distinguere tra tipi diversi:

Valore tipo Schema
static OpenAI.StaticChunkingStrategyRequestParam
Nome TIPO Descrzione Obbligatorio Default
type enum Tipo di strategia di suddivisione in blocchi.
Valori possibili: auto, static

OpenAI.ChunkingStrategyResponseParam

Discriminatore per OpenAI.ChunkingStrategyResponseParam

Questo componente usa la proprietà type per distinguere tra tipi diversi:

Valore tipo Schema
other OpenAI.OtherChunkingStrategyResponseParam
static OpenAI.StaticChunkingStrategyResponseParam
Nome TIPO Descrzione Obbligatorio Default
type enum
Valori possibili: static, other

OpenAI.CodeInterpreterOutput

Discriminatore per OpenAI.CodeInterpreterOutput

Questo componente usa la proprietà type per distinguere tra tipi diversi:

Valore tipo Schema
image OpenAI.CodeInterpreterOutputImage
logs OpenAI.CodeInterpreterOutputLogs
Nome TIPO Descrzione Obbligatorio Default
type OpenAI.CodeInterpreterOutputType

OpenAI.CodeInterpreterOutputImage

Output dell'immagine dall'interprete di codice.

Nome TIPO Descrzione Obbligatorio Default
type enum Tipo dell'output. Sempre 'image'.
Valori possibili: image
URL. corda URL dell'output dell'immagine dall'interprete di codice.

OpenAI.CodeInterpreterOutputLogs

Output dei log dall'interprete del codice.

Nome TIPO Descrzione Obbligatorio Default
logs corda Output dei log dall'interprete del codice.
type enum Tipo dell'output. Sempre 'logs'.
Valori possibili: logs

OpenAI.CodeInterpreterOutputType

Proprietà Value
Tipo corda
Valori logs
image

OpenAI.CodeInterpreterTool

Strumento che esegue codice Python per generare una risposta a un prompt.

Nome TIPO Descrzione Obbligatorio Default
container oggetto Configurazione per un contenitore dell'interprete di codice. Facoltativamente, specificare gli ID
dei file su cui eseguire il codice.
└─ file_ids array Elenco facoltativo di file caricati da rendere disponibili al tuo codice. NO
└─ Tipo enum Sempre auto.
Valori possibili: auto
NO
type enum Tipo dello strumento dell'interprete di codice. Sempre code_interpreter.
Valori possibili: code_interpreter

OpenAI.CodeInterpreterToolAuto

Configurazione per un contenitore dell'interprete di codice. Facoltativamente, specificare gli ID dei file in cui eseguire il codice.

Nome TIPO Descrzione Obbligatorio Default
identificatori_di_file array Elenco facoltativo di file caricati da rendere disponibili al tuo codice. NO
type enum Sempre auto.
Valori possibili: auto

OpenAI.CodeInterpreterToolCallItemParam

Chiamata dello strumento per eseguire il codice.

Nome TIPO Descrzione Obbligatorio Default
codice corda Codice da eseguire o Null se non disponibile.
container_id corda ID del contenitore usato per eseguire il codice.
Risultati array Output generati dall'interprete del codice, ad esempio log o immagini.
Può essere Null se non sono disponibili output.
type enum
Valori possibili: code_interpreter_call

OpenAI.CodeInterpreterToolCallItemResource

Chiamata dello strumento per eseguire il codice.

Nome TIPO Descrzione Obbligatorio Default
codice corda Codice da eseguire o Null se non disponibile.
container_id corda ID del contenitore usato per eseguire il codice.
Risultati array Output generati dall'interprete del codice, ad esempio log o immagini.
Può essere Null se non sono disponibili output.
stato enum
Valori possibili: in_progress, completedincomplete, , interpreting,failed
type enum
Valori possibili: code_interpreter_call

OpenAI.ComparisonFilter

Filtro utilizzato per confrontare una chiave di attributo specificata con un determinato valore usando un'operazione di confronto definita.

Nome TIPO Descrzione Obbligatorio Default
chiave corda La chiave da confrontare rispetto al valore.
type enum Specifica l'operatore di confronto: eq, ne, gt, gte, lt, lte.
- eq: uguale
- ne: non uguale
- gt:maggiore
- gte: maggiore o uguale a
- lt:meno di
- lte: minore o uguale a
Valori possibili: eq, negt, gte, , ltlte
valore stringa o numero o valore booleano

OpenAI.CompletionUsage

Statistiche di utilizzo per la richiesta di completamento.

Nome TIPO Descrzione Obbligatorio Default
completion_tokens numero intero Numero di token nel completamento generato. 0
completion_tokens_details oggetto Scomposizione dei token usati in un completamento. NO
└─ token_di_predizione_accettati numero intero Quando si usano le uscite previste, il numero di token nell'oggetto
previsione che è apparsa durante il completamento.
NO 0
└audio_tokens numero intero Token dell'input audio generati dal modello. NO 0
└─ token_di_ragionamento numero intero Token generati dal modello per il ragionamento. NO 0
└rejected_prediction_tokens numero intero Quando si usano le uscite previste, il numero di token nell'oggetto
previsione che non è stata visualizzata nel risultato. Tuttavia, come
token di ragionamento, questi token vengono ancora conteggiati nel totale
token di completamento per la fatturazione, l'output e la finestra di contesto
Limiti.
NO 0
prompt_tokens numero intero Numero di token nel prompt. 0
prompt_tokens_details oggetto Suddivisione dei token usati nel prompt. NO
└audio_tokens numero intero Token di input audio presenti nel prompt. NO 0
└cached_tokens numero intero Token memorizzati nella cache presenti nel prompt. NO 0
total_tokens numero intero Numero totale di token usati nella richiesta (prompt + completamento). 0

OpenAI.CompoundFilter

Combinare più filtri usando and o or.

Nome TIPO Descrzione Obbligatorio Default
filters array Matrice di filtri da combinare. Gli elementi possono essere ComparisonFilter o CompoundFilter.
type enum Tipo di operazione: and o or.
Valori possibili: and, or

OpenAI.ComputerAction

Discriminare per OpenAI.ComputerAction

Questo componente usa la proprietà type per distinguere tra tipi diversi:

Valore tipo Schema
click OpenAI.ComputerActionClick
double_click OpenAI.ComputerActionDoubleClick
drag OpenAI.ComputerActionDrag
move OpenAI.ComputerActionMove
screenshot OpenAI.ComputerActionScreenshot
scroll OpenAI.ComputerActionScroll
type OpenAI.ComputerActionTypeKeys
wait OpenAI.ComputerActionWait
keypress OpenAI.ComputerActionKeyPress
Nome TIPO Descrzione Obbligatorio Default
type OpenAI.ComputerActionType

OpenAI.ComputerActionClick

Azione di fare clic.

Nome TIPO Descrzione Obbligatorio Default
pulsante enum Indica il pulsante del mouse premuto durante il clic. Uno di left, rightwheel, back, o forward.
Valori possibili: left, rightwheel, , back,forward
type enum Specifica il tipo di evento. Per un'azione click, questa proprietà è
sempre impostato su click.
Valori possibili: click
x numero intero Coordinata x in cui si è verificato il clic.
y numero intero Coordinata y in cui si è verificato il clic.

OpenAI.ComputerActionDoubleClick

Azione con doppio clic.

Nome TIPO Descrzione Obbligatorio Default
type enum Specifica il tipo di evento. Per un'azione di doppio clic, questa proprietà è
sempre impostato su double_click.
Valori possibili: double_click
x numero intero Coordinata x in cui si è verificato il doppio clic.
y numero intero Coordinata y in cui si è verificato il doppio clic.

OpenAI.ComputerActionDrag

Azione di trascinamento.

Nome TIPO Descrzione Obbligatorio Default
path array Matrice di coordinate che rappresentano il percorso dell'azione di trascinamento. Le coordinate verranno visualizzate come matrice
di oggetti, ad esempio
<br>[<br> { x: 100, y: 200 },<br> { x: 200, y: 300 }<br>]<br>
type enum Specifica il tipo di evento. Per un'azione di trascinamento, questa proprietà è
sempre impostato su drag.
Valori possibili: drag

OpenAI.ComputerActionKeyPress

Una raccolta di pressioni di tasti che il modello desidera eseguire.

Nome TIPO Descrzione Obbligatorio Default
Chiavi array La combinazione di tasti che il modello richiede di premere. Questo è un
matrice di stringhe, ognuna che rappresenta una chiave.
type enum Specifica il tipo di evento. Per un'azione keypress, questa proprietà è
sempre impostato su keypress.
Valori possibili: keypress

OpenAI.ComputerActionMove

Azione di spostamento del mouse.

Nome TIPO Descrzione Obbligatorio Default
type enum Specifica il tipo di evento. Per un'azione di spostamento, questa proprietà è
sempre impostato su move.
Valori possibili: move
x numero intero Coordinata x in cui spostarsi.
y numero intero Coordinata y su cui spostarsi.

OpenAI.ComputerActionScreenshot

Azione screenshot.

Nome TIPO Descrzione Obbligatorio Default
type enum Specifica il tipo di evento. Per un'azione screenshot, questa proprietà è
sempre impostato su screenshot.
Valori possibili: screenshot

OpenAI.ComputerActionScroll

Azione di scorrimento.

Nome TIPO Descrzione Obbligatorio Default
scroll_x numero intero Distanza di scorrimento orizzontale.
scroll_y numero intero Distanza di scorrimento verticale.
type enum Specifica il tipo di evento. Per un'azione di scorrimento, questa proprietà è
sempre impostato su scroll.
Valori possibili: scroll
x numero intero Coordinata x in cui si è verificato lo scorrimento.
y numero intero Coordinata y in cui si è verificato lo scorrimento.

OpenAI.ComputerActionType

Proprietà Value
Tipo corda
Valori screenshot
click
double_click
scroll
type
wait
keypress
drag
move

OpenAI.ComputerActionTypeKeys

Azione per digitare del testo.

Nome TIPO Descrzione Obbligatorio Default
Testo corda Testo da digitare.
type enum Specifica il tipo di evento. Per un'azione di tipo, questa proprietà è
sempre impostato su type.
Valori possibili: type

OpenAI.ComputerActionWait

Azione di attesa.

Nome TIPO Descrzione Obbligatorio Default
type enum Specifica il tipo di evento. Per un'azione di attesa, questa proprietà è
sempre impostato su wait.
Valori possibili: wait

OpenAI.ComputerToolCallItemParam

Chiamata di uno strumento a uno strumento per l'uso del computer.

Nome TIPO Descrzione Obbligatorio Default
azione OpenAI.ComputerAction
call_id corda Identificatore usato per rispondere alla chiamata dello strumento con output.
pending_safety_checks array Controlli di sicurezza in sospeso per la chiamata computer.
type enum
Valori possibili: computer_call

OpenAI.ComputerToolCallItemResource

Chiamata di uno strumento a uno strumento per l'uso del computer.

Nome TIPO Descrzione Obbligatorio Default
azione OpenAI.ComputerAction
call_id corda Identificatore usato per rispondere alla chiamata dello strumento con output.
pending_safety_checks array Controlli di sicurezza in sospeso per la chiamata computer.
stato enum Stato dell'elemento. Uno di in_progress, completed, o
incomplete. Popolato quando gli elementi vengono restituiti tramite l'API.
Valori possibili: in_progress, completed, incomplete
type enum
Valori possibili: computer_call

OpenAI.ComputerToolCallOutputItemOutput

Discriminare per OpenAI.ComputerToolCallOutputItemOutput

Questo componente usa la proprietà type per distinguere tra tipi diversi:

Valore tipo Schema
computer_screenshot OpenAI.ComputerToolCallOutputItemOutputComputerScreenshot
Nome TIPO Descrzione Obbligatorio Default
type OpenAI.ComputerToolCallOutputItemOutputType Immagine di uno screenshot del computer usata con lo strumento per l'uso del computer.

OpenAI.ComputerToolCallOutputItemOutputComputerScreenshot

Nome TIPO Descrzione Obbligatorio Default
ID del file corda NO
image_url corda NO
type enum
Valori possibili: computer_screenshot

OpenAI.ComputerToolCallOutputItemOutputType

Immagine di uno screenshot del computer usata con lo strumento per l'uso del computer.

Proprietà Value
Descrizione Immagine di uno screenshot del computer usata con lo strumento per l'uso del computer.
Tipo corda
Valori computer_screenshot

OpenAI.ComputerToolCallOutputItemParam

Output di una chiamata allo strumento del computer.

Nome TIPO Descrzione Obbligatorio Default
acknowledged_safety_checks array I controlli di sicurezza segnalati dall'API che sono stati riconosciuti dal
sviluppatore.
NO
call_id corda ID della chiamata dello strumento del computer che ha prodotto l'output.
output OpenAI.ComputerToolCallOutputItemOutput
type enum
Valori possibili: computer_call_output

OpenAI.ComputerToolCallOutputItemResource

Output di una chiamata allo strumento del computer.

Nome TIPO Descrzione Obbligatorio Default
acknowledged_safety_checks array I controlli di sicurezza segnalati dall'API che sono stati riconosciuti dal
sviluppatore.
NO
call_id corda ID della chiamata dello strumento del computer che ha prodotto l'output.
output OpenAI.ComputerToolCallOutputItemOutput
stato enum Stato dell'elemento. Uno di in_progress, completed, o
incomplete. Popolato quando gli elementi vengono restituiti tramite l'API.
Valori possibili: in_progress, completed, incomplete
type enum
Valori possibili: computer_call_output

OpenAI.ComputerToolCallSafetyCheck

Controllo di sicurezza in sospeso per la chiamata computer.

Nome TIPO Descrzione Obbligatorio Default
codice corda Tipo del controllo di sicurezza in sospeso.
id corda ID del controllo di sicurezza in sospeso.
message corda Dettagli sul controllo di sicurezza in sospeso.

OpenAI.ComputerUsePreviewTool

Strumento che controlla un computer virtuale.

Nome TIPO Descrzione Obbligatorio Default
altezza_schermo numero intero Altezza dello schermo del computer.
larghezza_display numero intero Larghezza della visualizzazione del computer.
environment enum Tipo di ambiente del computer da controllare.
Valori possibili: windows, maclinux, , ubuntu,browser
type enum Tipo dello strumento di utilizzo del computer. Sempre computer_use_preview.
Valori possibili: computer_use_preview

OpenAI.Coordinate

Coppia di coordinate x/y, ad esempio { x: 100, y: 200 }.

Nome TIPO Descrzione Obbligatorio Default
x numero intero Coordinata x.
y numero intero Coordinata y.

OpenAI.CreateEmbeddingResponse

Nome TIPO Descrzione Obbligatorio Default
data array Elenco degli incorporamenti generati dal modello.
model corda Nome del modello usato per generare l'incorporamento.
oggetto enum Il tipo di oggetto, che è sempre "elenco".
Valori possibili: list
usage oggetto Informazioni sull'utilizzo relative alla richiesta.
└prompt_tokens numero intero Numero di token usati dal prompt. NO
└total_tokens numero intero Numero totale di token usati dalla richiesta. NO

OpenAI.CreateEvalItem

Messaggio di chat che costituisce il prompt o il contesto. Può includere riferimenti a variabili allo spazio dei nomi item, ad esempio {{item.name}}.

Nome TIPO Descrzione Obbligatorio Default
contenuto stringa o OpenAI.EvalItemContent Input di testo per il modello: può contenere stringhe di modello.
ruolo enum Ruolo dell'inserimento del messaggio. Uno di user, assistant, system, o
developer.
Valori possibili: user, assistant, system, developer
type enum Tipo di input del messaggio. Sempre message.
Valori possibili: message
NO

OpenAI.CreateEvalRunRequest

Nome TIPO Descrzione Obbligatorio Default
fonte_dati oggetto
└─ Tipo OpenAI.EvalRunDataSourceType NO
metadata oggetto Set di 16 coppie chiave-valore che possono essere collegate a un oggetto. Può trattarsi di
utile per archiviare informazioni aggiuntive sull'oggetto in un oggetto strutturato
formattare ed eseguire query per gli oggetti tramite l'API o il dashboard.

Le chiavi sono stringhe con una lunghezza massima di 64 caratteri. I valori sono stringhe
con una lunghezza massima di 512 caratteri.
NO
nome corda Nome della corsa. NO

OpenAI.CreateFineTuningJobRequest

Modelli validi:

babbage-002
davinci-002
gpt-3.5-turbo
gpt-4o-mini
Nome TIPO Descrzione Obbligatorio Default
iperparametri oggetto Iperparametri usati per il processo di ottimizzazione.
Questo valore è ora deprecato a favore di methode deve essere passato sotto il parametro method.
NO
└' batch_size enum
Valori possibili: auto
NO
└' learning_rate_multiplier enum
Valori possibili: auto
NO
└' n_epochs enum
Valori possibili: auto
NO
integrazioni array Elenco di integrazioni da abilitare per il processo di ottimizzazione. NO
metadata oggetto Set di 16 coppie chiave-valore che possono essere collegate a un oggetto. Può trattarsi di
utile per archiviare informazioni aggiuntive sull'oggetto in un oggetto strutturato
formattare ed eseguire query per gli oggetti tramite l'API o il dashboard.

Le chiavi sono stringhe con una lunghezza massima di 64 caratteri. I valori sono stringhe
con una lunghezza massima di 512 caratteri.
NO
method OpenAI.FineTuneMethod Metodo utilizzato per l'ottimizzazione. NO
model string (vedere modelli validi di seguito) Nome del modello da ottimizzare. È possibile selezionare uno dei
modelli supportati.
seed numero intero Il seme controlla la riproducibilità del lavoro. Il passaggio degli stessi parametri di inizializzazione e processo dovrebbe produrre gli stessi risultati, ma in rari casi può differire.
Se non viene specificato un valore di inizializzazione, ne verrà generato uno automaticamente.
NO
suffix corda Stringa di un massimo di 64 caratteri che verrà aggiunta al nome del modello ottimizzato.

Ad esempio, un suffix oggetto "custom-model-name" produrrebbe un nome di modello come ft:gpt-4o-mini:openai:custom-model-name:7p4lURel.
NO None
file di allenamento corda ID di un file caricato che contiene i dati di training.

Per informazioni su come caricare un file, vedere Caricare un file.

Il set di dati deve essere formattato come file JSONL. Inoltre, è necessario caricare il file con lo scopo fine-tune.

Il contenuto del file deve variare a seconda che il modello usi la chat o se il metodo di ottimizzazione usa il formato preferenza.

Per altri dettagli, vedere la guida all'ottimizzazione.
file_di_validazione corda ID di un file caricato contenente i dati di convalida.

Se si specifica questo file, i dati vengono usati per generare la convalida
metriche periodicamente durante l'ottimizzazione. Queste metriche possono essere visualizzate nel
file dei risultati dell'ottimizzazione.
Gli stessi dati non devono essere presenti sia nei file di training sia nei file di convalida.

Il set di dati deve essere formattato come file JSONL. È necessario caricare il file con lo scopo fine-tune.

Per altri dettagli, vedere la guida all'ottimizzazione.
NO

OpenAI.CreateFineTuningJobRequestIntegration

Discriminatore per OpenAI.CreateFineTuningJobRequestIntegration

Questo componente usa la proprietà type per distinguere tra tipi diversi:

Valore tipo Schema
wandb OpenAI.CreateFineTuningJobRequestWandbIntegration
Nome TIPO Descrzione Obbligatorio Default
type string (vedere modelli validi di seguito)

OpenAI.CreateFineTuningJobRequestWandbIntegration

Nome TIPO Descrzione Obbligatorio Default
type enum
Valori possibili: wandb
wandb oggetto
└─ Entità corda NO
└> nome corda NO
└─ Progetto corda NO
└* tag array NO

OpenAI.CreateVectorStoreFileBatchRequest

Nome TIPO Descrzione Obbligatorio Default
attributes oggetto Set di 16 coppie chiave-valore che possono essere collegate a un oggetto. Può trattarsi di
utile per archiviare informazioni aggiuntive sull'oggetto in un oggetto strutturato
formattare ed eseguire query per gli oggetti tramite l'API o il dashboard. Le chiavi sono stringhe
con una lunghezza massima di 64 caratteri. I valori sono stringhe con una lunghezza massima
lunghezza di 512 caratteri, booleani o numeri.
NO
chunking_strategy OpenAI.ChunkingStrategyRequestParam Strategia di suddivisione in blocchi usata per suddividere i file. Se non impostato, userà la strategia di auto. NO
identificatori_di_file array Elenco di ID file che devono essere usati dall'archivio vettoriale. Utile per strumenti come file_search che possono accedere ai file.

OpenAI.CreateVectorStoreFileRequest

Nome TIPO Descrzione Obbligatorio Default
attributes oggetto Set di 16 coppie chiave-valore che possono essere collegate a un oggetto. Può trattarsi di
utile per archiviare informazioni aggiuntive sull'oggetto in un oggetto strutturato
formattare ed eseguire query per gli oggetti tramite l'API o il dashboard. Le chiavi sono stringhe
con una lunghezza massima di 64 caratteri. I valori sono stringhe con una lunghezza massima
lunghezza di 512 caratteri, booleani o numeri.
NO
chunking_strategy OpenAI.ChunkingStrategyRequestParam Strategia di suddivisione in blocchi usata per suddividere i file. Se non impostato, userà la strategia di auto. NO
ID del file corda Un ID file che deve essere usato dall'archivio vettoriale. Utile per strumenti come file_search che possono accedere ai file.

OpenAI.CreateVectorStoreRequest

Nome TIPO Descrzione Obbligatorio Default
chunking_strategy oggetto Strategia predefinita. Attualmente, questa strategia usa un max_chunk_size_tokens di 800 e chunk_overlap_tokens di 400. NO
└─ statico OpenAI.StaticChunkingStrategy NO
└─ Tipo enum Sempre static.
Valori possibili: static
NO
scade dopo OpenAI.VectorStoreExpirationAfter I criteri di scadenza per un archivio vettoriale. NO
identificatori_di_file array Elenco di ID file che devono essere usati dall'archivio vettoriale. Utile per strumenti come file_search che possono accedere ai file. NO
metadata oggetto Set di 16 coppie chiave-valore che possono essere collegate a un oggetto. Può trattarsi di
utile per archiviare informazioni aggiuntive sull'oggetto in un oggetto strutturato
formattare ed eseguire query per gli oggetti tramite l'API o il dashboard.

Le chiavi sono stringhe con una lunghezza massima di 64 caratteri. I valori sono stringhe
con una lunghezza massima di 512 caratteri.
NO
nome corda Il nome dell’archivio vettoriale. NO

OpenAI.DeleteFileResponse

Nome TIPO Descrzione Obbligatorio Default
cancellato boolean
id corda
oggetto enum
Valori possibili: file

OpenAI.DeleteVectorStoreFileResponse

Nome TIPO Descrzione Obbligatorio Default
cancellato boolean
id corda
oggetto enum
Valori possibili: vector_store.file.deleted

OpenAI.DeleteVectorStoreResponse

Nome TIPO Descrzione Obbligatorio Default
cancellato boolean
id corda
oggetto enum
Valori possibili: vector_store.deleted

OpenAI.Embedding

Rappresenta un vettore di incorporamento restituito dall'endpoint di incorporamento.

Nome TIPO Descrzione Obbligatorio Default
embedding stringa o matrice
indice numero intero Indice dell'incorporamento nell'elenco di incorporamenti.
oggetto enum Tipo di oggetto, che è sempre "embedding".
Valori possibili: embedding

OpenAI.Eval

Un oggetto Eval con una configurazione dell'origine dati e criteri di test. Un Eval rappresenta un'attività da eseguire per l'integrazione LLM. Ad esempio:

  • Migliorare la qualità del chatbot
  • Scopri in che modo il mio chatbot gestisce il supporto clienti
  • Controlla se o4-mini è migliore nel mio caso d'uso rispetto a gpt-4o
Nome TIPO Descrzione Obbligatorio Default
creato_il numero intero Il timestamp Unix (in secondi) relativo alla creazione dell'eval.
configurazione_sorgente_dati oggetto
└─ Tipo OpenAI.EvalDataSourceConfigType NO
id corda Identificatore univoco per la valutazione.
metadata oggetto Set di 16 coppie chiave-valore che possono essere collegate a un oggetto. Può trattarsi di
utile per archiviare informazioni aggiuntive sull'oggetto in un oggetto strutturato
formattare ed eseguire query per gli oggetti tramite l'API o il dashboard.

Le chiavi sono stringhe con una lunghezza massima di 64 caratteri. I valori sono stringhe
con una lunghezza massima di 512 caratteri.
nome corda Nome della valutazione.
oggetto enum Tipo dell'oggetto.
Valori possibili: eval
criteri_di_test array Elenco dei criteri di test. None

Errore OpenAI.EvalApiError

Oggetto che rappresenta una risposta di errore dall'API Eval.

Nome TIPO Descrzione Obbligatorio Default
codice corda Codice di errore.
message corda Messaggio di errore.

OpenAI.EvalCompletionsRunDataSourceParams

Oggetto CompletionsRunDataSource che descrive una configurazione di campionamento del modello.

Nome TIPO Descrzione Obbligatorio Default
messaggi di input oggetto NO
└item_reference corda Riferimento a una variabile nello spazio dei nomi item. Ad esempio, "item.input_trajectory" NO
Modello └─ array Elenco di messaggi di chat che formano il prompt o il contesto. Può includere riferimenti a variabili allo spazio dei nomi item, ad esempio {{item.name}}. NO
└─ Tipo enum Tipo di messaggi di input. Sempre item_reference.
Valori possibili: item_reference
NO
model corda Nome del modello da utilizzare per la generazione di completamenti, ad esempio "o3-mini". NO
sampling_params AzureEvalAPICompletionsSamplingParams NO
source oggetto
└> contenuto array Contenuto del file jsonl. NO
└─created_after numero intero Timestamp Unix facoltativo per filtrare gli elementi creati dopo questo momento. NO
└─ creato_prima numero intero Timestamp Unix facoltativo per filtrare gli elementi creati prima di questa volta. NO
└* id corda Identificatore del file. NO
└* limite numero intero Numero massimo facoltativo di elementi da restituire. NO
└─ metadati oggetto Set di 16 coppie chiave-valore che possono essere collegate a un oggetto. Può trattarsi di
utile per archiviare informazioni aggiuntive sull'oggetto in un oggetto strutturato
formattare ed eseguire query per gli oggetti tramite l'API o il dashboard.

Le chiavi sono stringhe con una lunghezza massima di 64 caratteri. I valori sono stringhe
con una lunghezza massima di 512 caratteri.
NO
└─ Modello corda Modello facoltativo da filtrare in base a (ad esempio, 'gpt-4o'). NO
└─ Tipo enum Tipo di origine. Sempre stored_completions.
Valori possibili: stored_completions
NO
type enum Tipo di origine dati di esecuzione. Sempre completions.
Valori possibili: completions

OpenAI.EvalCustomDataSourceConfigParams

Oggetto CustomDataSourceConfig che definisce lo schema per l'origine dati utilizzata per le esecuzioni di valutazione. Questo schema viene usato per definire la forma dei dati che saranno:

  • Usati per definire i criteri di test e
  • Dati necessari per la creazione di un'esecuzione
Nome TIPO Descrzione Obbligatorio Default
includi_schema_esempio boolean Indica se l'eval dovrebbe attendersi che tu popoli lo spazio dei nomi di esempio (cioè, generando risposte dalla tua fonte di dati). NO Falso
schema_elemento oggetto Schema JSON per ogni riga nell'origine dati.
type enum Tipo di origine dati. Sempre custom.
Valori possibili: custom

OpenAI.EvalCustomDataSourceConfigResource

Un CustomDataSourceConfig che specifica lo schema del tuo item e, facoltativamente, degli spazi dei nomi sample. Lo schema di risposta definisce la forma dei dati che saranno:

  • Usati per definire i criteri di test e
  • Dati necessari per la creazione di un'esecuzione
Nome TIPO Descrzione Obbligatorio Default
schema oggetto Schema Json per gli elementi della fonte dati di esecuzione.
Informazioni su come creare schemi JSON qui.
type enum Tipo di origine dati. Sempre custom.
Valori possibili: custom

OpenAI.EvalDataSourceConfigParams

Discriminatore per OpenAI.EvalDataSourceConfigParams

Questo componente usa la proprietà type per distinguere tra tipi diversi:

Valore tipo Schema
custom OpenAI.EvalCustomDataSourceConfigParams
logs OpenAI.EvalLogsDataSourceConfigParams
stored_completions OpenAI.EvalStoredCompletionsDataSourceConfigParams
Nome TIPO Descrzione Obbligatorio Default
type OpenAI.EvalDataSourceConfigType

OpenAI.EvalDataSourceConfigResource

Discriminatore per OpenAI.EvalDataSourceConfigResource

Questo componente usa la proprietà type per distinguere tra tipi diversi:

Valore tipo Schema
custom OpenAI.EvalCustomDataSourceConfigResource
stored_completions OpenAI.EvalStoredCompletionsDataSourceConfigResource
logs OpenAI.EvalLogsDataSourceConfigResource
Nome TIPO Descrzione Obbligatorio Default
type OpenAI.EvalDataSourceConfigType

OpenAI.EvalDataSourceConfigType

Proprietà Value
Tipo corda
Valori custom
logs
stored_completions

OpenAI.EvalGraderLabelModelParams

Oggetto LabelModelGrader che usa un modello per assegnare etichette a ogni elemento della valutazione.

Nome TIPO Descrzione Obbligatorio Default
ingresso array Elenco di messaggi di chat che formano il prompt o il contesto. Può includere riferimenti a variabili allo spazio dei nomi item, ad esempio {{item.name}}.
labels array Le etichette per classificare ogni elemento della valutazione.
model corda Modello da utilizzare per la valutazione. Deve supportare output strutturati.
nome corda Nome del grader.
etichette_di_passaggio array Le etichette che indicano un risultato positivo. Deve essere un sottoinsieme di etichette.
type enum Il tipo di oggetto, che è sempre label_model.
Valori possibili: label_model

OpenAI.EvalGraderLabelModelResource

Nome TIPO Descrzione Obbligatorio Default
ingresso array
labels array Etichette da assegnare a ogni elemento della valutazione.
model corda Modello da utilizzare per la valutazione. Deve supportare output strutturati.
nome corda Nome del grader.
etichette_di_passaggio array Le etichette che indicano un risultato positivo. Deve essere un sottoinsieme di etichette.
type enum Il tipo di oggetto, che è sempre label_model.
Valori possibili: label_model

OpenAI.EvalGraderParams

Discriminatore per OpenAI.EvalGraderParams

Questo componente usa la proprietà type per distinguere tra tipi diversi:

Valore tipo Schema
label_model OpenAI.EvalGraderLabelModelParams
string_check OpenAI.EvalGraderStringCheckParams
text_similarity OpenAI.EvalGraderTextSimilarityParams
python OpenAI.EvalGraderPythonParams
score_model OpenAI.EvalGraderScoreModelParams
Nome TIPO Descrzione Obbligatorio Default
type OpenAI.GraderType

OpenAI.EvalGraderPythonParams

Nome TIPO Descrzione Obbligatorio Default
image_tag corda Tag immagine da usare per lo script Python. NO
nome corda Nome del grader.
soglia di superamento numero Soglia per il punteggio. NO
source corda Codice sorgente dello script Python.
type enum Il tipo di oggetto, che è sempre python.
Valori possibili: python

OpenAI.EvalGraderPythonResource

Nome TIPO Descrzione Obbligatorio Default
image_tag corda Tag immagine da usare per lo script Python. NO
nome corda Nome del grader.
soglia di superamento numero Soglia per il punteggio. NO
source corda Codice sorgente dello script Python.
type enum Il tipo di oggetto, che è sempre python.
Valori possibili: python

OpenAI.EvalGraderResource

Discriminatore per OpenAI.EvalGraderResource

Questo componente usa la proprietà type per distinguere tra tipi diversi:

Valore tipo Schema
label_model OpenAI.EvalGraderLabelModelResource
text_similarity OpenAI.EvalGraderTextSimilarityResource
python OpenAI.EvalGraderPythonResource
score_model OpenAI.EvalGraderScoreModelResource
Nome TIPO Descrzione Obbligatorio Default
type OpenAI.GraderType

OpenAI.EvalGraderScoreModelParams

Nome TIPO Descrzione Obbligatorio Default
ingresso array Testo di input. Ciò può includere stringhe di modello.
model corda Modello da utilizzare per la valutazione.
nome corda Nome del grader.
soglia di superamento numero Soglia per il punteggio. NO
intervallo array La gamma del punteggio. Il valore predefinito è [0, 1]. NO
sampling_params Parametri di campionamento per il modello. NO
type enum Il tipo di oggetto, che è sempre score_model.
Valori possibili: score_model

OpenAI.EvalGraderScoreModelResource

Nome TIPO Descrzione Obbligatorio Default
ingresso array Testo di input. Ciò può includere stringhe di modello.
model corda Modello da utilizzare per la valutazione.
nome corda Nome del grader.
soglia di superamento numero Soglia per il punteggio. NO
intervallo array La gamma del punteggio. Il valore predefinito è [0, 1]. NO
sampling_params Parametri di campionamento per il modello. NO
type enum Il tipo di oggetto, che è sempre score_model.
Valori possibili: score_model

OpenAI.EvalGraderStringCheckParams

Nome TIPO Descrzione Obbligatorio Default
ingresso corda Testo di input. Ciò può includere stringhe di modello.
nome corda Nome del grader.
operazione enum Operazione di controllo della stringa da eseguire. Uno tra eq, ne, like o ilike.
Valori possibili: eq, ne, like, ilike
riferimento corda Testo di riferimento. Ciò può includere stringhe di modello.
type enum Il tipo di oggetto, che è sempre string_check.
Valori possibili: string_check

OpenAI.EvalGraderTextSimilarityParams

Nome TIPO Descrzione Obbligatorio Default
metrica di valutazione enum Metrica di valutazione da usare. Uno di fuzzy_match, bleu, gleu, meteor, rouge_1, rouge_2, rouge_3, rouge_4, rouge_5 o rouge_l.
Valori possibili: fuzzy_match, bleu, gleumeteor, rouge_1, rouge_2, rouge_3, rouge_4, rouge_5rouge_l
ingresso corda Il testo in valutazione.
nome corda Nome del grader.
soglia di superamento numero Soglia per il punteggio.
riferimento corda Testo che viene valutato.
type enum Tipo di grader.
Valori possibili: text_similarity

OpenAI.EvalGraderTextSimilarityResource

Nome TIPO Descrzione Obbligatorio Default
metrica di valutazione enum Metrica di valutazione da usare. Uno di fuzzy_match, bleu, gleu, meteor, rouge_1, rouge_2, rouge_3, rouge_4, rouge_5 o rouge_l.
Valori possibili: fuzzy_match, bleu, gleumeteor, rouge_1, rouge_2, rouge_3, rouge_4, rouge_5rouge_l
ingresso corda Il testo in valutazione.
nome corda Nome del grader.
soglia di superamento numero Soglia per il punteggio.
riferimento corda Testo che viene valutato.
type enum Tipo di grader.
Valori possibili: text_similarity

OpenAI.EvalItem

Messaggio di input al modello con un ruolo che indica la gerarchia di esecuzione delle istruzioni. Le istruzioni fornite con il ruolo developer o system hanno la precedenza sulle istruzioni fornite con il ruolo user. Si presuppone che i messaggi con il assistant ruolo siano stati generati dal modello nelle interazioni precedenti.

Nome TIPO Descrzione Obbligatorio Default
contenuto oggetto
└─ Tipo OpenAI.EvalItemContentType NO
ruolo enum Ruolo dell'inserimento del messaggio. Uno di user, assistant, system, o
developer.
Valori possibili: user, assistant, system, developer
type enum Tipo di input del messaggio. Sempre message.
Valori possibili: message
NO

OpenAI.EvalItemContent

Discriminatore per OpenAI.EvalItemContent

Questo componente usa la proprietà type per distinguere tra tipi diversi:

Valore tipo Schema
input_text OpenAI.EvalItemContentInputText
output_text OpenAI.EvalItemContentOutputText
Nome TIPO Descrzione Obbligatorio Default
type OpenAI.EvalItemContentType

OpenAI.EvalItemContentInputText

Nome TIPO Descrzione Obbligatorio Default
Testo corda
type enum
Valori possibili: input_text

OpenAI.EvalItemContentOutputText

Nome TIPO Descrzione Obbligatorio Default
Testo corda
type enum
Valori possibili: output_text

OpenAI.EvalItemContentType

Proprietà Value
Tipo corda
Valori input_text
output_text

OpenAI.EvalJsonlRunDataSourceParams

Oggetto JsonlRunDataSource con che specifica un file JSONL che corrisponde all'eval

Nome TIPO Descrzione Obbligatorio Default
source oggetto
└> contenuto array Contenuto del file jsonl. NO
└* id corda Identificatore del file. NO
└─ Tipo enum Tipo di origine JSONL. Sempre file_id.
Valori possibili: file_id
NO
type enum Tipo di origine dati. Sempre jsonl.
Valori possibili: jsonl

OpenAI.EvalList

Oggetto che rappresenta un elenco di valori.

Nome TIPO Descrzione Obbligatorio Default
data array Matrice di oggetti eval.
first_id corda Identificatore della prima valutazione nell'array di dati.
ha_di_piu boolean Indica se sono disponibili più valutazioni.
last_id corda Identificatore dell'ultima eval nella matrice di dati.
oggetto enum Il tipo di quest'oggetto. È sempre impostato su "list".
Valori possibili: list

OpenAI.EvalLogsDataSourceConfigParams

Configurazione dell'origine dati che specifica la proprietà dei metadati della query dei log. Si tratta in genere di metadati come usecase=chatbot o prompt-version=v2e così via.

Nome TIPO Descrzione Obbligatorio Default
metadata oggetto Set di 16 coppie chiave-valore che possono essere collegate a un oggetto. Può trattarsi di
utile per archiviare informazioni aggiuntive sull'oggetto in un oggetto strutturato
formattare ed eseguire query per gli oggetti tramite l'API o il dashboard.

Le chiavi sono stringhe con una lunghezza massima di 64 caratteri. I valori sono stringhe
con una lunghezza massima di 512 caratteri.
NO
type enum Tipo di origine dati. Sempre logs.
Valori possibili: logs

OpenAI.EvalLogsDataSourceConfigResource

LogsDataSourceConfig che specifica la proprietà dei metadati della query dei log. Si tratta in genere di metadati come usecase=chatbot o prompt-version=v2e così via. Lo schema restituito da questa configurazione dell'origine dati viene usato per definire quali variabili sono disponibili nelle evals. item e sample sono entrambi definiti quando si usa questa configurazione dell'origine dati.

Nome TIPO Descrzione Obbligatorio Default
metadata oggetto Set di 16 coppie chiave-valore che possono essere collegate a un oggetto. Può trattarsi di
utile per archiviare informazioni aggiuntive sull'oggetto in un oggetto strutturato
formattare ed eseguire query per gli oggetti tramite l'API o il dashboard.

Le chiavi sono stringhe con una lunghezza massima di 64 caratteri. I valori sono stringhe
con una lunghezza massima di 512 caratteri.
schema oggetto Schema Json per gli elementi della fonte dati di esecuzione.
Informazioni su come creare schemi JSON qui.
type enum Tipo di origine dati. Sempre logs.
Valori possibili: logs

OpenAI.EvalResponsesRunDataSourceParams

Oggetto ResponsesRunDataSource che descrive una configurazione di campionamento del modello.

Nome TIPO Descrzione Obbligatorio Default
messaggi di input oggetto NO
└item_reference corda Riferimento a una variabile nello spazio dei nomi item. cioè, "item.name" NO
Modello └─ array Elenco di messaggi di chat che formano il prompt o il contesto. Può includere riferimenti a variabili allo spazio dei nomi item, ad esempio {{item.name}}. NO
└─ Tipo enum Tipo di messaggi di input. Sempre item_reference.
Valori possibili: item_reference
NO
model corda Nome del modello da utilizzare per la generazione di completamenti, ad esempio "o3-mini". NO
sampling_params AzureEvalAPIResponseSamplingParams NO
source oggetto
└> contenuto array Contenuto del file jsonl. NO
└─created_after numero intero Includere solo gli elementi creati dopo questo timestamp (inclusi). Si tratta di un parametro di query usato per selezionare le risposte. NO
└─ creato_prima numero intero Includere solo gli elementi creati prima di questo timestamp (inclusi). Si tratta di un parametro di query usato per selezionare le risposte. NO
└* id corda Identificatore del file. NO
└instructions_search corda Stringa facoltativa per la ricerca nel campo 'instructions'. Si tratta di un parametro di query usato per selezionare le risposte. NO
└─ metadati oggetto Set di 16 coppie chiave-valore che possono essere collegate a un oggetto. Può trattarsi di
utile per archiviare informazioni aggiuntive sull'oggetto in un oggetto strutturato
formattare ed eseguire query per gli oggetti tramite l'API o il dashboard.

Le chiavi sono stringhe con una lunghezza massima di 64 caratteri. I valori sono stringhe
con una lunghezza massima di 512 caratteri.
NO
└─ Modello corda Nome del modello per cui trovare le risposte. Si tratta di un parametro di query usato per selezionare le risposte. NO
└• reasoning_effort Sforzo di Ragionamento OpenAI Parametro facoltativo del tentativo di ragionamento. Si tratta di un parametro di query usato per selezionare le risposte. NO
└* temperatura numero Temperatura di campionamento. Si tratta di un parametro di query usato per selezionare le risposte. NO
Strumenti └* array Elenco dei nomi degli strumenti. Si tratta di un parametro di query usato per selezionare le risposte. NO
└top_p numero Parametro di campionamento del nucleo. Si tratta di un parametro di query usato per selezionare le risposte. NO
└─ Tipo enum Tipo di origine dati di esecuzione. Sempre responses.
Valori possibili: responses
NO
└─ utenti array Elenco di identificatori utente. Si tratta di un parametro di query usato per selezionare le risposte. NO
type enum Tipo di origine dati di esecuzione. Sempre responses.
Valori possibili: responses

OpenAI.EvalRun

Schema che rappresenta un ciclo di valutazione.

Nome TIPO Descrzione Obbligatorio Default
creato_il numero intero Timestamp Unix (in secondi) quando è stata creata l'esecuzione della valutazione.
fonte_dati oggetto
└─ Tipo OpenAI.EvalRunDataSourceType NO
Errore OpenAI.EvalApiError Oggetto che rappresenta una risposta di errore dall'API Eval.
eval_id corda Identificatore della valutazione associata.
id corda Identificatore univoco per l'esecuzione della valutazione.
metadata oggetto Set di 16 coppie chiave-valore che possono essere collegate a un oggetto. Può trattarsi di
utile per archiviare informazioni aggiuntive sull'oggetto in un oggetto strutturato
formattare ed eseguire query per gli oggetti tramite l'API o il dashboard.

Le chiavi sono stringhe con una lunghezza massima di 64 caratteri. I valori sono stringhe
con una lunghezza massima di 512 caratteri.
model corda Modello valutato, se applicabile.
nome corda Nome della sessione di valutazione.
oggetto enum Tipo dell'oggetto . Sempre "eval.run".
Valori possibili: eval.run
utilizzo_per_modello array Statistiche di utilizzo per ogni modello durante l'esecuzione della valutazione.
risultati_per_criteri_di_test array Risultati in base ai criteri di test applicati durante l'esecuzione della valutazione.
report_url corda URL del report renderizzato dell'esecuzione della valutazione nella dashboard dell'interfaccia utente.
conteggio_risultati oggetto Contatori che riepilogano i risultati del processo di valutazione.
└* non riuscito numero intero Numero di elementi di output che hanno generato un errore. NO
└* non riuscito numero intero Numero di elementi di output che non sono riusciti a superare la valutazione. NO
└> superato numero intero Numero di elementi di output che hanno superato la valutazione. NO
└─ totale numero intero Numero totale di elementi di output eseguiti. NO
stato corda Stato dell'esecuzione della valutazione.

OpenAI.EvalRunDataContentSource

Discriminatore per OpenAI.EvalRunDataContentSource

Questo componente usa la proprietà type per distinguere tra tipi diversi:

Valore tipo Schema
file_id OpenAI.EvalRunFileIdDataContentSource
stored_completions OpenAI.EvalRunStoredCompletionsDataContentSource
responses OpenAI.EvalRunResponsesDataContentSource
Nome TIPO Descrzione Obbligatorio Default
type OpenAI.EvalRunDataContentSourceType

OpenAI.EvalRunDataContentSourceType

Proprietà Value
Tipo corda
Valori file_id
file_content
stored_completions
responses

OpenAI.EvalRunDataSourceCompletionsResource

Nome TIPO Descrzione Obbligatorio Default
type enum
Valori possibili: completions

OpenAI.EvalRunDataSourceJsonlResource

Nome TIPO Descrzione Obbligatorio Default
type enum
Valori possibili: jsonl

OpenAI.EvalRunDataSourceParams

Discriminatore per OpenAI.EvalRunDataSourceParams

Questo componente usa la proprietà type per distinguere tra tipi diversi:

Valore tipo Schema
jsonl OpenAI.EvalJsonlRunDataSourceParams
completions OpenAI.EvalCompletionsRunDataSourceParams
responses OpenAI.EvalResponsesRunDataSourceParams
Nome TIPO Descrzione Obbligatorio Default
type OpenAI.EvalRunDataSourceType

OpenAI.EvalRunDataSourceResource

Nome TIPO Descrzione Obbligatorio Default
type OpenAI.EvalRunDataSourceType

OpenAI.EvalRunDataSourceResponsesResource

Nome TIPO Descrzione Obbligatorio Default
type enum
Valori possibili: responses

OpenAI.EvalRunDataSourceType

Proprietà Value
Tipo corda
Valori jsonl
completions
responses

OpenAI.EvalRunFileContentDataContentSource

Nome TIPO Descrzione Obbligatorio Default
contenuto array Contenuto del file jsonl.
type enum Tipo di origine JSONL. Sempre file_content.
Valori possibili: file_content

OpenAI.EvalRunFileIdDataContentSource

Nome TIPO Descrzione Obbligatorio Default
id corda Identificatore del file.
type enum Tipo di origine JSONL. Sempre file_id.
Valori possibili: file_id

OpenAI.EvalRunList

Oggetto che rappresenta un elenco di run per una valutazione.

Nome TIPO Descrzione Obbligatorio Default
data array Matrice di oggetti di esecuzione di eval.
first_id corda Identificatore della prima esecuzione dell'eval nella matrice di dati.
ha_di_piu boolean Indica se sono disponibili più valutazioni.
last_id corda Identificatore dell'ultima esecuzione di eval nell'array di dati.
oggetto enum Il tipo di quest'oggetto. È sempre impostato su "list".
Valori possibili: list

OpenAI.EvalRunOutputItem

Un elemento di output di un'esecuzione di valutazione rappresentato da uno schema.

Nome TIPO Descrzione Obbligatorio Default
creato_il numero intero Timestamp Unix (in secondi) quando è stata creata l'esecuzione della valutazione.
elemento_fonte_dati oggetto Dettagli dell'elemento di origine dei dati di input.
datasource_item_id (identificativo_elemento_fonte_dati) numero intero Identificatore dell'elemento dell'origine dati.
eval_id corda Identificatore del gruppo di valutazione.
id corda Identificatore univoco per l'elemento di output del ciclo di valutazione.
oggetto enum Tipo dell'oggetto . Sempre "eval.run.output_item".
Valori possibili: eval.run.output_item
results array Elenco dei risultati dell'esecuzione della valutazione.
run_id corda Identificatore dell'esecuzione di valutazione associata a questo elemento dell'output.
campione oggetto Esempio contenente l'input e l'output del processo di valutazione.
└─ Errore OpenAI.EvalApiError Oggetto che rappresenta una risposta di errore dall'API Eval. NO
└─ motivo_fine corda Motivo per cui la generazione dell'esempio è stata completata. NO
└ Input array Matrice di messaggi di input. NO
└ max_completion_tokens numero intero Numero massimo di token consentiti per il completamento. NO
└─ Modello corda Modello utilizzato per generare l'esempio. NO
└─ uscita array Matrice di messaggi di output. NO
└* seed numero intero Il seme utilizzato per generare il campione. NO
└* temperatura numero Temperatura di campionamento utilizzata. NO
└top_p numero Valore top_p utilizzato per il campionamento. NO
└─ utilizzo oggetto Dettagli sull'utilizzo dei token per l'esempio. NO
└cached_tokens numero intero Numero di token recuperati dalla cache. NO
└completion_tokens numero intero Numero di token di completamento generati. NO
└prompt_tokens numero intero Numero di token di richiesta usati. NO
└total_tokens numero intero Numero totale di token usati. NO
stato corda Stato dell'esecuzione della valutazione.

OpenAI.EvalRunOutputItemList

Oggetto che rappresenta un elenco di elementi di output per un'esecuzione di valutazione.

Nome TIPO Descrzione Obbligatorio Default
data array Una serie di oggetti che rappresentano l'output di esecuzione degli elementi eval.
first_id corda Identificatore del primo elemento di output dell'esecuzione di eval nella matrice di dati.
ha_di_piu boolean Indica se vi sono più elementi di output disponibili dall'esecuzione di valutazione.
last_id corda Identificatore dell'ultimo elemento risultante dall'esecuzione di eval nell'array dei dati.
oggetto enum Il tipo di quest'oggetto. È sempre impostato su "list".
Valori possibili: list

OpenAI.EvalRunResponsesDataContentSource

Oggetto EvalResponsesSource che descrive una configurazione dell'origine dati di esecuzione.

Nome TIPO Descrzione Obbligatorio Default
creato_dopo numero intero Includere solo gli elementi creati dopo questo timestamp (inclusi). Si tratta di un parametro di query usato per selezionare le risposte. NO
creato_prima numero intero Includere solo gli elementi creati prima di questo timestamp (inclusi). Si tratta di un parametro di query usato per selezionare le risposte. NO
instructions_search corda Stringa facoltativa per la ricerca nel campo 'instructions'. Si tratta di un parametro di query usato per selezionare le risposte. NO
metadata oggetto Set di 16 coppie chiave-valore che possono essere collegate a un oggetto. Può trattarsi di
utile per archiviare informazioni aggiuntive sull'oggetto in un oggetto strutturato
formattare ed eseguire query per gli oggetti tramite l'API o il dashboard.

Le chiavi sono stringhe con una lunghezza massima di 64 caratteri. I valori sono stringhe
con una lunghezza massima di 512 caratteri.
NO
model corda Nome del modello per cui trovare le risposte. Si tratta di un parametro di query usato per selezionare le risposte. NO
sforzo di ragionamento oggetto solo modelli di ragionamento

Vincola lo sforzo sul ragionamento per
modelli di ragionamento.
I valori attualmente supportati sono low, medium e high. Ridurre
l'impegno di ragionamento può comportare risposte più veloci e meno token usati
sul ragionamento in una risposta.
NO
temperatura numero Temperatura di campionamento. Si tratta di un parametro di query usato per selezionare le risposte. NO
strumenti array Elenco dei nomi degli strumenti. Si tratta di un parametro di query usato per selezionare le risposte. NO
top_p numero Parametro di campionamento del nucleo. Si tratta di un parametro di query usato per selezionare le risposte. NO
type enum Tipo di origine dati di esecuzione. Sempre responses.
Valori possibili: responses
users array Elenco di identificatori utente. Si tratta di un parametro di query usato per selezionare le risposte. NO

OpenAI.EvalRunStoredCompletionsDataContentSource

Una configurazione StoredCompletionsRunDataSource che descrive un set di filtri

Nome TIPO Descrzione Obbligatorio Default
creato_dopo numero intero Timestamp Unix facoltativo per filtrare gli elementi creati dopo questo momento. NO
creato_prima numero intero Timestamp Unix facoltativo per filtrare gli elementi creati prima di questa volta. NO
limit numero intero Numero massimo facoltativo di elementi da restituire. NO
metadata oggetto Set di 16 coppie chiave-valore che possono essere collegate a un oggetto. Può trattarsi di
utile per archiviare informazioni aggiuntive sull'oggetto in un oggetto strutturato
formattare ed eseguire query per gli oggetti tramite l'API o il dashboard.

Le chiavi sono stringhe con una lunghezza massima di 64 caratteri. I valori sono stringhe
con una lunghezza massima di 512 caratteri.
model corda Modello facoltativo da filtrare in base a (ad esempio, 'gpt-4o'). NO
type enum Tipo di origine. Sempre stored_completions.
Valori possibili: stored_completions

OpenAI.EvalStoredCompletionsDataSourceConfigParams

Deprecato a favore di LogsDataSourceConfig.

Nome TIPO Descrzione Obbligatorio Default
metadata oggetto Filtri dei metadati per l'origine dati dei completamenti archiviati. NO
type enum Tipo di origine dati. Sempre stored_completions.
Valori possibili: stored_completions

OpenAI.EvalStoredCompletionsDataSourceConfigResource

Deprecato a favore di LogsDataSourceConfig.

Nome TIPO Descrzione Obbligatorio Default
metadata oggetto Set di 16 coppie chiave-valore che possono essere collegate a un oggetto. Può trattarsi di
utile per archiviare informazioni aggiuntive sull'oggetto in un oggetto strutturato
formattare ed eseguire query per gli oggetti tramite l'API o il dashboard.

Le chiavi sono stringhe con una lunghezza massima di 64 caratteri. I valori sono stringhe
con una lunghezza massima di 512 caratteri.
schema oggetto Schema Json per gli elementi della fonte dati di esecuzione.
Informazioni su come creare schemi JSON qui.
type enum Tipo di origine dati. Sempre stored_completions.
Valori possibili: stored_completions

OpenAI.FileSearchTool

Strumento che cerca il contenuto pertinente dai file caricati.

Nome TIPO Descrzione Obbligatorio Default
filters oggetto NO
max_num_risultati numero intero Il numero massimo di risultati da restituire. Questo numero deve essere compreso tra 1 e 50 (estremi inclusi). NO
opzioni_di_classifica oggetto NO
└* ranker enum Ranker da usare per la ricerca di file.
Valori possibili: auto, default-2024-11-15
NO
└─ soglia_punteggio numero Soglia del punteggio per la ricerca di file, un numero compreso tra 0 e 1. I numeri più vicini a 1 tenteranno di restituire solo i risultati più rilevanti, ma potrebbero restituire meno risultati. NO
type enum Tipo dello strumento di ricerca file. Sempre file_search.
Valori possibili: file_search
vector_store_ids array ID degli archivi vettoriali da cercare.

OpenAI.FileSearchToolCallItemParam

Risultati di una chiamata allo strumento di ricerca file.

Nome TIPO Descrzione Obbligatorio Default
queries array Le interrogazioni usate per cercare i file.
results array Risultati della chiamata allo strumento di ricerca file. NO
type enum
Valori possibili: file_search_call

OpenAI.FileSearchToolCallItemResource

Risultati di una chiamata allo strumento di ricerca file.

Nome TIPO Descrzione Obbligatorio Default
queries array Le interrogazioni usate per cercare i file.
results array Risultati della chiamata allo strumento di ricerca file. NO
stato enum Stato della chiamata allo strumento di ricerca file. Uno di in_progress,
searching, incomplete o failed,
Valori possibili: in_progress, searchingcompleted, , incomplete,failed
type enum
Valori possibili: file_search_call

OpenAI.Filters

Nome TIPO Descrzione Obbligatorio Default
filters array Matrice di filtri da combinare. Gli elementi possono essere ComparisonFilter o CompoundFilter.
chiave corda La chiave da confrontare rispetto al valore.
type enum Tipo di operazione: and o or.
Valori possibili: and, or
valore stringa o numero o valore booleano Valore da confrontare con la chiave dell'attributo; supporta tipi stringa, numero o boolean.

OpenAI.FineTuneDPOHyperparameters

Iperparametri usati per il processo di ottimizzazione DPO.

Nome TIPO Descrzione Obbligatorio Default
dimensione del batch enum
Valori possibili: auto
NO
beta enum
Valori possibili: auto
NO
moltiplicatore_tasso_apprendimento enum
Valori possibili: auto
NO
numero di epoche enum
Valori possibili: auto
NO

OpenAI.FineTuneDPOMethod

Configurazione per il metodo di ottimizzazione DPO.

Nome TIPO Descrzione Obbligatorio Default
iperparametri OpenAI.FineTuneDPOHyperparameters Iperparametri usati per il processo di ottimizzazione DPO. NO

OpenAI.FineTuneMethod

Metodo utilizzato per l'ottimizzazione.

Nome TIPO Descrzione Obbligatorio Default
DPO OpenAI.FineTuneDPOMethod Configurazione per il metodo di ottimizzazione DPO. NO
rinforzo AzureFineTuneReinforcementMethod NO
vigilato OpenAI.FineTuneSupervisedMethod Configurazione per il metodo di ottimizzazione con supervisione. NO
type enum Tipo di metodo. È supervised, dpo o reinforcement.
Valori possibili: supervised, dpo, reinforcement

OpenAI.FineTuneReinforcementHyperparameters

Iperparametri usati per il processo di ottimizzazione per rinforzo.

Nome TIPO Descrzione Obbligatorio Default
dimensione del batch enum
Valori possibili: auto
NO
compute_multiplier enum
Valori possibili: auto
NO
eval_interval enum
Valori possibili: auto
NO
eval_samples enum
Valori possibili: auto
NO
moltiplicatore_tasso_apprendimento enum
Valori possibili: auto
NO
numero di epoche enum
Valori possibili: auto
NO
sforzo di ragionamento enum Livello di sforzo di ragionamento.
Valori possibili: default, low, medium, high
NO

OpenAI.FineTuneSupervisedHyperparameters

Iperparametri usati per il processo di ottimizzazione.

Nome TIPO Descrzione Obbligatorio Default
dimensione del batch enum
Valori possibili: auto
NO
moltiplicatore_tasso_apprendimento enum
Valori possibili: auto
NO
numero di epoche enum
Valori possibili: auto
NO

OpenAI.FineTuneSupervisedMethod

Configurazione per il metodo di ottimizzazione con supervisione.

Nome TIPO Descrzione Obbligatorio Default
iperparametri OpenAI.FineTuneSupervisedHyperparameters Iperparametri usati per il processo di ottimizzazione. NO

OpenAI.FineTuningIntegration

Discriminatore per OpenAI.FineTuningIntegration

Questo componente usa la proprietà type per distinguere tra tipi diversi:

Valore tipo Schema
wandb OpenAI.FineTuningIntegrationWandb
Nome TIPO Descrzione Obbligatorio Default
type string (vedere modelli validi di seguito)

OpenAI.FineTuningIntegrationWandb

Nome TIPO Descrzione Obbligatorio Default
type enum Tipo di integrazione da abilitare per il processo di ottimizzazione
Valori possibili: wandb
wandb oggetto Impostazioni per l'integrazione con pesi e distorsioni. Questo payload specifica il progetto
a cui verranno inviate le metriche. Facoltativamente, è possibile impostare un nome visualizzato esplicito per l'esecuzione, aggiungere tag
per l'esecuzione e impostare un'entità predefinita (team, nome utente e così via) da associare all'esecuzione.
└─ Entità corda Entità da utilizzare per l'esecuzione. In questo modo è possibile impostare il team o il nome utente dell'utente Dibb che si desidera
come associato all'esecuzione. Se non è impostato, viene usata l'entità predefinita per la chiave API JpgB registrata.
NO
└> nome corda Nome visualizzato da impostare per l'esecuzione. Se non è impostato, verrà usato l'ID processo come nome. NO
└─ Progetto corda Nome del progetto in cui verrà creata la nuova esecuzione. NO
└* tag array Elenco di tag da collegare all'esecuzione appena creata. Questi tag vengono passati direttamente a JpgB. Some
I tag predefiniti vengono generati da OpenAI: "openai/finetune", "openai/{base-model}", "openai/{ftjob-abcdef}".
NO

OpenAI.FineTuningJob

L'oggetto fine_tuning.job rappresenta un processo di ottimizzazione che è stato creato tramite l'API.

Nome TIPO Descrzione Obbligatorio Default
creato_il numero intero Timestamp Unix (in secondi) per la creazione del processo di ottimizzazione.
Errore oggetto Per i processi di ottimizzazione con failed, verranno fornite ulteriori informazioni sulla causa dell'errore.
└─ codice corda Codice di errore leggibile dal computer. NO
└* messaggio corda Messaggio di errore leggibile. NO
└* param corda Parametro non valido, in genere training_file o validation_file. Questo campo sarà Null se l'errore non fosse specifico del parametro. NO
completamento stimato numero intero Timestamp Unix (in secondi) relativo alla previsione di completamento del processo di ottimizzazione. Il valore sarà Null se il processo di ottimizzazione non è in esecuzione. NO
fine_tuned_model corda Nome del modello ottimizzato in fase di creazione. Il valore sarà Null se il processo di ottimizzazione è ancora in esecuzione.
terminato_il numero intero Timestamp Unix (in secondi) per il completamento del processo di ottimizzazione. Il valore sarà Null se il processo di ottimizzazione è ancora in esecuzione.
iperparametri oggetto Iperparametri usati per il processo di ottimizzazione. Questo valore verrà restituito solo durante l'esecuzione di processi supervised.
└' batch_size enum
Valori possibili: auto
NO
└' learning_rate_multiplier enum
Valori possibili: auto
NO
└' n_epochs enum
Valori possibili: auto
NO
id corda Identificatore dell'oggetto a cui è possibile fare riferimento negli endpoint dell'API.
integrazioni array Elenco di integrazioni da abilitare per questo processo di ottimizzazione. NO
metadata oggetto Set di 16 coppie chiave-valore che possono essere collegate a un oggetto. Può trattarsi di
utile per archiviare informazioni aggiuntive sull'oggetto in un oggetto strutturato
formattare ed eseguire query per gli oggetti tramite l'API o il dashboard.

Le chiavi sono stringhe con una lunghezza massima di 64 caratteri. I valori sono stringhe
con una lunghezza massima di 512 caratteri.
method OpenAI.FineTuneMethod Metodo utilizzato per l'ottimizzazione. NO
model corda Modello di base ottimizzato.
oggetto enum Tipo di oggetto, che è sempre "fine_tuning.job".
Valori possibili: fine_tuning.job
organization_id corda L'organizzazione proprietaria del processo di ottimizzazione.
file_di_risultato array ID file dei risultati compilati per il processo di ottimizzazione. È possibile recuperare i risultati con l'API File.
seed numero intero Valore di inizializzazione utilizzato per il processo di ottimizzazione.
stato enum Stato corrente del processo di ottimizzazione, che può essere validating_files, queued, running, succeeded, failedo cancelled.
Valori possibili: validating_files, queuedrunning, succeeded, , failedcancelled
trained_tokens numero intero Numero totale di token fatturabili elaborati da questo processo di ottimizzazione. Il valore sarà Null se il processo di ottimizzazione è ancora in esecuzione.
file di allenamento corda ID file utilizzato per il training. È possibile recuperare i dati di training con l'API File.
user_provided_suffix corda Suffisso descrittivo applicato al processo, come specificato nella richiesta di creazione del processo. NO
file_di_validazione corda ID file utilizzato per la convalida. È possibile recuperare i risultati della convalida con l'API File.

OpenAI.FineTuningJobCheckpoint

L'oggetto fine_tuning.job.checkpoint rappresenta un checkpoint del modello per un processo di ottimizzazione pronto per l'uso.

Nome TIPO Descrzione Obbligatorio Default
creato_il numero intero Timestamp UNIX (in secondi) relativo al momento in cui è stato creato il checkpoint.
punto_di_controllo_modello_ottimizzato corda Nome del modello di checkpoint ottimizzato che viene creato.
id_lavoro_affinamento corda Nome del processo di ottimizzazione da cui è stato creato il checkpoint.
id corda Identificatore del checkpoint, a cui è possibile fare riferimento negli endpoint dell'API.
metrics oggetto Metriche al numero di passaggio durante il processo di ottimizzazione.
└' full_valid_loss numero NO
└' full_valid_mean_token_accuracy numero NO
└* passaggio numero NO
└' train_loss numero NO
└' train_mean_token_accuracy numero NO
└' valid_loss numero NO
└' valid_mean_token_accuracy numero NO
oggetto enum Tipo di oggetto, che è sempre "fine_tuning.job.checkpoint".
Valori possibili: fine_tuning.job.checkpoint
numero_passaggio numero intero Numero del passaggio in cui è stato creato il checkpoint.

OpenAI.FineTuningJobEvent

Oggetto evento processo di ottimizzazione

Nome TIPO Descrzione Obbligatorio Default
creato_il numero intero Timestamp Unix (in secondi) per la creazione del processo di ottimizzazione.
data Dati associati all'evento. NO
id corda Identificatore dell'oggetto.
livello enum Livello di log dell'evento.
Valori possibili: info, warn, error
message corda Messaggio dell'evento.
oggetto enum Tipo di oggetto, che è sempre "fine_tuning.job.event".
Valori possibili: fine_tuning.job.event
type enum Il tipo di evento.
Valori possibili: message, metrics
NO

OpenAI.FunctionObject

Nome TIPO Descrzione Obbligatorio Default
descrizione corda Descrizione delle operazioni della funzione, usate dal modello per scegliere quando e come chiamare la funzione. NO
nome corda Nome della funzione che deve essere chiamata. Deve essere a-z, A-Z, 0-9 o contenere caratteri di sottolineatura e trattini, con una lunghezza massima di 64 caratteri.
parameters I parametri accettati dalle funzioni, descritti come oggetto Schema JSON. Consultare la guida per trovare esempi e le informazioni di riferimento sullo schema JSON per la documentazione sul formato.

L'omissione di parameters definisce una funzione con un elenco di parametri vuoto.
NO
rigido boolean Indica se abilitare una rigorosa conformità allo schema durante la generazione della chiamata di funzione. Se impostato su true, il modello seguirà lo schema esatto definito nel campo parameters. Solo un subset di schema JSON è supportato quando strict è true. Altre informazioni sugli output strutturati sono disponibili nella guida alla chiamata di funzione. NO Falso

OpenAI.FunctionTool

Definisce una funzione nel tuo codice che il modello può chiamare. Altre informazioni sulla chiamata alle funzioni.

Nome TIPO Descrzione Obbligatorio Default
descrizione corda Descrizione della funzione. Utilizzato dal modello per determinare se chiamare o meno la funzione. NO
nome corda Nome della funzione da chiamare.
parameters Oggetto schema JSON che descrive i parametri della funzione.
rigido boolean Indica se applicare la convalida rigorosa dei parametri. Valore predefinito true.
type enum Tipo di strumento funzionale. Sempre function.
Valori possibili: function

OpenAI.FunctionToolCallItemParam

Chiamata di uno strumento per eseguire una funzione. Per altre informazioni, vedere la guida alla chiamata di funzione .

Nome TIPO Descrzione Obbligatorio Default
arguments corda Stringa JSON degli argomenti da passare alla funzione.
call_id corda ID univoco della chiamata dello strumento di funzione generata dal modello.
nome corda Nome della funzione da eseguire.
type enum
Valori possibili: function_call

OpenAI.FunctionToolCallItemResource

Chiamata di uno strumento per eseguire una funzione. Per altre informazioni, vedere la guida alla chiamata di funzione .

Nome TIPO Descrzione Obbligatorio Default
arguments corda Stringa JSON degli argomenti da passare alla funzione.
call_id corda ID univoco della chiamata dello strumento di funzione generata dal modello.
nome corda Nome della funzione da eseguire.
stato enum Stato dell'elemento. Uno di in_progress, completed, o
incomplete. Popolato quando gli elementi vengono restituiti tramite l'API.
Valori possibili: in_progress, completed, incomplete
type enum
Valori possibili: function_call

OpenAI.FunctionToolCallOutputItemParam

Output di una chiamata dello strumento di funzione.

Nome TIPO Descrzione Obbligatorio Default
call_id corda ID univoco della chiamata dello strumento di funzione generata dal modello.
output corda Stringa JSON dell'output della chiamata dello strumento di funzione.
type enum
Valori possibili: function_call_output

OpenAI.FunctionToolCallOutputItemResource

Output di una chiamata dello strumento di funzione.

Nome TIPO Descrzione Obbligatorio Default
call_id corda ID univoco della chiamata dello strumento di funzione generata dal modello.
output corda Stringa JSON dell'output della chiamata dello strumento di funzione.
stato enum Stato dell'elemento. Uno di in_progress, completed, o
incomplete. Popolato quando gli elementi vengono restituiti tramite l'API.
Valori possibili: in_progress, completed, incomplete
type enum
Valori possibili: function_call_output

OpenAI.Grader

Discriminatore per OpenAI.Grader

Questo componente usa la proprietà type per distinguere tra tipi diversi:

Valore tipo Schema
label_model OpenAI.GraderLabelModel
text_similarity OpenAI.GraderTextSimilarity
python OpenAI.GraderPython
score_model OpenAI.GraderScoreModel
multi OpenAI.GraderMulti
Nome TIPO Descrzione Obbligatorio Default
type OpenAI.GraderType

OpenAI.GraderLabelModel

Oggetto LabelModelGrader che usa un modello per assegnare etichette a ogni elemento della valutazione.

Nome TIPO Descrzione Obbligatorio Default
ingresso array
labels array Etichette da assegnare a ogni elemento della valutazione.
model corda Modello da utilizzare per la valutazione. Deve supportare output strutturati.
nome corda Nome del grader.
etichette_di_passaggio array Le etichette che indicano un risultato positivo. Deve essere un sottoinsieme di etichette.
type enum Il tipo di oggetto, che è sempre label_model.
Valori possibili: label_model

OpenAI.GraderMulti

Un oggetto multivalutatori combina l'output di più grader per produrre un singolo punteggio.

Nome TIPO Descrzione Obbligatorio Default
calculate_output corda Formula per calcolare l'output in base ai risultati del classificatore.
valutatori oggetto
nome corda Nome del grader.
type enum Il tipo di oggetto, che è sempre multi.
Valori possibili: multi

OpenAI.GraderPython

Oggetto PythonGrader che esegue uno script Python nell'input.

Nome TIPO Descrzione Obbligatorio Default
image_tag corda Tag immagine da usare per lo script Python. NO
nome corda Nome del grader.
source corda Codice sorgente dello script Python.
type enum Il tipo di oggetto, che è sempre python.
Valori possibili: python

OpenAI.GraderScoreModel

Oggetto ScoreModelGrader che usa un modello per assegnare un punteggio all'input.

Nome TIPO Descrzione Obbligatorio Default
ingresso array Testo di input. Ciò può includere stringhe di modello.
model corda Modello da utilizzare per la valutazione.
nome corda Nome del grader.
intervallo array La gamma del punteggio. Il valore predefinito è [0, 1]. NO
sampling_params Parametri di campionamento per il modello. NO
type enum Il tipo di oggetto, che è sempre score_model.
Valori possibili: score_model

OpenAI.GraderStringCheck

Oggetto StringCheckGrader che esegue un confronto di stringhe tra input e riferimento usando un'operazione specificata.

Nome TIPO Descrzione Obbligatorio Default
ingresso corda Testo di input. Ciò può includere stringhe di modello.
nome corda Nome del grader.
operazione enum Operazione di controllo della stringa da eseguire. Uno tra eq, ne, like o ilike.
Valori possibili: eq, ne, like, ilike
riferimento corda Testo di riferimento. Ciò può includere stringhe di modello.
type enum Il tipo di oggetto, che è sempre string_check.
Valori possibili: string_check

OpenAI.GraderTextSimilarity

Oggetto TextSimilarityGrader che assegna un grado al testo in base alle metriche di somiglianza.

Nome TIPO Descrzione Obbligatorio Default
metrica di valutazione enum Metrica di valutazione da usare. Uno di fuzzy_match, bleu, gleu, meteor, rouge_1, rouge_2, rouge_3, rouge_4, rouge_5 o rouge_l.
Valori possibili: fuzzy_match, bleu, gleumeteor, rouge_1, rouge_2, rouge_3, rouge_4, rouge_5rouge_l
ingresso corda Il testo in valutazione.
nome corda Nome del grader.
riferimento corda Testo che viene valutato.
type enum Tipo di grader.
Valori possibili: text_similarity

OpenAI.GraderType

Proprietà Value
Tipo corda
Valori string_check
text_similarity
score_model
label_model
python
multi

OpenAI.ImageGenTool

Strumento che genera immagini usando un modello come gpt-image-1-series.

Nome TIPO Descrzione Obbligatorio Default
sfondo enum Tipo di sfondo per l'immagine generata. Uno di transparent,
opaque, o auto. Impostazione predefinita: auto.
Valori possibili: transparent, opaque, auto
NO
input_image_mask oggetto Maschera opzionale per ritocco immagine. Contiene image_url
(stringa, facoltativa) e file_id (stringa, facoltativa).
NO
└ file_id corda ID del file per l'immagine della maschera. NO
└ image_url corda Immagine maschera con codifica Base64. NO
model enum Modello di generazione di immagini da usare. Impostazione predefinita: gpt-image-1.
Valori possibili: gpt-image-1
NO
moderation enum Livello di moderazione per l'immagine generata. Impostazione predefinita: auto.
Valori possibili: auto, low
NO
Compressione dell'output numero intero Livello di compressione per l'immagine di output. Predefinito: 100. NO 100
formato_di_output enum Formato di output dell'immagine generata. Uno di png, webp, o
jpeg. Impostazione predefinita: png.
Valori possibili: png, webp, jpeg
NO
immagini parziali numero intero Numero di immagini parziali da generare in modalità di streaming, da 0 (valore predefinito) a 3. NO 0
qualità enum Qualità dell'immagine generata. Uno tra low, medium, high,
o auto. Impostazione predefinita: auto.
Valori possibili: low, medium, high, auto
NO
size enum Dimensioni dell'immagine generata. Uno di 1024x1024, 1024x1536,
1536x1024, o auto. Impostazione predefinita: auto.
Valori possibili: 1024x1024, 1024x1536, 1536x1024, auto
NO
type enum Tipo dello strumento di generazione di immagini. Sempre image_generation.
Valori possibili: image_generation

OpenAI.ImageGenToolCallItemParam

Richiesta di generazione di immagini effettuata dal modello.

Nome TIPO Descrzione Obbligatorio Default
risultato corda Immagine generata codificata in base64.
type enum
Valori possibili: image_generation_call

OpenAI.ImageGenToolCallItemResource

Richiesta di generazione di immagini effettuata dal modello.

Nome TIPO Descrzione Obbligatorio Default
risultato corda Immagine generata codificata in base64.
stato enum
Valori possibili: in_progress, completed, generating, failed
type enum
Valori possibili: image_generation_call

OpenAI.ImplicitUserMessage

Nome TIPO Descrzione Obbligatorio Default
contenuto stringa o matrice

OpenAI.Includable

Specificare dati di output aggiuntivi da includere nella risposta del modello. I valori attualmente supportati sono:

  • code_interpreter_call.outputs: include gli output dell'esecuzione di codice Python negli elementi di chiamata dello strumento dell'interprete di codice.
  • computer_call_output.output.image_url: includere gli URL delle immagini provenienti dall'output della chiamata computer.
  • file_search_call.results: includere i risultati della ricerca della chiamata allo strumento di ricerca file.
  • message.input_image.image_url: includere gli URL dell'immagine dal messaggio di input.
  • message.output_text.logprobs: includere logprob con messaggi di assistente.
  • reasoning.encrypted_content: include una versione crittografata dei token di ragionamento negli output degli elementi di ragionamento. Ciò consente di usare gli elementi di ragionamento nelle conversazioni a più turni quando si usa l'API Risposte senza stato (ad esempio quando il store parametro è impostato su falseo quando un'organizzazione viene registrata nel programma di conservazione dei dati zero).
Proprietà Value
Descrizione Specificare dati di output aggiuntivi da includere nella risposta del modello. Attualmente
i valori supportati sono:
- code_interpreter_call.outputs: include gli output dell'esecuzione del codice Python
negli elementi di chiamata dello strumento dell'interprete di codice.
- computer_call_output.output.image_url: includere gli URL delle immagini provenienti dall'output della chiamata computer.
- file_search_call.results: includere i risultati della ricerca di
richiesta allo strumento di ricerca dei file.
- message.input_image.image_url: includere gli URL dell'immagine dal messaggio di input.
- message.output_text.logprobs: includere logprob con messaggi di assistente.
- reasoning.encrypted_content: include una versione crittografata del motivo
token nell'output dell'elemento di ragionamento. In questo modo è possibile utilizzare gli elementi di ragionamento in
conversazioni a più turni quando si usa l'API Risposte senza stato (ad esempio
quando il store parametro è impostato su false o quando un'organizzazione è
registrato nel programma a conservazione dati nulla.
Tipo corda
Valori code_interpreter_call.outputs
computer_call_output.output.image_url
file_search_call.results
message.input_image.image_url
message.output_text.logprobs
reasoning.encrypted_content

OpenAI.ItemContent

Discriminare per OpenAI.ItemContent

Questo componente usa la proprietà type per distinguere tra tipi diversi:

Valore tipo Schema
input_audio OpenAI.ItemContentInputAudio
output_audio OpenAI.ItemContentOutputAudio
refusal OpenAI.ItemContentRefusal
input_text OpenAI.ItemContentInputText
input_image OpenAI.ItemContentInputImage
input_file OpenAI.ItemContentInputFile
output_text OpenAI.ItemContentOutputText
Nome TIPO Descrzione Obbligatorio Default
type OpenAI.ItemContentType Contenuti di input e output multimodali.

OpenAI.ItemContentInputAudio

Input audio per il modello.

Nome TIPO Descrzione Obbligatorio Default
data corda Dati audio con codifica Base64.
format enum Formato dei dati audio. I formati attualmente supportati sono mp3 e
wav.
Valori possibili: mp3, wav
type enum Tipo dell'elemento di input. Sempre input_audio.
Valori possibili: input_audio

OpenAI.ItemContentInputFile

Un file di input per il modello.

Nome TIPO Descrzione Obbligatorio Default
file_data corda Contenuto del file da inviare al modello. NO
ID del file corda ID del file da inviare al modello. NO
filename corda Nome del file da inviare al modello. NO
type enum Tipo dell'elemento di input. Sempre input_file.
Valori possibili: input_file

OpenAI.ItemContentInputImage

Un'immagine come input per il modello.

Nome TIPO Descrzione Obbligatorio Default
detail enum Livello di dettaglio dell'immagine da inviare al modello. Uno tra high, low e auto. Il valore predefinito è auto.
Valori possibili: low, high, auto
NO
ID del file corda ID del file da inviare al modello. NO
image_url corda URL dell'immagine da inviare al modello. URL completo o immagine con codifica Base64 in un URL dati. NO
type enum Tipo dell'elemento di input. Sempre input_image.
Valori possibili: input_image

OpenAI.ItemContentInputText

Input di testo per il modello.

Nome TIPO Descrzione Obbligatorio Default
Testo corda Input di testo per il modello.
type enum Tipo dell'elemento di input. Sempre input_text.
Valori possibili: input_text

OpenAI.ItemContentOutputAudio

Un'uscita audio dal modello.

Nome TIPO Descrzione Obbligatorio Default
data corda Dati audio con codifica Base64 dal modello.
transcript corda Trascrizione dei dati audio del modello.
type enum Tipo di output audio. Sempre output_audio.
Valori possibili: output_audio

OpenAI.ItemContentOutputText

Output di testo del modello.

Nome TIPO Descrzione Obbligatorio Default
annotazioni array Annotazioni dell'output di testo.
logprobs array NO
Testo corda L'output di testo generato dal modello.
type enum Tipo del testo di uscita. Sempre output_text.
Valori possibili: output_text

OpenAI.ItemContentRefusal

Rifiuto da parte del modello.

Nome TIPO Descrzione Obbligatorio Default
refusal corda Spiegazione del rifiuto dal modello.
type enum Tipo di rifiuto. Sempre refusal.
Valori possibili: refusal

OpenAI.ItemContentType

Contenuti di input e output multimodali.

Proprietà Value
Descrizione Contenuti di input e output multimodali.
Tipo corda
Valori input_text
input_audio
input_image
input_file
output_text
output_audio
refusal

OpenAI.ItemParam

Elemento di contenuto usato per generare una risposta.

Discriminare per OpenAI.ItemParam

Questo componente usa la proprietà type per distinguere tra tipi diversi:

Valore tipo Schema
file_search_call OpenAI.FileSearchToolCallItemParam
computer_call OpenAI.ComputerToolCallItemParam
computer_call_output OpenAI.ComputerToolCallOutputItemParam
web_search_call OpenAI.WebSearchToolCallItemParam
function_call OpenAI.FunctionToolCallItemParam
function_call_output OpenAI.FunctionToolCallOutputItemParam
reasoning OpenAI.ReasoningItemParam
item_reference OpenAI.ItemReferenceItemParam
image_generation_call OpenAI.ImageGenToolCallItemParam
code_interpreter_call OpenAI.CodeInterpreterToolCallItemParam
local_shell_call OpenAI.LocalShellToolCallItemParam
local_shell_call_output OpenAI.LocalShellToolCallOutputItemParam
mcp_list_tools OpenAI.MCPListToolsItemParam
mcp_approval_request OpenAI.MCPApprovalRequestItemParam
mcp_approval_response OpenAI.MCPApprovalResponseItemParam
mcp_call OpenAI.MCPCallItemParam
message OpenAI.ResponsesMessageItemParam
Nome TIPO Descrzione Obbligatorio Default
type OpenAI.ItemType

OpenAI.ItemReferenceItemParam

Identificatore interno di un elemento a cui fare riferimento.

Nome TIPO Descrzione Obbligatorio Default
id corda L'ID generato dal servizio relativo all'elemento di risposta precedentemente creato a cui si fa riferimento.
type enum
Valori possibili: item_reference

OpenAI.ItemResource

Elemento di contenuto usato per generare una risposta.

Discriminatorio per OpenAI.ItemResource

Questo componente usa la proprietà type per distinguere tra tipi diversi:

Valore tipo Schema
file_search_call OpenAI.FileSearchToolCallItemResource
computer_call OpenAI.ComputerToolCallItemResource
computer_call_output OpenAI.ComputerToolCallOutputItemResource
web_search_call OpenAI.WebSearchToolCallItemResource
function_call OpenAI.FunctionToolCallItemResource
function_call_output OpenAI.FunctionToolCallOutputItemResource
reasoning OpenAI.ReasoningItemResource
image_generation_call OpenAI.ImageGenToolCallItemResource
code_interpreter_call OpenAI.CodeInterpreterToolCallItemResource
local_shell_call OpenAI.LocalShellToolCallItemResource
local_shell_call_output OpenAI.LocalShellToolCallOutputItemResource
mcp_list_tools OpenAI.MCPListToolsItemResource
mcp_approval_request OpenAI.MCPApprovalRequestItemResource
mcp_approval_response OpenAI.MCPApprovalResponseItemResource
mcp_call OpenAI.MCPCallItemResource
message OpenAI.ResponsesMessageItemResource
Nome TIPO Descrzione Obbligatorio Default
id corda
type OpenAI.ItemType

OpenAI.ItemType

Proprietà Value
Tipo corda
Valori message
file_search_call
function_call
function_call_output
computer_call
computer_call_output
web_search_call
reasoning
item_reference
image_generation_call
code_interpreter_call
local_shell_call
local_shell_call_output
mcp_list_tools
mcp_approval_request
mcp_approval_response
mcp_call

OpenAI.ListFineTuningJobCheckpointsResponse

Nome TIPO Descrzione Obbligatorio Default
data array
first_id corda NO
ha_di_piu boolean
last_id corda NO
oggetto enum
Valori possibili: list

OpenAI.ListFineTuningJobEventsResponse

Nome TIPO Descrzione Obbligatorio Default
data array
ha_di_piu boolean
oggetto enum
Valori possibili: list

OpenAI.ListModelsResponse

Nome TIPO Descrzione Obbligatorio Default
data array
oggetto enum
Valori possibili: list

OpenAI.ListPaginatedFineTuningJobsResponse

Nome TIPO Descrzione Obbligatorio Default
data array
ha_di_piu boolean
oggetto enum
Valori possibili: list

OpenAI.ListVectorStoreFilesFilter

Proprietà Value
Tipo corda
Valori in_progress
completed
failed
cancelled

OpenAI.ListVectorStoreFilesResponse

Nome TIPO Descrzione Obbligatorio Default
data array
first_id corda
ha_di_piu boolean
last_id corda
oggetto enum
Valori possibili: list

OpenAI.ListVectorStoresResponse

Nome TIPO Descrzione Obbligatorio Default
data array
first_id corda
ha_di_piu boolean
last_id corda
oggetto enum
Valori possibili: list

OpenAI.LocalShellExecAction

Eseguire un comando della shell nel server.

Nome TIPO Descrzione Obbligatorio Default
command array Il comando da eseguire.
Env oggetto Variabili di ambiente da impostare per il comando.
timeout_ms numero intero Timeout facoltativo in millisecondi per il comando. NO
type enum Tipo dell'azione della shell locale. Sempre exec.
Valori possibili: exec
utente corda Utente facoltativo con cui eseguire il comando. NO
working_directory corda Directory di lavoro facoltativa in cui eseguire il comando. NO

OpenAI.LocalShellTool

Strumento che consente al modello di eseguire comandi della shell in un ambiente locale.

Nome TIPO Descrzione Obbligatorio Default
type enum Tipo dello strumento shell locale. Sempre local_shell.
Valori possibili: local_shell

OpenAI.LocalShellToolCallItemParam

Chiamata allo strumento per eseguire un comando nella shell locale.

Nome TIPO Descrzione Obbligatorio Default
azione OpenAI.LocalShellExecAction Eseguire un comando della shell nel server.
call_id corda ID univoco della chiamata allo strumento shell locale generata dal modello.
type enum
Valori possibili: local_shell_call

OpenAI.LocalShellToolCallItemResource

Chiamata allo strumento per eseguire un comando nella shell locale.

Nome TIPO Descrzione Obbligatorio Default
azione OpenAI.LocalShellExecAction Eseguire un comando della shell nel server.
call_id corda ID univoco della chiamata allo strumento shell locale generata dal modello.
stato enum
Valori possibili: in_progress, completed, incomplete
type enum
Valori possibili: local_shell_call

OpenAI.LocalShellToolCallOutputItemParam

Output di una chiamata allo strumento shell locale.

Nome TIPO Descrzione Obbligatorio Default
output corda Stringa JSON dell'output della chiamata allo strumento shell locale.
type enum
Valori possibili: local_shell_call_output

OpenAI.LocalShellToolCallOutputItemResource

Output di una chiamata allo strumento shell locale.

Nome TIPO Descrzione Obbligatorio Default
output corda Stringa JSON dell'output della chiamata allo strumento shell locale.
stato enum
Valori possibili: in_progress, completed, incomplete
type enum
Valori possibili: local_shell_call_output

OpenAI.Location

Discriminare per OpenAI.Location

Questo componente usa la proprietà type per distinguere tra tipi diversi:

Valore tipo Schema
approximate OpenAI.ApproximateLocation
Nome TIPO Descrzione Obbligatorio Default
type OpenAI.LocationType

OpenAI.LocationType

Proprietà Value
Tipo corda
Valori approximate

OpenAI.LogProb

Probabilità di log di un token.

Nome TIPO Descrzione Obbligatorio Default
bytes array
logprob numero
token corda
top_logprobs array

OpenAI.MCPApprovalRequestItemParam

Richiesta di approvazione umana di una chiamata a uno strumento.

Nome TIPO Descrzione Obbligatorio Default
arguments corda Stringa JSON di argomenti per lo strumento.
nome corda Nome dello strumento da eseguire.
etichetta del server corda Etichetta del server MCP che effettua la richiesta.
type enum
Valori possibili: mcp_approval_request

OpenAI.MCPApprovalRequestItemResource

Richiesta di approvazione umana di una chiamata a uno strumento.

Nome TIPO Descrzione Obbligatorio Default
arguments corda Stringa JSON di argomenti per lo strumento.
nome corda Nome dello strumento da eseguire.
etichetta del server corda Etichetta del server MCP che effettua la richiesta.
type enum
Valori possibili: mcp_approval_request

OpenAI.MCPApprovalResponseItemParam

Risposta a una richiesta di approvazione MCP.

Nome TIPO Descrzione Obbligatorio Default
approval_request_id corda ID della richiesta di approvazione a cui si sta rispondendo.
approve boolean Indica se la richiesta è stata approvata.
reason corda Motivo facoltativo della decisione. NO
type enum
Valori possibili: mcp_approval_response

OpenAI.MCPApprovalResponseItemResource

Risposta a una richiesta di approvazione MCP.

Nome TIPO Descrzione Obbligatorio Default
approval_request_id corda ID della richiesta di approvazione a cui si sta rispondendo.
approve boolean Indica se la richiesta è stata approvata.
reason corda Motivo facoltativo della decisione. NO
type enum
Valori possibili: mcp_approval_response

OpenAI.MCPCallItemParam

Chiamata di uno strumento in un server MCP.

Nome TIPO Descrzione Obbligatorio Default
arguments corda Stringa JSON degli argomenti passati allo strumento.
Errore corda Errore della chiamata allo strumento, se presente. NO
nome corda Nome dello strumento eseguito.
output corda Risultato della chiamata allo strumento. NO
etichetta del server corda Etichetta del server MCP che esegue lo strumento.
type enum
Valori possibili: mcp_call

OpenAI.MCPCallItemResource

Chiamata di uno strumento in un server MCP.

Nome TIPO Descrzione Obbligatorio Default
arguments corda Stringa JSON degli argomenti passati allo strumento.
Errore corda Errore della chiamata allo strumento, se presente. NO
nome corda Nome dello strumento eseguito.
output corda Risultato della chiamata allo strumento. NO
etichetta del server corda Etichetta del server MCP che esegue lo strumento.
type enum
Valori possibili: mcp_call

OpenAI.MCPListToolsItemParam

Elenco di strumenti disponibili in un server MCP.

Nome TIPO Descrzione Obbligatorio Default
Errore corda Messaggio di errore se il server non è riuscito ad elencare gli strumenti. NO
etichetta del server corda Etichetta del server MCP.
strumenti array Strumenti disponibili nel server.
type enum
Valori possibili: mcp_list_tools

OpenAI.MCPListToolsItemResource

Elenco di strumenti disponibili in un server MCP.

Nome TIPO Descrzione Obbligatorio Default
Errore corda Messaggio di errore se il server non è riuscito ad elencare gli strumenti. NO
etichetta del server corda Etichetta del server MCP.
strumenti array Strumenti disponibili nel server.
type enum
Valori possibili: mcp_list_tools

OpenAI.MCPListToolsTool

Strumento disponibile in un server MCP.

Nome TIPO Descrzione Obbligatorio Default
annotazioni Annotazioni aggiuntive sullo strumento. NO
descrizione corda Descrizione dello strumento. NO
input_schema Schema JSON che descrive l'input dello strumento.
nome corda Nome dello strumento.

OpenAI.MCPTool

Concedere al modello l'accesso a strumenti aggiuntivi tramite server MCP (Model Context Protocol) remoti.

Nome TIPO Descrzione Obbligatorio Default
strumenti consentiti oggetto NO
└tool_names array Elenco dei nomi degli strumenti consentiti. NO
headers oggetto Intestazioni HTTP facoltative da inviare al server MCP. Usare per l'autenticazione
o altri scopi.
NO
richiedere_approvazione oggetto (vedere modelli validi di seguito) Specificare quale degli strumenti del server MCP richiede l'approvazione. NO
etichetta del server corda Etichetta per questo server MCP, usata per identificarla nelle chiamate degli strumenti.
URL del server corda URL del server MCP.
type enum Tipo dello strumento MCP. Sempre mcp.
Valori possibili: mcp

OpenAI.MetadataPropertyForRequest

Set di 16 coppie chiave-valore che possono essere collegate a un oggetto. Ciò può essere utile per archiviare informazioni aggiuntive sull'oggetto in un formato strutturato ed eseguire query sugli oggetti tramite API o il dashboard.

Le chiavi sono stringhe con una lunghezza massima di 64 caratteri. I valori sono stringhe con una lunghezza massima di 512 caratteri.

Nome TIPO Descrzione Obbligatorio Default
metadata oggetto Set di 16 coppie chiave-valore che possono essere collegate a un oggetto. Può trattarsi di
utile per archiviare informazioni aggiuntive sull'oggetto in un oggetto strutturato
formattare ed eseguire query per gli oggetti tramite l'API o il dashboard.

Le chiavi sono stringhe con una lunghezza massima di 64 caratteri. I valori sono stringhe
con una lunghezza massima di 512 caratteri.
NO

OpenAI.Model

Descrive un'offerta di modello OpenAI che può essere usata con l'API.

Nome TIPO Descrzione Obbligatorio Default
created numero intero Timestamp Unix (in secondi) durante la creazione del modello.
id corda Identificatore del modello a cui è possibile fare riferimento negli endpoint dell'API.
oggetto enum Tipo di oggetto, che è sempre "model".
Valori possibili: model
owned_by corda L'organizzazione proprietaria del modello.

OpenAI.OtherChunkingStrategyResponseParam

Viene restituito quando la strategia di suddivisione in blocchi è sconosciuta. In genere, ciò è dovuto al fatto che il file è stato indicizzato prima dell'introduzione del concetto chunking_strategy nell'API.

Nome TIPO Descrzione Obbligatorio Default
type enum Sempre other.
Valori possibili: other

OpenAI.ParallelToolCalls

Indica se abilitare o meno la chiamata di funzioni parallele durante l'uso dello strumento.

Tipo: booleano

OpenAI.Prompt

Riferimento a un modello di richiesta e alle relative variabili.

Nome TIPO Descrzione Obbligatorio Default
id corda Identificatore univoco del modello di richiesta da utilizzare.
variabili oggetto Mappa facoltativa di valori da sostituire con le variabili nella
richiesta. I valori di sostituzione possono essere stringhe o altri
Tipi di input di risposta come immagini o file.
NO
version corda Versione facoltativa del modello di richiesta. NO

OpenAI.OpzioniDiClassifica

Nome TIPO Descrzione Obbligatorio Default
classificatore enum Ranker da usare per la ricerca di file.
Valori possibili: auto, default-2024-11-15
NO
soglia_punteggio numero Soglia del punteggio per la ricerca di file, un numero compreso tra 0 e 1. I numeri più vicini a 1 tenteranno di restituire solo i risultati più rilevanti, ma potrebbero restituire meno risultati. NO

OpenAI.Reasoning

solo modelli di ragionamento

Opzioni di configurazione per i modelli di ragionamento.

Nome TIPO Descrzione Obbligatorio Default
effort oggetto solo modelli di ragionamento

Vincola lo sforzo sul ragionamento per
modelli di ragionamento.
I valori attualmente supportati sono low, medium e high. Ridurre
l'impegno di ragionamento può comportare risposte più veloci e meno token usati
sul ragionamento in una risposta.
NO
generate_summary enum Deprecato: usare summary invece.

Riepilogo del ragionamento eseguito dal modello. Può trattarsi di
utile per eseguire il debug e comprendere il processo di ragionamento del modello.
Uno tra auto, concise e detailed.
Valori possibili: auto, concise, detailed
NO
summary enum Riepilogo del ragionamento eseguito dal modello. Può trattarsi di
utile per eseguire il debug e comprendere il processo di ragionamento del modello.
Uno tra auto, concise e detailed.
Valori possibili: auto, concise, detailed
NO

OpenAI.SforzoDiRagionamento

solo modelli di ragionamento

Limita lo sforzo di ragionamento per modelli di ragionamento. I valori attualmente supportati sono low, medium e high. La riduzione del lavoro di ragionamento può tradursi in risposte più veloci e in un minor numero di token usati per il ragionamento in una risposta.

Proprietà Value
Descrizione solo modelli di ragionamento

Vincola lo sforzo sul ragionamento per
modelli di ragionamento.
I valori attualmente supportati sono low, medium e high. Ridurre
l'impegno di ragionamento può comportare risposte più veloci e meno token usati
sul ragionamento in una risposta.
Tipo corda
Valori low
medium
high

OpenAI.ReasoningItemParam

Descrizione della catena di pensiero usata da un modello di ragionamento durante la generazione di una risposta. Assicurarsi di includere questi elementi nell'API input Risposte per i turni successivi di una conversazione se si gestisce manualmente il contesto.

Nome TIPO Descrzione Obbligatorio Default
encrypted_content corda Contenuto crittografato dell'elemento di ragionamento, popolato quando una risposta è inviata
generato con reasoning.encrypted_content nel include parametro .
NO
summary array Contenuti del testo di ragionamento.
type enum
Valori possibili: reasoning

OpenAI.ReasoningItemResource

Descrizione della catena di pensiero usata da un modello di ragionamento durante la generazione di una risposta. Assicurarsi di includere questi elementi nell'API input Risposte per i turni successivi di una conversazione se si gestisce manualmente il contesto.

Nome TIPO Descrzione Obbligatorio Default
encrypted_content corda Contenuto crittografato dell'elemento di ragionamento, popolato quando una risposta è inviata
generato con reasoning.encrypted_content nel include parametro .
NO
summary array Contenuti del testo di ragionamento.
type enum
Valori possibili: reasoning

OpenAI.ReasoningItemSummaryPart

Discriminante per OpenAI.ReasoningItemSummaryPart

Questo componente usa la proprietà type per distinguere tra tipi diversi:

Valore tipo Schema
summary_text OpenAI.ReasoningItemSummaryTextPart
Nome TIPO Descrzione Obbligatorio Default
type OpenAI.ReasoningItemSummaryPartType

OpenAI.ReasoningItemSummaryPartType

Proprietà Value
Tipo corda
Valori summary_text

OpenAI.ReasoningItemSummaryTextPart

Nome TIPO Descrzione Obbligatorio Default
Testo corda
type enum
Valori possibili: summary_text

OpenAI.Response

Nome TIPO Descrzione Obbligatorio Default
sfondo boolean Indica se eseguire la risposta del modello in background.
Ulteriori informazioni.
NO Falso
creato_il numero intero Timestamp Unix (in secondi) di quando è stata creata questa risposta.
Errore oggetto Oggetto di errore restituito quando il modello non riesce a generare una risposta.
└─ codice OpenAI.ResponseErrorCode Codice di errore per la risposta. NO
└* messaggio corda Descrizione leggibile dell'errore. NO
id corda Identificatore univoco per questa risposta.
incomplete_details oggetto Informazioni dettagliate sul motivo per cui la risposta è incompleta.
└* motivo enum Motivo per cui la risposta è incompleta.
Valori possibili: max_output_tokens, content_filter
NO
instructions stringa o matrice
max_output_tokens numero intero Limite superiore per il numero di token che possono essere generati per una risposta, inclusi i token di output visibili e i token di ragionamento. NO
max_tool_calls numero intero Numero massimo di chiamate totali agli strumenti predefiniti che possono essere elaborati in una risposta. Questo numero massimo si applica a tutte le chiamate di strumenti predefinite, non a ogni singolo strumento. Eventuali altri tentativi di chiamare uno strumento da parte del modello verranno ignorati. NO
metadata oggetto Set di 16 coppie chiave-valore che possono essere collegate a un oggetto. Può trattarsi di
utile per archiviare informazioni aggiuntive sull'oggetto in un oggetto strutturato
formattare ed eseguire query per gli oggetti tramite l'API o il dashboard.

Le chiavi sono stringhe con una lunghezza massima di 64 caratteri. I valori sono stringhe
con una lunghezza massima di 512 caratteri.
oggetto enum Tipo di oggetto di questa risorsa: sempre impostato su response.
Valori possibili: response
output array Matrice di elementi di contenuto generati dal modello.

- La lunghezza e l'ordine degli elementi nella output matrice dipendono
sulla risposta del modello.
- Anziché accedere al primo elemento nella matrice output e
presupponendo che si tratti di un assistant messaggio con il contenuto generato da
il modello, è consigliabile usare la proprietà output_text se
supportato negli SDK.
output_text corda Proprietà pratica di SDK che contiene l'output di testo aggregato
da tutti gli output_text elementi nella output matrice, se presenti.
Supportato negli SDK Python e JavaScript.
NO
chiamate_parallele_agli_strumenti boolean Indica se consentire al modello di eseguire chiamate degli strumenti in parallelo. Vero
previous_response_id corda ID univoco della risposta precedente al modello. Usare questa opzione per
creare conversazioni a più turni.
NO
prompt oggetto Riferimento a un modello di richiesta e alle relative variabili.
NO
└* id corda Identificatore univoco del modello di richiesta da utilizzare. NO
** └─ Variabili OpenAI.ResponsePromptVariables Mappa facoltativa di valori da sostituire con le variabili nella
richiesta. I valori di sostituzione possono essere stringhe o altri
Tipi di input di risposta come immagini o file.
NO
└─ versione corda Versione facoltativa del modello di richiesta. NO
reasoning oggetto solo modelli di ragionamento

Opzioni di configurazione per
modelli di ragionamento.
NO
└* sforzo Sforzo di Ragionamento OpenAI solo modelli di ragionamento

Vincola lo sforzo sul ragionamento per
modelli di ragionamento.
I valori attualmente supportati sono low, medium e high. Ridurre
l'impegno di ragionamento può comportare risposte più veloci e meno token usati
sul ragionamento in una risposta.
NO
└─ genera_sommario enum Deprecato: usare summary invece.

Riepilogo del ragionamento eseguito dal modello. Può trattarsi di
utile per eseguire il debug e comprendere il processo di ragionamento del modello.
Uno tra auto, concise e detailed.
Valori possibili: auto, concise, detailed
NO
└─ Riepilogo enum Riepilogo del ragionamento eseguito dal modello. Può trattarsi di
utile per eseguire il debug e comprendere il processo di ragionamento del modello.
Uno tra auto, concise e detailed.
Valori possibili: auto, concise, detailed
NO
stato enum Stato della generazione della risposta. Uno di completed, failed,
in_progress, cancelled, queued, o incomplete.
Valori possibili: completed, failedin_progress, cancelled, , queuedincomplete
NO
temperatura numero Temperatura di campionamento da usare, compresa tra 0 e 2. Valori più elevati come 0.8 renderanno l'output più casuale, mentre valori più bassi come 0.2 lo renderanno più mirato e deterministico.
In genere si consiglia di modificare questo valore o top_p ma non entrambi.
Testo oggetto Opzioni di configurazione per una risposta di testo dal modello. Possono essere
dati JSON strutturati o semplice testo. Altre informazioni: Output strutturati
NO
└* formato OpenAI.ResponseTextFormatConfiguration NO
tool_choice oggetto Controlla quale strumento (se presente) viene chiamato dal modello.

none indica che il modello non chiamerà alcuno strumento e genera invece un messaggio.

auto indica che il modello può scegliere tra la generazione di un messaggio o la chiamata di uno o
più strumenti

required indica che il modello deve chiamare uno o più strumenti.
NO
└─ Tipo OpenAI.ToolChoiceObjectType Indica che il modello deve usare uno strumento predefinito per generare una risposta. NO
strumenti array Una matrice di strumenti che il modello può chiamare durante la generazione di una risposta. Tu
può specificare quale strumento usare impostando il tool_choice parametro .

Le due categorie di strumenti che è possibile fornire al modello sono:

- Strumenti integrati: strumenti forniti da OpenAI che estendono
le funzionalità del modello, ad esempio ricerca Web o ricerca di file.
NO
top_logprobs numero intero Un numero intero compreso tra 0 e 20 che specifica il numero di token più probabili da restituire in ogni posizione del token, ognuno con una probabilità di log associata. NO
top_p numero Un'alternativa al campionamento con temperatura, denominata campionamento nucleo,
dove il modello considera i risultati dei token con probabilità top_p
massa. Quindi 0,1 significa solo i token che comprendono il 10% superiore della massa di probabilità%
sono considerati.

In genere si consiglia di modificare questo valore o temperature ma non entrambi.
truncation enum Strategia di troncamento da usare per la risposta del modello.
- auto: se il contesto di questa risposta e quelli precedenti supera
la dimensione della finestra di contesto del modello, il modello troncherà la
risposta per adattare la finestra di contesto eliminando gli elementi di input nel
nel mezzo della conversazione
- disabled (impostazione predefinita): se una risposta del modello supera la finestra di contesto
dimensione per un modello, la richiesta fallirà con un errore 400.
Valori possibili: auto, disabled
NO
usage OpenAI.ResponseUsage Rappresenta i dettagli di utilizzo dei token, inclusi i token di input, i token di output,
suddivisione dei token di output e dei token totali usati.
NO
utente corda Identificatore univoco che rappresenta l'utente finale, che consente a OpenAI di monitorare e rilevare gli abusi.

OpenAI.ResponseCodeInterpreterCallCodeDeltaEvent

Generato quando un frammento di codice parziale viene trasmesso dall'interprete del codice.

Nome TIPO Descrzione Obbligatorio Default
delta corda Frammento di codice parziale trasmesso dall'interprete di codice.
item_id corda Identificatore univoco dell'elemento di chiamata dello strumento dell'interprete di codice.
offuscamento corda Campo di caratteri casuali introdotti dall'offuscamento del flusso. L'offuscamento del flusso è un meccanismo che attenua determinati attacchi sul canale laterale.
output_index numero intero Indice dell'elemento di output nella risposta per cui viene trasmesso il codice.
type enum Tipo di evento. Sempre response.code_interpreter_call_code.delta.
Valori possibili: response.code_interpreter_call_code.delta

OpenAI.ResponseCodeInterpreterCallCodeDoneEvent

Generato quando il frammento di codice viene finalizzato dall'interprete del codice.

Nome TIPO Descrzione Obbligatorio Default
codice corda Output finale del frammento di codice generato dall'interprete di codice.
item_id corda Identificatore univoco dell'elemento di chiamata dello strumento dell'interprete di codice.
output_index numero intero Indice dell'elemento di output nella risposta per cui viene finalizzato il codice.
type enum Tipo di evento. Sempre response.code_interpreter_call_code.done.
Valori possibili: response.code_interpreter_call_code.done

OpenAI.ResponseCodeInterpreterCallCompletedEvent

Generato al termine della chiamata dell'interprete del codice.

Nome TIPO Descrzione Obbligatorio Default
item_id corda Identificatore univoco dell'elemento di chiamata dello strumento dell'interprete di codice.
output_index numero intero Indice dell'elemento di output nella risposta per cui viene completata la chiamata all'interprete di codice.
type enum Tipo di evento. Sempre response.code_interpreter_call.completed.
Valori possibili: response.code_interpreter_call.completed

OpenAI.ResponseCodeInterpreterCallInProgressEvent

Generato quando è in corso una chiamata a un interprete di codice.

Nome TIPO Descrzione Obbligatorio Default
item_id corda Identificatore univoco dell'elemento di chiamata dello strumento dell'interprete di codice.
output_index numero intero Indice dell'elemento di output nella risposta per cui è in corso la chiamata dell'interprete di codice.
type enum Tipo di evento. Sempre response.code_interpreter_call.in_progress.
Valori possibili: response.code_interpreter_call.in_progress

OpenAI.ResponseCodeInterpreterCallInterpretingEvent

Generato quando l'interprete di codice interpreta attivamente il frammento di codice.

Nome TIPO Descrzione Obbligatorio Default
item_id corda Identificatore univoco dell'elemento di chiamata dello strumento dell'interprete di codice.
output_index numero intero Indice dell'elemento di output nella risposta per cui l'interprete di codice interpreta il codice.
type enum Tipo di evento. Sempre response.code_interpreter_call.interpreting.
Valori possibili: response.code_interpreter_call.interpreting

OpenAI.ResponseCompletedEvent

Generato al termine della risposta del modello.

Nome TIPO Descrzione Obbligatorio Default
response oggetto
└* sfondo boolean Indica se eseguire la risposta del modello in background.
Ulteriori informazioni.
NO Falso
└created_at numero intero Timestamp Unix (in secondi) di quando è stata creata questa risposta. NO
└─ Errore OpenAI.ResponseError Oggetto di errore restituito quando il modello non riesce a generare una risposta. NO
└* id corda Identificatore univoco per questa risposta. NO
└dettagli_incompleti oggetto Informazioni dettagliate sul motivo per cui la risposta è incompleta. NO
└* motivo enum Motivo per cui la risposta è incompleta.
Valori possibili: max_output_tokens, content_filter
NO
└* istruzioni stringa o matrice Messaggio di sistema (o sviluppatore) inserito nel contesto del modello.

Quando si utilizza insieme a previous_response_id, le istruzioni della fase precedente
la risposta non verrà portata alla risposta successiva. In questo modo è semplice
per sostituire i messaggi di sistema (o sviluppatore) nelle nuove risposte.
NO
└ max_output_tokens numero intero Limite superiore per il numero di token che possono essere generati per una risposta, inclusi i token di output visibili e i token di ragionamento. NO
└' max_tool_calls numero intero Numero massimo di chiamate totali agli strumenti predefiniti che possono essere elaborati in una risposta. Questo numero massimo si applica a tutte le chiamate di strumenti predefinite, non a ogni singolo strumento. Eventuali altri tentativi di chiamare uno strumento da parte del modello verranno ignorati. NO
└─ metadati oggetto Set di 16 coppie chiave-valore che possono essere collegate a un oggetto. Può trattarsi di
utile per archiviare informazioni aggiuntive sull'oggetto in un oggetto strutturato
formattare ed eseguire query per gli oggetti tramite l'API o il dashboard.

Le chiavi sono stringhe con una lunghezza massima di 64 caratteri. I valori sono stringhe
con una lunghezza massima di 512 caratteri.
NO
└─ oggetto enum Tipo di oggetto di questa risorsa: sempre impostato su response.
Valori possibili: response
NO
└─ uscita array Matrice di elementi di contenuto generati dal modello.

- La lunghezza e l'ordine degli elementi nella output matrice dipendono
sulla risposta del modello.
- Anziché accedere al primo elemento nella matrice output e
presupponendo che si tratti di un assistant messaggio con il contenuto generato da
il modello, è consigliabile usare la proprietà output_text se
supportato negli SDK.
NO
└output_text corda Proprietà pratica di SDK che contiene l'output di testo aggregato
da tutti gli output_text elementi nella output matrice, se presenti.
Supportato negli SDK Python e JavaScript.
NO
└parallel_tool_calls boolean Indica se consentire al modello di eseguire chiamate degli strumenti in parallelo. NO Vero
└─previous_response_id corda ID univoco della risposta precedente al modello. Usare questa opzione per
creare conversazioni a più turni.
NO
└* prompt OpenAI.Prompt Riferimento a un modello di richiesta e alle relative variabili.
NO
└* ragionamento OpenAI.Reasoning solo modelli di ragionamento

Opzioni di configurazione per
modelli di ragionamento.
NO
└─ stato enum Stato della generazione della risposta. Uno di completed, failed,
in_progress, cancelled, queued, o incomplete.
Valori possibili: completed, failedin_progress, cancelled, , queuedincomplete
NO
└* temperatura numero Temperatura di campionamento da usare, compresa tra 0 e 2. Valori più elevati come 0.8 renderanno l'output più casuale, mentre valori più bassi come 0.2 lo renderanno più mirato e deterministico.
In genere si consiglia di modificare questo valore o top_p ma non entrambi.
NO
└─ testo oggetto Opzioni di configurazione per una risposta di testo dal modello. Possono essere
dati JSON strutturati o semplice testo. Altre informazioni: Output strutturati
NO
└* formato OpenAI.ResponseTextFormatConfiguration NO
└tool_choice OpenAI.ToolChoiceOptions o OpenAI.ToolChoiceObject Come il modello deve selezionare quale strumento (o strumenti) usare durante la generazione
una risposta. Vedere il tools parametro per vedere come specificare gli strumenti
il modello può chiamare.
NO
Strumenti └* array Una matrice di strumenti che il modello può chiamare durante la generazione di una risposta. Tu
può specificare quale strumento usare impostando il tool_choice parametro .

Le due categorie di strumenti che è possibile fornire al modello sono:

- Strumenti integrati: strumenti forniti da OpenAI che estendono
le funzionalità del modello, ad esempio ricerca Web o ricerca di file.
NO
└ top_logprobs numero intero Un numero intero compreso tra 0 e 20 che specifica il numero di token più probabili da restituire in ogni posizione del token, ognuno con una probabilità di log associata. NO
└top_p numero Un'alternativa al campionamento con temperatura, denominata campionamento nucleo,
dove il modello considera i risultati dei token con probabilità top_p
massa. Quindi 0,1 significa solo i token che comprendono il 10% superiore della massa di probabilità%
sono considerati.

In genere si consiglia di modificare questo valore o temperature ma non entrambi.
NO
└─ troncamento enum Strategia di troncamento da usare per la risposta del modello.
- auto: se il contesto di questa risposta e quelli precedenti supera
la dimensione della finestra di contesto del modello, il modello troncherà la
risposta per adattare la finestra di contesto eliminando gli elementi di input nel
nel mezzo della conversazione
- disabled (impostazione predefinita): se una risposta del modello supera la finestra di contesto
dimensione per un modello, la richiesta fallirà con un errore 400.
Valori possibili: auto, disabled
NO
└─ utilizzo OpenAI.ResponseUsage Rappresenta i dettagli di utilizzo dei token, inclusi i token di input, i token di output,
suddivisione dei token di output e dei token totali usati.
NO
└─ utente corda Identificatore univoco che rappresenta l'utente finale, che consente a OpenAI di monitorare e rilevare gli abusi. NO
type enum Tipo di evento. Sempre response.completed.
Valori possibili: response.completed

OpenAI.ResponseContentPartAddedEvent

Generato quando viene aggiunta una nuova parte di contenuto.

Nome TIPO Descrzione Obbligatorio Default
content_index numero intero Indice della parte di contenuto aggiunta.
item_id corda ID dell'elemento di output a cui è stata aggiunta la parte di contenuto.
output_index numero intero Indice dell'elemento di output a cui è stata aggiunta la parte di contenuto.
part oggetto
└─ Tipo OpenAI.ItemContentType Contenuti di input e output multimodali. NO
type enum Tipo di evento. Sempre response.content_part.added.
Valori possibili: response.content_part.added

OpenAI.ResponseContentPartDoneEvent

Generato al termine di una parte del contenuto.

Nome TIPO Descrzione Obbligatorio Default
content_index numero intero Indice della parte di contenuto eseguita.
item_id corda ID dell'elemento di output a cui è stata aggiunta la parte di contenuto.
output_index numero intero Indice dell'elemento di output a cui è stata aggiunta la parte di contenuto.
part oggetto
└─ Tipo OpenAI.ItemContentType Contenuti di input e output multimodali. NO
type enum Tipo di evento. Sempre response.content_part.done.
Valori possibili: response.content_part.done

OpenAI.ResponseCreatedEvent

Evento generato quando viene creata una risposta.

Nome TIPO Descrzione Obbligatorio Default
response oggetto
└* sfondo boolean Indica se eseguire la risposta del modello in background.
Ulteriori informazioni.
NO Falso
└created_at numero intero Timestamp Unix (in secondi) di quando è stata creata questa risposta. NO
└─ Errore OpenAI.ResponseError Oggetto di errore restituito quando il modello non riesce a generare una risposta. NO
└* id corda Identificatore univoco per questa risposta. NO
└dettagli_incompleti oggetto Informazioni dettagliate sul motivo per cui la risposta è incompleta. NO
└* motivo enum Motivo per cui la risposta è incompleta.
Valori possibili: max_output_tokens, content_filter
NO
└* istruzioni stringa o matrice Messaggio di sistema (o sviluppatore) inserito nel contesto del modello.

Quando si utilizza insieme a previous_response_id, le istruzioni della fase precedente
la risposta non verrà portata alla risposta successiva. In questo modo è semplice
per sostituire i messaggi di sistema (o sviluppatore) nelle nuove risposte.
NO
└ max_output_tokens numero intero Limite superiore per il numero di token che possono essere generati per una risposta, inclusi i token di output visibili e i token di ragionamento. NO
└' max_tool_calls numero intero Numero massimo di chiamate totali agli strumenti predefiniti che possono essere elaborati in una risposta. Questo numero massimo si applica a tutte le chiamate di strumenti predefinite, non a ogni singolo strumento. Eventuali altri tentativi di chiamare uno strumento da parte del modello verranno ignorati. NO
└─ metadati oggetto Set di 16 coppie chiave-valore che possono essere collegate a un oggetto. Può trattarsi di
utile per archiviare informazioni aggiuntive sull'oggetto in un oggetto strutturato
formattare ed eseguire query per gli oggetti tramite l'API o il dashboard.

Le chiavi sono stringhe con una lunghezza massima di 64 caratteri. I valori sono stringhe
con una lunghezza massima di 512 caratteri.
NO
└─ oggetto enum Tipo di oggetto di questa risorsa: sempre impostato su response.
Valori possibili: response
NO
└─ uscita array Matrice di elementi di contenuto generati dal modello.

- La lunghezza e l'ordine degli elementi nella output matrice dipendono
sulla risposta del modello.
- Anziché accedere al primo elemento nella matrice output e
presupponendo che si tratti di un assistant messaggio con il contenuto generato da
il modello, è consigliabile usare la proprietà output_text se
supportato negli SDK.
NO
└output_text corda Proprietà pratica di SDK che contiene l'output di testo aggregato
da tutti gli output_text elementi nella output matrice, se presenti.
Supportato negli SDK Python e JavaScript.
NO
└parallel_tool_calls boolean Indica se consentire al modello di eseguire chiamate degli strumenti in parallelo. NO Vero
└─previous_response_id corda ID univoco della risposta precedente al modello. Usare questa opzione per
creare conversazioni a più turni.
NO
└* prompt OpenAI.Prompt Riferimento a un modello di richiesta e alle relative variabili.
NO
└* ragionamento OpenAI.Reasoning solo modelli di ragionamento

Opzioni di configurazione per
modelli di ragionamento.
NO
└─ stato enum Stato della generazione della risposta. Uno di completed, failed,
in_progress, cancelled, queued, o incomplete.
Valori possibili: completed, failedin_progress, cancelled, , queuedincomplete
NO
└* temperatura numero Temperatura di campionamento da usare, compresa tra 0 e 2. Valori più elevati come 0.8 renderanno l'output più casuale, mentre valori più bassi come 0.2 lo renderanno più mirato e deterministico.
In genere si consiglia di modificare questo valore o top_p ma non entrambi.
NO
└─ testo oggetto Opzioni di configurazione per una risposta di testo dal modello. Possono essere
dati JSON strutturati o semplice testo. Altre informazioni: Output strutturati
NO
└* formato OpenAI.ResponseTextFormatConfiguration NO
└tool_choice OpenAI.ToolChoiceOptions o OpenAI.ToolChoiceObject Come il modello deve selezionare quale strumento (o strumenti) usare durante la generazione
una risposta. Vedere il tools parametro per vedere come specificare gli strumenti
il modello può chiamare.
NO
Strumenti └* array Una matrice di strumenti che il modello può chiamare durante la generazione di una risposta. Tu
può specificare quale strumento usare impostando il tool_choice parametro .

Le due categorie di strumenti che è possibile fornire al modello sono:

- Strumenti integrati: strumenti forniti da OpenAI che estendono
le funzionalità del modello, ad esempio ricerca Web o ricerca di file.
NO
└ top_logprobs numero intero Un numero intero compreso tra 0 e 20 che specifica il numero di token più probabili da restituire in ogni posizione del token, ognuno con una probabilità di log associata. NO
└top_p numero Un'alternativa al campionamento con temperatura, denominata campionamento nucleo,
dove il modello considera i risultati dei token con probabilità top_p
massa. Quindi 0,1 significa solo i token che comprendono il 10% superiore della massa di probabilità%
sono considerati.

In genere si consiglia di modificare questo valore o temperature ma non entrambi.
NO
└─ troncamento enum Strategia di troncamento da usare per la risposta del modello.
- auto: se il contesto di questa risposta e quelli precedenti supera
la dimensione della finestra di contesto del modello, il modello troncherà la
risposta per adattare la finestra di contesto eliminando gli elementi di input nel
nel mezzo della conversazione
- disabled (impostazione predefinita): se una risposta del modello supera la finestra di contesto
dimensione per un modello, la richiesta fallirà con un errore 400.
Valori possibili: auto, disabled
NO
└─ utilizzo OpenAI.ResponseUsage Rappresenta i dettagli di utilizzo dei token, inclusi i token di input, i token di output,
suddivisione dei token di output e dei token totali usati.
NO
└─ utente corda Identificatore univoco che rappresenta l'utente finale, che consente a OpenAI di monitorare e rilevare gli abusi. NO
type enum Tipo di evento. Sempre response.created.
Valori possibili: response.created

OpenAI.ResponseError

Oggetto di errore restituito quando il modello non riesce a generare una risposta.

Nome TIPO Descrzione Obbligatorio Default
codice OpenAI.ResponseErrorCode Codice di errore per la risposta.
message corda Descrizione leggibile dell'errore.

OpenAI.ResponseErrorCode

Codice di errore per la risposta.

Proprietà Value
Descrizione Codice di errore per la risposta.
Tipo corda
Valori server_error
rate_limit_exceeded
invalid_prompt
vector_store_timeout
invalid_image
invalid_image_format
invalid_base64_image
invalid_image_url
image_too_large
image_too_small
image_parse_error
image_content_policy_violation
invalid_image_mode
image_file_too_large
unsupported_image_media_type
empty_image_file
failed_to_download_image
image_file_not_found

OpenAI.ResponseErrorEvent

Generato quando si verifica un errore.

Nome TIPO Descrzione Obbligatorio Default
codice corda Codice di errore.
message corda Messaggio di errore.
param corda Parametro di errore.
type enum Tipo di evento. Sempre error.
Valori possibili: error

OpenAI.ResponseFailedEvent

Evento generato quando una risposta ha esito negativo.

Nome TIPO Descrzione Obbligatorio Default
response oggetto
└* sfondo boolean Indica se eseguire la risposta del modello in background.
Ulteriori informazioni.
NO Falso
└created_at numero intero Timestamp Unix (in secondi) di quando è stata creata questa risposta. NO
└─ Errore OpenAI.ResponseError Oggetto di errore restituito quando il modello non riesce a generare una risposta. NO
└* id corda Identificatore univoco per questa risposta. NO
└dettagli_incompleti oggetto Informazioni dettagliate sul motivo per cui la risposta è incompleta. NO
└* motivo enum Motivo per cui la risposta è incompleta.
Valori possibili: max_output_tokens, content_filter
NO
└* istruzioni stringa o matrice Messaggio di sistema (o sviluppatore) inserito nel contesto del modello.

Quando si utilizza insieme a previous_response_id, le istruzioni della fase precedente
la risposta non verrà portata alla risposta successiva. In questo modo è semplice
per sostituire i messaggi di sistema (o sviluppatore) nelle nuove risposte.
NO
└ max_output_tokens numero intero Limite superiore per il numero di token che possono essere generati per una risposta, inclusi i token di output visibili e i token di ragionamento. NO
└' max_tool_calls numero intero Numero massimo di chiamate totali agli strumenti predefiniti che possono essere elaborati in una risposta. Questo numero massimo si applica a tutte le chiamate di strumenti predefinite, non a ogni singolo strumento. Eventuali altri tentativi di chiamare uno strumento da parte del modello verranno ignorati. NO
└─ metadati oggetto Set di 16 coppie chiave-valore che possono essere collegate a un oggetto. Può trattarsi di
utile per archiviare informazioni aggiuntive sull'oggetto in un oggetto strutturato
formattare ed eseguire query per gli oggetti tramite l'API o il dashboard.

Le chiavi sono stringhe con una lunghezza massima di 64 caratteri. I valori sono stringhe
con una lunghezza massima di 512 caratteri.
NO
└─ oggetto enum Tipo di oggetto di questa risorsa: sempre impostato su response.
Valori possibili: response
NO
└─ uscita array Matrice di elementi di contenuto generati dal modello.

- La lunghezza e l'ordine degli elementi nella output matrice dipendono
sulla risposta del modello.
- Anziché accedere al primo elemento nella matrice output e
presupponendo che si tratti di un assistant messaggio con il contenuto generato da
il modello, è consigliabile usare la proprietà output_text se
supportato negli SDK.
NO
└output_text corda Proprietà pratica di SDK che contiene l'output di testo aggregato
da tutti gli output_text elementi nella output matrice, se presenti.
Supportato negli SDK Python e JavaScript.
NO
└parallel_tool_calls boolean Indica se consentire al modello di eseguire chiamate degli strumenti in parallelo. NO Vero
└─previous_response_id corda ID univoco della risposta precedente al modello. Usare questa opzione per
creare conversazioni a più turni.
NO
└* prompt OpenAI.Prompt Riferimento a un modello di richiesta e alle relative variabili.
NO
└* ragionamento OpenAI.Reasoning solo modelli di ragionamento

Opzioni di configurazione per
modelli di ragionamento.
NO
└─ stato enum Stato della generazione della risposta. Uno di completed, failed,
in_progress, cancelled, queued, o incomplete.
Valori possibili: completed, failedin_progress, cancelled, , queuedincomplete
NO
└* temperatura numero Temperatura di campionamento da usare, compresa tra 0 e 2. Valori più elevati come 0.8 renderanno l'output più casuale, mentre valori più bassi come 0.2 lo renderanno più mirato e deterministico.
In genere si consiglia di modificare questo valore o top_p ma non entrambi.
NO
└─ testo oggetto Opzioni di configurazione per una risposta di testo dal modello. Possono essere
dati JSON strutturati o semplice testo. Altre informazioni: Output strutturati
NO
└* formato OpenAI.ResponseTextFormatConfiguration NO
└tool_choice OpenAI.ToolChoiceOptions o OpenAI.ToolChoiceObject Come il modello deve selezionare quale strumento (o strumenti) usare durante la generazione
una risposta. Vedere il tools parametro per vedere come specificare gli strumenti
il modello può chiamare.
NO
Strumenti └* array Una matrice di strumenti che il modello può chiamare durante la generazione di una risposta. Tu
può specificare quale strumento usare impostando il tool_choice parametro .

Le due categorie di strumenti che è possibile fornire al modello sono:

- Strumenti integrati: strumenti forniti da OpenAI che estendono
le funzionalità del modello, ad esempio ricerca Web o ricerca di file.
NO
└ top_logprobs numero intero Un numero intero compreso tra 0 e 20 che specifica il numero di token più probabili da restituire in ogni posizione del token, ognuno con una probabilità di log associata. NO
└top_p numero Un'alternativa al campionamento con temperatura, denominata campionamento nucleo,
dove il modello considera i risultati dei token con probabilità top_p
massa. Quindi 0,1 significa solo i token che comprendono il 10% superiore della massa di probabilità%
sono considerati.

In genere si consiglia di modificare questo valore o temperature ma non entrambi.
NO
└─ troncamento enum Strategia di troncamento da usare per la risposta del modello.
- auto: se il contesto di questa risposta e quelli precedenti supera
la dimensione della finestra di contesto del modello, il modello troncherà la
risposta per adattare la finestra di contesto eliminando gli elementi di input nel
nel mezzo della conversazione
- disabled (impostazione predefinita): se una risposta del modello supera la finestra di contesto
dimensione per un modello, la richiesta fallirà con un errore 400.
Valori possibili: auto, disabled
NO
└─ utilizzo OpenAI.ResponseUsage Rappresenta i dettagli di utilizzo dei token, inclusi i token di input, i token di output,
suddivisione dei token di output e dei token totali usati.
NO
└─ utente corda Identificatore univoco che rappresenta l'utente finale, che consente a OpenAI di monitorare e rilevare gli abusi. NO
type enum Tipo di evento. Sempre response.failed.
Valori possibili: response.failed

OpenAI.ResponseFileSearchCallCompletedEvent

Generato quando viene completata una chiamata di ricerca file (risultati trovati).

Nome TIPO Descrzione Obbligatorio Default
item_id corda ID dell'elemento di output avviato dalla chiamata di ricerca file.
output_index numero intero Indice dell'elemento di output avviato dalla chiamata di ricerca file.
type enum Tipo di evento. Sempre response.file_search_call.completed.
Valori possibili: response.file_search_call.completed

OpenAI.ResponseFileSearchCallInProgressEvent

Generato quando viene avviata una chiamata di ricerca file.

Nome TIPO Descrzione Obbligatorio Default
item_id corda ID dell'elemento di output avviato dalla chiamata di ricerca file.
output_index numero intero Indice dell'elemento di output avviato dalla chiamata di ricerca file.
type enum Tipo di evento. Sempre response.file_search_call.in_progress.
Valori possibili: response.file_search_call.in_progress

OpenAI.ResponseFileSearchCallSearchingEvent

Generato quando una ricerca di file è attualmente in corso.

Nome TIPO Descrzione Obbligatorio Default
item_id corda ID dell'elemento di output avviato dalla chiamata di ricerca file.
output_index numero intero L'indice dell'elemento di output che la chiamata di ricerca file sta cercando.
type enum Tipo di evento. Sempre response.file_search_call.searching.
Valori possibili: response.file_search_call.searching

OpenAI.ResponseFormat

Discriminare per OpenAI.ResponseFormat

Questo componente usa la proprietà type per distinguere tra tipi diversi:

Valore tipo Schema
text OpenAI.ResponseFormatText
json_object OpenAI.ResponseFormatJsonObject
json_schema OpenAI.ResponseFormatJsonSchema
Nome TIPO Descrzione Obbligatorio Default
type enum
Valori possibili: text, json_object, json_schema

OpenAI.ResponseFormatJsonObject

Formato della risposta dell'oggetto JSON. Metodo precedente di generazione di risposte JSON. Si consiglia di utilizzare json_schema per i modelli che lo supportano. Si noti che il modello non genererà JSON senza un messaggio di sistema o utente che lo istruisca a farlo.

Nome TIPO Descrzione Obbligatorio Default
type enum Tipo di formato di risposta definito. Sempre json_object.
Valori possibili: json_object

OpenAI.ResponseFormatJsonSchema

Formato di risposta dello schema JSON. Usato per generare risposte JSON strutturate. Scopri di più sugli output strutturati.

Nome TIPO Descrzione Obbligatorio Default
json_schema oggetto Opzioni di configurazione degli output strutturati, incluso uno schema JSON.
└* descrizione corda Descrizione del formato di risposta, usato dal modello per
decidere come rispondere al formato.
NO
└> nome corda Nome del formato della risposta. Deve essere a-z, A-Z, 0-9 o contenere
caratteri di sottolineatura e trattini, con una lunghezza massima di 64.
NO
└─ Schema OpenAI.ResponseFormatJsonSchemaSchema Schema per il formato di risposta, descritto come oggetto Schema JSON.
Informazioni su come creare schemi JSON qui.
NO
└─ rigoroso boolean Indica se abilitare una rigorosa conformità allo schema durante la generazione dell'output.
Se impostato su true, il modello seguirà sempre lo schema esatto definito
nel schema campo. Quando è supportato solo un subset di schema JSON
strict è true. Per altre informazioni, vedere Output strutturati
guida
.
NO Falso
type enum Tipo di formato di risposta definito. Sempre json_schema.
Valori possibili: json_schema

OpenAI.ResponseFormatJsonSchemaSchema

Schema per il formato di risposta, descritto come oggetto Schema JSON. Informazioni su come creare schemi JSON qui.

Tipo: oggetto

OpenAI.ResponseFormatText

Formato di risposta predefinito. Usato per generare risposte di testo.

Nome TIPO Descrzione Obbligatorio Default
type enum Tipo di formato di risposta definito. Sempre text.
Valori possibili: text

OpenAI.ResponseFunctionCallArgumentsDeltaEvent

Generato quando è presente un delta degli argomenti di chiamata di funzione parziale.

Nome TIPO Descrzione Obbligatorio Default
delta corda Delta degli argomenti di chiamata di funzione aggiunto.
item_id corda ID dell'elemento di output a cui viene aggiunto il delta degli argomenti di chiamata di funzione.
offuscamento corda Campo di caratteri casuali introdotti dall'offuscamento del flusso. L'offuscamento del flusso è un meccanismo che attenua determinati attacchi sul canale laterale.
output_index numero intero Indice dell'elemento di output a cui viene aggiunto il delta degli argomenti di chiamata di funzione.
type enum Tipo di evento. Sempre response.function_call_arguments.delta.
Valori possibili: response.function_call_arguments.delta

OpenAI.ResponseFunctionCallArgumentsDoneEvent

Generato quando gli argomenti della chiamata di funzione vengono finalizzati.

Nome TIPO Descrzione Obbligatorio Default
arguments corda Argomenti di chiamata di funzione.
item_id corda ID dell'elemento.
output_index numero intero Indice dell'elemento di output.
type enum
Valori possibili: response.function_call_arguments.done

OpenAI.ResponseImageGenCallCompletedEvent

Generato quando una chiamata dello strumento di generazione di immagini è stata completata e l'immagine finale è disponibile.

Nome TIPO Descrzione Obbligatorio Default
item_id corda Identificatore univoco dell'elemento di generazione dell'immagine in fase di elaborazione.
output_index numero intero Indice dell'elemento di output nella matrice di output della risposta.
type enum Tipo di evento. Sempre «response.image_generation_call.completed».
Valori possibili: response.image_generation_call.completed

OpenAI.ResponseImageGenCallGeneratingEvent

Generato quando una chiamata dello strumento di generazione di immagini genera attivamente un'immagine (stato intermedio).

Nome TIPO Descrzione Obbligatorio Default
item_id corda Identificatore univoco dell'elemento di generazione dell'immagine in fase di elaborazione.
output_index numero intero Indice dell'elemento di output nella matrice di output della risposta.
type enum Tipo di evento. Sempre "response.image_generation_call.generating".
Valori possibili: response.image_generation_call.generating

OpenAI.ResponseImageGenCallInProgressEvent

Generato quando è in corso una chiamata dello strumento di generazione di immagini.

Nome TIPO Descrzione Obbligatorio Default
item_id corda Identificatore univoco dell'elemento di generazione dell'immagine in fase di elaborazione.
output_index numero intero Indice dell'elemento di output nella matrice di output della risposta.
type enum Tipo di evento. Sempre 'response.image_generation_call.in_progress'.
Valori possibili: response.image_generation_call.in_progress

OpenAI.ResponseImageGenCallPartialImageEvent

Generato quando un'immagine parziale è disponibile durante il flusso di generazione di immagini.

Nome TIPO Descrzione Obbligatorio Default
item_id corda Identificatore univoco dell'elemento di generazione dell'immagine in fase di elaborazione.
output_index numero intero Indice dell'elemento di output nella matrice di output della risposta.
partial_image_b64 corda Dati di immagine parziali codificati in Base64, adatti per il rendering come immagine.
partial_image_index numero intero Indice in base 0 per l'immagine parziale (il back-end è basato su 1, ma questo è basato su 0 per l'utente).
type enum Tipo di evento. Sempre 'response.image_generation_call.partial_image'.
Valori possibili: response.image_generation_call.partial_image

OpenAI.ResponseInProgressEvent

Generato quando la risposta è in corso.

Nome TIPO Descrzione Obbligatorio Default
response oggetto
└* sfondo boolean Indica se eseguire la risposta del modello in background.
Ulteriori informazioni.
NO Falso
└created_at numero intero Timestamp Unix (in secondi) di quando è stata creata questa risposta. NO
└─ Errore OpenAI.ResponseError Oggetto di errore restituito quando il modello non riesce a generare una risposta. NO
└* id corda Identificatore univoco per questa risposta. NO
└dettagli_incompleti oggetto Informazioni dettagliate sul motivo per cui la risposta è incompleta. NO
└* motivo enum Motivo per cui la risposta è incompleta.
Valori possibili: max_output_tokens, content_filter
NO
└* istruzioni stringa o matrice Messaggio di sistema (o sviluppatore) inserito nel contesto del modello.

Quando si utilizza insieme a previous_response_id, le istruzioni della fase precedente
la risposta non verrà portata alla risposta successiva. In questo modo è semplice
per sostituire i messaggi di sistema (o sviluppatore) nelle nuove risposte.
NO
└ max_output_tokens numero intero Limite superiore per il numero di token che possono essere generati per una risposta, inclusi i token di output visibili e i token di ragionamento. NO
└' max_tool_calls numero intero Numero massimo di chiamate totali agli strumenti predefiniti che possono essere elaborati in una risposta. Questo numero massimo si applica a tutte le chiamate di strumenti predefinite, non a ogni singolo strumento. Eventuali altri tentativi di chiamare uno strumento da parte del modello verranno ignorati. NO
└─ metadati oggetto Set di 16 coppie chiave-valore che possono essere collegate a un oggetto. Può trattarsi di
utile per archiviare informazioni aggiuntive sull'oggetto in un oggetto strutturato
formattare ed eseguire query per gli oggetti tramite l'API o il dashboard.

Le chiavi sono stringhe con una lunghezza massima di 64 caratteri. I valori sono stringhe
con una lunghezza massima di 512 caratteri.
NO
└─ oggetto enum Tipo di oggetto di questa risorsa: sempre impostato su response.
Valori possibili: response
NO
└─ uscita array Matrice di elementi di contenuto generati dal modello.

- La lunghezza e l'ordine degli elementi nella output matrice dipendono
sulla risposta del modello.
- Anziché accedere al primo elemento nella matrice output e
presupponendo che si tratti di un assistant messaggio con il contenuto generato da
il modello, è consigliabile usare la proprietà output_text se
supportato negli SDK.
NO
└output_text corda Proprietà pratica di SDK che contiene l'output di testo aggregato
da tutti gli output_text elementi nella output matrice, se presenti.
Supportato negli SDK Python e JavaScript.
NO
└parallel_tool_calls boolean Indica se consentire al modello di eseguire chiamate degli strumenti in parallelo. NO Vero
└─previous_response_id corda ID univoco della risposta precedente al modello. Usare questa opzione per
creare conversazioni a più turni.
NO
└* prompt OpenAI.Prompt Riferimento a un modello di richiesta e alle relative variabili.
NO
└* ragionamento OpenAI.Reasoning solo modelli di ragionamento

Opzioni di configurazione per
modelli di ragionamento.
NO
└─ stato enum Stato della generazione della risposta. Uno di completed, failed,
in_progress, cancelled, queued, o incomplete.
Valori possibili: completed, failedin_progress, cancelled, , queuedincomplete
NO
└* temperatura numero Temperatura di campionamento da usare, compresa tra 0 e 2. Valori più elevati come 0.8 renderanno l'output più casuale, mentre valori più bassi come 0.2 lo renderanno più mirato e deterministico.
In genere si consiglia di modificare questo valore o top_p ma non entrambi.
NO
└─ testo oggetto Opzioni di configurazione per una risposta di testo dal modello. Possono essere
dati JSON strutturati o semplice testo. Altre informazioni: Output strutturati
NO
└* formato OpenAI.ResponseTextFormatConfiguration NO
└tool_choice OpenAI.ToolChoiceOptions o OpenAI.ToolChoiceObject Come il modello deve selezionare quale strumento (o strumenti) usare durante la generazione
una risposta. Vedere il tools parametro per vedere come specificare gli strumenti
il modello può chiamare.
NO
Strumenti └* array Una matrice di strumenti che il modello può chiamare durante la generazione di una risposta. Tu
può specificare quale strumento usare impostando il tool_choice parametro .

Le due categorie di strumenti che è possibile fornire al modello sono:

- Strumenti integrati: strumenti forniti da OpenAI che estendono
le funzionalità del modello, ad esempio ricerca Web o ricerca di file.
NO
└ top_logprobs numero intero Un numero intero compreso tra 0 e 20 che specifica il numero di token più probabili da restituire in ogni posizione del token, ognuno con una probabilità di log associata. NO
└top_p numero Un'alternativa al campionamento con temperatura, denominata campionamento nucleo,
dove il modello considera i risultati dei token con probabilità top_p
massa. Quindi 0,1 significa solo i token che comprendono il 10% superiore della massa di probabilità%
sono considerati.

In genere si consiglia di modificare questo valore o temperature ma non entrambi.
NO
└─ troncamento enum Strategia di troncamento da usare per la risposta del modello.
- auto: se il contesto di questa risposta e quelli precedenti supera
la dimensione della finestra di contesto del modello, il modello troncherà la
risposta per adattare la finestra di contesto eliminando gli elementi di input nel
nel mezzo della conversazione
- disabled (impostazione predefinita): se una risposta del modello supera la finestra di contesto
dimensione per un modello, la richiesta fallirà con un errore 400.
Valori possibili: auto, disabled
NO
└─ utilizzo OpenAI.ResponseUsage Rappresenta i dettagli di utilizzo dei token, inclusi i token di input, i token di output,
suddivisione dei token di output e dei token totali usati.
NO
└─ utente corda Identificatore univoco che rappresenta l'utente finale, che consente a OpenAI di monitorare e rilevare gli abusi. NO
type enum Tipo di evento. Sempre response.in_progress.
Valori possibili: response.in_progress

OpenAI.ResponseIncompleteEvent

L'evento che viene emesso quando una risposta si conclude come incompleta.

Nome TIPO Descrzione Obbligatorio Default
response oggetto
└* sfondo boolean Indica se eseguire la risposta del modello in background.
Ulteriori informazioni.
NO Falso
└created_at numero intero Timestamp Unix (in secondi) di quando è stata creata questa risposta. NO
└─ Errore OpenAI.ResponseError Oggetto di errore restituito quando il modello non riesce a generare una risposta. NO
└* id corda Identificatore univoco per questa risposta. NO
└dettagli_incompleti oggetto Informazioni dettagliate sul motivo per cui la risposta è incompleta. NO
└* motivo enum Motivo per cui la risposta è incompleta.
Valori possibili: max_output_tokens, content_filter
NO
└* istruzioni stringa o matrice Messaggio di sistema (o sviluppatore) inserito nel contesto del modello.

Quando si utilizza insieme a previous_response_id, le istruzioni della fase precedente
la risposta non verrà portata alla risposta successiva. In questo modo è semplice
per sostituire i messaggi di sistema (o sviluppatore) nelle nuove risposte.
NO
└ max_output_tokens numero intero Limite superiore per il numero di token che possono essere generati per una risposta, inclusi i token di output visibili e i token di ragionamento. NO
└' max_tool_calls numero intero Numero massimo di chiamate totali agli strumenti predefiniti che possono essere elaborati in una risposta. Questo numero massimo si applica a tutte le chiamate di strumenti predefinite, non a ogni singolo strumento. Eventuali altri tentativi di chiamare uno strumento da parte del modello verranno ignorati. NO
└─ metadati oggetto Set di 16 coppie chiave-valore che possono essere collegate a un oggetto. Può trattarsi di
utile per archiviare informazioni aggiuntive sull'oggetto in un oggetto strutturato
formattare ed eseguire query per gli oggetti tramite l'API o il dashboard.

Le chiavi sono stringhe con una lunghezza massima di 64 caratteri. I valori sono stringhe
con una lunghezza massima di 512 caratteri.
NO
└─ oggetto enum Tipo di oggetto di questa risorsa: sempre impostato su response.
Valori possibili: response
NO
└─ uscita array Matrice di elementi di contenuto generati dal modello.

- La lunghezza e l'ordine degli elementi nella output matrice dipendono
sulla risposta del modello.
- Anziché accedere al primo elemento nella matrice output e
presupponendo che si tratti di un assistant messaggio con il contenuto generato da
il modello, è consigliabile usare la proprietà output_text se
supportato negli SDK.
NO
└output_text corda Proprietà pratica di SDK che contiene l'output di testo aggregato
da tutti gli output_text elementi nella output matrice, se presenti.
Supportato negli SDK Python e JavaScript.
NO
└parallel_tool_calls boolean Indica se consentire al modello di eseguire chiamate degli strumenti in parallelo. NO Vero
└─previous_response_id corda ID univoco della risposta precedente al modello. Usare questa opzione per
creare conversazioni a più turni.
NO
└* prompt OpenAI.Prompt Riferimento a un modello di richiesta e alle relative variabili.
NO
└* ragionamento OpenAI.Reasoning solo modelli di ragionamento

Opzioni di configurazione per
modelli di ragionamento.
NO
└─ stato enum Stato della generazione della risposta. Uno di completed, failed,
in_progress, cancelled, queued, o incomplete.
Valori possibili: completed, failedin_progress, cancelled, , queuedincomplete
NO
└* temperatura numero Temperatura di campionamento da usare, compresa tra 0 e 2. Valori più elevati come 0.8 renderanno l'output più casuale, mentre valori più bassi come 0.2 lo renderanno più mirato e deterministico.
In genere si consiglia di modificare questo valore o top_p ma non entrambi.
NO
└─ testo oggetto Opzioni di configurazione per una risposta di testo dal modello. Possono essere
dati JSON strutturati o semplice testo. Altre informazioni: Output strutturati
NO
└* formato OpenAI.ResponseTextFormatConfiguration NO
└tool_choice OpenAI.ToolChoiceOptions o OpenAI.ToolChoiceObject Come il modello deve selezionare quale strumento (o strumenti) usare durante la generazione
una risposta. Vedere il tools parametro per vedere come specificare gli strumenti
il modello può chiamare.
NO
Strumenti └* array Una matrice di strumenti che il modello può chiamare durante la generazione di una risposta. Tu
può specificare quale strumento usare impostando il tool_choice parametro .

Le due categorie di strumenti che è possibile fornire al modello sono:

- Strumenti integrati: strumenti forniti da OpenAI che estendono
le funzionalità del modello, ad esempio ricerca Web o ricerca di file.
NO
└ top_logprobs numero intero Un numero intero compreso tra 0 e 20 che specifica il numero di token più probabili da restituire in ogni posizione del token, ognuno con una probabilità di log associata. NO
└top_p numero Un'alternativa al campionamento con temperatura, denominata campionamento nucleo,
dove il modello considera i risultati dei token con probabilità top_p
massa. Quindi 0,1 significa solo i token che comprendono il 10% superiore della massa di probabilità%
sono considerati.

In genere si consiglia di modificare questo valore o temperature ma non entrambi.
NO
└─ troncamento enum Strategia di troncamento da usare per la risposta del modello.
- auto: se il contesto di questa risposta e quelli precedenti supera
la dimensione della finestra di contesto del modello, il modello troncherà la
risposta per adattare la finestra di contesto eliminando gli elementi di input nel
nel mezzo della conversazione
- disabled (impostazione predefinita): se una risposta del modello supera la finestra di contesto
dimensione per un modello, la richiesta fallirà con un errore 400.
Valori possibili: auto, disabled
NO
└─ utilizzo OpenAI.ResponseUsage Rappresenta i dettagli di utilizzo dei token, inclusi i token di input, i token di output,
suddivisione dei token di output e dei token totali usati.
NO
└─ utente corda Identificatore univoco che rappresenta l'utente finale, che consente a OpenAI di monitorare e rilevare gli abusi. NO
type enum Tipo di evento. Sempre response.incomplete.
Valori possibili: response.incomplete

OpenAI.ResponseItemList

Elenco di elementi di risposta.

Nome TIPO Descrzione Obbligatorio Default
data array Elenco di elementi utilizzati per generare questa risposta.
first_id corda ID del primo elemento dell'elenco.
ha_di_piu boolean Indica se sono disponibili altri elementi.
last_id corda ID dell'ultimo elemento nell'elenco.
oggetto enum Il tipo di oggetto restituito deve essere list.
Valori possibili: list

OpenAI.ResponseMCPCallArgumentsDeltaEvent

Generato quando è presente un delta (aggiornamento parziale) agli argomenti di una chiamata allo strumento MCP.

Nome TIPO Descrzione Obbligatorio Default
delta Aggiornamento parziale degli argomenti per la chiamata allo strumento MCP.
item_id corda Identificatore univoco dell'elemento di chiamata dello strumento MCP in fase di elaborazione.
offuscamento corda Campo di caratteri casuali introdotti dall'offuscamento del flusso. L'offuscamento del flusso è un meccanismo che attenua determinati attacchi sul canale laterale.
output_index numero intero Indice dell'elemento di output nella matrice di output della risposta.
type enum Tipo di evento. Sempre 'response.mcp_call.arguments_delta'.
Valori possibili: response.mcp_call.arguments_delta

OpenAI.ResponseMCPCallArgumentsDoneEvent

Generato quando gli argomenti per una chiamata allo strumento MCP vengono finalizzati.

Nome TIPO Descrzione Obbligatorio Default
arguments Argomenti finali per la chiamata allo strumento MCP.
item_id corda Identificatore univoco dell'elemento di chiamata dello strumento MCP in fase di elaborazione.
output_index numero intero Indice dell'elemento di output nella matrice di output della risposta.
type enum Tipo di evento. Sempre 'response.mcp_call.arguments_done'.
Valori possibili: response.mcp_call.arguments_done

OpenAI.ResponseMCPCallCompletedEvent

Generato quando una chiamata allo strumento MCP è stata completata correttamente.

Nome TIPO Descrzione Obbligatorio Default
type enum Tipo di evento. Sempre "response.mcp_call.completed".
Valori possibili: response.mcp_call.completed

OpenAI.ResponseMCPCallFailedEvent

Generato quando una chiamata allo strumento MCP non è riuscita.

Nome TIPO Descrzione Obbligatorio Default
type enum Tipo di evento. Lasciare invariato 'response.mcp_call.failed'.
Valori possibili: response.mcp_call.failed

OpenAI.ResponseMCPCallInProgressEvent

Generato quando è in corso una chiamata allo strumento MCP.

Nome TIPO Descrzione Obbligatorio Default
item_id corda Identificatore univoco dell'elemento di chiamata dello strumento MCP in fase di elaborazione.
output_index numero intero Indice dell'elemento di output nella matrice di output della risposta.
type enum Tipo di evento. Sempre 'response.mcp_call.in_progress'.
Valori possibili: response.mcp_call.in_progress

OpenAI.ResponseMCPListToolsCompletedEvent

Generato quando l'elenco degli strumenti MCP disponibili è stato recuperato correttamente.

Nome TIPO Descrzione Obbligatorio Default
type enum Tipo di evento. Sempre "response.mcp_list_tools.completed".
Valori possibili: response.mcp_list_tools.completed

OpenAI.ResponseMCPListToolsFailedEvent

Generato quando il tentativo di elencare gli strumenti MCP disponibili non è riuscito.

Nome TIPO Descrzione Obbligatorio Default
type enum Tipo di evento. Sempre 'response.mcp_list_tools.failed'.
Valori possibili: response.mcp_list_tools.failed

OpenAI.ResponseMCPListToolsInProgressEvent

Generato quando il sistema è in corso di recupero dell'elenco degli strumenti MCP disponibili.

Nome TIPO Descrzione Obbligatorio Default
type enum Tipo di evento. Sempre 'response.mcp_list_tools.in_progress'.
Valori possibili: response.mcp_list_tools.in_progress

OpenAI.ResponseOutputItemAddedEvent

Generato quando viene aggiunto un nuovo elemento di output.

Nome TIPO Descrzione Obbligatorio Default
oggetto oggetto Elemento di contenuto usato per generare una risposta.
└* id corda NO
└─ Tipo OpenAI.ItemType NO
output_index numero intero Indice dell'elemento di output aggiunto.
type enum Tipo di evento. Sempre response.output_item.added.
Valori possibili: response.output_item.added

OpenAI.ResponseOutputItemDoneEvent

Generato quando un elemento di output viene contrassegnato come completato.

Nome TIPO Descrzione Obbligatorio Default
oggetto oggetto Elemento di contenuto usato per generare una risposta.
└* id corda NO
└─ Tipo OpenAI.ItemType NO
output_index numero intero Indice dell'elemento di output contrassegnato come completato.
type enum Tipo di evento. Sempre response.output_item.done.
Valori possibili: response.output_item.done

OpenAI.ResponsePromptVariables

Mappa facoltativa di valori da sostituire con le variabili nel prompt. I valori di sostituzione possono essere stringhe o altri tipi di input response, ad esempio immagini o file.

Tipo: oggetto

OpenAI.ResponseQueuedEvent

Generato quando una risposta viene accodata e in attesa di essere elaborata.

Nome TIPO Descrzione Obbligatorio Default
response oggetto
└* sfondo boolean Indica se eseguire la risposta del modello in background.
Ulteriori informazioni.
NO Falso
└created_at numero intero Timestamp Unix (in secondi) di quando è stata creata questa risposta. NO
└─ Errore OpenAI.ResponseError Oggetto di errore restituito quando il modello non riesce a generare una risposta. NO
└* id corda Identificatore univoco per questa risposta. NO
└dettagli_incompleti oggetto Informazioni dettagliate sul motivo per cui la risposta è incompleta. NO
└* motivo enum Motivo per cui la risposta è incompleta.
Valori possibili: max_output_tokens, content_filter
NO
└* istruzioni stringa o matrice Messaggio di sistema (o sviluppatore) inserito nel contesto del modello.

Quando si utilizza insieme a previous_response_id, le istruzioni della fase precedente
la risposta non verrà portata alla risposta successiva. In questo modo è semplice
per sostituire i messaggi di sistema (o sviluppatore) nelle nuove risposte.
NO
└ max_output_tokens numero intero Limite superiore per il numero di token che possono essere generati per una risposta, inclusi i token di output visibili e i token di ragionamento. NO
└' max_tool_calls numero intero Numero massimo di chiamate totali agli strumenti predefiniti che possono essere elaborati in una risposta. Questo numero massimo si applica a tutte le chiamate di strumenti predefinite, non a ogni singolo strumento. Eventuali altri tentativi di chiamare uno strumento da parte del modello verranno ignorati. NO
└─ metadati oggetto Set di 16 coppie chiave-valore che possono essere collegate a un oggetto. Può trattarsi di
utile per archiviare informazioni aggiuntive sull'oggetto in un oggetto strutturato
formattare ed eseguire query per gli oggetti tramite l'API o il dashboard.

Le chiavi sono stringhe con una lunghezza massima di 64 caratteri. I valori sono stringhe
con una lunghezza massima di 512 caratteri.
NO
└─ oggetto enum Tipo di oggetto di questa risorsa: sempre impostato su response.
Valori possibili: response
NO
└─ uscita array Matrice di elementi di contenuto generati dal modello.

- La lunghezza e l'ordine degli elementi nella output matrice dipendono
sulla risposta del modello.
- Anziché accedere al primo elemento nella matrice output e
presupponendo che si tratti di un assistant messaggio con il contenuto generato da
il modello, è consigliabile usare la proprietà output_text se
supportato negli SDK.
NO
└output_text corda Proprietà pratica di SDK che contiene l'output di testo aggregato
da tutti gli output_text elementi nella output matrice, se presenti.
Supportato negli SDK Python e JavaScript.
NO
└parallel_tool_calls boolean Indica se consentire al modello di eseguire chiamate degli strumenti in parallelo. NO Vero
└─previous_response_id corda ID univoco della risposta precedente al modello. Usare questa opzione per
creare conversazioni a più turni.
NO
└* prompt OpenAI.Prompt Riferimento a un modello di richiesta e alle relative variabili.
NO
└* ragionamento OpenAI.Reasoning solo modelli di ragionamento

Opzioni di configurazione per
modelli di ragionamento.
NO
└─ stato enum Stato della generazione della risposta. Uno di completed, failed,
in_progress, cancelled, queued, o incomplete.
Valori possibili: completed, failedin_progress, cancelled, , queuedincomplete
NO
└* temperatura numero Temperatura di campionamento da usare, compresa tra 0 e 2. Valori più elevati come 0.8 renderanno l'output più casuale, mentre valori più bassi come 0.2 lo renderanno più mirato e deterministico.
In genere si consiglia di modificare questo valore o top_p ma non entrambi.
NO
└─ testo oggetto Opzioni di configurazione per una risposta di testo dal modello. Possono essere
dati JSON strutturati o semplice testo. Altre informazioni: Output strutturati
NO
└* formato OpenAI.ResponseTextFormatConfiguration NO
└tool_choice OpenAI.ToolChoiceOptions o OpenAI.ToolChoiceObject Come il modello deve selezionare quale strumento (o strumenti) usare durante la generazione
una risposta. Vedere il tools parametro per vedere come specificare gli strumenti
il modello può chiamare.
NO
Strumenti └* array Una matrice di strumenti che il modello può chiamare durante la generazione di una risposta. Tu
può specificare quale strumento usare impostando il tool_choice parametro .

Le due categorie di strumenti che è possibile fornire al modello sono:

- Strumenti integrati: strumenti forniti da OpenAI che estendono
le funzionalità del modello, ad esempio ricerca Web o ricerca di file.
NO
└ top_logprobs numero intero Un numero intero compreso tra 0 e 20 che specifica il numero di token più probabili da restituire in ogni posizione del token, ognuno con una probabilità di log associata. NO
└top_p numero Un'alternativa al campionamento con temperatura, denominata campionamento nucleo,
dove il modello considera i risultati dei token con probabilità top_p
massa. Quindi 0,1 significa solo i token che comprendono il 10% superiore della massa di probabilità%
sono considerati.

In genere si consiglia di modificare questo valore o temperature ma non entrambi.
NO
└─ troncamento enum Strategia di troncamento da usare per la risposta del modello.
- auto: se il contesto di questa risposta e quelli precedenti supera
la dimensione della finestra di contesto del modello, il modello troncherà la
risposta per adattare la finestra di contesto eliminando gli elementi di input nel
nel mezzo della conversazione
- disabled (impostazione predefinita): se una risposta del modello supera la finestra di contesto
dimensione per un modello, la richiesta fallirà con un errore 400.
Valori possibili: auto, disabled
NO
└─ utilizzo OpenAI.ResponseUsage Rappresenta i dettagli di utilizzo dei token, inclusi i token di input, i token di output,
suddivisione dei token di output e dei token totali usati.
NO
└─ utente corda Identificatore univoco che rappresenta l'utente finale, che consente a OpenAI di monitorare e rilevare gli abusi. NO
type enum Tipo di evento. Sempre 'response.queued'.
Valori possibili: response.queued

OpenAI.ResponseReasoningDeltaEvent

Generato quando è presente un delta (aggiornamento parziale) al contenuto di ragionamento.

Nome TIPO Descrzione Obbligatorio Default
content_index numero intero Indice della parte del contenuto di ragionamento all'interno dell'elemento di output.
delta Aggiornamento parziale al contenuto di ragionamento.
item_id corda Identificatore univoco dell'elemento per il quale viene aggiornato il motivo.
offuscamento corda Campo di caratteri casuali introdotti dall'offuscamento del flusso. L'offuscamento del flusso è un meccanismo che attenua determinati attacchi sul canale laterale.
output_index numero intero Indice dell'elemento di output nella matrice di output della risposta.
type enum Tipo di evento. Sempre 'response.reasoning.delta'.
Valori possibili: response.reasoning.delta

OpenAI.ResponseReasoningDoneEvent

Generato quando il contenuto di ragionamento viene finalizzato per un elemento.

Nome TIPO Descrzione Obbligatorio Default
content_index numero intero Indice della parte del contenuto di ragionamento all'interno dell'elemento di output.
item_id corda Identificatore univoco dell'elemento per il quale viene finalizzato il ragionamento.
output_index numero intero Indice dell'elemento di output nella matrice di output della risposta.
Testo corda Testo di ragionamento completato.
type enum Tipo di evento. Sempre 'response.reasoning.done'.
Valori possibili: response.reasoning.done

OpenAI.ResponseReasoningSummaryDeltaEvent

Generato quando è presente un delta (aggiornamento parziale) al contenuto di riepilogo del ragionamento.

Nome TIPO Descrzione Obbligatorio Default
delta Aggiornamento parziale al contenuto di riepilogo del ragionamento.
item_id corda Identificatore univoco dell'elemento per il quale viene aggiornato il riepilogo dei motivi.
offuscamento corda Campo di caratteri casuali introdotti dall'offuscamento del flusso. L'offuscamento del flusso è un meccanismo che attenua determinati attacchi sul canale laterale.
output_index numero intero Indice dell'elemento di output nella matrice di output della risposta.
summary_index numero intero Indice della parte di riepilogo all'interno dell'elemento di output.
type enum Tipo di evento. Sempre "response.reasoning_summary.delta".
Valori possibili: response.reasoning_summary.delta

OpenAI.ResponseReasoningSummaryDoneEvent

Generato quando il contenuto di riepilogo del ragionamento viene finalizzato per un elemento.

Nome TIPO Descrzione Obbligatorio Default
item_id corda Identificatore univoco dell'elemento per il quale viene finalizzato il riepilogo del ragionamento.
output_index numero intero Indice dell'elemento di output nella matrice di output della risposta.
summary_index numero intero Indice della parte di riepilogo all'interno dell'elemento di output.
Testo corda Testo di riepilogo del ragionamento conclusivo.
type enum Tipo di evento. Sempre 'response.reasoning_summary.done'.
Valori possibili: response.reasoning_summary.done

OpenAI.ResponseReasoningSummaryPartAddedEvent

Generato quando viene aggiunta una nuova parte di riepilogo del ragionamento.

Nome TIPO Descrzione Obbligatorio Default
item_id corda L'ID dell'elemento a cui è associata questa parte di riepilogo.
output_index numero intero L'indice dell'elemento di output a cui è associata questa parte di riepilogo.
part oggetto
└─ Tipo OpenAI.ReasoningItemSummaryPartType NO
summary_index numero intero Indice della parte di sintesi all'interno del riepilogo del ragionamento.
type enum Tipo di evento. Sempre response.reasoning_summary_part.added.
Valori possibili: response.reasoning_summary_part.added

OpenAI.ResponseReasoningSummaryPartDoneEvent

Generato quando viene completata una parte di riepilogo del ragionamento.

Nome TIPO Descrzione Obbligatorio Default
item_id corda L'ID dell'elemento a cui è associata questa parte di riepilogo.
output_index numero intero L'indice dell'elemento di output a cui è associata questa parte di riepilogo.
part oggetto
└─ Tipo OpenAI.ReasoningItemSummaryPartType NO
summary_index numero intero Indice della parte di sintesi all'interno del riepilogo del ragionamento.
type enum Tipo di evento. Sempre response.reasoning_summary_part.done.
Valori possibili: response.reasoning_summary_part.done

OpenAI.ResponseReasoningSummaryTextDeltaEvent

Generato quando un delta viene aggiunto a un testo di riepilogo del ragionamento.

Nome TIPO Descrzione Obbligatorio Default
delta corda Delta del testo aggiunto al riepilogo.
item_id corda L'ID dell'elemento a cui è associato questo delta del testo di riepilogo.
offuscamento corda Campo di caratteri casuali introdotti dall'offuscamento del flusso. L'offuscamento del flusso è un meccanismo che attenua determinati attacchi sul canale laterale.
output_index numero intero L'indice dell'elemento di output a cui è associato questo delta del testo di riepilogo.
summary_index numero intero Indice della parte di sintesi all'interno del riepilogo del ragionamento.
type enum Tipo di evento. Sempre response.reasoning_summary_text.delta.
Valori possibili: response.reasoning_summary_text.delta

OpenAI.ResponseReasoningSummaryTextDoneEvent

Generato quando viene completato un testo di riepilogo del ragionamento.

Nome TIPO Descrzione Obbligatorio Default
item_id corda L'ID dell'elemento a cui è associato questo testo di riepilogo.
output_index numero intero L'indice dell'elemento di output a cui è associato questo testo di riepilogo.
summary_index numero intero Indice della parte di sintesi all'interno del riepilogo del ragionamento.
Testo corda Testo completo del riepilogo del ragionamento completato.
type enum Tipo di evento. Sempre response.reasoning_summary_text.done.
Valori possibili: response.reasoning_summary_text.done

OpenAI.ResponseRefusalDeltaEvent

Emesso quando è presente un testo di rifiuto parziale.

Nome TIPO Descrzione Obbligatorio Default
content_index numero intero Indice della parte del contenuto a cui viene aggiunto il testo di rifiuto.
delta corda Testo di rifiuto aggiunto.
item_id corda ID dell'elemento di output a cui viene aggiunto il testo di rifiuto.
offuscamento corda Campo di caratteri casuali introdotti dall'offuscamento del flusso. L'offuscamento del flusso è un meccanismo che attenua determinati attacchi sul canale laterale.
output_index numero intero Indice dell'elemento di output a cui viene aggiunto il testo di rifiuto.
type enum Tipo di evento. Sempre response.refusal.delta.
Valori possibili: response.refusal.delta

OpenAI.ResponseRefusalDoneEvent

Generato quando viene finalizzato il testo di rifiuto.

Nome TIPO Descrzione Obbligatorio Default
content_index numero intero Indice della parte del contenuto in cui viene finalizzato il testo di rifiuto.
item_id corda ID dell'elemento di output in cui viene finalizzato il testo di rifiuto.
output_index numero intero Indice dell'elemento di output in cui viene finalizzato il testo di rifiuto.
refusal corda Il testo di rifiuto completato.
type enum Tipo di evento. Sempre response.refusal.done.
Valori possibili: response.refusal.done

OpenAI.ResponseStreamEvent

Discriminatorio per OpenAI.ResponseStreamEvent

Questo componente usa la proprietà type per distinguere tra tipi diversi:

Valore tipo Schema
response.completed OpenAI.ResponseCompletedEvent
response.content_part.added OpenAI.ResponseContentPartAddedEvent
response.content_part.done OpenAI.ResponseContentPartDoneEvent
response.created OpenAI.ResponseCreatedEvent
error OpenAI.ResponseErrorEvent
response.file_search_call.completed OpenAI.ResponseFileSearchCallCompletedEvent
response.file_search_call.in_progress OpenAI.ResponseFileSearchCallInProgressEvent
response.file_search_call.searching OpenAI.ResponseFileSearchCallSearchingEvent
response.function_call_arguments.delta OpenAI.ResponseFunctionCallArgumentsDeltaEvent
response.function_call_arguments.done OpenAI.ResponseFunctionCallArgumentsDoneEvent
response.in_progress OpenAI.ResponseInProgressEvent
response.failed OpenAI.ResponseFailedEvent
response.incomplete OpenAI.ResponseIncompleteEvent
response.output_item.added OpenAI.ResponseOutputItemAddedEvent
response.output_item.done OpenAI.ResponseOutputItemDoneEvent
response.refusal.delta OpenAI.ResponseRefusalDeltaEvent
response.refusal.done OpenAI.ResponseRefusalDoneEvent
response.output_text.delta OpenAI.ResponseTextDeltaEvent
response.output_text.done OpenAI.ResponseTextDoneEvent
response.reasoning_summary_part.added OpenAI.ResponseReasoningSummaryPartAddedEvent
response.reasoning_summary_part.done OpenAI.ResponseReasoningSummaryPartDoneEvent
response.reasoning_summary_text.delta OpenAI.ResponseReasoningSummaryTextDeltaEvent
response.reasoning_summary_text.done OpenAI.ResponseReasoningSummaryTextDoneEvent
response.web_search_call.completed OpenAI.ResponseWebSearchCallCompletedEvent
response.web_search_call.in_progress OpenAI.ResponseWebSearchCallInProgressEvent
response.web_search_call.searching OpenAI.ResponseWebSearchCallSearchingEvent
response.image_generation_call.completed OpenAI.ResponseImageGenCallCompletedEvent
response.image_generation_call.generating OpenAI.ResponseImageGenCallGeneratingEvent
response.image_generation_call.in_progress OpenAI.ResponseImageGenCallInProgressEvent
response.image_generation_call.partial_image OpenAI.ResponseImageGenCallPartialImageEvent
response.mcp_call.arguments_delta OpenAI.ResponseMCPCallArgumentsDeltaEvent
response.mcp_call.arguments_done OpenAI.ResponseMCPCallArgumentsDoneEvent
response.mcp_call.completed OpenAI.ResponseMCPCallCompletedEvent
response.mcp_call.failed OpenAI.ResponseMCPCallFailedEvent
response.mcp_call.in_progress OpenAI.ResponseMCPCallInProgressEvent
response.mcp_list_tools.completed OpenAI.ResponseMCPListToolsCompletedEvent
response.mcp_list_tools.failed OpenAI.ResponseMCPListToolsFailedEvent
response.mcp_list_tools.in_progress OpenAI.ResponseMCPListToolsInProgressEvent
response.queued OpenAI.ResponseQueuedEvent
response.reasoning.delta OpenAI.ResponseReasoningDeltaEvent
response.reasoning.done OpenAI.ResponseReasoningDoneEvent
response.reasoning_summary.delta OpenAI.ResponseReasoningSummaryDeltaEvent
response.reasoning_summary.done OpenAI.ResponseReasoningSummaryDoneEvent
response.code_interpreter_call_code.delta OpenAI.ResponseCodeInterpreterCallCodeDeltaEvent
response.code_interpreter_call_code.done OpenAI.ResponseCodeInterpreterCallCodeDoneEvent
response.code_interpreter_call.completed OpenAI.ResponseCodeInterpreterCallCompletedEvent
response.code_interpreter_call.in_progress OpenAI.ResponseCodeInterpreterCallInProgressEvent
response.code_interpreter_call.interpreting OpenAI.ResponseCodeInterpreterCallInterpretingEvent
Nome TIPO Descrzione Obbligatorio Default
sequence_number numero intero Numero di sequenza per questo evento.
type OpenAI.ResponseStreamEventType

OpenAI.ResponseStreamEventType

Proprietà Value
Tipo corda
Valori response.audio.delta
response.audio.done
response.audio_transcript.delta
response.audio_transcript.done
response.code_interpreter_call_code.delta
response.code_interpreter_call_code.done
response.code_interpreter_call.completed
response.code_interpreter_call.in_progress
response.code_interpreter_call.interpreting
response.completed
response.content_part.added
response.content_part.done
response.created
error
response.file_search_call.completed
response.file_search_call.in_progress
response.file_search_call.searching
response.function_call_arguments.delta
response.function_call_arguments.done
response.in_progress
response.failed
response.incomplete
response.output_item.added
response.output_item.done
response.refusal.delta
response.refusal.done
response.output_text.annotation.added
response.output_text.delta
response.output_text.done
response.reasoning_summary_part.added
response.reasoning_summary_part.done
response.reasoning_summary_text.delta
response.reasoning_summary_text.done
response.web_search_call.completed
response.web_search_call.in_progress
response.web_search_call.searching
response.image_generation_call.completed
response.image_generation_call.generating
response.image_generation_call.in_progress
response.image_generation_call.partial_image
response.mcp_call.arguments_delta
response.mcp_call.arguments_done
response.mcp_call.completed
response.mcp_call.failed
response.mcp_call.in_progress
response.mcp_list_tools.completed
response.mcp_list_tools.failed
response.mcp_list_tools.in_progress
response.queued
response.reasoning.delta
response.reasoning.done
response.reasoning_summary.delta
response.reasoning_summary.done

OpenAI.ResponseTextDeltaEvent

Generato quando è presente un delta di testo aggiuntivo.

Nome TIPO Descrzione Obbligatorio Default
content_index numero intero Indice della parte di contenuto a cui è stato aggiunto il delta del testo.
delta corda Delta del testo aggiunto.
item_id corda ID dell'elemento di output a cui è stato aggiunto il delta del testo.
offuscamento corda Campo di caratteri casuali introdotti dall'offuscamento del flusso. L'offuscamento del flusso è un meccanismo che attenua determinati attacchi sul canale laterale.
output_index numero intero Indice dell'elemento di output a cui è stato aggiunto il delta del testo.
type enum Tipo di evento. Sempre response.output_text.delta.
Valori possibili: response.output_text.delta

OpenAI.ResponseTextDoneEvent

Generato quando viene finalizzato il contenuto di testo.

Nome TIPO Descrzione Obbligatorio Default
content_index numero intero Indice della parte del contenuto in cui viene finalizzato il contenuto del testo.
item_id corda ID dell'elemento di output in cui viene finalizzato il contenuto del testo.
output_index numero intero Indice dell'elemento di output in cui viene finalizzato il contenuto del testo.
Testo corda Contenuto di testo finalizzato.
type enum Tipo di evento. Sempre response.output_text.done.
Valori possibili: response.output_text.done

OpenAI.ResponseTextFormatConfiguration

Discriminatore per OpenAI.ResponseTextFormatConfiguration

Questo componente usa la proprietà type per distinguere tra tipi diversi:

Valore tipo Schema
text OpenAI.ResponseTextFormatConfigurationText
json_object OpenAI.ResponseTextFormatConfigurationJsonObject
json_schema OpenAI.ResponseTextFormatConfigurationJsonSchema
Nome TIPO Descrzione Obbligatorio Default
type OpenAI.ResponseTextFormatConfigurationType Oggetto che specifica il formato che il modello deve restituire.

La configurazione { "type": "json_schema" } abilita gli output strutturati,
che garantisce che il modello corrisponda allo schema JSON fornito. Per altre informazioni vedere la
Guida agli output strutturati.

Il formato predefinito è { "type": "text" } senza opzioni aggiuntive.

Non consigliato per i modelli gpt-4o e versioni successive:

L'impostazione su { "type": "json_object" } abilita la modalità JSON precedente, che
garantisce che il messaggio generato dal modello sia JSON valido. Utilizzo di json_schema
è preferibile per i modelli che lo supportano.

OpenAI.ResponseTextFormatConfigurationJsonObject

Nome TIPO Descrzione Obbligatorio Default
type enum
Valori possibili: json_object

OpenAI.ResponseTextFormatConfigurationJsonSchema

Formato di risposta dello schema JSON. Usato per generare risposte JSON strutturate. Scopri di più sugli output strutturati.

Nome TIPO Descrzione Obbligatorio Default
descrizione corda Descrizione del formato di risposta, usato dal modello per
decidere come rispondere al formato.
NO
nome corda Nome del formato della risposta. Deve essere a-z, A-Z, 0-9 o contenere
caratteri di sottolineatura e trattini, con una lunghezza massima di 64.
schema OpenAI.ResponseFormatJsonSchemaSchema Schema per il formato di risposta, descritto come oggetto Schema JSON.
Informazioni su come creare schemi JSON qui.
rigido boolean Indica se abilitare una rigorosa conformità allo schema durante la generazione dell'output.
Se impostato su true, il modello seguirà sempre lo schema esatto definito
nel schema campo. Quando è supportato solo un subset di schema JSON
strict è true. Per altre informazioni, vedere Output strutturati
guida
.
NO Falso
type enum Tipo di formato di risposta definito. Sempre json_schema.
Valori possibili: json_schema

OpenAI.ResponseTextFormatConfigurationText

Nome TIPO Descrzione Obbligatorio Default
type enum
Valori possibili: text

OpenAI.ResponseTextFormatConfigurationType

Oggetto che specifica il formato che il modello deve restituire.

La configurazione { "type": "json_schema" } abilita gli output strutturati, che garantisce che il modello corrisponda allo schema JSON fornito. Per altre informazioni, vedere la Guida agli output strutturati.

Il formato predefinito è { "type": "text" } senza opzioni aggiuntive.

Non consigliato per i modelli gpt-4o e versioni successive:

L'impostazione su { "type": "json_object" } abilita la modalità JSON precedente, che garantisce che il messaggio generato dal modello sia JSON valido. L'uso json_schema è preferibile per i modelli che lo supportano.

Proprietà Value
Descrizione Oggetto che specifica il formato che il modello deve restituire.

La configurazione { "type": "json_schema" } abilita gli output strutturati, che garantisce che il modello corrisponda allo schema JSON fornito. Per altre informazioni, vedere la Guida agli output strutturati.

Il formato predefinito è { "type": "text" } senza opzioni aggiuntive.

Non consigliato per i modelli gpt-4o e versioni successive:

L'impostazione su { "type": "json_object" } abilita la modalità JSON precedente, che garantisce che il messaggio generato dal modello sia JSON valido. L'uso json_schema è preferibile per i modelli che lo supportano. | | Tipo | string | | Valori | text
json_schema
json_object |

OpenAI.ResponseUsage

Rappresenta i dettagli di utilizzo dei token, inclusi i token di input, i token di output, la suddivisione dei token di output e i token totali usati.

Nome TIPO Descrzione Obbligatorio Default
input_tokens numero intero Numero di token di input.
input_tokens_details oggetto Dettaglio dei token di input.
└cached_tokens numero intero Numero di token recuperati dalla cache.
Altre informazioni sulla memorizzazione nella cache dei prompt.
NO
output_tokens numero intero Numero di token in uscita.
output_tokens_details oggetto Dettaglio dei token di output.
└─ token_di_ragionamento numero intero Numero di token di ragionamento. NO
total_tokens numero intero Numero totale di token usati.

OpenAI.ResponseWebSearchCallCompletedEvent

Annotazioni

web_search non è ancora disponibile tramite Azure OpenAI.

Nome TIPO Descrzione Obbligatorio Default
item_id corda ID univoco per l'elemento di output associato alla chiamata di ricerca Web.
output_index numero intero Indice dell'elemento di output a cui è associata la chiamata di ricerca Web.
type enum Tipo di evento. Sempre response.web_search_call.completed.
Valori possibili: response.web_search_call.completed

OpenAI.ResponseWebSearchCallInProgressEvent

Annotazioni

web_search non è ancora disponibile tramite Azure OpenAI.

Nome TIPO Descrzione Obbligatorio Default
item_id corda ID univoco per l'elemento di output associato alla chiamata di ricerca Web.
output_index numero intero Indice dell'elemento di output a cui è associata la chiamata di ricerca Web.
type enum Tipo di evento. Sempre response.web_search_call.in_progress.
Valori possibili: response.web_search_call.in_progress

OpenAI.ResponseWebSearchCallSearchingEvent

Annotazioni

web_search non è ancora disponibile tramite Azure OpenAI.

Nome TIPO Descrzione Obbligatorio Default
item_id corda ID univoco per l'elemento di output associato alla chiamata di ricerca Web.
output_index numero intero Indice dell'elemento di output a cui è associata la chiamata di ricerca Web.
type enum Tipo di evento. Sempre response.web_search_call.searching.
Valori possibili: response.web_search_call.searching

OpenAI.ResponsesAssistantMessageItemParam

Elemento del parametro del messaggio con il ruolo assistant.

Nome TIPO Descrzione Obbligatorio Default
contenuto array Contenuto associato al messaggio.
ruolo enum Ruolo del messaggio, che è sempre assistant.
Valori possibili: assistant

OpenAI.ResponsesAssistantMessageItemResource

Elemento della risorsa messaggio con il ruolo assistant.

Nome TIPO Descrzione Obbligatorio Default
contenuto array Contenuto associato al messaggio.
ruolo enum Ruolo del messaggio, che è sempre assistant.
Valori possibili: assistant

OpenAI.ResponsesDeveloperMessageItemParam

Elemento del parametro del messaggio con il ruolo developer.

Nome TIPO Descrzione Obbligatorio Default
contenuto array Contenuto associato al messaggio.
ruolo enum Ruolo del messaggio, che è sempre developer.
Valori possibili: developer

OpenAI.ResponsesDeveloperMessageItemResource

Elemento della risorsa messaggio con il ruolo developer.

Nome TIPO Descrzione Obbligatorio Default
contenuto array Contenuto associato al messaggio.
ruolo enum Ruolo del messaggio, che è sempre developer.
Valori possibili: developer

OpenAI.ResponsesMessageItemParam

Elemento del messaggio di risposta, che rappresenta un ruolo e un contenuto, come specificato come parametri di richiesta client.

Discriminatorio per OpenAI.ResponsesMessageItemParam

Questo componente usa la proprietà role per distinguere tra tipi diversi:

Valore tipo Schema
user OpenAI.ResponsesUserMessageItemParam
system OpenAI.ResponsesSystemMessageItemParam
developer OpenAI.ResponsesDeveloperMessageItemParam
assistant OpenAI.ResponsesAssistantMessageItemParam
Nome TIPO Descrzione Obbligatorio Default
ruolo oggetto Raccolta di ruoli validi per le risposte agli elementi del messaggio.
type enum Tipo dell'elemento delle risposte, che è sempre "message".
Valori possibili: message

OpenAI.ResponsesMessageItemResource

Elemento della risorsa del messaggio di risposta, che rappresenta un ruolo e un contenuto, come specificato nelle risposte del servizio.

Discriminare per OpenAI.ResponsesMessageItemResource

Questo componente usa la proprietà role per distinguere tra tipi diversi:

Valore tipo Schema
user OpenAI.ResponsesUserMessageItemResource
system OpenAI.ResponsesSystemMessageItemResource
developer OpenAI.ResponsesDeveloperMessageItemResource
assistant OpenAI.ResponsesAssistantMessageItemResource
Nome TIPO Descrzione Obbligatorio Default
ruolo oggetto Raccolta di ruoli validi per le risposte agli elementi del messaggio.
stato enum Stato dell'elemento. Uno di in_progress, completed, o
incomplete. Popolato quando gli elementi vengono restituiti tramite l'API.
Valori possibili: in_progress, completed, incomplete
type enum Tipo dell'elemento delle risposte, che è sempre "message".
Valori possibili: message

OpenAI.ResponsesMessageRole

Raccolta di ruoli validi per le risposte agli elementi del messaggio.

Proprietà Value
Descrizione Raccolta di ruoli validi per le risposte agli elementi del messaggio.
Tipo corda
Valori system
developer
user
assistant

OpenAI.ResponsesSystemMessageItemParam

Elemento del parametro del messaggio con il ruolo system.

Nome TIPO Descrzione Obbligatorio Default
contenuto array Contenuto associato al messaggio.
ruolo enum Ruolo del messaggio, che è sempre system.
Valori possibili: system

OpenAI.ResponsesSystemMessageItemResource

Elemento della risorsa messaggio con il ruolo system.

Nome TIPO Descrzione Obbligatorio Default
contenuto array Contenuto associato al messaggio.
ruolo enum Ruolo del messaggio, che è sempre system.
Valori possibili: system

OpenAI.ResponsesUserMessageItemParam

Elemento del parametro del messaggio con il ruolo user.

Nome TIPO Descrzione Obbligatorio Default
contenuto array Contenuto associato al messaggio.
ruolo enum Ruolo del messaggio, che è sempre user.
Valori possibili: user

OpenAI.ResponsesUserMessageItemResource

Elemento della risorsa messaggio con il ruolo user.

Nome TIPO Descrzione Obbligatorio Default
contenuto array Contenuto associato al messaggio.
ruolo enum Ruolo del messaggio, che è sempre user.
Valori possibili: user

OpenAI.RunGraderRequest

Nome TIPO Descrzione Obbligatorio Default
cernitore oggetto Oggetto StringCheckGrader che esegue un confronto di stringhe tra input e riferimento usando un'operazione specificata.
└' calculate_output corda Formula per calcolare l'output in base ai risultati del classificatore. NO
└' evaluation_metric enum Metrica di valutazione da usare. Uno di fuzzy_match, bleu, gleu, meteor, rouge_1, rouge_2, rouge_3, rouge_4, rouge_5 o rouge_l.
Valori possibili: fuzzy_match, bleu, gleumeteor, rouge_1, rouge_2, rouge_3, rouge_4, rouge_5rouge_l
NO
└️ voti oggetto NO
└' image_tag corda Tag immagine da usare per lo script Python. NO
└ Input array Testo di input. Ciò può includere stringhe di modello. NO
└─ Modello corda Modello da utilizzare per la valutazione. NO
└> nome corda Nome del grader. NO
└─ Operazione enum Operazione di controllo della stringa da eseguire. Uno tra eq, ne, like o ilike.
Valori possibili: eq, ne, like, ilike
NO
└* intervallo array La gamma del punteggio. Il valore predefinito è [0, 1]. NO
Riferimento corda Testo che viene valutato. NO
└sampling_params Parametri di campionamento per il modello. NO
└─ sorgente corda Codice sorgente dello script Python. NO
└─ Tipo enum Il tipo di oggetto, che è sempre multi.
Valori possibili: multi
NO
oggetto Elemento del set di dati fornito al classificatore. Verrà usato per popolare
lo spazio dei nomi item. Per altri dettagli, vedere la guida.
NO
model_sample corda Esempio di modello da valutare. Questo valore verrà usato per popolare
lo spazio dei nomi sample. Per altri dettagli, vedere la guida.
La variabile output_json verrà popolata se l'esempio di modello è una
stringa JSON valida.

OpenAI.RunGraderResponse

Nome TIPO Descrzione Obbligatorio Default
metadata oggetto
└─ errori oggetto NO
└• formula_parse_error boolean NO
└' invalid_variable_error boolean NO
└• model_grader_parse_error boolean NO
└' model_grader_refusal_error boolean NO
└• model_grader_server_error boolean NO
└' model_grader_server_error_details corda NO
└' other_error boolean NO
└• python_grader_runtime_error boolean NO
└' python_grader_runtime_error_details corda NO
└' python_grader_server_error boolean NO
└• python_grader_server_error_type corda NO
└' sample_parse_error boolean NO
└' truncated_observation_error boolean NO
└' unresponsive_reward_error boolean NO
└' execution_time numero NO
└> nome corda NO
└' sampled_model_name corda NO
└* punteggi NO
└' token_usage numero intero NO
└─ Tipo corda NO
model_grader_token_usage_per_model
riconoscimento numero
sub_rewards

OpenAI.StaticChunkingStrategy

Nome TIPO Descrzione Obbligatorio Default
sovrapposizione_segmento_token numero intero Numero di token che si sovrappongono tra blocchi. Il valore predefinito è 400.

Notare che la sovrapposizione non deve superare la metà di max_chunk_size_tokens.
dimensione_massima_chunk_token numero intero Numero massimo di token in ogni blocco. Il valore predefinito è 800. Il valore minimo è 100 e il valore massimo è 4096.

OpenAI.StaticChunkingStrategyRequestParam

Personalizzare la propria strategia di suddivisione in blocchi impostando le dimensioni dei blocchi e la sovrapposizione dei blocchi.

Nome TIPO Descrzione Obbligatorio Default
statico OpenAI.StaticChunkingStrategy
type enum Sempre static.
Valori possibili: static

OpenAI.StaticChunkingStrategyResponseParam

Nome TIPO Descrzione Obbligatorio Default
statico OpenAI.StaticChunkingStrategy
type enum Sempre static.
Valori possibili: static

OpenAI.StopConfiguration

Non supportato con i modelli o3 di ragionamento più recenti e o4-mini.

Fino a 4 sequenze in cui l'API smetterà di generare altri token. Il testo restituito non conterrà la sequenza di interruzione.

Questo schema accetta uno dei tipi seguenti:

  • string
  • array

OpenAI.Tool

Discriminatore per OpenAI.Tool

Questo componente usa la proprietà type per distinguere tra tipi diversi:

Valore tipo Schema
function OpenAI.FunctionTool
file_search OpenAI.FileSearchTool
computer_use_preview OpenAI.ComputerUsePreviewTool
web_search_preview OpenAI.WebSearchPreviewTool
code_interpreter OpenAI.CodeInterpreterTool
image_generation OpenAI.ImageGenTool
local_shell OpenAI.LocalShellTool
mcp OpenAI.MCPTool
Nome TIPO Descrzione Obbligatorio Default
type OpenAI.ToolType Strumento che può essere usato per generare una risposta.

OpenAI.ToolChoiceObject

Discriminante per OpenAI.ToolChoiceObject

Questo componente usa la proprietà type per distinguere tra tipi diversi:

Valore tipo Schema
file_search OpenAI.ToolChoiceObjectFileSearch
computer_use_preview OpenAI.ToolChoiceObjectComputer
web_search_preview OpenAI.ToolChoiceObjectWebSearch
image_generation OpenAI.ToolChoiceObjectImageGen
code_interpreter OpenAI.ToolChoiceObjectCodeInterpreter
function OpenAI.ToolChoiceObjectFunction
mcp OpenAI.ToolChoiceObjectMCP
Nome TIPO Descrzione Obbligatorio Default
type OpenAI.ToolChoiceObjectType Indica che il modello deve usare uno strumento predefinito per generare una risposta.

OpenAI.ToolChoiceObjectCodeInterpreter

Nome TIPO Descrzione Obbligatorio Default
type enum
Valori possibili: code_interpreter

OpenAI.ToolChoiceObjectComputer

Nome TIPO Descrzione Obbligatorio Default
type enum
Valori possibili: computer_use_preview

OpenAI.ToolChoiceObjectFileSearch

Nome TIPO Descrzione Obbligatorio Default
type enum
Valori possibili: file_search

OpenAI.ToolChoiceObjectFunction

Usare questa opzione per forzare il modello a chiamare una funzione specifica.

Nome TIPO Descrzione Obbligatorio Default
nome corda Nome della funzione da chiamare.
type enum Per la chiamata di funzione, il tipo è sempre function.
Valori possibili: function

OpenAI.ToolChoiceObjectImageGen

Nome TIPO Descrzione Obbligatorio Default
type enum
Valori possibili: image_generation

OpenAI.ToolChoiceObjectMCP

Usare questa opzione per forzare il modello a chiamare uno strumento specifico in un server MCP remoto.

Nome TIPO Descrzione Obbligatorio Default
nome corda Nome dello strumento da chiamare sul server. NO
etichetta del server corda Etichetta del server MCP da utilizzare.
type enum Per gli strumenti MCP, il tipo è sempre mcp.
Valori possibili: mcp

OpenAI.ToolChoiceObjectType

Indica che il modello deve usare uno strumento predefinito per generare una risposta.

Proprietà Value
Descrizione Indica che il modello deve usare uno strumento predefinito per generare una risposta.
Tipo corda
Valori file_search
function
computer_use_preview
web_search_preview
image_generation
code_interpreter
mcp

OpenAI.ToolChoiceObjectWebSearch

Annotazioni

web_search non è ancora disponibile tramite Azure OpenAI.

Nome TIPO Descrzione Obbligatorio Default
type enum
Valori possibili: web_search_preview

OpenAI.ToolChoiceOptions

Controlla quale strumento (se presente) viene chiamato dal modello.

none indica che il modello non chiamerà alcuno strumento e genera invece un messaggio.

auto indica che il modello può scegliere tra la generazione di un messaggio o la chiamata di uno o più strumenti.

required indica che il modello deve chiamare uno o più strumenti.

Proprietà Value
Descrizione Controlla quale strumento (se presente) viene chiamato dal modello.

none indica che il modello non chiamerà alcuno strumento e genera invece un messaggio.

auto indica che il modello può scegliere tra la generazione di un messaggio o la chiamata di uno o
più strumenti

required indica che il modello deve chiamare uno o più strumenti.
Tipo corda
Valori none
auto
required

OpenAI.ToolType

Strumento che può essere usato per generare una risposta.

Proprietà Value
Descrizione Strumento che può essere usato per generare una risposta.
Tipo corda
Valori file_search
function
computer_use_preview
web_search_preview
mcp
code_interpreter
image_generation
local_shell

OpenAI.TopLogProb

Probabilità di log superiore di un token.

Nome TIPO Descrzione Obbligatorio Default
bytes array
logprob numero
token corda

OpenAI.UpdateVectorStoreFileAttributesRequest

Nome TIPO Descrzione Obbligatorio Default
attributes oggetto Set di 16 coppie chiave-valore che possono essere collegate a un oggetto. Può trattarsi di
utile per archiviare informazioni aggiuntive sull'oggetto in un oggetto strutturato
formattare ed eseguire query per gli oggetti tramite l'API o il dashboard. Le chiavi sono stringhe
con una lunghezza massima di 64 caratteri. I valori sono stringhe con una lunghezza massima
lunghezza di 512 caratteri, booleani o numeri.

OpenAI.UpdateVectorStoreRequest

Nome TIPO Descrzione Obbligatorio Default
scade dopo oggetto I criteri di scadenza per un archivio vettoriale. NO
Ancoraggio └* enum Timestamp di ancoraggio dopo il quale si applicano i criteri di scadenza. Ancoraggi supportati: last_active_at.
Valori possibili: last_active_at
NO
└* giorni numero intero Numero di giorni dopo l'ora di ancoraggio in cui scadrà l'archivio vettoriale. NO
metadata oggetto Set di 16 coppie chiave-valore che possono essere collegate a un oggetto. Può trattarsi di
utile per archiviare informazioni aggiuntive sull'oggetto in un oggetto strutturato
formattare ed eseguire query per gli oggetti tramite l'API o il dashboard.

Le chiavi sono stringhe con una lunghezza massima di 64 caratteri. I valori sono stringhe
con una lunghezza massima di 512 caratteri.
NO
nome corda Il nome dell’archivio vettoriale. NO

OpenAI.ValidateGraderRequest

Nome TIPO Descrzione Obbligatorio Default
cernitore oggetto Oggetto StringCheckGrader che esegue un confronto di stringhe tra input e riferimento usando un'operazione specificata.
└' calculate_output corda Formula per calcolare l'output in base ai risultati del classificatore. NO
└' evaluation_metric enum Metrica di valutazione da usare. Uno di fuzzy_match, bleu, gleu, meteor, rouge_1, rouge_2, rouge_3, rouge_4, rouge_5 o rouge_l.
Valori possibili: fuzzy_match, bleu, gleumeteor, rouge_1, rouge_2, rouge_3, rouge_4, rouge_5rouge_l
NO
└️ voti oggetto NO
└' image_tag corda Tag immagine da usare per lo script Python. NO
└ Input array Testo di input. Ciò può includere stringhe di modello. NO
└─ Modello corda Modello da utilizzare per la valutazione. NO
└> nome corda Nome del grader. NO
└─ Operazione enum Operazione di controllo della stringa da eseguire. Uno tra eq, ne, like o ilike.
Valori possibili: eq, ne, like, ilike
NO
└* intervallo array La gamma del punteggio. Il valore predefinito è [0, 1]. NO
Riferimento corda Testo che viene valutato. NO
└sampling_params Parametri di campionamento per il modello. NO
└─ sorgente corda Codice sorgente dello script Python. NO
└─ Tipo enum Il tipo di oggetto, che è sempre multi.
Valori possibili: multi
NO

OpenAI.ValidateGraderResponse

Nome TIPO Descrzione Obbligatorio Default
cernitore oggetto Oggetto StringCheckGrader che esegue un confronto di stringhe tra input e riferimento usando un'operazione specificata. NO
└' calculate_output corda Formula per calcolare l'output in base ai risultati del classificatore. NO
└' evaluation_metric enum Metrica di valutazione da usare. Uno di fuzzy_match, bleu, gleu, meteor, rouge_1, rouge_2, rouge_3, rouge_4, rouge_5 o rouge_l.
Valori possibili: fuzzy_match, bleu, gleumeteor, rouge_1, rouge_2, rouge_3, rouge_4, rouge_5rouge_l
NO
└️ voti oggetto NO
└' image_tag corda Tag immagine da usare per lo script Python. NO
└ Input array Testo di input. Ciò può includere stringhe di modello. NO
└─ Modello corda Modello da utilizzare per la valutazione. NO
└> nome corda Nome del grader. NO
└─ Operazione enum Operazione di controllo della stringa da eseguire. Uno tra eq, ne, like o ilike.
Valori possibili: eq, ne, like, ilike
NO
└* intervallo array La gamma del punteggio. Il valore predefinito è [0, 1]. NO
Riferimento corda Testo che viene valutato. NO
└sampling_params Parametri di campionamento per il modello. NO
└─ sorgente corda Codice sorgente dello script Python. NO
└─ Tipo enum Il tipo di oggetto, che è sempre multi.
Valori possibili: multi
NO

OpenAI.VectorStoreExpirationAfter

I criteri di scadenza per un archivio vettoriale.

Nome TIPO Descrzione Obbligatorio Default
anchor enum Timestamp di ancoraggio dopo il quale si applicano i criteri di scadenza. Ancoraggi supportati: last_active_at.
Valori possibili: last_active_at
Giorni numero intero Numero di giorni dopo l'ora di ancoraggio in cui scadrà l'archivio vettoriale.

OpenAI.VectorStoreFileAttributes

Set di 16 coppie chiave-valore che possono essere collegate a un oggetto. Ciò può essere utile per archiviare informazioni aggiuntive sull'oggetto in un formato strutturato ed eseguire query sugli oggetti tramite API o il dashboard. Le chiavi sono stringhe con una lunghezza massima di 64 caratteri. I valori sono stringhe con una lunghezza massima di 512 caratteri, valori booleani o numeri.

Tipo: oggetto

OpenAI.VectorStoreFileBatchObject

Una batch di file collegati a un archivio vettoriale.

Nome TIPO Descrzione Obbligatorio Default
creato_il numero intero Timestamp Unix (in secondi) di quando è stato creato il batch di file dell’archivio vettoriale.
file_counts oggetto
└* annullato numero intero Il numero di file che sono stati annullati. NO
└* completato numero intero Il numero di file elaborati. NO
└* non riuscito numero intero Il numero di file per cui l’elaborazione non è riuscita. NO
└─ in corso numero intero Il numero di file attualmente in fase di elaborazione. NO
└─ totale numero intero Numero totale di file. NO
id corda Identificatore a cui è possibile fare riferimento negli endpoint API.
oggetto enum Il tipo di oggetto, che è sempre vector_store.file_batch.
Valori possibili: vector_store.files_batch
stato enum Lo stato del batch del file dell’archivio vettoriale, che può essere in_progress, completed, cancelled o failed.
Valori possibili: in_progress, completed, cancelled, failed
ID del negozio vettoriale corda ID dell'archivio vettoriale a cui è associato il file.

OpenAI.VectorStoreFileObject

Elenco di file collegati a un archivio vettoriale.

Nome TIPO Descrzione Obbligatorio Default
attributes oggetto Set di 16 coppie chiave-valore che possono essere collegate a un oggetto. Può trattarsi di
utile per archiviare informazioni aggiuntive sull'oggetto in un oggetto strutturato
formattare ed eseguire query per gli oggetti tramite l'API o il dashboard. Le chiavi sono stringhe
con una lunghezza massima di 64 caratteri. I valori sono stringhe con una lunghezza massima
lunghezza di 512 caratteri, booleani o numeri.
NO
chunking_strategy oggetto NO
└─ Tipo enum
Valori possibili: static, other
NO
creato_il numero intero Timestamp Unix (in secondi) di quando è stato creato il file dell’archivio vettoriale.
id corda Identificatore a cui è possibile fare riferimento negli endpoint API.
errore_ultimo oggetto Ultimo errore associato a questo file dell’archivio vettoriale. Sarà null se non ci sono errori.
└─ codice enum Uno tra server_error e rate_limit_exceeded.
Valori possibili: server_error, unsupported_file, invalid_file
NO
└* messaggio corda Descrizione leggibile dell'errore. NO
oggetto enum Il tipo di oggetto, che è sempre vector_store.file.
Valori possibili: vector_store.file
stato enum Lo stato del file dell’archivio vettoriale, che può essere in_progress, completed, cancelled o failed. Lo stato di completed indica che il file dell’archivio vettoriale è pronto per l'uso.
Valori possibili: in_progress, completed, cancelled, failed
usage_bytes numero intero Utilizzo totale dell'archivio vettoriale in byte. Si noti che questo può essere diverso dalle dimensioni del file originale.
ID del negozio vettoriale corda ID dell'archivio vettoriale a cui è associato il file.

OpenAI.VectorStoreObject

Un archivio vettoriale è una raccolta di file elaborati che può essere usato dallo strumento file_search.

Nome TIPO Descrzione Obbligatorio Default
creato_il numero intero Timestamp Unix (in secondi) di quando è stato creato l’archivio vettoriale.
scade dopo OpenAI.VectorStoreExpirationAfter I criteri di scadenza per un archivio vettoriale. NO
scade_il numero intero Timestamp Unix (in secondi) di quando l’archivio vettoriale scadrà. NO
file_counts oggetto
└* annullato numero intero Il numero di file che sono stati annullati. NO
└* completato numero intero Il numero di file elaborati correttamente. NO
└* non riuscito numero intero Il numero di file per cui l’elaborazione non è riuscita. NO
└─ in corso numero intero Il numero di file attualmente in fase di elaborazione. NO
└─ totale numero intero Numero totale di file. NO
id corda Identificatore a cui è possibile fare riferimento negli endpoint API.
ultima_attività_il numero intero Timestamp Unix (in secondi) di quando l’archivio vettoriale è stato attivo per l’ultima volta.
metadata oggetto Set di 16 coppie chiave-valore che possono essere collegate a un oggetto. Può trattarsi di
utile per archiviare informazioni aggiuntive sull'oggetto in un oggetto strutturato
formattare ed eseguire query per gli oggetti tramite l'API o il dashboard.

Le chiavi sono stringhe con una lunghezza massima di 64 caratteri. I valori sono stringhe
con una lunghezza massima di 512 caratteri.
nome corda Il nome dell’archivio vettoriale.
oggetto enum Il tipo di oggetto, che è sempre vector_store.
Valori possibili: vector_store
stato enum Lo stato dell’archivio vettoriale, che può essere expired, in_progress o completed. Lo stato di completed indica che l'archivio vettoriale è pronto per l'uso.
Valori possibili: expired, in_progress, completed
usage_bytes numero intero Numero totale di byte utilizzati dai file nell'archivio vettoriale.

OpenAI.VoiceIdsShared

Proprietà Value
Tipo corda
Valori alloy
ash
ballad
coral
echo
fable
onyx
nova
sage
shimmer
verse

OpenAI.WebSearchAction

Discriminatore per OpenAI.WebSearchAction

Questo componente usa la proprietà type per distinguere tra tipi diversi:

Valore tipo Schema
find OpenAI.WebSearchActionFind
open_page OpenAI.WebSearchActionOpenPage
search OpenAI.WebSearchActionSearch
Nome TIPO Descrzione Obbligatorio Default
type OpenAI.WebSearchActionType

OpenAI.WebSearchActionFind

Tipo di azione "find": cerca un criterio all'interno di una pagina caricata.

Nome TIPO Descrzione Obbligatorio Default
pattern corda Modello o testo da cercare all'interno della pagina.
type enum Tipo di azione.
Valori possibili: find
URL. corda URL della pagina in cui è stata eseguita la ricerca del modello.

OpenAI.WebSearchActionOpenPage

Tipo di azione "open_page" - Apre un URL specifico dai risultati della ricerca.

Nome TIPO Descrzione Obbligatorio Default
type enum Tipo di azione.
Valori possibili: open_page
URL. corda URL aperto dal modello.

OpenAI.WebSearchActionSearch

Tipo di azione "search" - Esegue una query di ricerca Web.

Nome TIPO Descrzione Obbligatorio Default
query corda Query di ricerca.
type enum Tipo di azione.
Valori possibili: search

OpenAI.WebSearchActionType

Proprietà Value
Tipo corda
Valori search
open_page
find

OpenAI.WebSearchPreviewTool

Annotazioni

web_search non è ancora disponibile tramite Azure OpenAI.

Nome TIPO Descrzione Obbligatorio Default
dimensione_del_contesto_di_ricerca enum Linee guida generali per la quantità di spazio della finestra di contesto da usare per la ricerca. Uno tra low, medium e high. medium è l'impostazione predefinita.
Valori possibili: low, medium, high
NO
type enum Tipo dello strumento di ricerca Web. Uno tra web_search_preview e web_search_preview_2025_03_11.
Valori possibili: web_search_preview
posizione_utente oggetto NO
└─ Tipo OpenAI.LocationType NO

OpenAI.WebSearchToolCallItemParam

Annotazioni

web_search non è ancora disponibile tramite Azure OpenAI.

Nome TIPO Descrzione Obbligatorio Default
azione oggetto
└─ Tipo OpenAI.WebSearchActionType NO
type enum
Valori possibili: web_search_call

OpenAI.WebSearchToolCallItemResource

Annotazioni

web_search non è ancora disponibile tramite Azure OpenAI.

Nome TIPO Descrzione Obbligatorio Default
azione oggetto
└─ Tipo OpenAI.WebSearchActionType NO
stato enum Stato della chiamata dello strumento di ricerca Web.
Valori possibili: in_progress, searching, completed, failed
type enum
Valori possibili: web_search_call

PineconeChatDataSource

Nome TIPO Descrzione Obbligatorio Default
parameters oggetto Informazioni sui parametri per controllare l'uso dell'origine dati Pinecone.
└─ consenti_risultato_parziale boolean Se impostato su true, il sistema consentirà l'uso di risultati parziali della ricerca e la richiesta avrà esito negativo se tutti i risultati della ricerca non saranno disponibili.
le query parziali hanno esito negativo. Se non specificato, o specificato come false, la richiesta avrà esito negativo se una query di ricerca ha esito negativo.
NO Falso
Autenticazione oggetto NO
└─ tasto corda NO
└─ Tipo enum
Valori possibili: api_key
NO
└─ dipendenza_embedded oggetto Rappresentazione di un'origine di vettorizzazione dei dati utilizzabile come risorsa di incapsulamento con un'origine di dati. NO
└─ Tipo AzureChatDataSourceVectorizationSourceType Identificatore di differenziazione per l'origine di vettorizzazione concreta. NO
└─ Ambiente corda Nome dell'ambiente da usare con Pinecone. NO
└ fields_mapping oggetto Mappature dei campi da applicare ai dati utilizzati dalla fonte di dati Pinecone.
Si noti che i mapping dei campi del contenuto sono necessari per Pinecone.
NO
└content_fields array NO
└─content_fields_separator corda NO
└filepath_field corda NO
└─ campo_titolo corda NO
└url_field corda NO
└ in_scope boolean Indica se le query devono essere limitate all'uso dei dati indicizzati. NO
└include_contexts array Proprietà del contesto di output da includere nella risposta.
Per impostazione predefinita, verranno richieste citazioni e finalità.
NO ['citazioni', 'intento']
└ index_name corda Nome dell'indice di database Pinecone da utilizzare. NO
└max_search_queries numero intero Numero massimo di query riscritte che devono essere inviate al provider di ricerca per un singolo messaggio utente.
Per impostazione predefinita, il sistema effettuerà una determinazione automatica.
NO
└* rigidità numero intero La rigidità configurata del filtro di pertinenza della ricerca.
Una maggiore rigidità aumenterà la precisione, ma diminuirà il richiamo della risposta.
NO
└top_n_documents numero intero Il numero configurato di documenti da includere nella query. NO
type enum Identificatore di tipo discriminato, che è sempre "pinecone".
Valori possibili: pinecone

ResponseFormatJSONSchemaRequest

Nome TIPO Descrzione Obbligatorio Default
json_schema oggetto Schema JSON per il formato di risposta
type enum Tipo di formato della risposta
Valori possibili: json_schema

ResponseModalities

Tipi di output che si desidera generare il modello. La maggior parte dei modelli è in grado di generare testo, in base all'impostazione predefinita:

["text"]

Il modello gpt-4o-audio-preview può essere usato anche per generare audio. Per far sì che questo modello generi risposte sia di testo che audio, è possibile usare:

["text", "audio"]

matrice di: string