Nota
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare ad accedere o modificare le directory.
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare a modificare le directory.
L'endpoint di analisi SQL offre una superficie di query T-SQL di sola lettura sulle tabelle Delta nel lakehouse. Ogni lakehouse effettua automaticamente il provisioning di un endpoint di analisi SQL al momento della creazione. Non è necessario configurare alcun elemento aggiuntivo. In background, l'endpoint di analisi SQL viene eseguito nello stesso motore di Fabric Data Warehouse, in modo da ottenere query SQL a bassa latenza e prestazioni elevate senza gestire l'infrastruttura.
L'endpoint di analisi SQL non è univoco per i lakehouse. Altri elementi dell'infrastruttura, inclusi i warehouse, idatabase con mirroring, i database SQL e Azure Cosmos DB, eseguono anche il provisioning automatico di un endpoint di analisi SQL. L'esperienza e le limitazioni sono le stesse in tutte.
Cosa puoi fare
L'endpoint di analisi SQL funziona in modalità di sola lettura sulle tabelle Delta. Non è possibile inserire, aggiornare o eliminare dati tramite di esso. Per modificare i dati, passare al lakehouse e usare Apache Spark.
All'interno di tale limite di sola lettura, è possibile:
- Eseguire query su tabelle Delta con T-SQL : eseguire istruzioni SELECT su qualsiasi tabella Delta nella lakehouse, incluse le tabelle esposte tramite collegamenti a Azure Data Lake Storage esterno o Amazon S3.
- Creare viste, funzioni e stored procedure : incapsulare la logica di business e i modelli di query riutilizzabili negli oggetti T-SQL persistenti nell'endpoint di analisi SQL.
- Applicare la sicurezza a livello di riga e a livello di oggetto : usare autorizzazioni granulari sql per controllare quali tabelle, colonne o righe possono essere visualizzate dagli utenti.
- Creare report di Power BI : i modelli semantici di Power BI possono connettersi all'endpoint di analisi SQL tramite l'endpoint TDS (Tabular Data Stream), in modo da poter compilare report sui dati lakehouse.
- Eseguire query tra aree di lavoro : usare i collegamenti OneLake per fare riferimento a tabelle Delta in altri lakehouse o warehouse, quindi aggiungerli in una singola query. Per più scenari inter-aree di lavoro, vedere Meglio insieme: il lakehouse e il warehouse.
Nota
Le tabelle Delta esterne create con codice Spark non sono visibili all'endpoint di analisi SQL. Usare i collegamenti nella sezione Tabelle per rendere visibili le tabelle Delta esterne. Per informazioni su come, vedere Creare un collegamento.
Accedere all'endpoint di analisi SQL
È possibile aprire l'endpoint di analisi SQL in due modi:
- Dall'area di lavoro — nell'elenco degli elementi dell'area di lavoro, trovare l'elemento endpoint di analisi SQL (ha lo stesso nome del lakehouse) e selezionarlo.
- Da Lakehouse Explorer — Nell'area superiore destra del nastro, usare l'elenco a discesa per passare alla visualizzazione dell'endpoint SQL Analytics.
In entrambi i casi, l'editor di query si apre in cui è possibile scrivere ed eseguire query T-SQL sulle tabelle Delta.
Sicurezza
Le regole di sicurezza SQL impostate nell'endpoint di analisi SQL si applicano solo quando si accede ai dati tramite l'endpoint. Non si applicano quando si accede agli stessi dati tramite Spark o altri strumenti.
Per proteggere i dati:
- Impostare autorizzazioni granulari SQL per l'endpoint di analisi SQL per controllare l'accesso a tabelle, colonne o righe specifiche.
- Impostare i ruoli e le autorizzazioni dell'area di lavoro per controllare chi può accedere al lakehouse e ai relativi dati tramite altri percorsi.
Per altre informazioni sul modello di sicurezza, vedere Sicurezza di OneLake per gli endpoint di analisi SQL.
Sincronizzazione automatica dei metadati
Quando si crea o si aggiorna una tabella Delta nel lakehouse, l'endpoint di analisi SQL rileva automaticamente la modifica e ne aggiorna i metadati SQL, ovvero definizioni di tabella, tipi di colonna e statistiche. Non è previsto alcun passaggio di importazione e non è necessaria alcuna sincronizzazione manuale.
Questo processo in background legge i log Delta dalla /Tables cartella in OneLake e mantiene aggiornato lo schema SQL. Per informazioni dettagliate sul funzionamento di questa sincronizzazione e sui fattori che influiscono sulla latenza di sincronizzazione, vedere Considerazioni sulle prestazioni degli endpoint di analisi SQL.
Ripetizione del provisioning
Se l'attivazione dell'endpoint di analisi SQL fallisce durante la creazione di un lakehouse, è possibile riprovare direttamente dall'interfaccia utente del lakehouse senza ricreare il lakehouse.
Nota
Il reprovisioning può comunque fallire, proprio come il provisioning iniziale. Se i tentativi ripetuti hanno esito negativo, contattare il supporto tecnico.
Limitazioni
L'endpoint di analisi SQL condivide il motore con Fabric Data Warehouse e condivide le stesse limitazioni. Per l'elenco completo, vedere Limitazioni dell'endpoint di analisi SQL.
Contenuto correlato
- Meglio insieme: Lakehouse e Warehouse
- Eseguire query sull'endpoint o sul data warehouse di analisi SQL
- Considerazioni sulle prestazioni degli endpoint di SQL analitica
- Sicurezza di OneLake per gli endpoint di analisi SQL
- Autorizzazioni granulari di SQL
- Ruoli e autorizzazioni dell'area di lavoro
- Panoramica di Lakehouse