Condividi tramite


Giugno 2022

Queste funzionalità e i miglioramenti della piattaforma Azure Databricks sono stati rilasciati a giugno 2022.

Nota

Le versioni vengono rilasciate in modo scaglionato. L'account Azure Databricks potrebbe non essere aggiornato fino a una settimana o più dopo la data di rilascio iniziale.

ALTER TABLE modifiche alle autorizzazioni per il Catalogo Unity

30 giugno 2022

In Unity Catalog è stato eseguito un aggiornamento dei privilegi necessari per eseguire istruzioni ALTER TABLE. In precedenza, OWNERSHIP di una tabella era necessario per eseguire tutte le istruzioni ALTER TABLE. Ora OWNERSHIP nella tabella è necessario solo per modificare il proprietario, concedere autorizzazioni per la tabella, modificare il nome della tabella e modificare una definizione di visualizzazione. Per tutte le altre operazioni sui metadati di una tabella , ad esempio l'aggiornamento di commenti, proprietà o colonne, è possibile apportare aggiornamenti se si dispone dell'autorizzazione MODIFY per la tabella.

Vedere ALTER TABLE e ALTER TABLE.

Il supporto esteso di Databricks Runtime 6.4 raggiunge la fine del supporto

30 giugno 2022

Il supporto per Databricks Runtime 6.4 Extended è terminato il 30 giugno. Consulta Cicli di vita del supporto di Databricks.

Termine del supporto per Databricks Runtime serie 10.2

22 giugno 2022

Il supporto per Databricks Runtime 10.2 e Databricks Runtime 10.2 per Machine Learning è terminato il 22 giugno. Consulta i Cicli di vita del supporto di Databricks.

Driver ODBC di Databricks 2.6.24

22 giugno 2022

È stata rilasciata la versione 2.6.24 del driver ODBC di Databricks (download). Questa versione aggiunge il supporto per configurare la conversione di query nella sintassi CTAS, consente agli utenti di eseguire l'override nel connettore SQL_ATTR_QUERY_TIMEOUT e aggiorna la libreria OpenSSL.

Questa versione risolve anche i problemi seguenti:

  • Il connettore non consente l'uso dei certificati server e intermedi che non dispongono di una voce di punti di distribuzione CRL (CDP).
  • Quando si usa un proxy, il connettore imposta il nome host non corretto per l'indicazione del nome del server SSL (SNI).

Il provider Databricks Terraform è ora disponibile in GA

22 giugno 2022

Il provider Databricks Terraform è ora disponibile in generale.

Terraform consente di automatizzare completamente la distribuzione per le piattaforme dati con i processi IaC (Infrastructure-as-Code) esistenti di Terraform.

È possibile usare il provider Databricks Terraform per definire gli asset nelle aree di lavoro di Azure Databricks, ad esempio cluster e processi, e per applicare il controllo di accesso tramite autorizzazioni per utenti, gruppi e entità servizio.

Il provider Databricks Terraform fornisce un audit trail completo delle distribuzioni. È possibile usare il provider Databricks Terraform come backbone per le strategie di ripristino di emergenza e continuità aziendale.

Il provider Databricks Terraform supporta anche Unity Catalog (anteprima), consentendo di distribuire questa funzionalità di governance chiave con facilità e scalabilità.

Databricks Runtime 11.0 e 11.0 ML sono disponibili a livello generale; 11.0 Photon è anteprima pubblica

16 giugno 2022

Databricks Runtime 11.0 e Databricks Runtime 11.0 ML sono ora disponibili. Databricks Runtime 11.0 Photon è disponibile in anteprima pubblica.

Vedere Databricks Runtime 11.0 (EoS) e Databricks Runtime 11.0 per Machine Learning (EoS).

Passare alla directory di lavoro predefinita dei Repos in Databricks Runtime 11.0

16 giugno 2022

Per impostazione predefinita, la directory di lavoro Python per i notebook in un repo è la directory che contiene i notebook. Ad esempio, anziché /databricks/driver, la directory di lavoro predefinita è /Workspace/Repos/<user>/<repo>/<path-to-notebook>. In questo modo, l'importazione e la lettura da File in Repository possono funzionare per impostazione predefinita nei cluster Databricks Runtime 11.0.

Ciò significa anche che l'operazione di scrittura nella directory di lavoro corrente fallisce con il messaggio di errore Read-only filesystem. Se si vuole continuare a scrivere nel file system locale per un cluster, scrivere in /tmp/<filename> o /databricks/driver/<filename>.

Termine del supporto di Databricks Runtime serie 10.1

14 giugno 2022

Il supporto per Databricks Runtime 10.1 e Databricks Runtime 10.1 per Machine Learning è terminato il 14 giugno. Consulta i Cicli di vita del supporto di Databricks.

DLT supporta ora il tipo SCD 2

13-21 giugno 2022: Versione 3.74

I pipeline DLT possono ora usare il tipo SCD 2 per acquisire le modifiche ai dati sorgente e conservare il registro completo degli aggiornamenti ai record. In questo modo viene migliorato il supporto DLT esistente per il tipo 1 SCD. Consulta LE API DI APPLY CHANGES: Semplifica la cattura dei dati delle modifiche (Change Data Capture) con DLT.

Creare pipeline DLT direttamente nell'interfaccia utente di Azure Databricks

13-21 giugno 2022: Versione 3.74

È ora possibile creare una pipeline DLT dal menu Crea sulla barra laterale dell'interfaccia utente di Azure Databricks.

Selezionare il canale DLT quando si crea o si modifica una pipeline

13-21 giugno 2022: Versione 3.74

È ora possibile configurare il canale per la pipeline DLT con la finestra di dialogo Crea pipeline e la finestra di dialogo Modifica impostazioni pipeline. In precedenza, la configurazione del canale richiedeva la modifica delle impostazioni nella configurazione JSON della pipeline.

Comunicare tra le attività dei tuoi job di Azure Databricks utilizzando i valori delle attività

13 giugno 2022

È ora possibile comunicare i valori tra le attività nei processi di Azure Databricks con i valori delle attività . Ad esempio, è possibile usare i valori delle attività per passare l'output di un modello di Machine Learning alle attività downstream nella stessa esecuzione del processo. Vedere sottoutilità taskValues (dbutils.jobs.taskValues)..

Abilitare il passaggio dell’account nell’interfaccia utente di Databricks

8 giugno 2022

Se gli utenti appartengono a più account, possono ora passare da un account all'altro nell'interfaccia utente di Databricks. Per usare il selettore dell'account, fare clic sull'indirizzo email nella parte superiore dell'interfaccia utente di Databricks, quindi passare il mouse su Cambia account. Selezionare quindi l'account a cui passare.