Dela via


Vad är på gång?

Lär dig mer om funktioner och beteendeändringar i kommande Azure Databricks-versioner.

Förbättringar av användargränssnittet för frågeprofil

Användargränssnittet för frågeprofil uppdateras för att förbättra användbarheten och ge snabbare åtkomst till viktiga insikter.

  • sammanfattningspanel innehåller nyckelmått, en minimerad förhandsversion av frågeprofilen och snabblänkar till större delar av frågeprofilsidan.
  • En ny topoperatorer panelen visar de mest resursintensiva operatorerna med filtreringsalternativ och diagramvymarkeringar.
  • Den uppdaterade layouten är utformad för att förbättra läsbarheten och navigeringen från sammanfattningsmått till detaljerade insikter.
  • Ytterligare förbättringar inkluderar nyckelordsbaserad nodmarkering, en utökad körningslista och förbättringar av arbetsflödet för frågeprestandaanalys.

Beteendeförändring för alternativet automatisk inläsning av inkrementell kataloglista

Anmärkning

Alternativet Automatinläsare cloudFiles.useIncrementalListing är föråldrat. Även om den här anteckningen beskriver en ändring av alternativens standardvärde och hur du fortsätter att använda det efter den här ändringen rekommenderar Databricks att du ersätter användningen av det här alternativet med filmeddelandeläge.

I en kommande version av Databricks Runtime kommer värdet för det inaktuella Auto Loader-alternativet cloudFiles.useIncrementalListing att som standard sättas till false. Om du anger det här värdet till false gör att Auto Loader utför en fullständig kataloglista varje gång det körs. För närvarande är standardvärdet för alternativet cloudFiles.useIncrementalListingauto, vilket instruerar Auto Loader att göra ett bästa försök att identifiera om en inkrementell lista kan användas med en katalog.

Om du vill fortsätta använda funktionen för inkrementell lista anger du alternativet cloudFiles.useIncrementalListing till auto. När du anger det här värdet till autogör Auto Loader ett bra försök att göra en fullständig lista en gång var sjunde inkrementell lista, vilket matchar beteendet för det här alternativet före den här ändringen.

Mer information om alternativ för kataloglistning i Auto Loader finns i alternativ för Auto Loader.

Serverlös beräkning för att få Scala SDK-stöd för tjänstautentiseringsuppgifter

En uppdatering av serverlös beräkning stöder Unity Catalog-styrd autentisering till externa molntjänster med tjänstautentiseringsuppgifter med Scala SDK. Scala-stödet för autentisering med tjänstens huvudnamn, som redan är tillgängligt i Databricks Runtime 16.2 och senare, lägger till stödet för autentisering med autentiseringsuppgifter för tjänsten med hjälp av Python SDK. Se Hantera åtkomst till externa molntjänster med tjänstautentiseringsuppgifter.

Beteendeförändring när datauppsättningsdefinitioner tas bort från en DLT-pipeline

En kommande version av DLT ändrar beteendet när en materialiserad vy eller en strömmande tabell tas bort från en pipeline. Med den här ändringen tas den borttagna materialiserade vyn eller strömningstabellen inte bort automatiskt när nästa pipelineuppdatering körs. I stället kan du använda kommandot DROP MATERIALIZED VIEW för att ta bort en materialiserad vy eller kommandot DROP TABLE för att ta bort en strömmande tabell. När ett objekt har släppts återställs inte objektet automatiskt när du kör en pipelineuppdatering. Ett nytt objekt skapas om en materialiserad vy eller en strömmande tabell med samma definition läggs till i pipelinen igen. Du kan dock återställa ett objekt med hjälp av kommandot UNDROP.

Lägre kostnad och mer kontroll över prestanda jämfört med kostnaden för din serverlösa beräkning för arbetsflödesarbetsbelastningar

Förutom de automatiska prestandaoptimeringar som stöds för närvarande ger förbättringar av optimeringsfunktionerna för serverlös beräkning för arbetsflöden mer kontroll över om arbetsbelastningar optimeras för prestanda eller kostnad. Mer information finns i Kostnadsbesparingar för serverlös beräkning för notebooks, jobb och pipelines.

Ändringar i serverlös beräkningsarbetsbelastningsatribution

För närvarande kan din fakturerbara användningssystemtabell innehålla serverlösa SKU-faktureringsposter med null-värden för run_as, job_id, job_run_idoch notebook_id. Dessa poster representerar kostnader som är associerade med delade resurser som inte direkt kan tillskrivas någon viss arbetsbelastning.

För att förenkla kostnadsrapportering tillskriver Databricks snart dessa delade kostnader till de specifika arbetsbelastningar som de har ådragit sig. Du ser inte längre faktureringsposter med null-värden i fält för arbetsbelastningsidentifierare. När du ökar din användning av serverlös beräkning och lägger till fler arbetsbelastningar minskar andelen av dessa delade kostnader på din faktura eftersom de delas mellan fler arbetsbelastningar.

Mer information om övervakning av serverlösa beräkningskostnader finns i Övervaka kostnaden för serverlös beräkning.

Tidslinje för slut på support för äldre instrumentpaneler

  • 7 april 2025: Det officiella stödet för den äldre versionen av instrumentpaneler upphör. Endast kritiska säkerhetsproblem och avbrott i tjänsten kommer att åtgärdas.
  • 3 november 2025: Databricks kommer att börja arkivera föråldrade instrumentpaneler som inte har använts under de senaste sex månaderna. Arkiverade instrumentpaneler kommer inte längre att vara tillgängliga och arkiveringsprocessen sker löpande. Åtkomsten till aktivt använda instrumentpaneler förblir oförändrad.

Databricks samarbetar med kunder för att utveckla migreringsplaner för aktiva äldre instrumentpaneler efter den 3 november 2025.

För att underlätta övergången till AI/BI-instrumentpaneler är uppgraderingsverktyg tillgängliga i både användargränssnittet och API:et. Anvisningar om hur du använder det inbyggda migreringsverktyget i användargränssnittet finns i Klona en äldre instrumentpanel till en AI/BI-instrumentpanel. För självstudier om hur du skapar och hanterar instrumentpaneler med hjälp av REST-API:et på Använda Azure Databricks-API:er för att hantera instrumentpaneler.

Fältet sourceIpAddress i granskningsloggar innehåller inte längre ett portnummer

På grund av en bugg innehåller vissa granskningsloggar för auktorisering och autentisering ett portnummer utöver IP-adressen i sourceIPAddress fältet (till exempel "sourceIPAddress":"10.2.91.100:0"). Portnumret, som loggas som 0, ger inget verkligt värde och är inkonsekvent med resten av Databricks-granskningsloggarna. För att förbättra konsekvensen av granskningsloggar planerar Databricks att ändra formatet på IP-adressen vid dessa granskningshändelser. Den här ändringen kommer gradvis att lanseras från och med början av augusti 2024.

Om granskningsloggen innehåller en sourceIpAddress av 0.0.0.0kan Databricks sluta logga den.