Databricks Runtime 11.2 (EoS)
Anteckning
Stödet för den här Databricks Runtime-versionen har upphört. Information om slutdatumet för support finns i Historik över supportens slut. Alla Databricks Runtime-versioner som stöds finns i Databricks Runtime-versionsanteckningar och kompatibilitet.
Följande versionsinformation handlar om Databricks Runtime 11.2, som baseras på Apache Spark 3.3.0. Databricks släppte den här versionen i september 2022.
Nya funktioner och förbättringar
- Ändra till ALTER TABLE behörigheter i tabellåtkomstkontroller (tabell-ACL:er)
- Dynamisk beskärning för MERGE INTO
- Förbättrad konfliktidentifiering i Delta med dynamisk filrensning
- Nytt kort för integrering med öppen källkod i DSE/SQL-startsidor
- CONVERT TO DELTA förbättringar av partitionsidentifiering
- Tabellscheman stöder nu standardvärden för kolumner
- Nya geospatiala H3-funktioner
- Ny beroende av Databricks Runtime
- Ta med din egen nyckel: Kryptering av Git-autentiseringsuppgifter
- SQL: Ny mängdfunktion any_value
- Databricks Utilities-filsystemkommandon tillåts på fler klustertyper
- CREATE-behörigheter kan nu beviljas på metaarkiv för Unity Catalog
- Optimerade skrivningar för opartitionerade tabeller i Photon-aktiverade kluster
- Photon-stöd för fler datakällor
- SQL: ALTER SHARE har nu stöd för START VERSION
Ändra till ALTER TABLE behörigheter i tabellåtkomstkontroller (tabell-ACL:er)
Nu behöver användarna bara MODIFY
behörighet för att ändra en tabells schema eller egenskaper med ALTER TABLE
. Ägarskap krävs fortfarande för att bevilja behörigheter för en tabell, ändra dess ägare och plats eller byta namn på den. Den här ändringen gör behörighetsmodellen för tabell-ACL:er konsekvent med Unity Catalog. Se ALTER TABLE.
Dynamisk beskärning för MERGE INTO
När du använder Photon-aktiverad beräkning MERGE INTO
använder du nu dynamisk fil- och partitionsrensning när det är lämpligt för att förbättra prestanda, till exempel när en liten källtabell sammanfogas till en större måltabell.
Förbättrad konfliktidentifiering i Delta med dynamisk filrensning
När du söker efter potentiella konflikter under incheckningar tar konfliktidentifieringen nu hänsyn till filer som beskärs av dynamisk filrensning, men som inte skulle ha beskärts av statiska filter. Detta resulterar i ett minskat antal misslyckade transaktioner.
Nytt kort för integrering med öppen källkod i DSE/SQL-startsidor
Introduktion till det nya kortet "Integrering av öppen källkod" på DSE/SQL-startsidorna som visar integreringsalternativ med öppen källkod, till exempel DLT och dbt core.
förbättringar av CONVERT TO DELTA partitionsidentifiering
CONVERT TO DELTA
härleder automatiskt partitionsschemat för Parquet-tabeller som är registrerade i Hive-metaarkivet eller Unity Catalog, vilket eliminerar behovet av att ange PARTITIONED BY
-satsen.
CONVERT TO DELTA
använder partitionsinformation från metaarkivet för att identifiera filer för en Parquet-tabell i stället för att visa hela bassökvägen, vilket säkerställer att borttagna partitioner inte läggs till i Delta-tabellen.
Se Konvertera till Delta Lake.
Tabellscheman stöder nu standardvärden för kolumner
Tabellscheman stöder nu inställning av standardvärden för kolumner.
INSERT
, UPDATE
, och DELETE
kommandon för dessa kolumner kan referera till dessa värden med nyckelordet DEFAULT
. Till exempel kommer CREATE TABLE t (id INT, data INT DEFAULT 42) USING PARQUET
följt av INSERT INTO t VALUES (1, DEFAULT)
att lägga till raden (1, 42)
. Det här beteendet stöds för CSV-, JSON-, Orc- och Parquet-datakällor.
Nya geospatiala H3-funktioner
Nu kan du använda 28 nya inbyggda H3-uttryck för geospatial bearbetning i Photon-aktiverade kluster som är tillgängliga i SQL, Scala och Python. Se H3-geospatiala funktioner.
Nytt Databricks Runtime-beroende
Databricks Runtime är nu beroende av H3 Java-biblioteket version 3.7.0.
Ta med din egen nyckel: Kryptering av Git-autentiseringsuppgifter
Du kan använda Azure Key Vault för att kryptera en personlig Åtkomsttoken för Git (PAT) eller andra Git-autentiseringsuppgifter.
Se Konfigurera Databricks Git-mappar (Repos).
SQL: Ny aggregatfunktion any_value
Den nya any_value
mängdfunktionen returnerar ett slumpmässigt värde expr
för för en grupp rader. Se any_value
aggregatfunktion.
Databricks Utilities-filsystemkommandon tillåts på fler klustertyper
dbutils.fs
kommandon (förutom monteringsrelaterade kommandon) tillåts nu på användarisoleringskluster med Unity Catalog, samt äldre ACL-kluster för tabeller när användaren har ANY FILE
behörighet.
CREATE-behörigheter kan nu beviljas på metaarkiv för Unity Catalog
CREATE CATALOG, CREATE EXTERNAL LOCATION, CREATE SHARE, CREATE RECIPIENToch CREATE PROVIDER-privilegier kan nu beviljas i Unity Catalog-metaarkiv.
Optimerade skrivningar för opartitionerade tabeller i Photon-aktiverade kluster
Hanterade tabeller i Unity Catalog sparar nu automatiskt filer med en väljusterad storlek från opartitionerade tabeller för att förbättra frågehastigheten och optimera prestanda.
Photon-stöd för fler datakällor
Photon stöder nu fler datakällor, inklusive CSV och Avro, och är också kompatibelt med cachelagrade dataramar. Tidigare innebar genomsökning av dessa datakällor att hela frågan inte kunde fotoniseras, oavsett frågans operatorer eller uttryck. Nu kan frågor som söker igenom dessa datakällor fotoniseras, vilket låser upp betydande svarstider och TCO-förbättringar.
Den här funktionen är aktiverad som standard av konfigurationen spark.databricks.photon.photonRowToColumnar.enabled
.
Begränsningar:
- Scheman med kapslade typer stöds inte (t.ex. matriser, kartor och structs) i den här versionen.
- ORC-, RDD-, Kinesis-, Kafka- och EventHub-källor stöds inte i den här versionen.
SQL: ALTER SHARE stöder nu START-VERSION
Kommandot ALTER SHARE
har nu stöd START VERSION
för , vilket gör det möjligt för leverantörer att dela data från en viss tabellversion. Se ALTER SHARE.
Biblioteksuppgraderingar
- Uppgraderade Python-bibliotek:
- distlib från 0.3.4 till 0.3.5
- filelock från 3.7.1 till 3.8.0
- plotly från 5.8.2 till 5.9.0
- protobuf från 4.21.2 till 4.21.5
- Uppgraderade R-bibliotek:
- kvast från 0.8.0 till 1.0.0
- bslib från 0.3.1 till 0.4.0
- callr från 3.7.0 till 3.7.1
- caret från 6.0-92 till 6.0-93
- dbplyr från 2.2.0 till 2.2.1
- devtools från 2.4.3 till 2.4.4
- utvärdera från 0,15 till 0,16
- Farver från 2.1.0 till 2.1.1
- fontawesome från 0.2.2 till 0.3.0
- framtida från 1.26.1 till 1.27.0
- generiska läkemedel från 0.1.2 till 0.1.3
- gert från 1.6.0 till 1.7.0
- globals från 0.15.1 till 0.16.0
- googlesheets4 från 1.0.0 till 1.0.1
- hardhat från 1.1.0 till 1.2.0
- htmltools från 0.5.2 till 0.5.3
- parallellt från 1.32.0 till 1.32.1
- pelare från 1.7.0 till 1.8.0
- pkgload från 1.2.4 till 1.3.0
- processx från 3.6.1 till 3.7.0
- Rcpp från 1.0.8.3 till 1.0.9
- recept från 0.2.0 till 1.0.1
- rlang från 1.0.2 till 1.0.4
- roxygen2 från 7.2.0 till 7.2.1
- RSQLite från 2.2.14 till 2.2.15
- sass från 0.4.1 till 0.4.2
- glänsande från 1.7.1 till 1.7.2
- stringi från 1.7.6 till 1.7.8
- tibble från 3.1.7 till 3.1.8
- tidyverse från 1.3.1 till 1.3.2
- timeDate från 3043.102 till 4021.104
- xfun från 0,31 till 0,32
- Uppgraderade Java-bibliotek:
- org.apache.orc.orc-core från 1.7.4 till 1.7.5
- org.apache.orc.orc-mapreduce från 1.7.4 till 1.7.5
- org.apache.orc.orc-shims från 1.7.4 till 1.7.5
Apache Spark
Databricks Runtime 11.2 innehåller Apache Spark 3.3.0. Den här versionen innehåller alla Spark-korrigeringar och förbättringar som ingår i Databricks Runtime 11.1 (EoS) samt följande ytterligare felkorrigeringar och förbättringar som gjorts i Spark:
- [SPARK-40151] [WARMFIX][sc-109002][SC-108809][sql] Returnera bredare ANSI-intervalltyper från percentilfunktionerna
- [SPARK-40054] [SQL] Återställa syntaxen för felhantering för try_cast()
- [SPARK-39489] [CORE] Förbättra JsonProtocol-prestanda för händelseloggning med hjälp av Jackson i stället för Json4s
-
[SPARK-39319] [CORE][sql] Gör frågekontexter som en del av
SparkThrowable
- [SPARK-40085] [SQL] Använd INTERNAL_ERROR felklass i stället för IllegalStateException för att indikera buggar
- [SPARK-40001] [SQL] Skapa NULL-skrivningar till JSON DEFAULT-kolumner som skriver "null" till lagring
- [SPARK-39635] [SQL] Stöd för drivrutinsmått i API för anpassade mått för DS v2
- [SPARK-39184] [SQL] Hantera underdimensionerad resultatmatris i datum- och tidsstämpelsekvenser
-
[SPARK-40019] [SQL] Refaktorkommentaren för ArrayType innehållerNull och omstrukturerar missförståndslogikerna i collectionOperators uttryck om
containsNull
- [SPARK-39989] [SQL] Stöd för uppskattning av kolumnstatistik om det är ett vikbart uttryck
- [SPARK-39926] [SQL] Åtgärda fel i kolumnen STANDARDstöd för icke-vektoriserade Parquet-genomsökningar
- [SPARK-40052] [SQL] Hantera direkt bytebuffertar i VectorizedDeltaBinaryPackedReader
- [SPARK-40044] [SQL] Åtgärda målintervalltypen i gjutna spillfel
- [SPARK-39835] [SQL] Åtgärda att EliminateSorts tar bort global sortering under den lokala sorteringen
- [SPARK-40002] [SQL] Tryck inte ned gränsen genom fönstret med hjälp av ntile
- [SPARK-39976] [SQL] ArrayIntersect ska hantera null i vänster uttryck korrekt
- [SPARK-39985] [SQL] Aktivera implicita standardkolumnvärden i infogningar från DataFrames
- [SPARK-39776] [SQL] JOIN utförlig sträng bör inkludera Join-typ
- [SPARK-38901] [SQL] DS V2 stöder nedtryckning av olika funktioner
- [SPARK-40028] [SQL][uppföljning] Förbättra exempel på strängfunktioner
- [SPARK-39983] [CORE][sql] Cacha inte ospecificerade broadcast-relationer på drivrutinen
-
[SPARK-39812] [SQL] Förenkla kod som konstruerar
AggregateExpression
medtoAggregateExpression
- [SPARK-40028] [SQL] Lägga till binära exempel för stränguttryck
- [SPARK-39981] [SQL] Utlösa undantaget QueryExecutionErrors.castingCauseOverflowErrorInTableInsert i Cast
- [SPARK-40007] [PYTHON][sql] Lägg till "läge" i funktioner
- [SPARK-40008] [SQL] Stöd för gjutning av integraler till ANSI-intervall
- [SPARK-40003] [PYTHON][sql] Lägg till "median" i funktioner
- [SPARK-39952] [SQL] SaveIntoDataSourceCommand bör återskapa resultatrelationen
- [SPARK-39951] [SQL] Uppdatera Parquet V2-kolumnkontroll för kapslade fält
- [SPARK-33236] [shuffle] Bakåtportering till DBR 11.x: Aktivera push-baserad shuffle-tjänst för lagring av tillstånd i DATABAS på NM-nivå för arbete som bevarar omstart
- [SPARK-39836] [SQL] Förenkla V2ExpressionBuilder genom att extrahera vanlig metod.
-
[SPARK-39873] [SQL] Ta bort
OptimizeLimitZero
och sammanfoga den tillEliminateLimits
- [SPARK-39961] [SQL] DS V2 push-down översätter Cast om casten är säker
-
[SPARK-39872] [SQL] Ändra för att använda
BytePackerForLong#unpack8Values
med API för array-inmatning iVectorizedDeltaBinaryPackedReader
-
[SPARK-39858] [SQL] Ta bort onödiga
AliasHelper
ellerPredicateHelper
för vissa regler - [SPARK-39900] [SQL] Åtgärda partiella eller negerade villkor i predikatpushdown för binära format
- [SPARK-39904] [SQL] Byt namn på inferDate till prefersDate och klargör semantiken för alternativet i CSV-datakällan
- [SPARK-39958] [SQL] Lägg till varningslogg när det inte går att läsa in anpassade måttobjekt
- [SPARK-39932] [SQL] WindowExec bör rensa den slutliga partitionsbufferten
- [SPARK-37194] [SQL] Undvik onödig sortering i v1-skrivning om det inte är en dynamisk partition
- [SPARK-39902] [SQL] Lägg till genomsökningsinformation i spark plans genomsökningsnod i SparkUI
- [SPARK-39865] [SQL] Visa korrekta felmeddelanden om spillfelen i tabellinfogningen
- [SPARK-39940] [SS] Uppdatera katalogtabellen för strömningsfråga med DSv1-utgång.
-
[SPARK-39827] [SQL] Använd felklassen
ARITHMETIC_OVERFLOW
vid int overflow iadd_months()
- [SPARK-39914] [SQL] Lägg till DS V2-filter i V1-filterkonvertering
- [SPARK-39857] [SQL] Manuell DBR 11.x-backport; V2ExpressionBuilder använder fel LiteralValue-datatyp för In predicate #43454
- [SPARK-39840] [SQL][python] Extrahera PythonArrowInput som en parallell till PythonArrowOutput
- [SPARK-39651] [SQL] Beskär filtervillkor om jämförelse med rand är deterministiskt
- [SPARK-39877] [PYTHON] Lägga till unpivot till PySpark DataFrame API
- [SPARK-39909] [SQL] Kontrollera organiseringen av push down-information för JDBCV2Suite
- [SPARK-39834] [SQL][ss] Inkludera ursprungsstatistik och begränsningar för LogicalRDD om det kommer från DataFrame
- [SPARK-39849] [SQL] Dataset.as(StructType) fyller saknade nya kolumner med null-värde
- [SPARK-39860] [SQL] Fler uttryck bör utöka predikatet
- [SPARK-39823] [SQL][python] Byt namn på Dataset.as som Dataset.to och lägg till DataFrame.to i PySpark
- [SPARK-39918] [SQL][minor] Ersätt formuleringen "un-comparable" med "incomparable" i felmeddelandet
- [SPARK-39857] [SQL][3.3] V2ExpressionBuilder använder fel LiteralValue-datatyp för I predikat
- [SPARK-39862] [SQL] Manuell backport för PR 43654 för DBR 11.x: Uppdatera SQLConf.DEFAULT_COLUMN_ALLOWED_PROVIDERS för att tillåta/neka ALTER TABLE ... Lägg till COLUMN-kommandona separat.
- [SPARK-39844] [SQL] Manuell backport för PR 43652 för DBR 11.x
-
[SPARK-39899] [SQL] Åtgärda överföring av meddelandeparametrar till
InvalidUDFClassException
- [SPARK-39890] [SQL] Gör till TakeOrderedAndProjectExec ärver AliasAwareOutputOrdering
- [SPARK-39809] [PYTHON] Stöd för CharType i PySpark
- [SPARK-38864] [SQL] Lägg till unpivot/melt i datauppsättningen
- [SPARK-39864] [SQL] Registrera ExecutionListenerBus lazily
- [SPARK-39808] [SQL] Stöd för aggregeringsfunktionen LÄGE
-
[SPARK-39875] [SQL] Ändra
protected
metod i slutklassen tillprivate
ellerpackage-visible
- [SPARK-39731] [SQL] Åtgärda problem i CSV- och JSON-datakällor vid parsning av datum i formatet "ååååMMdd" med principen CORRECTED time parser
- [SPARK-39805] [SS] Föråldra Trigger.Once och Främja Trigger.AvailableNow
- [SPARK-39784] [SQL] Placera literalvärden till höger om datakällans filter efter översättning av Catalyst Expression till datakällans filter
- [SPARK-39672] [SQL][3.1] Åtgärda borttagning av projekt före filter med korrelerad underfråga
-
[SPARK-39552] [SQL] Förena v1 och v2
DESCRIBE TABLE
- [SPARK-39810] [SQL] Catalog.tableExists ska hantera kapslat namnområde
- [SPARK-37287] [SQL] Hämta dynamisk partition och bucketsortering från FileFormatWriter
- [SPARK-39469] [SQL] För CSV-schemainferens, härleda datumtypen
- [SPARK-39148] [SQL] DS V2-aggregeringens nedpressning kan fungera med OFFSET eller LIMIT
- [SPARK-39818] [SQL] Åtgärda bugg i ARRAY, STRUCT, MAP-typer med STANDARDvärden med NULL-fält
- [SPARK-39792] [SQL] Lägg till DecimalDivideWithOverflowCheck för decimalgenomsnitt
-
[SPARK-39798] [SQL] Ersätt
toSeq.toArray
med.toArray[Any]
i konstruktorn avGenericArrayData
- [SPARK-39759] [SQL] Implementera listIndexes i JDBC (H2-dialekt)
-
[SPARK-39385] [SQL] Stöd för nedtryckning
REGR_AVGX
ochREGR_AVGY
- [SPARK-39787] [SQL] Använd felklassen i parsningsfelet för funktionen to_timestamp
- [SPARK-39760] [PYTHON] Stöd för Varchar i PySpark
- [SPARK-39557] [SQL] Manuell backport till DBR 11.x: Stöd för ARRAY, STRUCT, MAP-typer som DEFAULT-värden
- [SPARK-39758] [SQL][3.3] Åtgärda NPE från regex-funktionerna för ogiltiga mönster.
- [SPARK-39749] [SQL] ANSI SQL-läge: Använd oformaterad strängrepresentation vid konvertering av Decimal till sträng
- [SPARK-39704] [SQL] Implementera createIndex &dropIndex & indexExists i JDBC (H2-dialekt)
-
[SPARK-39803] [SQL] Använd
LevenshteinDistance
i stället förStringUtils.getLevenshteinDistance
- [SPARK-39339] [SQL] Stöd för TidsstämpelNTZ-typ i JDBC-datakälla
- [SPARK-39781] [SS] Lägg till stöd för att tillhandahålla max_open_files till rocksdb state store-providern
- [SPARK-39719] [R] Implementera databaseExists/getDatabase i SparkR stöder 3L-namnrymd
- [SPARK-39751] [SQL] Byt namn på måttet för hash-aggregerade nyckelavsökningar
- [SPARK-39772] [SQL]-namnområdet ska vara null när databasen är null i de gamla konstruktorerna
- [SPARK-39625] [SPARK-38904][sql] Lägg till Dataset.as(StructType)
- [SPARK-39384] [SQL] Kompilera inbyggda linjära regressionsaggregatfunktioner för JDBC-dialekt
- [SPARK-39720] [R] Implementera tableExists/getTable i SparkR för 3L-namnrymd
-
[SPARK-39744] [SQL]
REGEXP_INSTR
Lägg till funktionen - [SPARK-39716] [R] Få currentDatabase/setCurrentDatabase/listCatalogs i SparkR att stödja 3L-namespace
-
[SPARK-39788] [SQL] Byt
catalogName
namn tilldialectName
förJdbcUtils
- [SPARK-39647] [CORE] Registrera kören med ESS innan du registrerar BlockManager
-
[SPARK-39754] [CORE][sql] Ta bort oanvända
import
eller onödiga{}
-
[SPARK-39706] [SQL] Ange kolumnen som saknas med defaultValue som konstant i
ParquetColumnVector
- [SPARK-39699] [SQL] Gör CollapseProject smartare när det gäller att skapa samlingsuttryck
-
[SPARK-39737] [SQL]
PERCENTILE_CONT
ochPERCENTILE_DISC
bör ha stöd för aggregeringsfilter - [SPARK-39579] [SQL][python][R] Gör ListFunctions/getFunction/functionExists kompatibel med 3-lagers namnrymd
- [SPARK-39627] [SQL] JDBC V2-pushdown bör förena kompilerings-API:et
- [SPARK-39748] [SQL][ss] Inkludera den logiska ursprungsplanen för LogicalRDD om den kommer från DataFrame
- [SPARK-39385] [SQL] Översätt linjära regressionsaggregatfunktioner för nedtryckning
-
[SPARK-39695] [SQL]
REGEXP_SUBSTR
Lägg till funktionen - [SPARK-39667] [SQL] Lägg till en annan lösning när det inte finns tillräckligt med minne för att skapa och sända tabellen
-
[SPARK-39666] [ES-337834][sql] Använd UnsafeProjection.create för att respektera
spark.sql.codegen.factoryMode
i ExpressionEncoder - [SPARK-39643] [SQL] Förhindra underfrågor i STANDARD-värden
- [SPARK-38647] [SQL] Lägg till SupportsReportOrdering-mix i gränssnittet för genomsökning (DataSourceV2)
- [SPARK-39497] [SQL] Förbättra analysundantaget för saknad nyckelkolumn i kartan.
- [SPARK-39661] [SQL] Undvik att skapa onödig SLF4J-loggning
- [SPARK-39713] [SQL] ANSI-läge: Lägg till förslag på att använda try_element_at för INVALID_ARRAY_INDEX fel
- [SPARK-38899] [SQL]DS V2 stöder nedtryckning av datetime-funktioner
-
[SPARK-39638] [SQL] Ändra till att använda
ConstantColumnVector
för att lagra partitionskolumner iOrcColumnarBatchReader
-
[SPARK-39653] [SQL]
ColumnVectorUtils#populate(WritableColumnVector, InternalRow, int)
Rensa frånColumnVectorUtils
-
[SPARK-39231] [SQL] Använd
ConstantColumnVector
i ställetOn/OffHeapColumnVector
för att lagra partitionskolumner iVectorizedParquetRecordReader
- [SPARK-39547] [SQL] V2SessionCatalog bör inte utlösa NoSuchDatabaseException i loadNamspaceMetadata
- [SPARK-39447] [SQL] Undvik AssertionError i AdaptiveSparkPlanExec.doExecuteBroadcast
- [SPARK-39492] [SQL] Arbeta om MISSING_COLUMN
- [SPARK-39679] [SQL] TakeOrderedAndProjectExec ska respektera barns utdataordning
- [SPARK-39606] [SQL] Använda underordnad statistik för att uppskatta orderoperatorn
- [SPARK-39611] [PYTHON][ps] Åtgärda fel alias i array_ufunc
- [SPARK-39656] [SQL][3.3] Åtgärda fel namnrymd i DescribeNamespaceExec
- [SPARK-39675] [SQL] Växla konfigurationen "spark.sql.codegen.factoryMode" från testsyfte till internt syfte
- [SPARK-39139] [SQL] DS V2 stöder push-nedtryckning av DS V2 UDF
- [SPARK-39434] [SQL] Ange frågekontext för körningsfel när matrisindexet är utanför avgränsningen
- [SPARK-39479] [SQL] DS V2 stöder optimering av matematiska funktioner (icke-ANSI)
-
[SPARK-39618] [SQL]
REGEXP_COUNT
Lägg till funktionen - [SPARK-39553] [CORE] Mångtrådig avregistrering av shuffle ska inte orsaka NPE när du använder Scala 2.13
- [SPARK-38755] [PYTHON][3.3] Lägg till fil för att åtgärda saknade generella pandas-funktioner
- [SPARK-39444] [SQL] Lägg till OptimizeSubqueries i listan nonExcludableRules
- [SPARK-39316] [SQL] Sammanfoga PromotePrecision och CheckOverflow till decimal binär aritmetik
- [SPARK-39505] [Användargränssnitt] Escape-logginnehåll renderat i användargränssnittet
-
[SPARK-39448] [SQL] Lägg till
ReplaceCTERefWithRepartition
inonExcludableRules
listan - [SPARK-37961] [SQL] Åsidosätt maxRows/maxRowsPerPartition för vissa logiska operatorer
- [SPARK-35223] Återställ Lägg till IssueNavigationLink
- [SPARK-39633] [SQL] Stöd för tidsstämpel i sekunder för TimeTravel med hjälp av dataramsalternativ
- [SPARK-38796] [SQL] Uppdatera dokumentationen för numeriska formatsträngar med funktionerna {try_}to_number
- [SPARK-39650] [SS] Åtgärda felaktigt schema för värden vid strömmande deduplicering med bakåtkompatibilitet
- [SPARK-39636] [CORE][ui] Åtgärda flera buggar i JsonProtocol, vilket påverkar heap StorageLevels och Task/Executor ResourceRequests
- [SPARK-39432] [SQL] Returnera ELEMENT_AT_BY_INDEX_ZERO från element_at(*, 0)
- [SPARK-39349] Lägg till en centraliserad CheckError-metod för kvalitetssäkring av felväg
- [SPARK-39453] [SQL] DS V2 har stöd för push-down av diverse icke-aggregerande funktioner (icke-ANSI)
- [SPARK-38978] [SQL] DS V2 stöder operator för att pressa ned OFFSET
- [SPARK-39567] [SQL] Stöd för ANSI-intervall i percentilfunktionerna
- [SPARK-39383] [SQL] Stöder STANDARDkolumner i ALTER TABLE ALTER COLUMNS till V2-datakällor
- [SPARK-39396] [SQL] Åtgärda LDAP-inloggningsfelet "felkod 49 – ogiltiga autentiseringsuppgifter"
- [SPARK-39548] [SQL] CreateView-kommandot med en fönsterklausul stötte på ett fel där en korrekt fönsterdefinition inte hittades
- [SPARK-39575] [AVRO] lägg till ByteBuffer#rewind efter ByteBuffer#get i Avr...
- [SPARK-39543] Parametern DataFrameWriterV2 bör överföras till lagringsegenskaper om det sker en återgång till v1.
- [SPARK-39564] [SS] Tillgängliggör informationen om katalogtabellen i den logiska planen för en strömmande fråga
-
[SPARK-39582] [SQL] Åtgärda markören "Sedan" för
array_agg
-
[SPARK-39388] [SQL] Återanvänd
orcSchema
vid nedtryckning av Orc-predikat - [SPARK-39511] [SQL] Förbättra nedtryckning av lokal gräns 1 för höger sida av vänster halv-/anti-join om join-villkoret är tomt
- [SPARK-38614] [SQL] Tryck inte ned gränsen genom fönstret som använder percent_rank
- [SPARK-39551] [SQL] Lägg till kontroll av ogiltiga AQE-planer
- [SPARK-39383] [SQL] Stöder STANDARDkolumner i ALTER TABLE LÄGG till COLUMNS till V2-datakällor
- [SPARK-39538] [SQL] Undvik att skapa onödig SLF4J-loggning
- [SPARK-39383] [SQL] Manuell backportering till DBR 11.x: Omstrukturera stöd för DEFAULT-kolumn för att undvika att skicka den primära analysatorn runt
- [SPARK-39397] [SQL] Lätta på AliasAwareOutputExpression för att stödja alias med uttryck
-
[SPARK-39496] [SQL] Hantera nullstruktur i
Inline.eval
-
[SPARK-39545] [SQL] Åsidosätt
concat
metoden förExpressionSet
i Scala 2.13 för att förbättra prestanda - [SPARK-39340] [SQL] DS v2 agg pushdown bör tillåta punkter i namnet på kolumner på den översta nivån
- [SPARK-39488] [SQL] Förenkla felhanteringen av TempResolvedColumn
- [SPARK-38846] [SQL] Lägg till explicit datamappning mellan Teradata Numerisk typ och Spark DecimalType
-
[SPARK-39520] [SQL] Åsidosättningsmetod
--
förExpressionSet
i Scala 2.13 - [SPARK-39470] [SQL] Stöd för gjutning av ANSI-intervall till decimaler
- [SPARK-39477] [SQL] Ta bort information om antalet frågor från de gyllene filerna i SQLQueryTestSuite
- [SPARK-39419] [SQL] Åtgärda ArraySort för att utlösa ett undantag när jämförelsen returnerar null
-
[SPARK-39061] [SQL] Ange nullable korrekt för
Inline
utdataattribut -
[SPARK-39320] [SQL] Stöd för aggregeringsfunktion
MEDIAN
- [SPARK-39261] [CORE] Förbättra ny formatering för felmeddelanden
- [SPARK-39355] [SQL] En kolumn använder citattecken för att konstruera UnresolvedAttribute
- [SPARK-39351] [SQL] SHOW CREATE TABLE ska redigera egenskaper
- [SPARK-37623] [SQL] Stöd för ANSI-mängdfunktion: regr_intercept
- [SPARK-39374] [SQL] Förbättra felmeddelandet för den användardefinierade kolumnlistan
- [SPARK-39255] [SQL][3.3] Förbättra felmeddelanden
- [SPARK-39321] [SQL] Omstrukturera TryCast för att använda RuntimeReplaceable
- [SPARK-39406] [PYTHON] Acceptera NumPy-array för createDataFrame
- [SPARK-39267] [SQL] Rensa bort dsl överflödiga symboler
- [SPARK-39171] [SQL] Förena cast-uttrycket
- [SPARK-28330] [SQL] Stöd för ANSI SQL: resultatförskjutningssats i frågeuttryck
- [SPARK-39203] [SQL] Skriv om tabellplatsen till absolut URI baserat på databas-URI
-
[SPARK-39313] [SQL]
toCatalystOrdering
bör misslyckas om V2Expression inte kan översättas - [SPARK-39301] [SQL][python] Utnyttja LocalRelation och beakta Arrow-batchstorlek i createDataFrame med Arrow-optimering
- [SPARK-39400] [SQL] Spark SQL ska i samtliga fall ta bort hive-resurskatalogen
Underhållsuppdateringar
Se Underhållsuppdateringar för Databricks Runtime 11.2.
Systemmiljö
- Operativsystem: Ubuntu 20.04.4 LTS
- Java: Zulu 8.56.0.21-CA-linux64
- Scala: 2.12.14
- Python: 3.9.5
- R: 4.1.3
- Delta Lake: 2.1.0
Installerade Python-bibliotek
Bibliotek | Version | Bibliotek | Version | Bibliotek | Version |
---|---|---|---|---|---|
Antergos Linux | 2015.10 (ISO-Rullande) | argon2-cffi | 20.1.0 | Asynkron generator | 1.10 |
attrs | 21.2.0 | återkoppling | 0.2.0 | backports.entry-points-selectable | 1.1.1 |
svart | 22.3.0 | blekmedel | 4.0.0 | boto3 | 1.21.18 |
botocore | 1.24.18 | certifi | 2021.10.8 | cffi | 1.14.6 |
chardet | 4.0.0 | charset-normalizer | 2.0.4 | klicka | 8.0.3 |
kryptografi | 3.4.8 | cyklist | 0.10.0 | Cython | 0.29.24 |
dbus-python | 1.2.16 | debugpy | 1.4.1 | dekoratör | 5.1.0 |
defusedxml | 0.7.1 | distlib | 0.3.5 | distro-info | 0.23ubuntu1 |
infartspunkter | 0,3 | översikt över aspekter | 1.0.0 | filelock | 3.8.0 |
idna | 3.2 | ipykernel | 6.12.1 | ipython | 7.32.0 |
ipython-genutils | 0.2.0 | ipywidgets | 7.7.0 | jedi | 0.18.0 |
Jinja2 | 2.11.3 | jmespath | 0.10.0 | joblib | 1.0.1 |
jsonschema | 3.2.0 | jupyter-client | 6.1.12 | jupyter-core | 4.8.1 |
jupyterlab-pygments | 0.1.2 | jupyterlab-widgets | 1.0.0 | kiwisolver | 1.3.1 |
MarkupSafe | 2.0.1 | matplotlib | 3.4.3 | matplotlib-inline | 0.1.2 |
felstämma | 0.8.4 | mypy-extensions | 0.4.3 | nbclient | 0.5.3 |
nbconvert | 6.1.0 | nbformat | 5.1.3 | nest-asyncio | 1.5.1 |
anteckningsbok | 6.4.5 | numpy | 1.20.3 | emballage | 21,0 |
Pandas | 1.3.4 | pandocfilters | 1.4.3 | parso | 0.8.2 |
pathspec | 0.9.0 | Patsy | 0.5.2 | pexpect | 4.8.0 |
pickleshare | 0.7.5 | Kudde | 8.4.0 | pip | 21.2.4 |
platformdirs | 2.5.2 | plotly | 5.9.0 | prometheus-client | 0.11.0 |
prompt-toolkit | 3.0.20 | protobuf | 4.21.5 | psutil | 5.8.0 |
psycopg2 | 2.9.3 | ptyprocess | 0.7.0 | pyarrow | 7.0.0 |
pycparser | 2,20 | Pygments | 2.10.0 | PyGObject | 3.36.0 |
pyodbc | 4.0.31 | pyparsing | 3.0.4 | pyrsistent | 0.18.0 |
python-apt | 2.0.0+ubuntu0.20.4.7 | python-dateutil | 2.8.2 | pytz | 2021.3 |
pyzmq | 22.2.1 | begäranden | 2.26.0 | requests-unixsocket | 0.2.0 |
s3transfer | 0.5.2 | scikit-learn | 0.24.2 | scipy | 1.7.1 |
seaborn | 0.11.2 | Send2Trash | 1.8.0 | setuptools | 58.0.4 |
sex | 1.16.0 | ssh-import-id | 5,10 | statsmodels | 0.12.2 |
uthållighet | 8.0.1 | färdig | 0.9.4 | testpath | 0.5.0 |
threadpoolctl | 2.2.0 | tokenize-rt | 4.2.1 | tomli | 2.0.1 |
tromb | 6.1 | traitlets | 5.1.0 | skriva tillägg | 3.10.0.2 |
obevakade uppgraderingar | 0,1 | urllib3 | 1.26.7 | virtualenv | 20.8.0 |
wcwidth | 0.2.5 | webkodningar | 0.5.1 | hjul | 0.37.0 |
widgetsnbextension | 3.6.0 |
Installerade R-bibliotek
R-bibliotek installeras från Microsoft CRAN-ögonblicksbilden 2022-08-15.
Bibliotek | Version | Bibliotek | Version | Bibliotek | Version |
---|---|---|---|---|---|
askpass | 1,1 | assertthat | 0.2.1 | backportar | 1.4.1 |
bas | 4.1.3 | base64enc | 0.1-3 | bit | 4.0.4 |
bit64 | 4.0.5 | blob | 1.2.3 | starta om | 1.3-28 |
brygga | 1.0-7 | Brio | 1.1.3 | kvast | 1.0.0 |
bslib | 0.4.0 | cachem | 1.0.6 | anropare | 3.7.1 |
textmarkör | 6.0-93 | cellranger | 1.1.0 | Chron | 2.3-57 |
klass | 7.3-20 | cli | 3.3.0 | clipr | 0.8.0 |
kluster | 2.1.3 | codetools | 0.2-18 | färgrymd | 2.0-3 |
commonmark | 1.8.0 | kompilator | 4.1.3 | config | 0.3.1 |
cpp11 | 0.4.2 | krita | 1.5.1 | autentiseringsuppgifter | 1.3.2 |
curl | 4.3.2 | data.table | 1.14.2 | datauppsättningar | 4.1.3 |
DBI | 1.1.3 | dbplyr | 2.2.1 | Beskrivning | 1.4.1 |
devtools | 2.4.4 | diffobj | 0.3.5 | sammanställning | 0.6.29 |
nedåtriktat ljus | 0.4.2 | dplyr | 1.0.9 | dtplyr | 1.2.1 |
e1071 | 1.7-11 | ellips | 0.3.2 | utvärdera | 0,16 |
fansi | 1.0.3 | färger | 2.1.1 | snabbkarta | 1.1.0 |
fontawesome | 0.3.0 | forcats | 0.5.1 | foreach | 1.5.2 |
främmande | 0.8-82 | smida | 0.2.0 | fs | 1.5.2 |
framtid | 1.27.0 | future.apply | 1.9.0 | gurgla | 1.2.0 |
Generika | 0.1.3 | Gert | 1.7.0 | ggplot2 | 3.3.6 |
Gh | 1.3.0 | gitcreds | 0.1.1 | glmnet | 4.1-4 |
globals | 0.16.0 | lim | 1.6.2 | googledrive | 2.0.0 |
googlesheets4 | 1.0.1 | Gower | 1.0.0 | grafik | 4.1.3 |
grDevices | 4.1.3 | rutnät | 4.1.3 | gridExtra | 2.3 |
gsubfn | 0,7 | gtable | 0.3.0 | skyddshjälm | 1.2.0 |
hamn | 2.5.0 | högre | 0,9 | HMS | 1.1.1 |
htmltools | 0.5.3 | htmlwidgets | 1.5.4 | httpuv | 1.6.5 |
httr | 1.4.3 | Id | 1.0.1 | ini | 0.3.1 |
IPRED | 0.9-13 | isoband | 0.2.5 | Iteratorer | 1.0.14 |
jquerylib | 0.1.4 | jsonlite | 1.8.0 | KernSmooth | 2.23-20 |
knitr | 1.39 | Märkning | 0.4.2 | senare | 1.3.0 |
Galler | 0.20-45 | lava | 1.6.10 | livscykel | 1.0.1 |
lyssna | 0.8.0 | lubridate | 1.8.0 | magrittr | 2.0.3 |
Markdown | 1,1 | MASSA | 7.3-56 | Matris | 1.4-1 |
memorera | 2.0.1 | metoder | 4.1.3 | mgcv | 1.8-40 |
mim | 0,12 | miniUI | 0.1.1.1 | ModelMetrics | 1.2.2.2 |
modelr | 0.1.8 | munsell | 0.5.0 | nlme | 3.1-157 |
nnet | 7.3-17 | numDeriv | 2016.8-1.1 | openssl | 2.0.2 |
parallel | 4.1.3 | parallellt | 1.32.1 | pelare | 1.8.0 |
pkgbuild | 1.3.1 | pkgconfig | 2.0.3 | pkgdown | 2.0.6 |
pkgload | 1.3.0 | plogr | 0.2.0 | plyr | 1.8.7 |
berömma | 1.0.0 | prettyunits | 1.1.1 | pROC | 1.18.0 |
processx | 3.7.0 | prodlim | 2019.11.13 | profvis | 0.3.7 |
Förlopp | 1.2.2 | progressr | 0.10.1 | Löften | 1.2.0.1 |
Proto | 1.0.0 | proxy | 0.4-27 | PS | 1.7.1 |
purrr | 0.3.4 | r2d3 | 0.2.6 | R6 | 2.5.1 |
ragg | 1.2.2 | randomForest | 4.7-1.1 | rappdirs | 0.3.3 |
rcmdcheck | 1.4.0 | RColorBrewer | 1.1-3 | Rcpp | 1.0.9 |
RcppEigen | 0.3.3.9.2 | readr | 2.1.2 | readxl | 1.4.0 |
recept | 1.0.1 | Returmatch | 1.0.1 | rematch2 | 2.1.2 |
Fjärrkontroller | 2.4.2 | återgivbart exempel | 2.0.1 | omforma2 | 1.4.4 |
rlang | 1.0.4 | rmarkdown | 2,14 | RODBC | 1.3-19 |
roxygen2 | 7.2.1 | rpart | 4.1.16 | rprojroot | 2.0.3 |
Rserve | 1.8-11 | RSQLite | 2.2.15 | rstudioapi | 0,13 |
rversions | 2.1.1 | rvest | 1.0.2 | Sass | 0.4.2 |
våg | 1.2.0 | väljare | 0.4-2 | sessioninfo | 1.2.2 |
form | 1.4.6 | glänsande | 1.7.2 | sourcetools | 0.1.7 |
sparklyr | 1.7.7 | SparkR | 3.3.0 | rumslig | 7.3-11 |
Splines | 4.1.3 | sqldf | 0.4-11 | SQUAREM | 2021.1 |
statistik | 4.1.3 | stats4 | 4.1.3 | stringi | 1.7.8 |
stringr | 1.4.0 | överlevnad | 3.2-13 | sys | 3.4 |
systemfonts | 1.0.4 | tcltk | 4.1.3 | testthat | 3.1.4 |
textshaping | 0.3.6 | tibble | 3.1.8 | tidyr | 1.2.0 |
tidyselect | 1.1.2 | tidyverse | 1.3.2 | tidDatum | 4021.104 |
tinytex | 0.40 | verktyg | 4.1.3 | tzdb | 0.3.0 |
URL-kontrollant | 1.0.1 | använddetta | 2.1.6 | utf8 | 1.2.2 |
verktyg | 4.1.3 | uuid | 1.1-0 | vctrs | 0.4.1 |
viridisLite | 0.4.0 | Vroom | 1.5.7 | Waldo | 0.4.0 |
morrhår | 0,4 | withr | 2.5.0 | xfun | 0.32 |
xml2 | 1.3.3 | xopen | 1.0.0 | xtable | 1.8-4 |
yaml | 2.3.5 | Zip | 2.2.0 |
Installerade Java- och Scala-bibliotek (Scala 2.12-klusterversion)
Grupp-ID | Artefakt-ID | Version |
---|---|---|
antlr | antlr | 2.7.7 |
com.amazonaws | amazon-kinesis-client | 1.12.0 |
com.amazonaws | aws-java-sdk-autoscaling | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudformation | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudfront | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudhsm | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudsearch | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudtrail | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudwatch | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.189 |
com.amazonaws | aws-java-sdk-codedeploy | 1.12.189 |
com.amazonaws | aws-java-sdk-cognitoidentity | 1.12.189 |
com.amazonaws | aws-java-sdk-cognitosync | 1.12.189 |
com.amazonaws | aws-java-sdk-config | 1.12.189 |
com.amazonaws | aws-java-sdk-core | 1.12.189 |
com.amazonaws | aws-java-sdk-datapipeline | 1.12.189 |
com.amazonaws | aws-java-sdk-directconnect | 1.12.189 |
com.amazonaws | aws-java-sdk-directory | 1.12.189 |
com.amazonaws | aws-java-sdk-dynamodb | 1.12.189 |
com.amazonaws | aws-java-sdk-ec2 | 1.12.189 |
com.amazonaws | aws-java-sdk-ecs | 1.12.189 |
com.amazonaws | aws-java-sdk-efs | 1.12.189 |
com.amazonaws | aws-java-sdk-elasticache | 1.12.189 |
com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.12.189 |
com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.12.189 |
com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.189 |
com.amazonaws | aws-java-sdk-emr | 1.12.189 |
com.amazonaws | aws-java-sdk-glacier | 1.12.189 |
com.amazonaws | aws-java-sdk-glue | 1.12.189 |
com.amazonaws | aws-java-sdk-iam | 1.12.189 |
com.amazonaws | aws-java-sdk-importexport | 1.12.189 |
com.amazonaws | aws-java-sdk-kinesis | 1.12.189 |
com.amazonaws | aws-java-sdk-kms | 1.12.189 |
com.amazonaws | aws-java-sdk-lambda | 1.12.189 |
com.amazonaws | aws-java-sdk-logs | 1.12.189 |
com.amazonaws | aws-java-sdk-machinelearning | 1.12.189 |
com.amazonaws | aws-java-sdk-opsworks | 1.12.189 |
com.amazonaws | aws-java-sdk-rds | 1.12.189 |
com.amazonaws | aws-java-sdk-redshift | 1.12.189 |
com.amazonaws | aws-java-sdk-route53 | 1.12.189 |
com.amazonaws | aws-java-sdk-s3 | 1.12.189 |
com.amazonaws | aws-java-sdk-ses | 1.12.189 |
com.amazonaws | aws-java-sdk-simpledb | 1.12.189 |
com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.189 |
com.amazonaws | aws-java-sdk-sns | 1.12.189 |
com.amazonaws | aws-java-sdk-sqs | 1.12.189 |
com.amazonaws | aws-java-sdk-ssm | 1.12.189 |
com.amazonaws | aws-java-sdk-storagegateway | 1.12.189 |
com.amazonaws | aws-java-sdk-sts | 1.12.189 |
com.amazonaws | aws-java-sdk-support | 1.12.189 |
com.amazonaws | aws-java-sdk-swf-libraries | 1.11.22 |
com.amazonaws | aws-java-sdk-workspaces | 1.12.189 |
com.amazonaws | jmespath-java | 1.12.189 |
com.chuusai | shapeless_2.12 | 2.3.3 |
com.clearspring.analytics | ström | 2.9.6 |
com.databricks | Rserve | 1.8-3 |
com.databricks | jets3t | 0.7.1-0 |
com.databricks.scalapb | compilerplugin_2.12 | 0.4.15-10 |
com.databricks.scalapb | scalapb-runtime_2.12 | 0.4.15-10 |
com.esotericsoftware | kryo-skuggad | 4.0.2 |
com.esotericsoftware | minlog | 1.3.0 |
com.fasterxml | klasskamrat | 1.3.4 |
com.fasterxml.jackson.core | jackson-anteckningar | 2.13.3 |
com.fasterxml.jackson.core | jackson-core | 2.13.3 |
com.fasterxml.jackson.core | jackson-databind | 2.13.3 |
com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.13.3 |
com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.13.3 |
com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.13.3 |
com.fasterxml.jackson.module | jackson-module-paranamer | 2.13.3 |
com.fasterxml.jackson.module | jackson-module-scala_2.12 | 2.13.3 |
com.github.ben-manes.koffein | koffein | 2.3.4 |
com.github.fommil | jniloader | 1,1 |
com.github.fommil.netlib | kärna | 1.1.2 |
com.github.fommil.netlib | native_ref-java | 1,1 |
com.github.fommil.netlib | native_ref-java-inhemska | 1,1 |
com.github.fommil.netlib | native_system-java | 1,1 |
com.github.fommil.netlib | native_system-java-natives | 1,1 |
com.github.fommil.netlib | netlib-native_ref-linux-x86_64-natives | 1,1 |
com.github.fommil.netlib | netlib-native_system-linux-x86_64-natives | 1,1 |
com.github.luben | zstd-jni | 1.5.2-1 |
com.github.wendykierp | JTransforms | 3.1 |
com.google.code.findbugs | jsr305 | 3.0.0 |
com.google.code.gson | gson | 2.8.6 |
com.google.crypto.tink | Tinka | 1.6.1 |
com.google.flatbuffers | flatbuffers-java | 1.12.0 |
com.google.guava | guava | 15.0 |
com.google.protobuf | protobuf-java | 2.6.1 |
com.h2database | h2 | 2.0.204 |
com.helger | profilerare | 1.1.1 |
com.jcraft | jsch | 0.1.50 |
com.jolbox | bonecp | 0.8.0.RELEASE |
com.lihaoyi | sourcecode_2.12 | 0.1.9 |
com.microsoft.azure | azure-data-lake-store-sdk | 2.3.9 |
com.ning | compress-lzf | 1,1 |
com.sun.mail | javax.mail | 1.5.2 |
com.tdunning | json | 1.8 |
com.thoughtworks.paranamer | paranamer | 2.8 |
com.trueaccord.lenses | lenses_2.12 | 0.4.12 |
com.twitter | chill-java | 0.10.0 |
com.twitter | chill_2.12 | 0.10.0 |
com.twitter | util-app_2.12 | 7.1.0 |
com.twitter | util-core_2.12 | 7.1.0 |
com.twitter | util-function_2.12 | 7.1.0 |
com.twitter | util-jvm_2.12 | 7.1.0 |
com.twitter | util-lint_2.12 | 7.1.0 |
com.twitter | util-registry_2.12 | 7.1.0 |
com.twitter | util-stats_2.12 | 7.1.0 |
com.typesafe | konfig | 1.2.1 |
com.typesafe.scala-logging | scala-logging_2.12 | 3.7.2 |
com.uber | h3 | 3.7.0 |
com.univocity | univocity-parsers | 2.9.1 |
com.zaxxer | HikariCP | 4.0.3 |
commons-cli | commons-cli | 1.5.0 |
commons-codec | commons-codec | 1.15 |
commons-collections | commons-collections | 3.2.2 |
commons-dbcp | commons-dbcp | 1.4 |
commons-filuppladdning | commons-filuppladdning | 1.3.3 |
commons-httpclient | commons-httpclient | 3.1 |
commons-io | commons-io | 2.11.0 |
commons-lang | commons-lang | 2,6 |
commons-logging | commons-logging | 1.1.3 |
commons-pool | commons-pool | 1.5.4 |
dev.ludovic.netlib | arpack | 2.2.1 |
dev.ludovic.netlib | Blas | 2.2.1 |
dev.ludovic.netlib | lapack | 2.2.1 |
hadoop3 | jets3t-0.7 | liball_deps_2.12 |
info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
io.airlift | luftkompressor | 0.21 |
io.delta | delta-sharing-spark_2.12 | 0.5.0 |
io.dropwizard.metrics | metrics-core | 4.1.1 |
io.dropwizard.metrics | metrics-graphite | 4.1.1 |
io.dropwizard.metrics | mätvärden-hälsokontroller | 4.1.1 |
io.dropwizard.metrics | metrics-jetty9 | 4.1.1 |
io.dropwizard.metrics | metrics-jmx | 4.1.1 |
io.dropwizard.metrics | metrics-json | 4.1.1 |
io.dropwizard.metrics | metrics-jvm | 4.1.1 |
io.dropwizard.metrics | metrik-servlets | 4.1.1 |
io.netty | netty-all | 4.1.74.Final |
io.netty | netty-buffert | 4.1.74.Final |
io.netty | netty-codec | 4.1.74.Final |
io.netty | netty-common | 4.1.74.Final |
io.netty | netty-handler | 4.1.74.Final |
io.netty | netty-resolver | 4.1.74.Final |
io.netty | netty-tcnative-classes | 2.0.48.Final |
io.netty | netty-transport | 4.1.74.Final |
io.netty | netty-transport-classes-epoll | 4.1.74.Final |
io.netty | netty-transport-classes-kqueue | 4.1.74.Final |
io.netty | netty-transport-native-epoll-linux-aarch_64 | 4.1.74.Final |
io.netty | netty-transport-native-epoll-linux-x86_64 | 4.1.74.Final |
io.netty | netty-transport-native-kqueue-osx-aarch_64 | 4.1.74.Final |
io.netty | netty-transport-native-kqueue-osx-x86_64 | 4.1.74.Final |
io.netty | netty-transport-native-unix-common | 4.1.74.Final |
io.prometheus | simpleclient | 0.7.0 |
io.prometheus | simpleclient_common | 0.7.0 |
io.prometheus | simpleclient_dropwizard | 0.7.0 |
io.prometheus | simpleclient_pushgateway | 0.7.0 |
io.prometheus | simpleclient_servlet | 0.7.0 |
io.prometheus.jmx | samlare | 0.12.0 |
jakarta.annotation | jakarta.annotation-api | 1.3.5 |
jakarta.servlet | jakarta.servlet-api | 4.0.3 |
jakarta.validation | jakarta.validation-api | 2.0.2 |
jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
javax.activation | aktivering | 1.1.1 |
javax.annotation | javax.annotation-api | 1.3.2 |
javax.el | javax.el-api | 2.2.4 |
javax.jdo | jdo-api | 3.0.1 |
javax.transaction | jta | 1,1 |
javax.transaction | transaction-api | 1,1 |
javax.xml.bind | jaxb-api | 2.2.11 |
javolution | javolution | 5.5.1 |
jline | jline | 2.14.6 |
joda-time | joda-time | 2.10.13 |
mvn | hadoop3 | liball_deps_2.12 |
net.java.dev.jna | jna | 5.8.0 |
net.razorvine | ättikslag | 1.2 |
net.sf.jpam | jpam | 1,1 |
net.sf.opencsv | opencsv | 2.3 |
net.sf.supercsv | super-csv | 2.2.0 |
net.snowflake | snowflake-ingest-sdk | 0.9.6 |
net.snowflake | snowflake-jdbc | 3.13.14 |
net.snöflinga | spark-snowflake_2.12 | 2.10.0-spark_3.2 |
net.sourceforge.f2j | arpack_combined_all | 0,1 |
org.acplt.remotetea | remotetea-oncrpc | 1.1.2 |
org.antlr | ST4 | 4.0.4 |
org.antlr | antlr-runtime | 3.5.2 |
org.antlr | antlr4-runtime | 4.8 |
org.antlr | strängmall | 3.2.1 |
org.apache.ant | Ant | 1.9.2 |
org.apache.ant | ant-jsch | 1.9.2 |
org.apache.ant | ant-launcher | 1.9.2 |
org.apache.arrow | pilformat | 7.0.0 |
org.apache.arrow | arrow-memory-core | 7.0.0 |
org.apache.arrow | arrow-memory-netty | 7.0.0 |
org.apache.arrow | pil-vektor | 7.0.0 |
org.apache.avro | avro | 1.11.0 |
org.apache.avro | avro-ipc | 1.11.0 |
org.apache.avro | avro-mapred | 1.11.0 |
org.apache.commons | commons-collections4 | 4.4 |
org.apache.commons | commons-compress | 1.21 |
org.apache.commons | commons-crypto | 1.1.0 |
org.apache.commons | commons-lang3 | 3.12.0 |
org.apache.commons | commons-math3 | 3.6.1 |
org.apache.commons | commons-text | 1,9 |
org.apache.curator | kurator-klient | 2.13.0 |
org.apache.curator | curator-framework | 2.13.0 |
org.apache.curator | curator-recept | 2.13.0 |
org.apache.derby | Derby | 10.14.2.0 |
org.apache.hadoop | hadoop-klient-api | 3.3.2-databricks |
org.apache.hadoop | hadoop-client-runtime | 3.3.2 |
org.apache.hive | hive-beeline | 2.3.9 |
org.apache.hive | hive-cli | 2.3.9 |
org.apache.hive | hive-jdbc | 2.3.9 |
org.apache.hive | hive-llap-client | 2.3.9 |
org.apache.hive | hive-llap-common | 2.3.9 |
org.apache.hive | hive-serde | 2.3.9 |
org.apache.hive | hive-shims | 2.3.9 |
org.apache.hive | hive-storage-api | 2.7.2 |
org.apache.hive.shims | hive-shims-0.23 | 2.3.9 |
org.apache.hive.shims | hive-shims-common | 2.3.9 |
org.apache.hive.shims | hive-shims-scheduler | 2.3.9 |
org.apache.httpcomponents | httpclient | 4.5.13 |
org.apache.httpcomponents | httpcore | 4.4.14 |
org.apache.ivy | murgröna | 2.5.0 |
org.apache.logging.log4j | log4j-1.2-api | 2.17.2 |
org.apache.logging.log4j | log4j-api | 2.17.2 |
org.apache.logging.log4j | log4j-core | 2.17.2 |
org.apache.logging.log4j | log4j-slf4j-impl | 2.17.2 |
org.apache.mesos | mesos-shaded-protobuf | 1.4.0 |
org.apache.orc | orc-core | 1.7.5 |
org.apache.orc | orc-mapreduce | 1.7.5 |
org.apache.orc | orc-shims | 1.7.5 |
org.apache.parquet | parquet-kolumn | 1.12.0-databricks-0004 |
org.apache.parquet | parquet-common | 1.12.0-databricks-0004 |
org.apache.parquet | parquet-kodning | 1.12.0-databricks-0004 |
org.apache.parquet | parquet-formatstrukturer | 1.12.0-databricks-0004 |
org.apache.parquet | parquet-hadoop | 1.12.0-databricks-0004 |
org.apache.parquet | parquet-jackson | 1.12.0-databricks-0004 |
org.apache.thrift | libfb303 | 0.9.3 |
org.apache.thrift | libthrift | 0.12.0 |
org.apache.xbean | xbean-asm9-shaded | 4.20 |
org.apache.yetus | åhörarkommentarer | 0.5.0 |
org.apache.zookeeper | djurskötare | 3.6.2 |
org.apache.zookeeper | zookeeper-jute | 3.6.2 |
org.checkerframework | checker-qual | 3.5.0 |
org.codehaus.jackson | jackson-core-asl | 1.9.13 |
org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
org.codehaus.janino | commons-compiler | 3.0.16 |
org.codehaus.janino | janino | 3.0.16 |
org.datanucleus | datanucleus-api-jdo | 4.2.4 |
org.datanucleus | datanucleus-core | 4.1.17 |
org.datanucleus | datanucleus-rdbms | 4.1.19 |
org.datanucleus | javax.jdo | 3.2.0-m3 |
org.eclipse.jetty | jetty-client | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-fortsättning | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-http | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-io | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-jndi | 9.4.46.v20220331 |
org.eclipse.jetty | Jetty Plus | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-proxy | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-security | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-server | 9.4.46.v20220331 |
org.eclipse.jetty | Jetty-servlet | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-servlets | 9.4.46.v20220331 |
org.eclipse.jetty | Jetty-util | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-util-ajax | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-webapp | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-xml | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | websocket-API | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | websocket-client | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | websocket-common | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | webbsockets-server | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | websocket-servlet | 9.4.46.v20220331 |
org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
org.glassfish.hk2 | hk2-api | 2.6.1 |
org.glassfish.hk2 | hk2-locator | 2.6.1 |
org.glassfish.hk2 | hk2-utils | 2.6.1 |
org.glassfish.hk2 | osgi-resource-locator | 1.0.3 |
org.glassfish.hk2.external | aopalliance-repackaged | 2.6.1 |
org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
org.glassfish.jersey.containers | jersey-container-servlet | 2.34 |
org.glassfish.jersey.containers | jersey-container-servlet-core | 2.34 |
org.glassfish.jersey.core | jersey-client | 2.34 |
org.glassfish.jersey.core | jersey-common | 2.34 |
org.glassfish.jersey.core | jersey-server | 2.34 |
org.glassfish.jersey.inject | jersey-hk2 | 2.34 |
org.hibernate.validator | vilolägesverifierare | 6.1.0.Final |
org.javassist | javassist | 3.25.0-GA |
org.jboss.logging | jboss-logging | 3.3.2.Final |
org.jdbi | jdbi | 2.63.1 |
org.jetbrains | Anteckningar | 17.0.0 |
org.joda | joda-convert | 1,7 |
org.jodd | jodd-core | 3.5.2 |
org.json4s | json4s-ast_2.12 | 3.7.0-M11 |
org.json4s | json4s-core_2.12 | 3.7.0-M11 |
org.json4s | json4s-jackson_2.12 | 3.7.0-M11 |
org.json4s | json4s-scalap_2.12 | 3.7.0-M11 |
org.lz4 | lz4-java | 1.8.0 |
org.mariadb.jdbc | mariadb-java-client | 2.7.4 |
org.mlflow | mlflow-spark | 1.27.0 |
org.objenesis | objenesis | 2.5.1 |
org.postgresql | postgresql | 42.3.3 |
org.roaringbitmap | RoaringBitmap | 0.9.25 |
org.roaringbitmap | packningar | 0.9.25 |
org.rocksdb | rocksdbjni | 6.24.2 |
org.rosuda.REngine | REngine | 2.1.0 |
org.scala-lang | scala-compiler_2.12 | 2.12.14 |
org.scala-lang | scala-library_2.12 | 2.12.14 |
org.scala-lang | scala-reflect_2.12 | 2.12.14 |
org.scala-lang.modules | scala-collection-compat_2.12 | 2.4.3 |
org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
org.scala-lang.modules | scala-xml_2.12 | 1.2.0 |
org.scala-sbt | testgränssnitt | 1.0 |
org.scalacheck | scalacheck_2.12 | 1.14.2 |
org.scalactic | scalactic_2.12 | 3.0.8 |
org.scalanlp | breeze-macros_2.12 | 1.2 |
org.scalanlp | breeze_2.12 | 1.2 |
org.scalatest | scalatest_2.12 | 3.0.8 |
org.slf4j | jcl-over-slf4j | 1.7.36 |
org.slf4j | jul-to-slf4j | 1.7.36 |
org.slf4j | slf4j-api | 1.7.36 |
org.spark-project.spark | oanvänd | 1.0.0 |
org.threeten | threeten-extra | 1.5.0 |
org.tukaani | xz | 1.8 |
org.typelevel | algebra_2.12 | 2.0.1 |
org.typelevel | cats-kernel_2.12 | 2.1.1 |
org.typelevel | macro-compat_2.12 | 1.1.1 |
org.typelevel | spire-macros_2.12 | 0.17.0 |
org.typelevel | spire-platform_2.12 | 0.17.0 |
org.typelevel | spire-util_2.12 | 0.17.0 |
org.typelevel | spire_2.12 | 0.17.0 |
org.wildfly.openssl | wildfly-openssl | 1.0.7.Final |
org.xerial | sqlite-jdbc | 3.8.11.2 |
org.xerial.snappy | snappy-java | 1.1.8.4 |
org.yaml | snakeyaml | 1,24 |
oro | oro | 2.0.8 |
pl.edu.icm | JLargeArrays | 1.5 |
software.amazon.ion | ion-java | 1.0.2 |
stax | stax-api | 1.0.1 |