Databricks Runtime 11.2 (EoS)
Notitie
Ondersteuning voor deze Databricks Runtime-versie is beëindigd. Zie de geschiedenis van einde van ondersteuning voor de einddatum van de ondersteuning. Zie voor alle ondersteunde Databricks Runtime-versies de releaseopmerkingen over versies en compatibiliteit
De volgende releaseopmerkingen bevatten informatie over Databricks Runtime 11.2, mogelijk gemaakt door Apache Spark 3.3.0. Databricks heeft deze versie uitgebracht in september 2022.
Nieuwe functies en verbeteringen
- Verander naar ALTER TABLE-rechten in tabeltoegangsbeheer (tabel-ACL's)
- Dynamisch snoeien voor MERGE INTO
- Verbeterde conflictdetectie in Delta met dynamische bestandssnoeiing
- Nieuwe kaart voor Open Source Integrations in DSE/SQL-startpagina's
- CONVERT TO DELTA verbeteringen voor partitiedetectie
- Tabelschema's ondersteunen nu standaardwaarden voor kolommen
- Nieuwe georuimtelijke H3-functies
- Nieuwe Databricks Runtime-afhankelijkheid
- Bring Your Own Key: Versleuteling van Git-referenties
- SQL: Nieuwe statistische functie any_value
- Databricks Utilities-bestandssysteemopdrachten die zijn toegestaan voor meer clustertypen
- CREATE-bevoegdheden kunnen nu worden verleend in metastores voor Unity Catalog
- Geoptimaliseerde schrijfbewerkingen voor niet-gepartitioneerde tabellen in clusters met Foton
- Photon-ondersteuning voor meer gegevensbronnen
- SQL: ALTER SHARE ondersteunt nu START VERSION
Aanpassen van ALTER TABLE-machtigingen in toegangsbeheer voor tabellen (tabel-ACL's)
Gebruikers hebben nu alleen machtigingen nodig MODIFY
om het schema of de eigenschappen van een tabel te wijzigen met ALTER TABLE
. Eigendom is nog steeds vereist om machtigingen voor een tabel te verlenen, de eigenaar en locatie ervan te wijzigen of de naam ervan te wijzigen. Met deze wijziging wordt het machtigingsmodel voor tabel-ACL's consistent met Unity Catalog. Zie ALTER TABLE.
Dynamisch snoeien voor MERGE INTO
Wanneer u Photon-ingeschakelde computing gebruikt, maakt MERGE INTO
nu gebruik van dynamische file- en partitie-optimalisatie wanneer dit van toepassing is om de prestaties te verbeteren, bijvoorbeeld wanneer een kleine brontabel wordt samengevoegd in een grotere doeltabel.
Verbeterde conflictdetectie in Delta met dynamisch bestandsbeheer
Wanneer u controleert op mogelijke conflicten tijdens commits, houdt conflictdetectie nu rekening met bestanden die zijn verwijderd door dynamische bestandsvereenvoudiging, maar niet door statische filters. Dit resulteert in een verminderd aantal mislukte transacties.
Nieuwe kaart voor Open Source Integrations in DSE/SQL-startpagina's
Maak kennis met de nieuwe kaart Open Source Integrations in de DSE-/SQL-startpagina's met opensource-integratieopties zoals DLT en dbt core.
Verbeteringen in CONVERT TO DELTA-partitiedetectie
CONVERT TO DELTA
leidt automatisch het partitieschema af voor Parquet-tabellen die zijn geregistreerd bij de Hive-metastore of Unity Catalog, waardoor de PARTITIONED BY
clausule niet meer hoeft te worden opgegeven.
CONVERT TO DELTA
maakt gebruik van partitiegegevens uit de metastore om bestanden voor een Parquet-tabel te detecteren in plaats van het hele basispad weer te geven, zodat verwijderde partities niet worden toegevoegd aan de Delta-tabel.
Zie Converteren naar Delta Lake.
Tabelschema's ondersteunen nu standaardwaarden voor kolommen
Tabelschema's bieden nu ondersteuning voor het instellen van standaardwaarden voor kolommen.
INSERT
, UPDATE
en DELETE
opdrachten voor deze kolommen kunnen verwijzen naar deze waarden met het DEFAULT
trefwoord. Bijvoorbeeld, CREATE TABLE t (id INT, data INT DEFAULT 42) USING PARQUET
gevolgd door INSERT INTO t VALUES (1, DEFAULT)
voegt de rij (1, 42)
toe. Dit gedrag wordt ondersteund voor CSV-, JSON-, Orc- en Parquet-gegevensbronnen.
Nieuwe georuimtelijke H3-functies
U kunt nu 28 nieuwe ingebouwde H3-expressies gebruiken voor georuimtelijke verwerking in clusters met foton die beschikbaar zijn in SQL, Scala en Python. Zie georuimtelijke H3-functies.
Nieuwe Databricks Runtime-afhankelijkheid
Databricks Runtime is nu afhankelijk van de H3 Java-bibliotheek versie 3.7.0.
Bring Your Own Key: Versleuteling van Git-referenties
U kunt Azure Key Vault gebruiken om een persoonlijk Git-toegangstoken (PAT) of andere Git-referenties te versleutelen.
Zie Databricks Git-mappen (opslagplaatsen) instellen.
SQL: Nieuwe aggregatiefunctie any_value
De nieuwe any_value
statistische functie retourneert een willekeurige waarde voor expr
een groep rijen. Zie de aggregatiefunctie any_value
.
Databricks Utilities-bestandssysteemopdrachten die zijn toegestaan voor meer clustertypen
dbutils.fs
opdrachten (behalve mount-gerelateerde opdrachten) zijn nu toegestaan op gebruikersisolatieclusters met Unity Catalog, evenals verouderde table-ACL-clusters wanneer de gebruiker ANY FILE
machtigingen heeft.
CREATE-bevoegdheden kunnen nu worden verleend in metastores voor Unity Catalog
CREATE CATALOG, CREATE EXTERNAL LOCATION, CREATE SHARE, CREATE RECIPIENTen CREATE PROVIDER-bevoegdheden kunnen nu worden verleend op Unity Catalog-metastores.
Geoptimaliseerde schrijfbewerkingen voor niet-gepartitioneerde tabellen in clusters met Photon
Beheerde tabellen van Unity Catalog behouden nu automatisch bestanden met een goed afgestemde grootte van niet-gepartitioneerde tabellen om de querysnelheid te verbeteren en de prestaties te optimaliseren.
Photon-ondersteuning voor meer gegevensbronnen
Photon ondersteunt nu meer gegevensbronnen, waaronder CSV en Avro, en is ook compatibel met gegevensframes in de cache. Voorheen betekende het scannen van deze gegevensbronnen dat de hele query niet kon worden gefotoniseerd, ongeacht de operators of expressies van de query. Queries die deze gegevensbronnen scannen, kunnen nu gephtotoniseerd worden, waardoor aanzienlijke verbeteringen in latentie en TCO worden ontsloten.
Deze functie is standaard ingeschakeld door de spark.databricks.photon.photonRowToColumnar.enabled
configuratie.
Beperkingen:
- Schema's met geneste typen worden niet ondersteund (matrices, kaarten en structs) in deze release.
- ORC-, RDD-, Kinesis-, Kafka- en EventHub-bronnen worden niet ondersteund in deze release.
SQL: ALTER SHARE ondersteunt nu START VERSION
De ALTER SHARE
opdracht ondersteunt START VERSION
nu, waarmee providers gegevens kunnen delen vanaf een specifieke tabelversie. Zie ALTER SHARE.
Bibliotheekverbeteringen
- Bijgewerkte Python-bibliotheken:
- distlib van 0.3.4 tot 0.3.5
- filelock van versie 3.7.1 naar versie 3.8.0
- plotly van 5.8.2 naar 5.9.0
- protobuf van 4.21.2 tot 4.21.5
- Bijgewerkte R-bibliotheken:
- bezem van 0.8.0 tot 1.0.0
- bslib van 0.3.1 tot 0.4.0
- callr van 3.7.0 tot 3.7.1
- caret van 6.0-92 naar 6.0-93
- dbplyr van 2.2.0 tot 2.2.1
- devtools van 2.4.3 tot 2.4.4
- evalueren van 0,15 tot 0,16
- farver van 2.1.0 naar 2.1.1
- fontawesome van 0.2.2 tot 0.3.0
- toekomst van 1.26.1 tot 1.27.0
- generics van 0.1.2 tot 0.1.3
- gert van 1.6.0 tot 1.7.0
- globals van 0.15.1 naar 0.16.0
- googlesheets4 van 1.0.0 tot 1.0.1
- hardhat van versie 1.1.0 naar versie 1.2.0
- htmltools van 0.5.2 tot 0.5.3
- Parallel van 1.32.0 naar 1.32.1
- pijler van 1.7.0 tot 1.8.0
- pkgload van versie 1.2.4 naar versie 1.3.0
- processx van 3.6.1 naar 3.7.0
- Rcpp van 1.0.8.3 tot 1.0.9
- recepten van 0.2.0 tot 1.0.1
- rlang van 1.0.2 tot 1.0.4
- roxygen2 van 7.2.0 tot 7.2.1
- RSQLite van 2.2.14 tot 2.2.15
- sass van 0.4.1 tot 0.4.2
- glanzend van 1.7.1 tot 1.7.2
- stringi van 1.7.6 tot 1.7.8
- tibble van 3.1.7 tot 3.1.8
- tidyverse van 1.3.1 tot 1.3.2
- timeDate van 3043.102 tot 4021.104
- xfun van 0,31 tot 0,32
- Bijgewerkte Java-bibliotheken:
- org.apache.orc.orc-core van 1.7.4 tot 1.7.5
- org.apache.orc.orc-mapreduce van 1.7.4 tot 1.7.5
- org.apache.orc.orc-shims van 1.7.4 naar 1.7.5
Apache Spark
Databricks Runtime 11.2 bevat Apache Spark 3.3.0. Deze release bevat alle Spark-fixes en verbeteringen die zijn opgenomen in Databricks Runtime 11.1 (EoS) en de volgende aanvullende bugfixes en verbeteringen in Spark:
- [SPARK-40151] [WARMFIX][sc-109002][SC-108809][sql] Retourneer bredere ANSI-intervaltypen van de percentielfuncties
- [SPARK-40054] [SQL] De syntaxis voor foutafhandeling van try_cast() herstellen
- [SPARK-39489] [CORE] Prestaties van JsonProtocol-logboekregistratie verbeteren met behulp van Jackson in plaats van Json4s
-
[SPARK-39319] [CORE][sql] Querycontexten maken als onderdeel van
SparkThrowable
- [SPARK-40085] [SQL] Gebruik INTERNAL_ERROR foutklasse in plaats van IllegalStateException om fouten aan te geven
- [SPARK-40001] [SQL] NULL-schrijfbewerkingen maken naar JSON DEFAULT-kolommen schrijven 'null' naar opslag
- [SPARK-39635] [SQL] Ondersteuning voor stuurprogrammametrieken in de DS v2 aangepaste metrische API
- [SPARK-39184] [SQL] Resultaatarray met te kleine afmetingen verwerken in datum- en tijdstempelreeksen
-
[SPARK-40019] [SQL] Herzie het commentaar van het ArrayType’s 'containsNull' en verbeter de onjuiste logica in de expressie van collectionOperator over
containsNull
- [SPARK-39989] [SQL] Ondersteuning voor schatting van kolomstatistieken als deze uitvouwbare expressie is
- [SPARK-39926] [SQL] Fout in kolom DEFAULT-ondersteuning voor niet-gevectoriseerde Parquet-scans opgelost
- [SPARK-40052] [SQL] Directe bytebuffers verwerken in VectorizedDeltaBinaryPackedReader
- [SPARK-40044] [SQL] Het doelintervaltype in cast-overloopfouten oplossen
- [SPARK-39835] [SQL] Fix ElimineerSorts verwijdert globale sortering onder de lokale sortering
- [SPARK-40002] [SQL] Geef de limiet niet door via een venster met gebruik van ntile
- [SPARK-39976] [SQL] ArrayIntersect zou null in de linker expressie correct moeten verwerken
- [SPARK-39985] [SQL] Impliciete standaardkolomwaarden inschakelen in invoegingen vanuit DataFrames
- [SPARK-39776] [SQL] JOIN uitgebreide tekst moet join-type toevoegen
- [SPARK-38901] [SQL] DS V2 ondersteunt het push-down van diverse functies
- [SPARK-40028] [SQL][followup] Voorbeelden van tekenreeksfuncties verbeteren
- [SPARK-39983] [CORE][sql] Cache geen niet-geserialiseerde broadcastrelaties op de driver
-
[SPARK-39812] [SQL] Code vereenvoudigen die wordt samengesteld
AggregateExpression
mettoAggregateExpression
- [SPARK-40028] [SQL] Binaire voorbeelden voor tekenreeksexpressies toevoegen
- [SPARK-39981] [SQL] Gooi de uitzondering QueryExecutionErrors.castingCauseOverflowErrorInTableInsert in Cast
- [SPARK-40007] [PYTHON][sql] 'modus' toevoegen aan functies
- [SPARK-40008] [SQL] Ondersteuning voor het casten van integralen naar ANSI-intervallen
- [SPARK-40003] [PYTHON][sql] Mediaan toevoegen aan functies
- [SPARK-39952] [SQL] SaveIntoDataSourceCommand moet resultaatrelatie opnieuw in de cache opslaan
- [SPARK-39951] [SQL] Bijwerken van de V2 Parquet-kolomcontrole voor geneste velden
- [SPARK-33236] [shuffle] Backport naar DBR 11.x: Push-gebaseerde shuffle-service inschakelen om de status op te slaan in NM-level DB voor het behouden van werk bij herstart.
- [SPARK-39836] [SQL] Vereenvoudig V2ExpressionBuilder door algemene methode te extraheren.
-
[SPARK-39873] [SQL] Verwijderen
OptimizeLimitZero
en samenvoegen inEliminateLimits
- [SPARK-39961] [SQL] DS V2 push-down vertalen Cast als de cast veilig is
-
[SPARK-39872] [SQL] Wijzigen voor gebruik
BytePackerForLong#unpack8Values
met matrixinvoer-API inVectorizedDeltaBinaryPackedReader
-
[SPARK-39858] [SQL] Verwijder onnodige
AliasHelper
ofPredicateHelper
voor sommige regels - [SPARK-39900] [SQL] Gedeeltelijke of ontkende voorwaarde in de predicaatpushdown van binaire indeling oplossen
- [SPARK-39904] [SQL] Wijzig de naam inferDate in prefersDate en verduidelijk de semantiek van de optie in de CSV-gegevensbron
- [SPARK-39958] [SQL] Waarschuwingslogboek toevoegen wanneer het aangepaste metrische object niet kan worden geladen
- [SPARK-39932] [SQL] WindowExec moet de laatste partitiebuffer wissen
- [SPARK-37194] [SQL] Vermijd onnodige sortering in v1-schrijfbewerkingen als deze geen dynamische partitie is
- [SPARK-39902] [SQL] Scandetails toevoegen aan spark-planscanknooppunt in SparkUI
- [SPARK-39865] [SQL] Juiste foutberichten weergeven over de overloopfouten van tabel invoegen
- [SPARK-39940] [SS] Catalogustabel vernieuwen voor streaming query met DSv1-sink
-
[SPARK-39827] [SQL] De foutklasse
ARITHMETIC_OVERFLOW
gebruiken voor int-overloop inadd_months()
- [SPARK-39914] [SQL] DS V2-filter toevoegen aan V1-filterconversie
- [SPARK-39857] [SQL] Handmatige DBR 11.x-backport; V2ExpressionBuilder gebruikt het verkeerde Gegevenstype LiteralValue voor Predicaat #43454
- nl-NL: [SPARK-39840] [SQL][python] Factor PythonArrowInput uit als symmetrie voor PythonArrowOutput
- [SPARK-39651] [SQL] Prune filtervoorwaarde als vergelijken met rand deterministisch is
- [SPARK-39877] [PYTHON] Unpivot toevoegen aan PySpark DataFrame-API
- [SPARK-39909] [SQL] De controle van push-downgegevens voor JDBCV2Suite organiseren
- [SPARK-39834] [SQL][ss] Neem de oorsprongsstatistieken en -beperkingen voor LogicalRDD op als deze afkomstig is van DataFrame
- [SPARK-39849] [SQL] Dataset.as(StructType) vult ontbrekende nieuwe kolommen met null-waarde
- [SPARK-39860] [SQL] Meer expressies moeten predicaat uitbreiden
- [SPARK-39823] [SQL][python] Wijzig de naam van Dataset.as als Dataset.to en voeg DataFrame.to toe in PySpark
- [SPARK-39918] [SQL][secundair] Vervang de tekst 'un-comparable' door 'incomparable' in het foutbericht
- [SPARK-39857] [SQL][3.3] V2ExpressionBuilder gebruikt het verkeerde Gegevenstype LiteralValue voor Predicaat
- [SPARK-39862] [SQL] Handmatige backport voor PR 43654 gericht op DBR 11.x: bijwerken van SQLConf.DEFAULT_COLUMN_ALLOWED_PROVIDERS om ALTER TABLE toe te staan/te weigeren ... Voeg COLUMN opdrachten afzonderlijk toe.
- [SPARK-39844] [SQL] Handmatige backport voor PR 43652 gericht op DBR 11.x
-
[SPARK-39899] [SQL] Probleem opgelost bij het doorgeven van berichtparameters aan
InvalidUDFClassException
- [SPARK-39890] [SQL] Laat TakeOrderedAndProjectExec de AliasAwareOutputOrdering overerven
- [SPARK-39809] [PYTHON] Ondersteuning voor CharType in PySpark
- [SPARK-38864] [SQL] Unpivot/melt toevoegen aan gegevensset
- [SPARK-39864] [SQL] Lazily executionListenerBus registreren
- [SPARK-39808] [SQL] Ondersteuning voor aggregatiefunctie MODE
-
[SPARK-39875] [SQL] Methode wijzigen
protected
in finale klasse naarprivate
ofpackage-visible
- [SPARK-39731] [SQL] Probleem opgelost in CSV- en JSON-gegevensbronnen bij het parseren van datums in de indeling 'yyyyMMdd' met gecorrigeerd tijdparserbeleid
- [SPARK-39805] [SS] Trigger.Once verwijderen en Trigger.AvailableNow promoveren
- [SPARK-39784] [SQL] Letterlijke waarden rechts van het gegevensbronfilter plaatsen na het vertalen van Catalyst Expression naar een gegevensbronfilter
- [SPARK-39672] [SQL][3.1] Oplossing voor het verwijderen van een project vóór het filter met gecorreleerde subquery
-
[SPARK-39552] [SQL] Samenvoegen v1 en v2
DESCRIBE TABLE
- [SPARK-39810] [SQL] Catalog.tableExists moet geneste naamruimte verwerken
- [SPARK-37287] [SQL] Dynamische partities en buckets sorteren en uittrekken uit FileFormatWriter
- [SPARK-39469] [SQL] Datumtype afleiden voor csv-schemadeductie
- [SPARK-39148] [SQL] DS V2 aggregatie push down kan werken met OFFSET of LIMIT
- [SPARK-39818] [SQL] Fout opgelost in ARRAY, STRUCT, MAP-typen met STANDAARDwaarden met NULL-velden
- [SPARK-39792] [SQL] DecimalDivideWithOverflowCheck toevoegen voor decimaal gemiddelde
-
[SPARK-39798] [SQL] Vervang
toSeq.toArray
met.toArray[Any]
in de constructor vanGenericArrayData
- [SPARK-39759] [SQL] ListIndexes implementeren in JDBC (H2 dialect)
-
[SPARK-39385] [SQL] Ondersteunt push-omlaag
REGR_AVGX
enREGR_AVGY
- [SPARK-39787] [SQL] Foutklasse gebruiken in de parseringsfout van functie to_timestamp
- [SPARK-39760] [PYTHON] Ondersteuning voor Varchar in PySpark
- [SPARK-39557] [SQL] Handmatige backport naar DBR 11.x: Ondersteuning voor ARRAY-, STRUCT-, MAP-typen als standaardwaarden
- [SPARK-39758] [SQL][3.3] NPE herstellen vanuit de regexp-functies op ongeldige patronen
- [SPARK-39749] [SQL] ANSI SQL-modus: een gewone tekenreeksweergave gebruiken bij het casten van decimalen naar tekenreeks
- [SPARK-39704] [SQL] CreateIndex & dropIndex & indexExists implementeren in JDBC (H2 dialect)
-
[SPARK-39803] [SQL] Gebruiken
LevenshteinDistance
in plaats vanStringUtils.getLevenshteinDistance
- [SPARK-39339] [SQL] Ondersteuning voor het type TimestampNTZ in JDBC-gegevensbron
- [SPARK-39781] [SS] Ondersteuning toevoegen voor het bieden van max_open_files aan de provider van de rocksdb-statusopslag
- [SPARK-39719] [R] Implementeer databaseExists/getDatabase in SparkR-ondersteuning voor 3L-naamruimte
- [SPARK-39751] [SQL] Metrische waarde voor de aggregaties van hashsleuteltests wijzigen
- [SPARK-39772] [SQL] namespace moet null zijn wanneer de database null is in de oude constructors
- [SPARK-39625] [SPARK-38904][sql] Toevoegen Dataset.as(StructType)
- [SPARK-39384] [SQL] Ingebouwde statistische functies voor lineaire regressie compileren voor JDBC-dialect
- [SPARK-39720] [R] TableExists/getTable implementeren in SparkR voor 3L-naamruimte
-
[SPARK-39744] [SQL] De
REGEXP_INSTR
functie toevoegen - [SPARK-39716] [R] Laat CurrentDatabase/setCurrentDatabase/listCatalogs in SparkR de 3L-naamruimte ondersteunen
-
[SPARK-39788] [SQL] Naam wijzigen
catalogName
indialectName
voorJdbcUtils
- [SPARK-39647] [CORE] De uitvoerder registreren bij ESS voordat u de BlockManager registreert
-
[SPARK-39754] [CORE][sql] Ongebruikte
import
of onnodige{}
verwijderen -
[SPARK-39706] [SQL] Ontbrekende kolom instellen met defaultValue als constante in
ParquetColumnVector
- [SPARK-39699] [SQL] SamenvouwenProject slimmer maken over expressies voor het maken van verzamelingen
-
[SPARK-39737] [SQL]
PERCENTILE_CONT
enPERCENTILE_DISC
moet ondersteuning bieden voor het aggregatiesfilter - [SPARK-39579] [SQL][python][R] Zorg ervoor dat ListFunctions/getFunction/functionExists compatibel is met een naamruimte met drie lagen
- [SPARK-39627] [SQL] JDBC V2-pushdown moet de compile-API samenvoegen
- [SPARK-39748] [SQL][ss] Neem het logische origin-plan voor LogicalRDD op als het afkomstig is van DataFrame
- [SPARK-39385] [SQL] Lineaire regressie aggregatiefuncties vertalen voor pushdown
-
[SPARK-39695] [SQL] De
REGEXP_SUBSTR
functie toevoegen - [SPARK-39667] [SQL] Een andere tijdelijke oplossing toevoegen wanneer er onvoldoende geheugen is om de tabel te bouwen en uit te zenden
-
[SPARK-39666] [ES-337834][sql] UnsafeProjection.create gebruiken om
spark.sql.codegen.factoryMode
te respecteren in ExpressionEncoder - [SPARK-39643] [SQL] Subquery-expressies in STANDAARDwaarden verbieden
- [SPARK-38647] [SQL] Voeg SupportsReportOrdering mix-in interface toe voor Scan (DataSourceV2)
- [SPARK-39497] [SQL] De analyse-uitzondering van ontbrekende kaartsleutelkolom verbeteren
- [SPARK-39661] [SQL] Vermijd het maken van onnodige SLF4J Logger
- [SPARK-39713] [SQL] ANSI-modus: suggesties toevoegen voor het gebruik van try_element_at voor INVALID_ARRAY_INDEX fout
- [SPARK-38899] [SQL]DS V2 ondersteunt push-down datetime-functies
-
[SPARK-39638] [SQL] Wijzigen om partitiekolommen op te
ConstantColumnVector
slaan inOrcColumnarBatchReader
-
[SPARK-39653] [SQL] Opschonen
ColumnVectorUtils#populate(WritableColumnVector, InternalRow, int)
vanColumnVectorUtils
-
[SPARK-39231] [SQL] Gebruik
ConstantColumnVector
in plaats vanOn/OffHeapColumnVector
partitiekolommen op te slaan inVectorizedParquetRecordReader
- [SPARK-39547] [SQL] V2SessionCatalog mag NoSuchDatabaseException niet genereren in loadNamspaceMetadata
- [SPARK-39447] [SQL] Vermijd AssertionError in AdaptiveSparkPlanExec.doExecuteBroadcast
- [SPARK-39492] [SQL] MISSING_COLUMN opnieuw bewerken
- [SPARK-39679] [SQL] TakeOrderedAndProjectExec moet de uitvoer volgorde van het kind respecteren
- [SPARK-39606] [SQL] Gebruik onderliggende statistieken om de orderoperator te schatten
- [SPARK-39611] [PYTHON][ps] Onjuiste aliassen in array_ufunc oplossen
- [SPARK-39656] [SQL][3.3] Onjuiste naamruimte in DescribeNamespaceExec herstellen
- [SPARK-39675] [SQL] Switch 'spark.sql.codegen.factoryMode' configuratie van testdoel naar intern doel
- [SPARK-39139] [SQL] DS V2 ondersteunt doorgave van DS V2 UDF
- [SPARK-39434] [SQL] Runtimefout over querycontext opgeven wanneer de array-index buiten de limieten valt
- [SPARK-39479] [SQL] DS V2 ondersteunt push-down wiskundige functies (niet ANSI)
-
[SPARK-39618] [SQL] De
REGEXP_COUNT
functie toevoegen - [SPARK-39553] [CORE] Bij gebruik van Scala 2.13 mag het verwijderen van shuffle-registratie met meerdere threads geen NullPointerException veroorzaken.
- [SPARK-38755] [PYTHON][3.3] Voeg een bestand toe om ontbrekende pandas-algemene functies te adresseren
- [SPARK-39444] [SQL] OptimizeSubqueries toevoegen aan de lijst met niet-uitgeslotenrules
- [SPARK-39316] [SQL] PromotePrecision en CheckOverflow samenvoegen in decimale binaire rekenkundige berekeningen
- [SPARK-39505] [UI] Escape-logboekinhoud die wordt weergegeven in de gebruikersinterface
-
[SPARK-39448] [SQL] Toevoegen
ReplaceCTERefWithRepartition
aannonExcludableRules
lijst - [SPARK-37961] [SQL] MaxRows/maxRowsPerPartition overschrijven voor sommige logische operators
- [SPARK-35223] Terugdraaien van de toevoeging van IssueNavigationLink
- [SPARK-39633] [SQL] Ondersteuning voor tijdstempel in seconden voor TimeTravel met behulp van Dataframe-opties
- [SPARK-38796] [SQL] Documentatie bijwerken voor formaatreeksen voor getallen met de functies {try_}to_number
- [SPARK-39650] [SS] Corrigeren van een onjuist waardeschema in streamingontdubbeling met achterwaartse compatibiliteit
- [SPARK-39636] [CORE][ui] Meerdere bugs in JsonProtocol oplossen, wat invloed heeft op heap StorageLevels en Task/Executor ResourceRequests
- [SPARK-39432] [SQL] ELEMENT_AT_BY_INDEX_ZERO retourneren uit element_at(*, 0)
- [SPARK-39349] Een gecentraliseerde CheckError-methode toevoegen voor QA van het foutpad
- [SPARK-39453] [SQL] DS V2 ondersteunt het doordrukken van diverse niet-aggregerende functies (niet ANSI)
- [SPARK-38978] [SQL] DS V2 ondersteunt push down-operator OFFSET
- [SPARK-39567] [SQL] ANSI-intervallen in de percentielfuncties ondersteunen
- [SPARK-39383] [SQL] Ondersteuning voor STANDAARDkolommen in ALTER TABLE ALTER COLUMNS naar V2-gegevensbronnen
- [SPARK-39396] [SQL] Fix LDAP-aanmeldingsfout 'foutcode 49 - ongeldige inloggegevens' herstellen
- [SPARK-39548] [SQL] CreateView Commando met een vensterclausulequery stuitte op een probleem waarbij een onjuiste vensterdefinitie niet werd gevonden.
- [SPARK-39575] [AVRO] voeg ByteBuffer#rewind toe na ByteBuffer#get in Avro...
- [SPARK-39543] De optie van DataFrameWriterV2 moet worden doorgegeven aan opslageigenschappen als u terugval naar v1
- [SPARK-39564] [SS] De informatie van de catalogustabel beschikbaar maken voor het logische plan in streaming query
-
[SPARK-39582] [SQL] Repareren van de 'Sinds' markering voor
array_agg
-
[SPARK-39388] [SQL] Opnieuw
orcSchema
gebruiken wanneer orc-predicaten omlaag worden gepusht - [SPARK-39511] [SQL] Verbeter de lokale beperking van 1 voor de rechterzijde van een linker semi/anti-join als de joinvoorwaarde leeg is.
- [SPARK-38614] [SQL] Druk de limiet niet naar beneden door het venster dat gebruikmaakt van percent_rank
- [SPARK-39551] [SQL] Voeg controle voor ongeldig AQE-plan toe
- [SPARK-39383] [SQL] Ondersteuning voor STANDAARDkolommen in ALTER TABLECOLUMNS toevoegen aan V2-gegevensbronnen
- [SPARK-39538] [SQL] Vermijd het maken van onnodige SLF4J Logger
- [SPARK-39383] [SQL] Handmatige backport naar DBR 11.x: ondersteuning voor standaardkolommen herstructureren om het onnodig doorgeven van de primaire Analyzer te voorkomen
- [SPARK-39397] [SQL] Relax AliasAwareOutputExpression ter ondersteuning van alias met expressie
-
[SPARK-39496] [SQL] Null-struct afhandelen in
Inline.eval
-
[SPARK-39545] [SQL]
concat
Overschrijfmethode voorExpressionSet
in Scala 2.13 om de prestaties te verbeteren - [SPARK-39340] [SQL] DS v2-pushdown moet puntjes in de naam van kolommen op het hoogste niveau toestaan
- [SPARK-39488] [SQL] Vereenvoudig de foutafhandeling van TempResolvedColumn
- [SPARK-38846] [SQL] Expliciete gegevenstoewijzing toevoegen tussen Teradata Numeric Type en Spark DecimalType
-
[SPARK-39520] [SQL]
--
Methode overschrijven voorExpressionSet
in Scala 2.13 - [SPARK-39470] [SQL] Ondersteuning voor cast van ANSI-intervallen naar decimalen
- [SPARK-39477] [SQL] Verwijder informatie over het aantal query's uit de gouden bestanden van SQLQueryTestSuite
- [SPARK-39419] [SQL] MatrixSort herstellen om een uitzondering te genereren wanneer de comparator null retourneert
-
[SPARK-39061] [SQL] Nullable correct instellen voor
Inline
uitvoerkenmerken -
[SPARK-39320] [SQL] Statistische functie ondersteunen
MEDIAN
- [SPARK-39261] [CORE] Nieuwelijnopmaak voor foutberichten verbeteren
- [SPARK-39355] [SQL] Eén kolom gebruikt geciteerd om UnresolvedAttribute samen te stellen
- [SPARK-39351] [SQL] SHOW CREATE TABLE eigenschappen moeten redactiseren
- [SPARK-37623] [SQL] AnSI-statistische functie ondersteunen: regr_intercept
- [SPARK-39374] [SQL] Foutbericht voor door de gebruiker opgegeven kolomlijst verbeteren
- [SPARK-39255] [SQL][3.3] Foutberichten verbeteren
- [SPARK-39321] [SQL] TryCast herstructureren om RuntimeReplaceable te gebruiken
- [SPARK-39406] [PYTHON] NumPy-matrix accepteren in createDataFrame
- [SPARK-39267] [SQL] Het onnodige symbool van dsl opschonen
- [SPARK-39171] [SQL] De Cast-expressie samenvoegen
- [SPARK-28330] [SQL] Ondersteuning voor ANSI SQL: component result offset in query expression
- [SPARK-39203] [SQL] Tabellocatie herschrijven naar absolute URI op basis van database-URI
-
[SPARK-39313] [SQL]
toCatalystOrdering
moet mislukken als V2Expression niet kan worden vertaald - [SPARK-39301] [SQL][python] Maak gebruik van LocalRelation en respecteer Arrow-batchgrootte in createDataFrame met Arrow-optimalisatie.
- [SPARK-39400] [SQL] spark-sql moet in alle gevallen hive-resource-dir verwijderen
Onderhoudsupdates
Zie onderhoudsupdates voor Databricks Runtime 11.2.
Systeemomgeving
- Besturingssysteem: Ubuntu 20.04.4 LTS
- Java: Zulu 8.56.0.21-CA-linux64
- Scala: 2.12.14
- Python: 3.9.5
- R: 4.1.3
- Delta Lake: 2.1.0
Geïnstalleerde Python-bibliotheken
Bibliotheek | Versie | Bibliotheek | Versie | Bibliotheek | Versie |
---|---|---|---|---|---|
Antergos Linux | 2015.10 (ISO-Rolling) | argon2-cffi | 20.1.0 | async-generator | 1,10 |
attrs | 21.2.0 | terugbellen | 0.2.0 | backports.entry-points-selectable | 1.1.1 |
zwart | 22.3.0 | bleken | 4.0.0 | boto3 | 1.21.18 |
botocore | 1.24.18 | certificaat | 2021.10.8 | cffi | 1.14.6 |
chardet | 4.0.0 | charset-normalizer | 2.0.4 | klikken | 8.0.3 |
cryptografie | 3.4.8 | wielrijder | 0.10.0 | Cython | 0.29.24 |
dbus-python | 1.2.16 | debugpy | 1.4.1 | decorateur | 5.1.0 |
defusedxml | 0.7.1 | distlib | 0.3.5 | distro-info | 0.23ubuntu1 |
invoerpunten | 0,3 | overzicht van facetten | 1.0.0 | bestandsvergrendeling | 3.8.0 |
idna | 3.2 | ipykernel | 6.12.1 | ipython | 7.32.0 |
ipython-genutils | 0.2.0 | ipywidgets | 7.7.0 | jedi | 0.18.0 |
Jinja2 | 2.11.3 | jmespath | 0.10.0 | joblib | 1.0.1 |
jsonschema | 3.2.0 | jupyter-client | 6.1.12 | jupyter-core | 4.8.1 |
jupyterlab-pygments | 0.1.2 | jupyterlab-widgets | 1.0.0 | kiwisolver | 1.3.1 |
MarkupSafe | 2.0.1 | matplotlib | 3.4.3 | matplotlib-inline | 0.1.2 |
verkeerd stemmen | 0.8.4 | mypy-extensions | 0.4.3 | nbclient | 0.5.3 |
nbconvert | 6.1.0 | nbformat | 5.1.3 | nest-asyncio | 1.5.1 |
notitieboek | 6.4.5 | numpy | 1.20.3 | verpakking | 21,0 |
Pandas | 1.3.4 | pandocfilters | 1.4.3 | parso | 0.8.2 |
pathspec | 0.9.0 | Patsy | 0.5.2 | pexpect | 4.8.0 |
pickleshare | 0.7.5 | Kussen | 8.4.0 | pit | 21.2.4 |
platformdirs | 2.5.2 | plotly | 5.9.0 | prometheus-client | 0.11.0 |
prompt-toolkit | 3.0.20 | protobuf | 4.21.5 | psutil | 5.8.0 |
psycopg2 | 2.9.3 | ptyprocess | 0.7.0 | pyarrow | 7.0.0 |
pycparser | 2,20 | Pygments | 2.10.0 | PyGObject | 3.36.0 |
pyodbc | 4.0.31 | pyparsing | 3.0.4 | pyrsistent | 0.18.0 |
python-apt | 2.0.0+ubuntu0.20.4.7 | python-dateutil | 2.8.2 | pytz | 2021.3 |
pyzmq | 22.2.1 | verzoeken | 2.26.0 | requests-unixsocket | 0.2.0 |
s3transfer | 0.5.2 | scikit-learn | 0.24.2 | scipy | 1.7.1 |
seaborn | 0.11.2 | Send2Trash | 1.8.0 | setuptools | 58.0.4 |
Zes | 1.16.0 | ssh-import-id | 5.10 | statsmodels | 0.12.2 |
vasthoudendheid | 8.0.1 | voltooid | 0.9.4 | testpath | 0.5.0 |
threadpoolctl | 2.2.0 | tokenize-rt | 4.2.1 | tomli | 2.0.1 |
tornado | 6.1 | traitlets | 5.1.0 | typen-extensies | 3.10.0.2 |
upgrades zonder toezicht | 0,1 | urllib3 | 1.26.7 | virtualenv | 20.8.0 |
wcwidth | 0.2.5 | webcoderingen | 0.5.1 | wiel | 0.37.0 |
widgetsnbextension | 3.6.0 |
Geïnstalleerde R-bibliotheken
R-bibliotheken worden geïnstalleerd vanuit de Microsoft CRAN-momentopname op 2022-08-15.
Bibliotheek | Versie | Bibliotheek | Versie | Bibliotheek | Versie |
---|---|---|---|---|---|
askpass | 1.1 | assertthat | 0.2.1 | terugimporten | 1.4.1 |
basis | 4.1.3 | base64enc | 0.1-3 | beetje | 4.0.4 |
64-bits | 4.0.5 | blob | 1.2.3 | opstarten | 1.3-28 |
brouwsel | 1.0-7 | Brio | 1.1.3 | bezem | 1.0.0 |
bslib | 0.4.0 | cachem | 1.0.6 | beller | 3.7.1 |
caret | 6.0-93 | cellranger | 1.1.0 | Chrono | 2.3-57 |
klasse | 7.3-20 | cli | 3.3.0 | clipr | 0.8.0 |
groep | 2.1.3 | codetools | 0.2-18 | kleurprofiel | 2.0-3 |
commonmark | 1.8.0 | compiler | 4.1.3 | configuratie | 0.3.1 |
cpp11 | 0.4.2 | krijtje | 1.5.1 | aanmeldingsgegevens | 1.3.2 |
curl | 4.3.2 | data.table | 1.14.2 | gegevenssets | 4.1.3 |
DBI | 1.1.3 | dbplyr | 2.2.1 | beschrijving | 1.4.1 |
devtools | 2.4.4 | diffobj | 0.3.5 | verwerken | 0.6.29 |
neerwaarts verlicht | 0.4.2 | dplyr | 1.0.9 | dtplyr | 1.2.1 |
e1071 | 1.7-11 | beletselteken | 0.3.2 | evalueren | 0,16 |
fans | 1.0.3 | kleuren | 2.1.1 | snelle kaart | 1.1.0 |
fontawesome | 0.3.0 | voorspellingen | 0.5.1 | foreach | 1.5.2 |
buitenlands | 0.8-82 | smeden | 0.2.0 | fs | 1.5.2 |
toekomst | 1.27.0 | future.apply | 1.9.0 | gorgelen | 1.2.0 |
generieke termen | 0.1.3 | Gert | 1.7.0 | ggplot2 | 3.3.6 |
Gh | 1.3.0 | gitcreds | 0.1.1 | glmnet | 4.1-4 |
globale variabelen | 0.16.0 | lijm | 1.6.2 | googledrive | 2.0.0 |
googlesheets4 | 1.0.1 | Gower | 1.0.0 | afbeeldingen | 4.1.3 |
grDevices | 4.1.3 | netwerk | 4.1.3 | gridExtra | 2.3 |
gsubfn | 0,7 | gtable | 0.3.0 | veiligheidshelm | 1.2.0 |
haven | 2.5.0 | hoger | 0,9 | Hms | 1.1.1 |
htmltools | 0.5.3 | htmlwidgets | 1.5.4 | httpuv | 1.6.5 |
httr | 1.4.3 | ids | 1.0.1 | ini | 0.3.1 |
ipred | 0.9-13 | isoband | 0.2.5 | Iterators | 1.0.14 |
jquerylib | 0.1.4 | jsonlite | 1.8.0 | KernSmooth | 2.23-20 |
knitr | 1.39 | etikettering | 0.4.2 | later | 1.3.0 |
latwerk | 0.20-45 | lava | 1.6.10 | levenscyclus | 1.0.1 |
listenv | 0.8.0 | lubridate | 1.8.0 | magrittr | 2.0.3 |
Markdown | 1.1 | MASSA | 7.3-56 | Matrix | 1.4-1 |
memoise | 2.0.1 | methoden | 4.1.3 | mgcv | 1.8-40 |
Mime | 0,12 | miniUI | 0.1.1.1 | ModelMetrics | 1.2.2.2 |
modelr | 0.1.8 | munsell | 0.5.0 | nlme | 3.1-157 |
nnet | 7.3-17 | numDeriv | 2016.8-1.1 | openssl | 2.0.2 |
parallel | 4.1.3 | op een parallelle wijze | 1.32.1 | pilaar | 1.8.0 |
pkgbuild | 1.3.1 | pkgconfig | 2.0.3 | pkgdown | 2.0.6 |
pkgload | 1.3.0 | plogr | 0.2.0 | plyr | 1.8.7 |
prijzen | 1.0.0 | prettyunits | 1.1.1 | pROC | 1.18.0 |
processx | 3.7.0 | prodlim | 2019.11.13 | profvis | 0.3.7 |
Voortgang | 1.2.2 | progressr | 0.10.1 | Beloften | 1.2.0.1 |
Proto | 1.0.0 | proxy | 0.4-27 | ps | 1.7.1 |
purrr | 0.3.4 | r2d3 | 0.2.6 | R6 | 2.5.1 |
ragg | 1.2.2 | randomForest | 4.7-1.1 | rappdirs | 0.3.3 |
rcmdcheck | 1.4.0 | RColorBrewer | 1.1-3 | Rcpp | 1.0.9 |
RcppEigen | 0.3.3.9.2 | readr | 2.1.2 | readxl | 1.4.0 |
recepten | 1.0.1 | herkansing | 1.0.1 | herwedstrijd2 | 2.1.2 |
Afstandsbedieningen | 2.4.2 | reproduceerbaar voorbeeld | 2.0.1 | reshape2 | 1.4.4 |
rlang | 1.0.4 | rmarkdown | 2.14 | RODBC | 1.3-19 |
roxygen2 | 7.2.1 | rpart | 4.1.16 | rprojroot | 2.0.3 |
Rserve | 1.8-11 | RSQLite | 2.2.15 | rstudioapi | 0,13 |
rversions | 2.1.1 | rvest | 1.0.2 | Sass | 0.4.2 |
weegschaal | 1.2.0 | selectr | 0.4-2 | sessie-informatie | 1.2.2 |
vorm | 1.4.6 | glanzend | 1.7.2 | sourcetools | 0.1.7 |
sparklyr | 1.7.7 | SparkR | 3.3.0 | ruimtelijk | 7.3-11 |
splines | 4.1.3 | sqldf | 0.4-11 | SQUAREM | 2021.1 |
Statistieken | 4.1.3 | stats4 | 4.1.3 | stringi | 1.7.8 |
stringr | 1.4.0 | overleving | 3.2-13 | sys | 3.4 |
systemfonts | 1.0.4 | tcltk | 4.1.3 | testthat | 3.1.4 |
tekstvorming | 0.3.6 | tibble | 3.1.8 | tidyr | 1.2.0 |
tidyselect | 1.1.2 | tidyverse | 1.3.2 | tijdDatum | 4021.104 |
tinytex | 0.40 | gereedschappen | 4.1.3 | tzdb | 0.3.0 |
urlchecker | 1.0.1 | usethis | 2.1.6 | utf8 | 1.2.2 |
utils | 4.1.3 | uuid | 1.1-0 | vctrs | 0.4.1 |
viridisLite | 0.4.0 | Vroom | 1.5.7 | Waldo | 0.4.0 |
snor | 0,4 | withr | 2.5.0 | xfun | 0.32 |
xml2 | 1.3.3 | xopen | 1.0.0 | xtable | 1.8-4 |
yaml | 2.3.5 | ritssluiting | 2.2.0 |
Geïnstalleerde Java- en Scala-bibliotheken (Scala 2.12-clusterversie)
Groeps-id | Artefact-ID | Versie |
---|---|---|
antlr | antlr | 2.7.7 |
com.amazonaws | amazon-kinesis-client | 1.12.0 |
com.amazonaws | aws-java-sdk-autoscaling | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudformation | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudfront | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudhsm | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudsearch | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudtrail | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudwatch | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.189 |
com.amazonaws | aws-java-sdk-codedeploy | 1.12.189 |
com.amazonaws | aws-java-sdk-cognitoidentity | 1.12.189 |
com.amazonaws | aws-java-sdk-cognitosync | 1.12.189 |
com.amazonaws | aws-java-sdk-config | 1.12.189 |
com.amazonaws | aws-java-sdk-core | 1.12.189 |
com.amazonaws | aws-java-sdk-datapipeline | 1.12.189 |
com.amazonaws | aws-java-sdk-directconnect | 1.12.189 |
com.amazonaws | aws-java-sdk-directory | 1.12.189 |
com.amazonaws | aws-java-sdk-dynamodb | 1.12.189 |
com.amazonaws | aws-java-sdk-ec2 | 1.12.189 |
com.amazonaws | aws-java-sdk-ecs | 1.12.189 |
com.amazonaws | aws-java-sdk-efs | 1.12.189 |
com.amazonaws | aws-java-sdk-elasticache | 1.12.189 |
com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.12.189 |
com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.12.189 |
com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.189 |
com.amazonaws | aws-java-sdk-emr | 1.12.189 |
com.amazonaws | aws-java-sdk-glacier | 1.12.189 |
com.amazonaws | aws-java-sdk-glue | 1.12.189 |
com.amazonaws | aws-java-sdk-iam | 1.12.189 |
com.amazonaws | aws-java-sdk-importexport | 1.12.189 |
com.amazonaws | aws-java-sdk-kinesis | 1.12.189 |
com.amazonaws | aws-java-sdk-kms | 1.12.189 |
com.amazonaws | aws-java-sdk-lambda | 1.12.189 |
com.amazonaws | aws-java-sdk-logs | 1.12.189 |
com.amazonaws | aws-java-sdk-machinelearning | 1.12.189 |
com.amazonaws | aws-java-sdk-opsworks | 1.12.189 |
com.amazonaws | aws-java-sdk-rds | 1.12.189 |
com.amazonaws | aws-java-sdk-redshift | 1.12.189 |
com.amazonaws | aws-java-sdk-route53 | 1.12.189 |
com.amazonaws | aws-java-sdk-s3 | 1.12.189 |
com.amazonaws | aws-java-sdk-ses | 1.12.189 |
com.amazonaws | aws-java-sdk-simpledb | 1.12.189 |
com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.189 |
com.amazonaws | aws-java-sdk-sns | 1.12.189 |
com.amazonaws | aws-java-sdk-sqs | 1.12.189 |
com.amazonaws | aws-java-sdk-ssm | 1.12.189 |
com.amazonaws | aws-java-sdk-storagegateway | 1.12.189 |
com.amazonaws | aws-java-sdk-sts | 1.12.189 |
com.amazonaws | aws-java-sdk-support | 1.12.189 |
com.amazonaws | aws-java-sdk-swf-libraries | 1.11.22 |
com.amazonaws | aws-java-sdk-workspaces | 1.12.189 |
com.amazonaws | jmespath-java | 1.12.189 |
com.chuusai | shapeless_2.12 | 2.3.3 |
com.clearspring.analytics | stroom | 2.9.6 |
com.databricks | Rserve | 1.8-3 |
com.databricks | jets3t | 0.7.1-0 |
com.databricks.scalapb | compilerplugin_2.12 | 0.4.15-10 |
com.databricks.scalapb | scalapb-runtime_2.12 | 0.4.15-10 |
com.esotericsoftware | kryo-geschaduwd | 4.0.2 |
com.esotericsoftware | minlog | 1.3.0 |
com.fasterxml | klasgenoot | 1.3.4 |
com.fasterxml.jackson.core | jackson-annotaties | 2.13.3 |
com.fasterxml.jackson.core | jackson-core | 2.13.3 |
com.fasterxml.jackson.core | jackson-databind | 2.13.3 |
com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.13.3 |
com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.13.3 |
com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.13.3 |
com.fasterxml.jackson.module | jackson-module-paranamer | 2.13.3 |
com.fasterxml.jackson.module | jackson-module-scala_2.12 | 2.13.3 |
com.github.ben-manes.caffeine | cafeïne | 2.3.4 |
com.github.fommil | jniloader | 1.1 |
com.github.fommil.netlib | kern | 1.1.2 |
com.github.fommil.netlib | native_ref-java | 1.1 |
com.github.fommil.netlib | native_ref-java-natives | 1.1 |
com.github.fommil.netlib | native_system-java | 1.1 |
com.github.fommil.netlib | native_system-java-natives | 1.1 |
com.github.fommil.netlib | netlib-native_ref-linux-x86_64-natives | 1.1 |
com.github.fommil.netlib | netlib-native_system-linux-x86_64-natives | 1.1 |
com.github.luben | zstd-jni | 1.5.2-1 |
com.github.wendykierp | JTransforms | 3.1 |
com.google.code.findbugs | jsr305 | 3.0.0 |
com.google.code.gson | gson | 2.8.6 |
com.google.crypto.tink | Ting | 1.6.1 |
com.google.flatbuffers | flatbuffers-java | 1.12.0 |
com.google.guava | guave | 15.0 |
com.google.protobuf | protobuf-java | 2.6.1 |
com.h2database | h2 | 2.0.204 |
com.helger | profiler | 1.1.1 |
com.jcraft | jsch | 0.1.50 |
com.jolbox | bonecp | 0.8.0.RELEASE |
com.lihaoyi | sourcecode_2.12 | 0.1.9 |
com.microsoft.azure | azure-data-lake-store-sdk | 2.3.9 |
com.ning | compress-lzf | 1.1 |
com.sun.mail | javax.mail | 1.5.2 |
com.tdunning | json | 1.8 |
com.thoughtworks.paranamer | paranamer | 2.8 |
com.trueaccord.lenses | lenses_2.12 | 0.4.12 |
com.twitter | chill-java | 0.10.0 |
com.twitter | chill_2.12 | 0.10.0 |
com.twitter | util-app_2.12 | 7.1.0 |
com.twitter | util-core_2.12 | 7.1.0 |
com.twitter | util-function_2.12 | 7.1.0 |
com.twitter | util-jvm_2.12 | 7.1.0 |
com.twitter | util-lint_2.12 | 7.1.0 |
com.twitter | util-registry_2.12 | 7.1.0 |
com.twitter | util-stats_2.12 | 7.1.0 |
com.typesafe | configuratie | 1.2.1 |
com.typesafe.scala-logging | scala-logging_2.12 | 3.7.2 |
com.uber | h3 | 3.7.0 |
com.univocity | univocity-parsers | 2.9.1 |
com.zaxxer | HikariCP | 4.0.3 |
commons-cli | commons-cli | 1.5.0 |
commons-codec | commons-codec | 1.15 |
commons-collections | commons-collections | 3.2.2 |
commons-dbcp | commons-dbcp | 1.4 |
commons-bestandsupload | commons-fileupload | 1.3.3 |
commons-httpclient | commons-httpclient | 3.1 |
commons-io | commons-io | 2.11.0 |
commons-lang | commons-lang | 2.6 |
commons-logging | commons-logging | 1.1.3 |
commons-pool | commons-pool | 1.5.4 |
dev.ludovic.netlib | arpack | 2.2.1 |
dev.ludovic.netlib | Blas | 2.2.1 |
dev.ludovic.netlib | lapack | 2.2.1 |
hadoop3 | jets3t-0.7 | liball_deps_2.12 |
info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
io.airlift | aircompressor | 0.21 |
io.delta | delta-sharing-spark_2.12 | 0.5.0 |
io.dropwizard.metrics | metrische gegevenskern | 4.1.1 |
io.dropwizard.metrics | metrics-graphite | 4.1.1 |
io.dropwizard.metrics | metrische statuscontroles | 4.1.1 |
io.dropwizard.metrics | metrics-jetty9 | 4.1.1 |
io.dropwizard.metrics | metrics-jmx | 4.1.1 |
io.dropwizard.metrics | metrics-json (metrische gegevens in JSON-formaat) | 4.1.1 |
io.dropwizard.metrics | metrics-jvm | 4.1.1 |
io.dropwizard.metrics | metrics-servlets | 4.1.1 |
io.netty | netty-all | 4.1.74.Final |
io.netty | netty-buffer | 4.1.74.Final |
io.netty | netty-codec | 4.1.74.Final |
io.netty | netty-common | 4.1.74.Final |
io.netty | netty-handler | 4.1.74.Final |
io.netty | netty-resolver | 4.1.74.Final |
io.netty | netty-tcnative-classes | 2.0.48.Final |
io.netty | netty-transport | 4.1.74.Final |
io.netty | netty-transport-classes-epoll | 4.1.74.Final |
io.netty | netty-transport-classes-kqueue | 4.1.74.Final |
io.netty | netty-transport-native-epoll-linux-aarch_64 | 4.1.74.Final |
io.netty | netty-transport-native-epoll-linux-x86_64 | 4.1.74.Final |
io.netty | netty-transport-native-kqueue-osx-aarch_64 | 4.1.74.Final |
io.netty | netty-transport-native-kqueue-osx-x86_64 | 4.1.74.Final |
io.netty | netty-transport-native-unix-common | 4.1.74.Final |
io.prometheus | simpleclient | 0.7.0 |
io.prometheus | simpleclient_common | 0.7.0 |
io.prometheus | simpleclient_dropwizard | 0.7.0 |
io.prometheus | simpleclient_pushgateway | 0.7.0 |
io.prometheus | simpleclient_servlet | 0.7.0 |
io.prometheus.jmx | verzamelaar | 0.12.0 |
jakarta.annotatie | jakarta.annotation-api | 1.3.5 |
jakarta.servlet | jakarta.servlet-api | 4.0.3 |
jakarta.validation | jakarta.validation-api | 2.0.2 |
jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
javax.activation | activering | 1.1.1 |
javax.annotatie | javax.annotation-api | 1.3.2 |
javax.el | javax.el-api | 2.2.4 |
javax.jdo | jdo-api | 3.0.1 |
javax.transaction | jta | 1.1 |
javax.transaction | transactie-api | 1.1 |
javax.xml.bind | jaxb-api | 2.2.11 |
javolution | javolution | 5.5.1 |
jline | jline | 2.14.6 |
joda-time | joda-time | 2.10.13 |
mvn | hadoop3 | liball_deps_2.12 |
net.java.dev.jna | jna | 5.8.0 |
net.razorvine | pekelen | 1.2 |
net.sf.jpam | jpam | 1.1 |
net.sf.opencsv | opencsv | 2.3 |
net.sf.supercsv | super-csv | 2.2.0 |
net.snowflake | snowflake-ingest-sdk | 0.9.6 |
net.snowflake | snowflake-jdbc | 3.13.14 |
net.snowflake | spark-snowflake_2.12 | 2.10.0-spark_3.2 |
net.sourceforge.f2j | arpack_combined_all | 0,1 |
org.acplt.remotetea | remotetea-oncrpc | 1.1.2 |
org.antlr | ST4 | 4.0.4 |
org.antlr | antlr-runtime | 3.5.2 |
org.antlr | antlr4-runtime | 4.8 |
org.antlr | stringtemplate | 3.2.1 |
org.apache.ant | ant | 1.9.2 |
org.apache.ant | ant-jsch | 1.9.2 |
org.apache.ant | ant-launcher | 1.9.2 |
org.apache.arrow | pijlnotatie | 7.0.0 |
org.apache.arrow | arrow-memory-core | 7.0.0 |
org.apache.arrow | arrow-memory-netty | 7.0.0 |
org.apache.arrow | pijlvector | 7.0.0 |
org.apache.avro | avro | 1.11.0 |
org.apache.avro | avro-ipc | 1.11.0 |
org.apache.avro | avro-mapred | 1.11.0 |
org.apache.commons | commons-collections4 | 4.4 |
org.apache.commons | commons-compress | 1.21 |
org.apache.commons | commons-crypto | 1.1.0 |
org.apache.commons | commons-lang3 | 3.12.0 |
org.apache.commons | commons-math3 | 3.6.1 |
org.apache.commons | commons-text | 1,9 |
org.apache.curator | curator-klant | 2.13.0 |
org.apache.curator | Curator-framework | 2.13.0 |
org.apache.curator | curator-recepten | 2.13.0 |
org.apache.derby | Derby | 10.14.2.0 |
org.apache.hadoop | hadoop-client-api | 3.3.2-databricks |
org.apache.hadoop | hadoop-client-runtime | 3.3.2 |
org.apache.hive | hive-beeline | 2.3.9 |
org.apache.hive | hive-cli | 2.3.9 |
org.apache.hive | hive-jdbc | 2.3.9 |
org.apache.hive | hive-llap-client | 2.3.9 |
org.apache.hive | hive-llap-common | 2.3.9 |
org.apache.hive | hive-serde | 2.3.9 |
org.apache.hive | hive-shims | 2.3.9 |
org.apache.hive | hive-storage-api | 2.7.2 |
org.apache.hive.shims | hive-shims-0.23 | 2.3.9 |
org.apache.hive.shims | hive-shims-common | 2.3.9 |
org.apache.hive.shims | hive-shims-scheduler | 2.3.9 |
org.apache.httpcomponents | httpclient | 4.5.13 |
org.apache.httpcomponents | httpcore | 4.4.14 |
org.apache.ivy | klimop | 2.5.0 |
org.apache.logging.log4j | log4j-1.2-api | 2.17.2 |
org.apache.logging.log4j | log4j-api | 2.17.2 |
org.apache.logging.log4j | log4j-core | 2.17.2 |
org.apache.logging.log4j | log4j-slf4j-impl | 2.17.2 |
org.apache.mesos | mesos-shaded-protobuf | 1.4.0 |
org.apache.orc | orc-core | 1.7.5 |
org.apache.orc | orc-mapreduce | 1.7.5 |
org.apache.orc | orc-shims | 1.7.5 |
org.apache.parquet | parquet-kolom | 1.12.0-databricks-0004 |
org.apache.parquet | parquet-common | 1.12.0-databricks-0004 |
org.apache.parquet | parquet-codering | 1.12.0-databricks-0004 |
org.apache.parquet | parquetformaatstructuren | 1.12.0-databricks-0004 |
org.apache.parquet | parquet-hadoop | 1.12.0-databricks-0004 |
org.apache.parquet | parquet-jackson | 1.12.0-databricks-0004 |
org.apache.thrift | libfb303 | 0.9.3 |
org.apache.thrift | libthrift | 0.12.0 |
org.apache.xbean | xbean-asm9-gearceerd | 4.20 |
org.apache.yetus | aantekeningen voor het publiek | 0.5.0 |
org.apache.zookeeper | dierentuinverzorger | 3.6.2 |
org.apache.zookeeper | zookeeper-jute | 3.6.2 |
org.checkerframework | checker-qual | 3.5.0 |
org.codehaus.jackson | jackson-core-asl | 1.9.13 |
org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
org.codehaus.janino | commons-compiler | 3.0.16 |
org.codehaus.janino | janino | 3.0.16 |
org.datanucleus | datanucleus-api-jdo | 4.2.4 |
org.datanucleus | datanucleus-core | 4.1.17 |
org.datanucleus | datanucleus-rdbms | 4.1.19 |
org.datanucleus | javax.jdo | 3.2.0-m3 |
org.eclipse.jetty | jetty-client | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-vervolg | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-http | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-io | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-jndi | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-plus | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-proxy | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-security | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-server | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-servlet | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-servlets | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-util | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-util-ajax | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-webapp | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-xml | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | websocket-api | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | websocket-client | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | websocket-common | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | websocket-server | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | websocket-servlet | 9.4.46.v20220331 |
org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
org.glassfish.hk2 | hk2-api | 2.6.1 |
org.glassfish.hk2 | hk2-locator | 2.6.1 |
org.glassfish.hk2 | hk2-utils | 2.6.1 |
org.glassfish.hk2 | osgi-resource-locator | 1.0.3 |
org.glassfish.hk2.external | aopalliance opnieuw verpakt | 2.6.1 |
org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
org.glassfish.jersey.containers | jersey-container-servlet | 2,34 |
org.glassfish.jersey.containers | jersey-container-servlet-core | 2.34 |
org.glassfish.jersey.core | jersey-client | 2.34 |
org.glassfish.jersey.core | jersey-common | 2.34 |
org.glassfish.jersey.core | jersey-server | 2.34 |
org.glassfish.jersey.inject | jersey-hk2 | 2.34 |
org.hibernate.validator | Hibernate-validator | 6.1.0.Final |
org.javassist | javassist | 3.25.0-GA |
org.jboss.logging | jboss-logging | 3.3.2.Final |
org.jdbi | jdbi | 2.63.1 |
org.jetbrains | Aantekeningen | 17.0.0 |
org.joda | joda-convert | 1,7 |
org.jodd | jodd-core | 3.5.2 |
org.json4s | json4s-ast_2.12 | 3.7.0-M11 |
org.json4s | json4s-core_2.12 | 3.7.0-M11 |
org.json4s | json4s-jackson_2.12 | 3.7.0-M11 |
org.json4s | json4s-scalap_2.12 | 3.7.0-M11 |
org.lz4 | lz4-java | 1.8.0 |
org.mariadb.jdbc | mariadb-java-client | 2.7.4 |
org.mlflow | mlflow-spark | 1.27.0 |
org.objenesis | objenesis | 2.5.1 |
org.postgresql | postgresql | 42.3.3 |
org.roaringbitmap | RoaringBitmap | 0.9.25 |
org.roaringbitmap | vulplaatjes | 0.9.25 |
org.rocksdb | rocksdbjni | 6.24.2 |
org.rosuda.REngine | REngine | 2.1.0 |
org.scala-lang | scala-compiler_2.12 | 2.12.14 |
org.scala-lang | scala-library_2.12 | 2.12.14 |
org.scala-lang | scala-reflect_2.12 | 2.12.14 |
org.scala-lang.modules | scala-collection-compat_2.12 | 2.4.3 |
org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
org.scala-lang.modules | scala-xml_2.12 | 1.2.0 |
org.scala-sbt | test-interface | 1.0 |
org.scalacheck | scalacheck_2.12 | 1.14.2 |
org.scalactic | scalactic_2.12 | 3.0.8 |
org.scalanlp | breeze-macros_2.12 | 1.2 |
org.scalanlp | breeze_2.12 | 1.2 |
org.scalatest | scalatest_2.12 | 3.0.8 |
org.slf4j | jcl-over-slf4j | 1.7.36 |
org.slf4j | jul-to-slf4j | 1.7.36 |
org.slf4j | slf4j-api | 1.7.36 |
org.spark-project.spark | ongebruikt | 1.0.0 |
org.threeten | threeten-extra | 1.5.0 |
org.tukaani | xz | 1.8 |
org.typelevel | algebra_2.12 | 2.0.1 |
org.typelevel | katten-kernel_2.12 | 2.1.1 |
org.typelevel | macro-compat_2.12 | 1.1.1 |
org.typelevel | spire-macros_2.12 | 0.17.0 |
org.typelevel | spire-platform_2.12 | 0.17.0 |
org.typelevel | spire-util_2.12 | 0.17.0 |
org.typelevel | spire_2.12 | 0.17.0 |
org.wildfly.openssl | wildfly-openssl | 1.0.7.Final |
org.xerial | sqlite-jdbc | 3.8.11.2 |
org.xerial.snappy | snappy-java | 1.1.8.4 |
org.yaml | snakeyaml | 1,24 |
oro | oro | 2.0.8 |
pl.edu.icm | JLargeArrays | 1.5 |
software.amazon.ion | ion-java | 1.0.2 |
stax | stax-api | 1.0.1 |