Databricks Runtime 15.4 LTS
De volgende releaseopmerkingen bevatten informatie over Databricks Runtime 15.4 LTS, mogelijk gemaakt door Apache Spark 3.5.0.
Databricks heeft deze versie uitgebracht in augustus 2024.
Notitie
LTS betekent dat deze versie op lange termijn wordt ondersteund. Zie de levenscyclus van de Databricks Runtime LTS-versie.
Tip
Als u releaseopmerkingen voor Databricks Runtime-versies wilt zien die end-of-support (EoS) hebben bereikt, raadpleegt u de releaseopmerkingen voor Databricks Runtime. De EoS Databricks Runtime-versies zijn buiten gebruik gesteld en worden mogelijk niet bijgewerkt.
Gedragswijzigingen
-
VARIANT
Een als invoer- of uitvoertype gebruiken met een Python UDF, UDAF of UDTF genereert een uitzondering - wijzigen in de standaardmodus voor schemabindingen voor weergaven
-
Gebruik van de niet-gedocumenteerde
!
syntaxis niet in plaats vanNOT
booleaanse expressies - Verbied niet-gedocumenteerde kolomdefinitiesyntaxis in weergaven
- Consistente foutafhandeling voor Base64-decodering in Spark en Photon
-
Het toevoegen van een
CHECK
beperking voor een ongeldige kolom retourneert nu de UNRESOLVED_COLUMN. WITH_SUGGESTION foutklasse - pyodbc wordt geüpdatet van 4.0.38 naar 4.0.39
VARIANT
Een als invoer- of uitvoertype gebruiken met een Python UDF, UDAF of UDTF genereert een uitzondering
[wijziging die fouten veroorzaakt] In Databricks Runtime 15.3 en hoger roept u een door de gebruiker gedefinieerde Python-functie (UDF), door de gebruiker gedefinieerde statistische functie (UDAF) of door de gebruiker gedefinieerde tabelfunctie (UDTF) aan die gebruikmaakt van een VARIANT
type als argument of retourwaarde een uitzondering genereert. Deze wijziging wordt aangebracht om problemen te voorkomen die kunnen optreden vanwege een ongeldige waarde die door een van deze functies wordt geretourneerd. Zie VARIANT
op te slaan voor meer informatie over het type.
Wijzig de standaard schémabindingmodus voor weergaven
Weergaven worden nu aangepast aan schemawijzigingen in de onderliggende query met behulp van schemacompensatie met reguliere cast-regels. Dit is een wijziging ten opzichte van BINDING
de vorige standaardmodus, die fouten heeft veroorzaakt wanneer een veilige cast niet kon worden uitgevoerd bij het verwijzen naar de weergave.
Zie CREATE VIEW en cast-functie.
Gebruik van de niet-gedocumenteerde !
syntaxis niet in plaats van NOT
booleaanse expressies
Met deze release is het gebruik van !
als synoniem voor NOT
buiten booleaanse expressies niet meer toegestaan. Bijvoorbeeld verklaringen zoals het volgende: CREATE ... IF ! EXISTS
, IS ! NULL, een ! NULL
kolom- of veldeigenschap, ! IN
en ! TUSSEN, moeten worden vervangen door: CREATE ... IF NOT EXISTS
, IS NOT NULL
, een NOT NULL
kolom- of veldeigenschap, NOT IN
en NOT BETWEEN
.
Deze wijziging zorgt voor consistentie, is afgestemd op de SQL-standaard en maakt uw SQL draagbaarder.
De booleaanse voorvoegseloperator!
(bijvoorbeeld !is_mgr
of !(true AND false)
) wordt niet beïnvloed door deze wijziging.
Ongedocumenteerde kolomdefinitie-syntaxis is niet toegestaan in weergaven
Databricks ondersteunt CREATE VIEW met benoemde kolommen en kolomopmerkingen. Voorheen is de specificatie van kolomtypen, NOT NULL
beperkingen of DEFAULT
toegestaan. Met deze release kunt u deze syntaxis niet meer gebruiken.
Deze wijziging zorgt voor consistentie, is afgestemd op de SQL-standaard en biedt ondersteuning voor toekomstige verbeteringen.
Consistente foutafhandeling voor Base64-decodering in Spark en Photon
In deze release wordt gewijzigd hoe Photon base64-decoderingsfouten verwerkt zodat deze overeenkomen met de Spark-verwerking van deze fouten. Vóór deze wijzigingen kon het pad voor het genereren van Photon- en Spark-code soms geen parseringsonderingen veroorzaken, terwijl de uitvoering door Spark correct werd geïnterpreteerd IllegalArgumentException
of ConversionInvalidInputError
. Deze update zorgt ervoor dat Photon consistent dezelfde uitzonderingen genereert als Spark tijdens base64-decoderingsfouten, wat voorspelbare en betrouwbare foutafhandeling biedt.
Het toevoegen van een CHECK
-beperking aan een ongeldige kolom resulteert nu in de foutklasse UNRESOLVED_COLUMN.WITH_SUGGESTION.
Om nuttigere foutmeldingen te geven, retourneert in Databricks Runtime 15.3 en hoger een ALTER TABLE ADD CONSTRAINT
-instructie met een CHECK
-beperking die verwijst naar een ongeldige kolomnaam de UNRESOLVED_COLUMN.WITH_SUGGESTION foutklasse. Eerder werd er een INTERNAL_ERROR
geretourneerd.
pyodbc wordt bijgewerkt van 4.0.38 naar 4.0.39
Het pyodbc-pakket wordt bijgewerkt van versie 4.0.38 naar versie 4.0.39. Deze wijziging is vereist omdat er een fout is gevonden in versie 4.0.38 en die versie is verwijderd uit PyPI.
Nieuwe functies en verbeteringen
- UTF-8-validatiefuncties
- Getypte gegevensset-API's met Scala UDF's
- UniForm Iceberg inschakelen met behulp van ALTER TABLE
- try_url_decode, functie
- Optioneel toestaan dat de optimizer afhankelijk is van niet-afgedwongen beperkingen voor refererende sleutels
- Parallelle taakuitvoeringen voor selectief overschrijven
- Verbeterde prestaties voor wijzigingsgegevensfeed met selectieve overschrijven
-
Verbeterde querylatentie voor de
COPY INTO
opdracht - Ondersteuning voor het laten vallen van de functie voor tabelbeperkingen
- Rekenkracht van één gebruiker ondersteunt gedetailleerd toegangsbeheer, gerealiseerde weergaven en streamingtabellen (openbare preview)
- Uitgebreide ondersteuning voor Java- en Scala-bibliotheken
- Uitgebreide ondersteuning voor Scala-gegevenssetbewerkingen
- Scala is algemeen beschikbaar op Unity Catalog gedeelde compute-
- Unity Catalog-beheerde toegang tot externe cloudservices met behulp van servicereferenties (Openbare Preview)
UTF-8-validatiefuncties
In deze release worden de volgende functies geïntroduceerd voor het valideren van UTF-8-tekenreeksen:
- is_valid_utf8 gecontroleerd of een tekenreeks een geldige UTF-8-tekenreeks is.
- make_valid_utf8 converteert een mogelijk ongeldige UTF-8-tekenreeks naar een geldige UTF-8-tekenreeks met vervangingstekens
- validate_utf8 genereert een fout als de invoer geen geldige UTF-8-tekenreeks is.
-
try_validate_utf8 retourneert
NULL
als de invoer geen geldige UTF-8-tekenreeks is.
Getypte gegevensset-API's met Scala UDF's
Deze release bevat extra ondersteuning voor getypte Dataset-API's met door gebruikers gedefinieerde Scala-functies (met uitzondering van door gebruikers gedefinieerde aggregeerfuncties) op Unity Catalog-ingeschakelde computer in gedeelde toegangsmodus. Zie Getypte gegevensset-API's.
UniForm Iceberg inschakelen met ALTER TABLE
U kunt UniForm Iceberg nu inschakelen voor bestaande tabellen zonder gegevensbestanden opnieuw te schrijven. Zie Iceberg-lezen inschakelen voor een bestaande tabel.
try_url_decode, functie
In deze release wordt de try_url_decode-functie geïntroduceerd, waarmee een tekenreeks met URL-codering wordt gedecodeerd. Als de tekenreeks niet de juiste indeling heeft, retourneert NULL
de functie in plaats van een fout op te geven.
Optioneel toestaan dat de optimizer afhankelijk is van niet-afgedwongen beperkingen voor refererende sleutels
Als u de queryprestaties wilt verbeteren, kunt u nu het RELY
trefwoord opgeven voor FOREIGN KEY
beperkingen wanneer u CREATE of ALTER een tabel.
Parallelle taakuitvoeringen voor selectief overschrijven
Selectief overschrijven met behulp van replaceWhere
nu taken uitvoeren waarmee gegevens worden verwijderd en nieuwe gegevens parallel worden ingevoegd, waardoor de queryprestaties en het clustergebruik worden verbeterd.
Verbeterde prestaties voor wijzigingsgegevensfeed met selectieve overschrijven
Selectieve overschrijvingen met behulp van replaceWhere
in tabellen met gegevenswijzigingsfeed schrijven niet langer afzonderlijke wijzigingsbestanden voor ingevoegde gegevens. Deze bewerkingen maken gebruik van een verborgen _change_type
kolom die aanwezig is in de onderliggende Parquet-gegevensbestanden om wijzigingen vast te leggen zonder schrijfversterking.
Verbeterde querylatentie voor de COPY INTO
opdracht
Deze release bevat een wijziging die de querylatentie voor de COPY INTO
opdracht verbetert. Deze verbetering wordt geïmplementeerd door het laden van de status door de RocksDB-statusopslag asynchroon te maken. Met deze wijziging ziet u een verbetering in de begintijden voor query's met grote statussen, zoals query's met een groot aantal al opgenomen bestanden.
Ondersteuning voor het verwijderen van de functie voor controles op tabelbeperkingen
U kunt nu de checkConstraints
tabelfunctie uit een Delta-tabel verwijderen met behulp van ALTER TABLE table_name DROP FEATURE checkConstraints
. Zie Controlebeperkingen uitschakelen.
Compute van één gebruiker biedt ondersteuning voor gedetailleerd toegangsbeheer, gerealiseerde weergaven en streamingtabellen (openbare preview)
Wanneer een werkruimte is ingeschakeld voor serverloze berekeningen, voegt Databricks Runtime 15.4 LTS ondersteuning toe voor fijnmazig toegangsbeheer voor rekenkracht van één gebruiker. Wanneer een query toegang heeft tot een van de volgende objecten, geeft de rekenresource voor één gebruiker in Databricks Runtime 15.4 LTS de query door aan de serverloze berekening om gegevensfiltering uit te voeren:
- Weergaven die zijn gedefinieerd in tabellen waarvoor de gebruiker niet over de bevoegdheid
SELECT
beschikt. - Dynamische weergaven.
- Tabellen waarop rijfilters of kolommaskers zijn toegepast.
- Gematerialiseerde weergaven en streamingtabellen.
Deze query's worden niet ondersteund op rekenkracht van één gebruiker waarop Databricks Runtime 15.3 en lager wordt uitgevoerd.
Zie Fijnmazig toegangsbeheer voor rekenkracht van één gebruiker voor meer informatie.
Uitgebreide ondersteuning voor Java- en Scala-bibliotheken
Vanaf Databricks Runtime 15.4 LTS zijn alle Java- en Scala-bibliotheken die zijn gebundeld met Databricks Runtime beschikbaar in alle rekentoegangsmodi wanneer u Unity Catalog gebruikt. Zie Beperkingen voor de toegangsmodus van compute voor Unity Catalogvoor meer informatie over taalondersteuning op Unity Catalog-compatibele compute.
Uitgebreide ondersteuning voor Scala-gegevenssetbewerkingen
Met deze release ondersteunen Unity Catalog-rekenresources die gebruikmaken van de modus voor gedeelde toegang de volgende Scala-Dataset
-bewerkingen: map
, mapPartitions
, foreachPartition
, flatMap
, reduce
en filter
.
Scala is algemeen beschikbaar op gedeelde rekenkracht van Unity Catalog
Met deze release is Scala algemeen beschikbaar in de gedeelde toegangsmodus van Unity Catalog-geactiveerde rekenkracht, inclusief ondersteuning voor gebruikersgedefinieerde scalaire functies (UDF's). Gestructureerde streaming, Hive UDF's en door de gebruiker gedefinieerde Statistische Functies van Hive worden niet ondersteund. Zie Beperkingen voor de compute-toegangsmodus voor Unity Catalogvoor een volledige lijst met beperkingen.
Door Unity Catalog beheerde toegang tot externe cloudservices met behulp van servicereferenties (openbare preview)
Servicereferenties maken eenvoudige en veilige verificatie mogelijk met de services van uw cloudtenant met behulp van door Azure beheerde identiteiten (MI) en Unity Catalog. Zie Toegang tot externe cloudservices beheren met behulp van servicereferenties.
Bugfixes
Bibliotheekupgrades
- Bijgewerkte Python-bibliotheken:
- azure-core van 1.30.1 tot 1.30.2
- google-auth van 2.29.0 tot 2.31.0
- google-cloud-storage van 2.16.0 tot 2.17.0
- google-hervatbare media van 2.7.0 tot 2.7.1
- googleapis-common-protos van 1.63.0 tot 1.63.2
- mlflow-skinny van 2.11.3 tot 2.11.4
- proto-plus van 1.23.0 tot 1.24.0
- s3transfer van 0.10.1 tot 0.10.2
- Bijgewerkte R-bibliotheken:
- Bijgewerkte Java-bibliotheken:
- com.databricks.databricks-sdk-java van 0.17.1 tot 0.27.0
- com.ibm.icu.icu4j van 72.1 tot 75.1
- software.amazon.cryptools.AmazonCorrettoCryptoProvider van 1.6.1-linux-x86_64 tot 1.6.2-linux-x86_64
Apache Spark
Databricks Runtime 15.4 LTS bevat Apache Spark 3.5.0. Deze release bevat alle Spark-oplossingen en -verbeteringen die zijn opgenomen in Databricks Runtime 15.3 (EoS), en de volgende aanvullende bugfixes en verbeteringen in Spark:
- [SPARK-48503] [DBRRM-1150][SC-172196][SQL] Groeperen op expressies in scalaire subquery's toestaan als ze afhankelijk zijn van buitenste rijen
- [SPARK-48834] [GEDRAG-79][SC-170972][SQL] Variantinvoer/uitvoer uitschakelen naar scalaire UDF's, UDDF's, UDAF's tijdens het compileren van query's
- [SPARK-48441] [SC-170980][SQL][WARMFIX] StringTrim-gedrag corrigeren voor niet-UTF8_BINARY sorteringen
- [SPARK-48440] [SC-170895][SQL][WARMFIX] TekenreeksTranslate-gedrag corrigeren voor niet-UTF8_BINARY sorteringen
- [SPARK-48872] [SC-170866][PYTHON] Verminder de overhead van _capture_call_site
-
[SPARK-48862] [SC-170845][PYTHON][VERBINDING MAKEN] Bel niet
_proto_to_string
wanneer INFO-niveau niet is ingeschakeld - [SPARK-48852] [SC-170837][VERBINDING MAKEN] Functie voor het knippen van tekenreeksen in verbinding herstellen
- [SPARK-48791] [SC-170658][CORE] Prestatieregressie oplossen die wordt veroorzaakt door de registratie-overhead van accumulators met behulp van CopyOnWriteArrayList
-
[SPARK-48118] [SQL] Ondersteuning voor
SPARK_SQL_LEGACY_CREATE_HIVE_TABLE
env-variabele - [SPARK-48241] [SC-165811][SQL] CSV-parseringsfout met kolommen met teken-/varchar-type
- [SPARK-48168] [SC-166900][SQL] Ondersteuning voor bitwise shifting-operators toevoegen
- [SPARK-48148] [SC-165630][CORE] JSON-objecten mogen niet worden gewijzigd wanneer ze als TEKENREEKS worden gelezen
- [SPARK-46625] [SC-170561] CTE met identificatiecomponent als referentie
-
[SPARK-48771] [SC-170546][SQL] Sneller uitvoeren
LogicalPlanIntegrity.validateExprIdUniqueness
voor grote queryplannen -
[SPARK-48831] [BEHAVE-76][SC-170554][CONNECT] Standaardkolomnaam van
cast
compatibel maken met Spark Classic - [SPARK-48623] [SC-170544][CORE] Migraties voor gestructureerde logboekregistratie [deel 2]
-
[SPARK-48296] [SC-166138][SQL] Ondersteuning voor codegen voor
to_xml
- [SPARK-48027] [SC-165154][SQL] InjectRuntimeFilter voor meerlagige joins moet het child jointype controleren
- [SPARK-48686] [SC-170365][SQL] Prestaties van ParserUtils.unescapeSQLString verbeteren
-
[SPARK-48798] [SC-170588][PYTHON] Introduceren
spark.profile.render
voor profilering op basis van SparkSession - [SPARK-48048] [SC-169099] [SC-164846][CONNECT][SS] Ondersteuning voor listener aan clientzijde toegevoegd voor Scala
- [SPARK-47910] [SC-168929][CORE] sluit de stream wanneer DiskBlockObjectWriterResources sluit om geheugenlekken te voorkomen
- [SPARK-48816] [SC-170547][SQL] Afkorting voor intervalconversieprogramma's in UnivocityParser
- [SPARK-48589] [SC-170132][SQL][SS] Optie snapshotStartBatchId en snapshotPartitionId toevoegen aan de statusgegevensbron
- [SPARK-48280] [SC-170293][SQL] Het oppervlakoppervlak voor sorteringstests verbeteren met behulp van expressies lopen
- [SPARK-48837] [SC-170540][ML] In CountVectorizer, alleen lezen binaire parameter eenmaal per transformatie, niet één keer per rij
- [SPARK-48803] [SC-170541][SQL] Interne fout genereren in Orc(De)serializer om te worden uitgelijnd met ParquetWriteSupport
- [SPARK-48764] [SC-170129][PYTHON] IPython-gerelateerde frames uit gebruikersstack filteren
-
[SPARK-48818] [SC-170414][PYTHON] Functies vereenvoudigen
percentile
- [SPARK-48479] [SC-169079][SQL] Ondersteuning voor het maken van scalaire SQL UDF's en tabellen in parser
- [SPARK-48697] [SC-170122][LC-4703][SQL] Sorteringsbewuste tekenreeksfilters toevoegen
- [SPARK-48800] [SC-170409][VERBINDING MAKEN][SS] Deflake ClientStreamingQuerySuite
-
[SPARK-48738] [SC-169814][SQL] Correct sinds versie voor ingebouwde func-alias
random
,position
, ,mod
,cardinality
,current_schema
,user
,session_user
,char_length
character_length
- [SPARK-48638] [SC-169575][VERBINDING MAKEN] Ondersteuning voor ExecutionInfo toevoegen voor DataFrame
- [SPARK-48064] [SC-164697][SQL] Foutberichten bijwerken voor routinefoutenklassen
- [SPARK-48810] [VERBINDING MAKEN] Sessiestop() API moet idempotent zijn en niet mislukken als de sessie al is gesloten door de server
- [SPARK-48650] [15.x][PYTHON] De juiste oproepsite weergeven vanuit IPython Notebook
- [SPARK-48271] [SC-166076][SQL] De overeenkomstfout in RowEncoder omzetten in UNSUPPORTED_DATA_TYPE_FOR_ENCODER
- [SPARK-48709] [SC-169603][SQL] Oplossing voor varchar-type komt niet overeen voor DataSourceV2 CTAS
- [SPARK-48792] [SC-170335][SQL] Terugval oplossen voor INSERT met gedeeltelijke kolomlijst naar een tabel met char/varchar
-
[SPARK-48767] [SC-170330][SQL] Enkele foutprompts oplossen wanneer
variant
typegegevens ongeldig zijn -
[SPARK-48719] [SC-170339][SQL] Corrigeer de berekeningsfout van
RegrSlope
&RegrIntercept
wanneer de eerste parameter null is - [SPARK-48815] [SC-170334][CONNECT] Updateomgeving wanneer de verbindingssessie wordt gestopt
- [SPARK-48646] [SC-169020][PYTHON] Python-gegevensbron-API-docstring verfijnen en hints typen
- [SPARK-48806] [SC-170310][SQL] Werkelijke uitzondering doorgeven wanneer url_decode mislukt
- [SPARK-47777] [SC-168818] Test voor verbinding met python-streaminggegevensbron oplossen
-
[SPARK-48732] [SC-169793][SQL] Afgeschaft API-gebruik opschonen met betrekking tot
JdbcDialect.compileAggregate
- [SPARK-48675] [SC-169538][SQL] Cachetabel met gesorteerde kolom herstellen
- [SPARK-48623] [SC-169034][CORE] Migraties voor gestructureerde logboekregistratie
- [SPARK-48655] [SC-169542][SQL] SPJ: Tests toevoegen voor het overslaan van willekeurige volgorde voor statistische query's
- [SPARK-48586] [SC-169808][SS] Vergrendeling verwijderen in doMaintenance() door een diepe kopie te maken van bestandstoewijzingen in RocksDBFileManager in load()
- [SPARK-48799] [Backport][15.x][SC-170283][SS] Versiebeheer herstructureren voor lezen/schrijven van operatormetagegevens en bellers
- [SPARK-48808] [SC-170309][SQL] NPE herstellen bij het verbinden van thriftserver via Hive 1.2.1 en het resultaatschema is leeg
- [SPARK-48715] [SC-170291][SQL] UTF8String-validatie integreren in sorteringsbewuste tekenreeksfunctie-implementaties
- [SPARK-48747] [SC-170120][SQL] Codepunt-iterator toevoegen aan UTF8String
- [SPARK-48748] [SC-170115][SQL] Cache-numChars in UTF8String
- [SPARK-48744] [SC-169817][Core] Logboekvermelding mag slechts één keer worden samengesteld
-
[SPARK-46122] [SC-164313][SQL]
spark.sql.legacy.createHiveTableByDefault
standaard instellen opfalse
- [SPARK-48765] [SC-170119][IMPLEMENTEREN] Evaluatie van standaardwaarden verbeteren voor SPARK_IDENT_STRING
- [SPARK-48759] [SC-170128][SQL] Migratiedocument toevoegen voor CREATE TABLE AS SELECT gedragswijziging sinds Spark 3.4
- [SPARK-48598] [SC-169484][PYTHON][VERBINDING] Schema in cache doorgeven in dataframebewerkingen
-
[SPARK-48766] [SC-170126][PYTHON] Documenteer het gedragsverschil
extraction
tussenelement_at
entry_element_at
-
[SPARK-48768] [SC-170124][PYTHON][VERBINDING MAKEN] Mag de cache niet opslaan
explain
- [SPARK-48770] [Backport][15.x][SC-170133][SS] Aanpassing om de metagegevens van de operator eenmalig in de driver te lezen, om te controleren of we informatie kunnen vinden voor numColsPrefixKey die wordt gebruikt voor sessievenster-aggregatiequery's.
-
[SPARK-48656] [SC-169529][CORE] Voer een lengtecontrole uit en genereert COLLECTION_SIZE_LIMIT_EXCEEDED fout in
CartesianRDD.getPartitions
- [SPARK-48597] [SC-168817][SQL] Een markering introduceren voor de eigenschap isStreaming in de tekstweergave van een logisch plan
- [SPARK-48472] [SC-169044][SQL] Expressies met gesorteerde tekenreeksen inschakelen
- [SPARK-48699] [SC-169597][SQL] Sorterings-API verfijnen
- [SPARK-48682] [SC-169812][SQL][GEDRAG-58] ICU gebruiken in InitCap-expressie voor UTF8_BINARY tekenreeksen
- [SPARK-48282] [SC-169813][SQL] Zoeklogica voor tekenreeksen wijzigen voor UTF8_BINARY_LCASE sortering (StringReplace, FindInSet)
- [SPARK-47353] [SC-169599][SQL] Ondersteuning voor sortering inschakelen voor de modusexpressie
- [SPARK-48320] [SPARK-48490] Synchroniseer de meest recente eigenschappen voor logboekregistratie en testcases van OSS Spark
- [SPARK-48629] [SC-169479] De restcode migreren naar een gestructureerd framework voor logboekregistratie
- [SPARK-48681] [SC-169469][SQL][GEDRAG-58] ICU gebruiken in expressies onder/boven voor UTF8_BINARY tekenreeksen
- [SPARK-48573] [15.x][SC-169582][SQL] ICU-versie upgraden
- [SPARK-48687] [Backport][15.x][SS] Wijziging toevoegen om statusschemavalidatie uit te voeren en bij te werken op stuurprogramma voor stateful query's
- [SPARK-47579] [15.x][SC-167310][CORE][DEEL4] LogInfo migreren met variabelen naar een gestructureerd framework voor logboekregistratie
- [SPARK-48008] [SC-167363][1/2] Ondersteuning voor UDAF's in Spark Connect
- [SPARK-48578] [SC-169505][SQL] UTF8-tekenreeksvalidatiefuncties toevoegen
- [SPARK-48670] [SC-169598][SQL] Suggesties geven als onderdeel van een foutbericht wanneer er een ongeldige sorteringsnaam wordt gegeven
- [SPARK-48059] [SPARK-48145][SPARK-48134][SPARK-48182][SPARK-48209][BEVEILIGD-WACHTWOORDVERIFICATIE... … RK-48291] Gestructureerd logboekframework aan de java-zijde
- [SPARK-47599] [15.x][SC-166000][MLLIB] MLLib: LogWarn migreren met variabelen naar een gestructureerd framework voor logboekregistratie
- [SPARK-48706] [SC-169589][PYTHON] Python UDF in hogere volgorde functies mogen geen interne fout veroorzaken
- [SPARK-48498] [GEDRAG-38][SC-168060][SQL] Altijd tekenopvulling uitvoeren in predicaten
- [SPARK-48662] [SC-169533][SQL] StructsToXml-expressie met sorteringen herstellen
- [SPARK-48482] [SC-167702][PYTHON][15.x] dropDuplicates and dropDuplicatesWIthinWatermark moet variabele lengte args accepteren
- [SPARK-48678] [SC-169463][CORE] Prestatieoptimalisaties voor SparkConf.get(ConfigEntry)
- [SPARK-48576] [SQL] De naam van UTF8_BINARY_LCASE wijzigen in UTF8_LCASE
- [SPARK-47927] [SC-164123][SQL]: Los het kenmerk nullability in de UDF-decoder op
- [SPARK-47579] [SC-165297][CORE][DEEL1] LogInfo migreren met variabelen naar gestructureerd framework voor logboekregistratie (nieuw)
-
[SPARK-48695] [SC-169473][PYTHON]
TimestampNTZType.fromInternal
de afgeschafte methoden niet gebruiken - [SPARK-48431] [SC-167290][LC-4066][SQL] Geen predicaten doorsturen voor gesorteerde kolommen naar bestandslezers
- [SPARK-47579] Revert "[SC-165297][CORE][PART1] Migrate logInfo with variables to structured logging framework"
- [SPARK-47585] [SC-164306][SQL] SQL Core: LogInfo migreren met variabelen naar een gestructureerd framework voor logboekregistratie
- [SPARK-48466] [SC-169042][SQL] Toegewezen knooppunt maken voor EmptyRelation in AQE
- [SPARK-47579] [SC-165297][CORE][DEEL1] LogInfo migreren met variabelen naar een gestructureerd framework voor logboekregistratie
- [SPARK-48410] [SC-168320][SQL] InitCap-expressie herstellen voor UTF8_BINARY_LCASE & ICU-sorteringen
- [SPARK-48318] [SC-167709][SQL] Ondersteuning voor hash-join inschakelen voor alle sorteringen (complexe typen)
- [SPARK-48435] [SC-168128][SQL] Unicode-sortering mag geen ondersteuning bieden voor binaire gelijkheid
- [SPARK-48555] [SC-169041][SQL][PYTHON][CONNECT] Ondersteuning voor het gebruik van kolommen als parameters voor verschillende functies in pyspark/scala
-
[SPARK-48591] [SC-169081][PYTHON] Een helperfunctie toevoegen om dit te vereenvoudigen
Column.py
- [SPARK-48574] [SC-169043][SQL] Ondersteuning voor StructTypes met sorteringen herstellen
- [SPARK-48305] [SC-166390][SQL] Ondersteuning voor sortering toevoegen voor CurrentLike-expressies
- [SPARK-48342] [SC-168941][SQL] Inleiding tot SQL Scripting Parser
- [SPARK-48649] [SC-169024][SQL] Voeg 'ignoreInvalidPartitionPaths' en 'spark.sql.files.ignoreInvalidPartitionPaths' toe om ongeldige partitiepaden te negeren
- [SPARK-48000] [SC-167194][SQL] Ondersteuning voor hash-join inschakelen voor alle sorteringen (StringType)
- [SPARK-48459] [SC-168947][VERBINDING MAKEN][PYTHON] DataFrameQueryContext implementeren in Spark Connect
- [SPARK-48602] [SC-168692][SQL] Csv-generator ondersteunen verschillende uitvoerstijl met spark.sql.binaryOutputStyle
- [SPARK-48283] [SC-168129][SQL] Vergelijking van tekenreeksen wijzigen voor UTF8_BINARY_LCASE
- [SPARK-48610] [SC-168830][SQL] herstructureren: hulp-idMap gebruiken in plaats van OP_ID_TAG
- [SPARK-48634] [SC-169021][PYTHON][VERBINDING MAKEN] Vermijd het statisch initialiseren van threadpool bij ExecutePlanResponseReattachableIterator
- [SPARK-47911] [SC-164658][SQL] Introduceert een universele BinaryFormatter om binaire uitvoer consistent te maken
- [SPARK-48642] [SC-168889][CORE] False SparkOutOfMemoryError veroorzaakt door moordtaak bij overlopen
- [SPARK-48572] [SC-168844][SQL] DateSub-, DateAdd-, WindowTime-, TimeWindow- en SessionWindow-expressies herstellen
- [SPARK-48600] [SC-168841][SQL] Impliciete cast-expressies van FrameLessOffsetWindowFunction corrigeren
- [SPARK-48644] [SC-168933][SQL] Voer een lengtecontrole uit en gooi COLLECTION_SIZE_LIMIT_EXCEEDED fout in Hex.hex
- [SPARK-48587] [SC-168824][VARIANT] Opslagversterking voorkomen bij het openen van een subvariant
-
[SPARK-48647] [SC-168936][PYTHON][VERBINDING MAKEN] Het foutbericht voor
YearMonthIntervalType
indf.collect
- [SPARK-48307] [SC-167802][SQL] InlineCTE moet niet-inline-relaties behouden in het oorspronkelijke WithCTE-knooppunt
- [SPARK-48596] [SC-168581][SQL] Prestatieverbetering voor het berekenen van hextekenreeks voor lange tijd
- [SPARK-48621] [SC-168726][SQL] Like-vereenvoudiging in Optimizer oplossen voor gesorteerde tekenreeksen
- [SPARK-47148] [SC-164179][SQL] Vermijd het materialiseren van AQE ExchangeQueryStageExec bij de annulering
- [SPARK-48584] [SC-168579][SQL] Prestatieverbetering voor unescapePathName
- [SPARK-48281] [SC-167260][SQL] Zoeklogica voor tekenreeksen wijzigen voor UTF8_BINARY_LCASE sortering (StringInStr, SubstringIndex)
- [SPARK-48577] [SC-168826][SQL] Ongeldige UTF-8 bytereeksvervanging
-
[SPARK-48595] [SC-168580][CORE] Afgeschaft API-gebruik opschonen met betrekking tot
commons-compress
- [SPARK-48030] [SC-164303][SQL] SPJ: cache rowOrdering en structType voor InternalRowComparableWrapper
- [SPARK-48004] [SC-164005][SQL] WriteFilesExecBase-kenmerk toevoegen voor v1-schrijfbewerkingen
- [SPARK-48551] [SC-168438][SQL] Prestatieverbetering voor escapePathName
- [SPARK-48565] [SC-168437][UI] Weergave van threaddump in de gebruikersinterface herstellen
- [SPARK-48364] [SC-166782][SQL] AbstractMapType-type cast toevoegen en de parametertoewijzing RaiseError herstellen om te werken met gesorteerde tekenreeksen
- [SPARK-48421] [SC-168689][SQL] SPJ: documentatie toevoegen
-
[SPARK-48604] [SC-168698][SQL] Afgeschafte methodeaanroep vervangen
new ArrowType.Decimal(precision, scale)
- [SPARK-46947] [SC-157561][CORE] Initialisatie van geheugenbeheer vertragen totdat de invoegtoepassing Stuurprogramma is geladen
- [SPARK-48411] [SC-168576][SS][PYTHON] E2E-test toevoegen voor DropDuplicateWithinWatermark
- [SPARK-48543] [SC-168697][SS] Validatiefouten van statusrijen bijhouden met behulp van expliciete foutklasse
- [SPARK-48221] [SC-167143][SQL] Zoeklogica voor tekenreeksen wijzigen voor UTF8_BINARY_LCASE sortering (Bevat, StartsWith, EndsWith, StringLocate)
- [SPARK-47415] [SC-168441][SQL] Ondersteuning voor sortering toevoegen voor Levenshtein-expressie
- [SPARK-48593] [SC-168719][PYTHON][VERBINDING MAKEN] De tekenreeksweergave van de lambda-functie herstellen
- [SPARK-48622] [SC-168710][SQL] haal SQLConf eenmaal op bij het resolven van kolomnamen
-
[SPARK-48594] [SC-168685][PYTHON][VERBINDING MAKEN] Naam van veld
parent
wijzigenchild
in inColumnAlias
- [SPARK-48403] [SC-168319][SQL] Kleine en bovenste expressies voor UTF8_BINARY_LCASE & ICU-sorteringen herstellen
- [SPARK-48162] [SC-166062][SQL] Ondersteuning voor sortering toevoegen voor MISC-expressies
- [SPARK-48518] [SC-167718][CORE] LZF-compressie parallel uitvoeren
-
[SPARK-48474] [SC-167447][CORE] Corrigeer de klassenaam van het logboek in
SparkSubmitArguments
&SparkSubmit
- [SPARK-48012] [SC-168267][SQL] SPJ: Ondersteuning voor Transfrom-expressies voor One Side Shuffle
- [SPARK-48552] [SC-168212][SQL] meerregelige CSV-schemadeductie dient ook FAILED_READ_FILE te geven
- [SPARK-48560] [SC-168268][SS][PYTHON] StreamingQueryListener.spark-settable maken
- [SPARK-48569] [SC-168321][SS][VERBINDING MAKEN] Edge-aanvragen in query.name verwerken
- [SPARK-47260] [SC-167323][SQL] Naam toewijzen aan foutklasse _LEGACY_ERROR_TEMP_3250
- [SPARK-48564] [SC-168327][PYTHON][VERBINDING] In cache opgeslagen schema propageren in verzamelbewerkingen
- [SPARK-48155] [SC-165910][SQL] AQEPropagateEmptyRelation voor join moet controleren of het overblijvende kind slechts BroadcastQueryStageExec is
- [SPARK-48506] [SC-167720][CORE] Korte namen van compressiecodecs zijn niet hoofdlettergevoelig, met uitzondering van gebeurtenislogboekregistratie
- [SPARK-48447] [SC-167607][SS] Statusarchiefproviderklasse controleren voordat u de constructor aanroept
- [SPARK-47977] [SC-167650] DateTimeUtils.timestampDiff en DateTimeUtils.timestampAdd mag geen INTERNAL_ERROR uitzondering genereren
- [SPARK-48513] [Backport][15.x][SC-168085][SS] Foutklasse toevoegen voor compatibiliteit van statusschema's en kleine herstructurering
- [SPARK-48413] [SC-167669][SQL] ALTER COLUMN met collatie
-
[SPARK-48561] [SC-168250][PS][VERBINDING MAKEN] Gooien
PandasNotImplementedError
voor niet-ondersteunde plottingsfuncties - [SPARK-48465] [SC-167531][SQL] Geen lege relatiedoorgifte voorkomen
- [SPARK-48553] [SC-168166][PYTHON][VERBINDING MAKEN] Meer eigenschappen in cache opslaan
- [SPARK-48540] [SC-168069][CORE] Laadinstellingen voor ivy-uitvoer vermijden in stdout
- [SPARK-48535] [SC-168057][SS] Configuratiedocumenten bijwerken om aan te geven dat er een mogelijkheid is van gegevensverlies of -beschadiging als de optie 'skip nulls' voor stream-stream-joins is ingeschakeld
- [SPARK-48536] [SC-168059][PYTHON][CONNECT] Door gebruiker opgegeven schema's in cache opslaan in applyInPandas en applyInArrow
- [SPARK-47873] [SC-163473][SQL] Gesorteerde tekenreeksen schrijven naar Hive-metastore met behulp van het normale tekenreekstype
- [SPARK-48461] [SC-167442][SQL] NullPointerExceptions vervangen door foutklasse in AssertNotNull-expressie
- [SPARK-47833] [SC-163191][SQL][CORE] Stackstrace van aanroeper voor checkAndGlobPathIfNecessary AnalysisException
- [SPARK-47898] [SC-163146][SQL] Poort HIVE-12270: DBTokenStore-ondersteuning toevoegen aan HS2-overdrachtstoken
- [SPARK-47578] [SC-167497][R] RPackageUtils migreren met variabelen naar gestructureerd framework voor logboekregistratie
-
[SPARK-47875] [SC-162935][CORE]
spark.deploy.recoverySerializer
verwijderen -
[SPARK-47552] [SC-160880][CORE] Stel
spark.hadoop.fs.s3a.connection.establish.timeout
in op 30 als deze ontbreekt - [SPARK-47972] [SC-167692][SQL] CAST-expressie voor sorteringen beperken
- [SPARK-48430] [SC-167489][SQL] Toewijzingswaardeextractie herstellen wanneer toewijzing gesorteerde tekenreeksen bevat
- [SPARK-47318] [SC-162712][CORE][3.5] Voegt HKDF-ronde toe aan AuthEngine-sleutelderivatie om de standaard KEX-procedures te volgen
- [SPARK-48503] [BEHAVE-29][ES-1135236][SQL] Ongeldige scalaire subquery's oplossen met groepering op niet-equivalente kolommen die ten onrechte waren toegestaan
-
[SPARK-48508] [SC-167695][CONNECT][PYTHON] Cachegebruiker opgegeven schema in
DataFrame.{to, mapInPandas, mapInArrow}
- [SPARK-23015] [SC-167188][WINDOWS] Fout in Windows oplossen waarbij meerdere Spark-exemplaren binnen dezelfde seconde een fout veroorzaken
- [SPARK-45891] [SC-167608]Revert " Describe shredding scheme for Variant"
- [SPARK-48391] [SC-167554][CORE]AddAll gebruiken in plaats van functie toevoegen in fromAccumulatorInfos-methode van TaskMetrics-klasse
- [SPARK-48496] [SC-167600][CORE] Statische regex-patroonex-exemplaren gebruiken in JavaUtils.timeStringAs en JavaUtils.byteStringAs
- [SPARK-48476] [SC-167488][SQL] NPE-foutbericht voor null delmiter CSV oplossen
- [SPARK-48489] [SC-167598][SQL] Een betere, gebruikersgerichte fout genereren bij het lezen van een ongeldig schema uit tekstgegevensbron
- [SPARK-48471] [SC-167324][CORE] Documentatie en gebruikshandleiding voor geschiedenisserver verbeteren
- [SPARK-45891] [SC-167597] Het shreddingschema voor variant beschrijven
-
[SPARK-47333] [SC-159043][SQL] CheckInputDataTypes gebruiken om de parametertypen van de functie te controleren
to_xml
- [SPARK-47387] [SC-159310][SQL] Enkele ongebruikte foutklassen verwijderen
- [SPARK-48265] [ES-1131440][SQL] Afleiden van de groepslimietbatch voor vensters moet constant folding uitvoeren
- [SPARK-47716] [SC-167444][SQL] Weergavenaamconflict voorkomen in semantische sorteercase van SQLQueryTestSuite
- [SPARK-48159] [SC-167141][SQL] Ondersteuning voor gesorteerde tekenreeksen uitbreiden op datum/tijd-expressies
- [SPARK-48462] [SC-167271][SQL][Tests] Gebruiken metSQLConf in tests: HiveQuerySuite en HiveTableScanSuite herstructureren
-
[SPARK-48392] [SC-167195][CORE]
spark-defaults.conf
Laden indien opgegeven--properties-file
- [SPARK-48468] [SC-167417] LogicalQueryStage-interface toevoegen in katalysator
- [SPARK-47578] [SC-164988][CORE] Handmatige backport voor Spark PR #46309: LogWarning migreren met variabelen naar gestructureerd framework voor logboekregistratie
- [SPARK-48415] [SC-167321]'[PYTHON] TypeName herstructureren ter ondersteuning van geparameteriseerde gegevenstypen'
- [SPARK-46544] [SC-151361][SQL] Ondersteuning v2 DESCRIBE TABLE UITGEBREID met tabelstatistieken
- [SPARK-48325] [SC-166963][CORE] Altijd berichten opgeven in ExecutorRunner.killProcess
- [SPARK-46841] [SC-167139][SQL] Ondersteuning voor sortering voor ICU-landinstellingen en sorteringsaanduidingen toevoegen
- [SPARK-47221] [SC-157870][SQL] Maakt gebruik van handtekeningen van CsvParser naar AbstractParser
-
[SPARK-47246] [SC-158138][SQL] Vervangen
InternalRow.fromSeq
doornew GenericInternalRow
het opslaan van een verzamelingsconversie - [SPARK-47597] [SC-163932][STREAMING] Handmatige backport voor Spark PR #46192: Streaming: LogInfo migreren met variabelen naar gestructureerd logboeklogboekframework
-
[SPARK-48415] [SC-167130][PYTHON] Herstructureren
TypeName
ter ondersteuning van geparameteriseerde gegevenstypen -
[SPARK-48434] [SC-167132][PYTHON][CONNECT] Maak
printSchema
gebruik van het schema in de cache - [SPARK-48432] [ES-1097114][SQL] Vermijd het opheffen van gehele getallen in UnivocityParser
- [SPARK-47463] [SC-162840][SQL] V2Predicate gebruiken om expressies te verpakken met het retourtype Booleaanse waarde
- [SPARK-47781] [SC-162293][SQL] Negatieve schaaldecimaaltekens verwerken voor JDBC-gegevensbronnen
- [SPARK-48394] [SC-166966][CORE] MapIdToMapIndex opschonen op mapoutput unregister
- [SPARK-47072] [SC-156933][SQL] Ondersteunde intervalindelingen in foutberichten herstellen
- [SPARK-47001] [SC-162487][SQL] Pushdown-verificatie in optimizer
-
[SPARK-48335] [SC-166387][PYTHON][VERBINDING MAKEN] Compatibel
_parse_datatype_string
maken met Spark Connect -
[SPARK-48329] [SC-166518][SQL] Standaard inschakelen
spark.sql.sources.v2.bucketing.pushPartValues.enabled
- [SPARK-48412] [SC-166898][PYTHON] JSON-parsering van gegevenstype herstructureren
- [SPARK-48215] [SC-166781][SQL] Ondersteuning voor gesorteerde tekenreeksen op date_format expressie uitbreiden
- [SPARK-45009] [SC-166873][SQL][FOLLOW UP] Foutklasse en tests toevoegen voor decorrelatie van predicaatsubquery's in joinvoorwaarde die verwijzen naar beide joinkinderen
- [SPARK-47960] [SC-165295][SS][15.x] Toestaan dat andere stateful operators worden gekoppeld na de transformWithState-operator.
- [SPARK-48340] [SC-166468][PYTHON] Ondersteuning van TimestampNTZ infer schema miss prefer_timestamp_ntz
- [SPARK-48157] [SC-165902][SQL] Ondersteuning voor sortering toevoegen voor CSV-expressies
- [SPARK-48158] [SC-165652][SQL] Ondersteuning voor sortering voor XML-expressies toevoegen
- [SPARK-48160] [SC-166064][SQL] Ondersteuning voor sortering toevoegen voor XPATH-expressies
- [SPARK-48229] [SC-165901][SQL] Ondersteuning voor sortering toevoegen voor inputFile-expressies
- [SPARK-48367] [SC-166487][VERBINDING MAKEN] Lint-scala voor scalafmt herstellen om bestanden te detecteren die correct zijn opgemaakt
- [SPARK-47858] [SC-163095][SPARK-47852][PYTHON][SQL] De structuur herstructureren voor dataframe-foutcontext
- [SPARK-48370] [SC-166787][VERBINDING MAKEN] Controlepunt en localCheckpoint in Scala Spark Connect-client
- [SPARK-48247] [SC-166028][PYTHON] Gebruik alle waarden in een dict bij het afleiden van het MapType-schema
-
[SPARK-48395] [SC-166794][PYTHON] Oplossing
StructType.treeString
voor geparameteriseerde typen -
[SPARK-48393] [SC-166784][PYTHON] Een groep constanten verplaatsen naar
pyspark.util
-
[SPARK-48372] [SC-166776][SPARK-45716][PYTHON] Implementeren
StructType.treeString
- [SPARK-48258] [SC-166467][PYTHON][VERBINDING MAKEN] Controlepunt en localCheckpoint in Spark Connect
Zie onderhoudsupdates voor Databricks Runtime 15.4 LTS.
Systeemomgeving
- Besturingssysteem: Ubuntu 22.04.4 LTS
- Java: Zulu 8.78.0.19-CA-linux64
- Scala: 2.12.18
- Python: 3.11.0
- R: 4.3.2
- Delta Lake: 3.2.0
Geïnstalleerde Python-bibliotheken
Bibliotheek | Versie | Bibliotheek | Versie | Bibliotheek | Versie |
---|---|---|---|---|---|
asttokens | 2.0.5 | astunparse | 1.6.3 | azure-core | 1.30.2 |
azure-storage-blob | 12.19.1 | azure-storage-file-datalake | 12.14.0 | backcall | 0.2.0 |
zwart | 23.3.0 | oogklep | 1.4 | boto3 | 1.34.39 |
botocore | 1.34.39 | cachetools | 5.3.3 | certifi | 2023.7.22 |
cffiffi | 1.15.1 | chardet | 4.0.0 | charset-normalizer | 2.0.4 |
klikken | 8.0.4 | cloudpickle | 2.2.1 | comm | 0.1.2 |
contourpy | 1.0.5 | cryptografie | 41.0.3 | wielrijder | 0.11.0 |
Cython | 0.29.32 | databricks-sdk | 0.20.0 | dbus-python | 1.2.18 |
foutopsporing | 1.6.7 | decorateur | 5.1.1 | distlib | 0.3.8 |
invoerpunten | 0,4 | Uitvoeren | 0.8.3 | facets-overview | 1.1.1 |
filelock | 3.13.4 | fonttools | 4.25.0 | gitdb | 4.0.11 |
GitPython | 3.1.43 | google-api-core | 2.18.0 | google-auth | 2.31.0 |
google-cloud-core | 2.4.1 | google-cloud-storage | 2.17.0 | google-crc32c | 1.5.0 |
google-resumable-media | 2.7.1 | googleapis-common-protos | 1.63.2 | grpcio | 1.60.0 |
grpcio-status | 1.60.0 | httplib2 | 0.20.2 | idna | 3.4 |
importlib-metadata | 6.0.0 | ipyflow-core | 0.0.198 | ipykernel | 6.25.1 |
ipython | 8.15.0 | ipython-genutils | 0.2.0 | ipywidgets | 7.7.2 |
isodate | 0.6.1 | jedi | 0.18.1 | Jeepney | 0.7.1 |
jmespath | 0.10.0 | joblib | 1.2.0 | jupyter_client | 7.4.9 |
jupyter_core | 5.3.0 | sleutelhanger | 23.5.0 | kiwisolver | 1.4.4 |
launchpadlib | 1.10.16 | lazr.restfulclient | 0.14.4 | lazr.uri | 1.0.6 |
matplotlib | 3.7.2 | matplotlib-inline | 0.1.6 | mlflow-skinny | 2.11.4 |
more-itertools | 8.10.0 | mypy-extensions | 0.4.3 | nest-asyncio | 1.5.6 |
numpy | 1.23.5 | oauthlib | 3.2.0 | verpakking | 23.2 |
Pandas | 1.5.3 | parso | 0.8.3 | pathspec | 0.10.3 |
Patsy | 0.5.3 | pexpect | 4.8.0 | pickleshare | 0.7.5 |
Kussen | 9.4.0 | pit | 23.2.1 | platformdirs | 3.10.0 |
plotly | 5.9.0 | prompt-toolkit | 3.0.36 | proto-plus | 1.24.0 |
protobuf | 4.24.1 | psutil | 5.9.0 | psycopg2 | 2.9.3 |
ptyprocess | 0.7.0 | pure-eval | 0.2.2 | pyarrow | 14.0.1 |
pyasn1 | 0.4.8 | pyasn1-modules | 0.2.8 | pyccolo | 0.0.52 |
pycparser | 2.21 | pydantic | 1.10.6 | Pygments | 2.15.1 |
PyGObject | 3.42.1 | PyJWT | 2.3.0 | pyodbc | 4.0.39 |
pyparsing | 3.0.9 | python-dateutil | 2.8.2 | python-lsp-jsonrpc | 1.1.1 |
pytz | 2022.7 | PyYAML | 6,0 | pyzmq | 23.2.0 |
requests | 2.31.0 | RSA | 4.9 | s3transfer | 0.10.2 |
scikit-learn | 1.3.0 | scipy | 1.11.1 | seaborn | 0.12.2 |
SecretStorage | 3.3.1 | setuptools | 68.0.0 | Zes | 1.16.0 |
smmap | 5.0.1 | sqlparse | 0.5.0 | ssh-import-id | 5,11 |
stack-data | 0.2.0 | statsmodels | 0.14.0 | vasthoudendheid | 8.2.2 |
threadpoolctl | 2.2.0 | tokenize-rt | 4.2.1 | tornado | 6.3.2 |
traitlets | 5.7.1 | typing_extensions | 4.10.0 | tzdata | 2022.1 |
ujson | 5.4.0 | upgrades zonder toezicht | 0,1 | urllib3 | 1.26.16 |
virtualenv | 20.24.2 | wadllib | 1.3.6 | wcwidth | 0.2.5 |
wiel | 0.38.4 | zipp | 3.11.0 |
Geïnstalleerde R-bibliotheken
R-bibliotheken worden geïnstalleerd vanuit de Posit Pakketbeheer CRAN-momentopname.
Bibliotheek | Versie | Bibliotheek | Versie | Bibliotheek | Versie |
---|---|---|---|---|---|
pijl | 14.0.0.2 | askpass | 1.2.0 | assertthat | 0.2.1 |
backports | 1.4.1 | base | 4.3.2 | base64enc | 0.1-3 |
bigD | 0.2.0 | bit | 4.0.5 | bit64 | 4.0.5 |
bitops | 1.0-7 | blob | 1.2.4 | opstarten | 1.3-28 |
brouwsel | 1.0-10 | Brio | 1.1.4 | bezem | 1.0.5 |
bslib | 0.6.1 | cachem | 1.0.8 | beller | 3.7.3 |
caret | 6.0-94 | cellranger | 1.1.0 | Chron | 2.3-61 |
class | 7.3-22 | cli | 3.6.2 | clipr | 0.8.0 |
klok | 0.7.0 | cluster | 2.1.4 | codetools | 0.2-19 |
colorspace | 2.1-0 | commonmark | 1.9.1 | compiler | 4.3.2 |
configuratie | 0.3.2 | Strijd | 1.2.0 | cpp11 | 0.4.7 |
Crayon | 1.5.2 | geloofsbrief | 2.0.1 | curl | 5.2.0 |
data.table | 1.15.0 | gegevenssets | 4.3.2 | DBI | 1.2.1 |
dbplyr | 2.4.0 | Desc | 1.4.3 | devtools | 2.4.5 |
diagram | 1.6.5 | diffobj | 0.3.5 | verteren | 0.6.34 |
downlit | 0.4.3 | dplyr | 1.1.4 | dtplyr | 1.3.1 |
e1071 | 1.7-14 | beletselteken | 0.3.2 | evaluate | 0.23 |
fansi | 1.0.6 | farver | 2.1.1 | fastmap | 1.1.1 |
fontawesome | 0.5.2 | forcats | 1.0.0 | foreach | 1.5.2 |
buitenlands | 0.8-85 | smeden | 0.2.0 | Fs | 1.6.3 |
toekomst | 1.33.1 | future.apply | 1.11.1 | gorgelen | 1.5.2 |
Generics | 0.1.3 | Gert | 2.0.1 | ggplot2 | 3.4.4 |
Gh | 1.4.0 | git2r | 0.33.0 | gitcreds | 0.1.2 |
glmnet | 4.1-8 | globals | 0.16.2 | lijm | 1.7.0 |
googledrive | 2.1.1 | googlesheets4 | 1.1.1 | Gower | 1.0.1 |
afbeeldingen | 4.3.2 | grDevices | 4.3.2 | rooster | 4.3.2 |
gridExtra | 2.3 | gsubfn | 0,7 | gt | 0.10.1 |
gtable | 0.3.4 | hardhat | 1.3.1 | haven | 2.5.4 |
highr | 0.10 | Hms | 1.1.3 | htmltools | 0.5.7 |
htmlwidgets | 1.6.4 | httpuv | 1.6.14 | httr | 1.4.7 |
httr2 | 1.0.0 | ids | 1.0.1 | ini | 0.3.1 |
ipred | 0.9-14 | isoband | 0.2.7 | Iterators | 1.0.14 |
jquerylib | 0.1.4 | jsonlite | 1.8.8 | juicyjuice | 0.1.0 |
KernSmooth | 2.23-21 | breiwerk | 1.45 | Labeling | 0.4.3 |
later | 1.3.2 | latwerk | 0.21-8 | lava | 1.7.3 |
levenscyclus | 1.0.4 | listenv | 0.9.1 | lubridate | 1.9.3 |
magrittr | 2.0.3 | Markdown | 1.12 | MASSA | 7.3-60 |
Matrix | 1.5-4.1 | memoise | 2.0.1 | methoden | 4.3.2 |
mgcv | 1.8-42 | Mime | 0,12 | miniUI | 0.1.1.1 |
mlflow | 2.10.0 | ModelMetrics | 1.2.2.2 | modeller | 0.1.11 |
munsell | 0.5.0 | nlme | 3.1-163 | nnet | 7.3-19 |
numDeriv | 2016.8-1.1 | openssl | 2.1.1 | parallel | 4.3.2 |
parallel | 1.36.0 | pilaar | 1.9.0 | pkgbuild | 1.4.3 |
pkgconfig | 2.0.3 | pkgdown | 2.0.7 | pkgload | 1.3.4 |
plogr | 0.2.0 | plyr | 1.8.9 | loven | 1.0.0 |
prettyunits | 1.2.0 | Proc | 1.18.5 | processx | 3.8.3 |
prodlim | 2023.08.28 | profvis | 0.3.8 | Voortgang | 1.2.3 |
progressr | 0.14.0 | Beloften | 1.2.1 | Proto | 1.0.0 |
proxy | 0.4-27 | ps | 1.7.6 | purrr | 1.0.2 |
R6 | 2.5.1 | ragg | 1.2.7 | randomForest | 4.7-1.1 |
rappdirs | 0.3.3 | rcmdcheck | 1.4.0 | RColorBrewer | 1.1-3 |
Rcpp | 1.0.12 | RcppEigen | 0.3.3.9.4 | reactable | 0.4.4 |
reactR | 0.5.0 | leesbewerking | 2.1.5 | readxl | 1.4.3 |
recepten | 1.0.9 | Rematch | 2.0.0 | opnieuw overeenkomen2 | 2.1.2 |
Afstandsbedieningen | 2.4.2.1 | reprex | 2.1.0 | hervorm2 | 1.4.4 |
rlang | 1.1.3 | rmarkdown | 2,25 | RODBC | 1.3-23 |
roxygen2 | 7.3.1 | rpart | 4.1.21 | rprojroot | 2.0.4 |
Rserve | 1.8-13 | RSQLite | 2.3.5 | rstudioapi | 0.15.0 |
rversions | 2.1.2 | rvest | 1.0.3 | Sass | 0.4.8 |
weegschaal | 1.3.0 | selectr | 0.4-2 | sessioninfo | 1.2.2 |
vorm | 1.4.6 | glanzend | 1.8.0 | sourcetools | 0.1.7-1 |
sparklyr | 1.8.4 | ruimtelijk | 7.3-15 | Splines | 4.3.2 |
sqldf | 0.4-11 | SQUAREM | 2021.1 | Stats | 4.3.2 |
stats4 | 4.3.2 | stringi | 1.8.3 | stringr | 1.5.1 |
overleving | 3.5-5 | swagger | 3.33.1 | sys | 3.4.2 |
systemfonts | 1.0.5 | tcltk | 4.3.2 | testthat | 3.2.1 |
tekstvorm | 0.3.7 | tibble | 3.2.1 | tidyr | 1.3.1 |
tidyselect | 1.2.0 | tidyverse | 2.0.0 | timechange | 0.3.0 |
timeDate | 4032.109 | tinytex | 0,49 | tools | 4.3.2 |
tzdb | 0.4.0 | urlchecker | 1.0.1 | usethis | 2.2.2 |
utf8 | 1.2.4 | utils | 4.3.2 | uuid | 1.2-0 |
V8 | 4.4.1 | vctrs | 0.6.5 | viridisLite | 0.4.2 |
Vroom | 1.6.5 | Waldo | 0.5.2 | snor | 0.4.1 |
withr | 3.0.0 | xfun | 0,41 | xml2 | 1.3.6 |
xopen | 1.0.0 | xtable | 1.8-4 | yaml | 2.3.8 |
zeallot | 0.1.0 | ritssluiting | 2.3.1 |
Geïnstalleerde Java- en Scala-bibliotheken (Scala 2.12-clusterversie)
Groeps-id | Artefact-id | Versie |
---|---|---|
antlr | antlr | 2.7.7 |
com.amazonaws | amazon-kinesis-client | 1.12.0 |
com.amazonaws | aws-java-sdk-autoscaling | 1.12.610 |
com.amazonaws | aws-java-sdk-cloudformation | 1.12.610 |
com.amazonaws | aws-java-sdk-cloudfront | 1.12.610 |
com.amazonaws | aws-java-sdk-cloudhsm | 1.12.610 |
com.amazonaws | aws-java-sdk-cloudsearch | 1.12.610 |
com.amazonaws | aws-java-sdk-cloudtrail | 1.12.610 |
com.amazonaws | aws-java-sdk-cloudwatch | 1.12.610 |
com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.610 |
com.amazonaws | aws-java-sdk-codedeploy | 1.12.610 |
com.amazonaws | aws-java-sdk-cognitoidentity | 1.12.610 |
com.amazonaws | aws-java-sdk-cognitosync | 1.12.610 |
com.amazonaws | aws-java-sdk-config | 1.12.610 |
com.amazonaws | aws-java-sdk-core | 1.12.610 |
com.amazonaws | aws-java-sdk-datapipeline | 1.12.610 |
com.amazonaws | aws-java-sdk-directconnect | 1.12.610 |
com.amazonaws | aws-java-sdk-directory | 1.12.610 |
com.amazonaws | aws-java-sdk-dynamodb | 1.12.610 |
com.amazonaws | aws-java-sdk-ec2 | 1.12.610 |
com.amazonaws | aws-java-sdk-ecs | 1.12.610 |
com.amazonaws | aws-java-sdk-efs | 1.12.610 |
com.amazonaws | aws-java-sdk-elasticache | 1.12.610 |
com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.12.610 |
com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.12.610 |
com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.610 |
com.amazonaws | aws-java-sdk-emr | 1.12.610 |
com.amazonaws | aws-java-sdk-glacier | 1.12.610 |
com.amazonaws | aws-java-sdk-glue | 1.12.610 |
com.amazonaws | aws-java-sdk-iam | 1.12.610 |
com.amazonaws | aws-java-sdk-importexport | 1.12.610 |
com.amazonaws | aws-java-sdk-kinesis | 1.12.610 |
com.amazonaws | aws-java-sdk-kms | 1.12.610 |
com.amazonaws | aws-java-sdk-lambda | 1.12.610 |
com.amazonaws | aws-java-sdk-logs | 1.12.610 |
com.amazonaws | aws-java-sdk-machinelearning | 1.12.610 |
com.amazonaws | aws-java-sdk-opsworks | 1.12.610 |
com.amazonaws | aws-java-sdk-rds | 1.12.610 |
com.amazonaws | aws-java-sdk-redshift | 1.12.610 |
com.amazonaws | aws-java-sdk-route53 | 1.12.610 |
com.amazonaws | aws-java-sdk-s3 | 1.12.610 |
com.amazonaws | aws-java-sdk-ses | 1.12.610 |
com.amazonaws | aws-java-sdk-simpledb | 1.12.610 |
com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.610 |
com.amazonaws | aws-java-sdk-sns | 1.12.610 |
com.amazonaws | aws-java-sdk-sqs | 1.12.610 |
com.amazonaws | aws-java-sdk-ssm | 1.12.610 |
com.amazonaws | aws-java-sdk-storagegateway | 1.12.610 |
com.amazonaws | aws-java-sdk-sts | 1.12.610 |
com.amazonaws | aws-java-sdk-support | 1.12.610 |
com.amazonaws | aws-java-sdk-swf-libraries | 1.11.22 |
com.amazonaws | aws-java-sdk-workspaces | 1.12.610 |
com.amazonaws | jmespath-java | 1.12.610 |
com.clearspring.analytics | stroom | 2.9.6 |
com.databricks | Rserve | 1.8-3 |
com.databricks | databricks-sdk-java | 0.27.0 |
com.databricks | jets3t | 0.7.1-0 |
com.databricks.scalapb | compilerplugin_2.12 | 0.4.15-10 |
com.databricks.scalapb | scalapb-runtime_2.12 | 0.4.15-10 |
com.esotericsoftware | kryo-gearceerd | 4.0.2 |
com.esotericsoftware | minlog | 1.3.0 |
com.fasterxml | klasgenoot | 1.3.4 |
com.fasterxml.jackson.core | jackson-annotaties | 2.15.2 |
com.fasterxml.jackson.core | jackson-core | 2.15.2 |
com.fasterxml.jackson.core | jackson-databind | 2.15.2 |
com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.15.2 |
com.fasterxml.jackson.dataformat | jackson-dataformat-yaml | 2.15.2 |
com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.15.2 |
com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.16.0 |
com.fasterxml.jackson.module | jackson-module-paranamer | 2.15.2 |
com.fasterxml.jackson.module | jackson-module-scala_2.12 | 2.15.2 |
com.github.ben-manes.cafeïne | cafeïne | 2.9.3 |
com.github.fommil | jniloader | 1.1 |
com.github.fommil.netlib | native_ref-java | 1.1 |
com.github.fommil.netlib | native_ref-java | 1.1-natives |
com.github.fommil.netlib | native_system-java | 1.1 |
com.github.fommil.netlib | native_system-java | 1.1-natives |
com.github.fommil.netlib | netlib-native_ref-linux-x86_64 | 1.1-natives |
com.github.fommil.netlib | netlib-native_system-linux-x86_64 | 1.1-natives |
com.github.luben | zstd-jni | 1.5.5-4 |
com.github.wendykierp | JTransforms | 3.1 |
com.google.code.findbugs | jsr305 | 3.0.0 |
com.google.code.gson | gson | 2.10.1 |
com.google.crypto.tink | Tink | 1.9.0 |
com.google.errorprone | error_prone_annotations | 2.10.0 |
com.google.flatbuffers | flatbuffers-java | 23.5.26 |
com.google.guava | guave | 15.0 |
com.google.protobuf | protobuf-java | 2.6.1 |
com.helger | profiler | 1.1.1 |
com.ibm.icu | icu4j | 75.1 |
com.jcraft | jsch | 0.1.55 |
com.jolbox | bonecp | 0.8.0.RELEASE |
com.lihaoyi | sourcecode_2.12 | 0.1.9 |
com.microsoft.azure | azure-data-lake-store-sdk | 2.3.9 |
com.microsoft.sqlserver | mssql-jdbc | 11.2.2.jre8 |
com.ning | compress-lzf | 1.1.2 |
com.sun.mail | javax.mail | 1.5.2 |
com.sun.xml.bind | jaxb-core | 2.2.11 |
com.sun.xml.bind | jaxb-impl | 2.2.11 |
com.tdunning | json | 1.8 |
com.thoughtworks.paranamer | paranamer | 2.8 |
com.trueaccord.lenses | lenses_2.12 | 0.4.12 |
com.twitter | chill-java | 0.10.0 |
com.twitter | chill_2.12 | 0.10.0 |
com.twitter | util-app_2.12 | 7.1.0 |
com.twitter | util-core_2.12 | 7.1.0 |
com.twitter | util-function_2.12 | 7.1.0 |
com.twitter | util-jvm_2.12 | 7.1.0 |
com.twitter | util-lint_2.12 | 7.1.0 |
com.twitter | util-registry_2.12 | 7.1.0 |
com.twitter | util-stats_2.12 | 7.1.0 |
com.typesafe | configuratie | 1.4.3 |
com.typesafe.scala-logging | scala-logging_2.12 | 3.7.2 |
com.uber | h3 | 3.7.3 |
com.univocity | univocity-parsers | 2.9.1 |
com.zaxxer | HikariCP | 4.0.3 |
commons-cli | commons-cli | 1.5.0 |
commons-codec | commons-codec | 1.16.0 |
commons-collections | commons-collections | 3.2.2 |
commons-dbcp | commons-dbcp | 1.4 |
commons-fileupload | commons-fileupload | 1.5 |
commons-httpclient | commons-httpclient | 3.1 |
commons-io | commons-io | 2.13.0 |
commons-lang | commons-lang | 2.6 |
commons-logging | commons-logging | 1.1.3 |
commons-pool | commons-pool | 1.5.4 |
dev.netje.netlib | arpack | 3.0.3 |
dev.netje.netlib | Blas | 3.0.3 |
dev.netje.netlib | lapack | 3.0.3 |
info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
io.airlift | aircompressor | 0.25 |
io.delta | delta-sharing-client_2.12 | 1.1.1 |
io.dropwizard.metrics | metrische aantekening | 4.2.19 |
io.dropwizard.metrics | metrische gegevenskern | 4.2.19 |
io.dropwizard.metrics | metrische gegevensgrafiet | 4.2.19 |
io.dropwizard.metrics | metrische statuscontroles | 4.2.19 |
io.dropwizard.metrics | metrics-jetty9 | 4.2.19 |
io.dropwizard.metrics | metrics-jmx | 4.2.19 |
io.dropwizard.metrics | metrics-json | 4.2.19 |
io.dropwizard.metrics | metrics-jvm | 4.2.19 |
io.dropwizard.metrics | metrics-servlets | 4.2.19 |
io.netty | netty-all | 4.1.96.Final |
io.netty | netty-buffer | 4.1.96.Final |
io.netty | netty-codec | 4.1.96.Final |
io.netty | netty-codec-http | 4.1.96.Final |
io.netty | netty-codec-http2 | 4.1.96.Final |
io.netty | netty-codec-sokken | 4.1.96.Final |
io.netty | netty-common | 4.1.96.Final |
io.netty | netty-handler | 4.1.96.Final |
io.netty | netty-handler-proxy | 4.1.96.Final |
io.netty | netty-resolver | 4.1.96.Final |
io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-linux-aarch_64 |
io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-linux-x86_64 |
io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-osx-aarch_64 |
io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-osx-x86_64 |
io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-windows-x86_64 |
io.netty | netty-tcnative-classes | 2.0.61.Final |
io.netty | netty-transport | 4.1.96.Final |
io.netty | netty-transport-classes-epoll | 4.1.96.Final |
io.netty | netty-transport-classes-kqueue | 4.1.96.Final |
io.netty | netty-transport-native-epoll | 4.1.96.Final |
io.netty | netty-transport-native-epoll | 4.1.96.Final-linux-aarch_64 |
io.netty | netty-transport-native-epoll | 4.1.96.Final-linux-x86_64 |
io.netty | netty-transport-native-kqueue | 4.1.96.Final-osx-aarch_64 |
io.netty | netty-transport-native-kqueue | 4.1.96.Final-osx-x86_64 |
io.netty | netty-transport-native-unix-common | 4.1.96.Final |
io.prometheus | simpleclient | 0.7.0 |
io.prometheus | simpleclient_common | 0.7.0 |
io.prometheus | simpleclient_dropwizard | 0.7.0 |
io.prometheus | simpleclient_pushgateway | 0.7.0 |
io.prometheus | simpleclient_servlet | 0.7.0 |
io.prometheus.jmx | verzamelaar | 0.12.0 |
jakarta.annotatie | jakarta.annotation-api | 1.3.5 |
jakarta.servlet | jakarta.servlet-api | 4.0.3 |
jakarta.validation | jakarta.validation-api | 2.0.2 |
jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
javax.activation | activering | 1.1.1 |
javax.el | javax.el-api | 2.2.4 |
javax.jdo | jdo-api | 3.0.1 |
javax.transaction | jta | 1.1 |
javax.transaction | transaction-api | 1.1 |
javax.xml.bind | jaxb-api | 2.2.11 |
javolution | javolution | 5.5.1 |
jline | jline | 2.14.6 |
joda-time | joda-time | 2.12.1 |
net.java.dev.jna | jna | 5.8.0 |
net.razorvine | pekelen | 1.3 |
net.sf.jpam | jpam | 1.1 |
net.sf.opencsv | opencsv | 2.3 |
net.sf.supercsv | super-CSV | 2.2.0 |
net.snowflake | snowflake-ingest-sdk | 0.9.6 |
net.sourceforge.f2j | arpack_combined_all | 0,1 |
org.acplt.remotetea | remotetea-oncrpc | 1.1.2 |
org.antlr | ST4 | 4.0.4 |
org.antlr | antlr-runtime | 3.5.2 |
org.antlr | antlr4-runtime | 4.9.3 |
org.antlr | tekenreekstemplate | 3.2.1 |
org.apache.ant | ant | 1.10.11 |
org.apache.ant | ant-jsch | 1.10.11 |
org.apache.ant | ant-launcher | 1.10.11 |
org.apache.arrow | pijlnotatie | 15.0.0 |
org.apache.arrow | arrow-memory-core | 15.0.0 |
org.apache.arrow | arrow-memory-netty | 15.0.0 |
org.apache.arrow | pijlvector | 15.0.0 |
org.apache.avro | avro | 1.11.3 |
org.apache.avro | avro-ipc | 1.11.3 |
org.apache.avro | avro-mapred | 1.11.3 |
org.apache.commons | commons-collections4 | 4.4 |
org.apache.commons | commons-compress | 1.23.0 |
org.apache.commons | commons-crypto | 1.1.0 |
org.apache.commons | commons-lang3 | 3.12.0 |
org.apache.commons | commons-math3 | 3.6.1 |
org.apache.commons | commons-text | 1.10.0 |
org.apache.curator | curator-client | 2.13.0 |
org.apache.curator | curator-framework | 2.13.0 |
org.apache.curator | curator-recepten | 2.13.0 |
org.apache.datasketches | datasketches-java | 3.1.0 |
org.apache.datasketches | datasketches-memory | 2.0.0 |
org.apache.derby | Derby | 10.14.2.0 |
org.apache.hadoop | hadoop-client-runtime | 3.3.6 |
org.apache.hive | hive-beeline | 2.3.9 |
org.apache.hive | hive-cli | 2.3.9 |
org.apache.hive | hive-jdbc | 2.3.9 |
org.apache.hive | hive-llap-client | 2.3.9 |
org.apache.hive | hive-llap-common | 2.3.9 |
org.apache.hive | hive-serde | 2.3.9 |
org.apache.hive | hive-shims | 2.3.9 |
org.apache.hive | hive-storage-api | 2.8.1 |
org.apache.hive.shims | hive-shims-0.23 | 2.3.9 |
org.apache.hive.shims | hive-shims-common | 2.3.9 |
org.apache.hive.shims | hive-shims-scheduler | 2.3.9 |
org.apache.httpcomponents | httpclient | 4.5.14 |
org.apache.httpcomponents | httpcore | 4.4.16 |
org.apache.ivy | klimop | 2.5.1 |
org.apache.logging.log4j | log4j-1.2-api | 2.22.1 |
org.apache.logging.log4j | log4j-api | 2.22.1 |
org.apache.logging.log4j | log4j-core | 2.22.1 |
org.apache.logging.log4j | log4j-layout-template-json | 2.22.1 |
org.apache.logging.log4j | log4j-slf4j2-impl | 2.22.1 |
org.apache.orc | orc-core | 1.9.2-shaded-protobuf |
org.apache.orc | orc-mapreduce | 1.9.2-shaded-protobuf |
org.apache.orc | orc-shims | 1.9.2 |
org.apache.thrift | libfb303 | 0.9.3 |
org.apache.thrift | libthrift | 0.12.0 |
org.apache.ws.xmlschema | xmlschema-core | 2.3.0 |
org.apache.xbean | xbean-asm9-gearceerd | 4.23 |
org.apache.yetus | aantekeningen voor doelgroepen | 0.13.0 |
org.apache.zookeeper | zookeeper | 3.6.3 |
org.apache.zookeeper | zookeeper-jute | 3.6.3 |
org.checkerframework | checker-qual | 3.31.0 |
org.codehaus.jackson | jackson-core-asl | 1.9.13 |
org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
org.codehaus.janino | commons-compiler | 3.0.16 |
org.codehaus.janino | janino | 3.0.16 |
org.datanucleus | datanucleus-api-jdo | 4.2.4 |
org.datanucleus | datanucleus-core | 4.1.17 |
org.datanucleus | datanucleus-rdbms | 4.1.19 |
org.datanucleus | javax.jdo | 3.2.0-m3 |
org.eclipse.collections | eclipse-collections | 11.1.0 |
org.eclipse.collections | eclipse-collections-api | 11.1.0 |
org.eclipse.jetty | jetty-client | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-vervolg | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-http | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-io | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-jndi | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-plus | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-proxy | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-security | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-server | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-servlet | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-servlets | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-util | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-util-ajax | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-webapp | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-xml | 9.4.52.v20230823 |
org.eclipse.jetty.websocket | websocket-api | 9.4.52.v20230823 |
org.eclipse.jetty.websocket | websocket-client | 9.4.52.v20230823 |
org.eclipse.jetty.websocket | websocket-common | 9.4.52.v20230823 |
org.eclipse.jetty.websocket | websocket-server | 9.4.52.v20230823 |
org.eclipse.jetty.websocket | websocket-servlet | 9.4.52.v20230823 |
org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
org.glassfish.hk2 | hk2-api | 2.6.1 |
org.glassfish.hk2 | hk2-locator | 2.6.1 |
org.glassfish.hk2 | hk2-utils | 2.6.1 |
org.glassfish.hk2 | osgi-resource-locator | 1.0.3 |
org.glassfish.hk2.external | aopalliance opnieuw verpakt | 2.6.1 |
org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
org.glassfish.jersey.containers | jersey-container-servlet | 2.40 |
org.glassfish.jersey.containers | jersey-container-servlet-core | 2.40 |
org.glassfish.jersey.core | jersey-client | 2.40 |
org.glassfish.jersey.core | jersey-common | 2.40 |
org.glassfish.jersey.core | jersey-server | 2.40 |
org.glassfish.jersey.inject | jersey-hk2 | 2.40 |
org.hibernate.validator | sluimerstand-validator | 6.1.7.Final |
org.ini4j | ini4j | 0.5.4 |
org.javassist | javassist | 3.29.2-GA |
org.jboss.logging | jboss-logging | 3.3.2.Final |
org.jdbi | jdbi | 2.63.1 |
org.jetbrains | Aantekeningen | 17.0.0 |
org.joda | joda-convert | 1,7 |
org.jodd | jodd-core | 3.5.2 |
org.json4s | json4s-ast_2.12 | 3.7.0-M11 |
org.json4s | json4s-core_2.12 | 3.7.0-M11 |
org.json4s | json4s-jackson_2.12 | 3.7.0-M11 |
org.json4s | json4s-scalap_2.12 | 3.7.0-M11 |
org.lz4 | lz4-java | 1.8.0 |
org.mlflow | mlflow-spark_2.12 | 2.9.1 |
org.objenesis | objenesis | 2.5.1 |
org.postgresql | postgresql | 42.6.1 |
org.roaringbitmap | RoaringBitmap | 0.9.45-databricks |
org.roaringbitmap | Shims | 0.9.45-databricks |
org.rocksdb | rocksdbjni | 8.11.4 |
org.rosuda.REngine | REngine | 2.1.0 |
org.scala-lang | scala-compiler_2.12 | 2.12.15 |
org.scala-lang | scala-library_2.12 | 2.12.15 |
org.scala-lang | scala-reflect_2.12 | 2.12.15 |
org.scala-lang.modules | scala-collection-compat_2.12 | 2.11.0 |
org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
org.scala-lang.modules | scala-xml_2.12 | 1.2.0 |
org.scala-sbt | test-interface | 1.0 |
org.scalacheck | scalacheck_2.12 | 1.14.2 |
org.scalactic | scalactic_2.12 | 3.2.15 |
org.scalanlp | breeze-macros_2.12 | 2.1.0 |
org.scalanlp | breeze_2.12 | 2.1.0 |
org.scalatest | scalatest-compatibel | 3.2.15 |
org.scalatest | scalatest-core_2.12 | 3.2.15 |
org.scalatest | scalatest-diagrams_2.12 | 3.2.15 |
org.scalatest | scalatest-featurespec_2.12 | 3.2.15 |
org.scalatest | scalatest-flatspec_2.12 | 3.2.15 |
org.scalatest | scalatest-freespec_2.12 | 3.2.15 |
org.scalatest | scalatest-funspec_2.12 | 3.2.15 |
org.scalatest | scalatest-funsuite_2.12 | 3.2.15 |
org.scalatest | scalatest-matchers-core_2.12 | 3.2.15 |
org.scalatest | scalatest-mustmatchers_2.12 | 3.2.15 |
org.scalatest | scalatest-propspec_2.12 | 3.2.15 |
org.scalatest | scalatest-refspec_2.12 | 3.2.15 |
org.scalatest | scalatest-shouldmatchers_2.12 | 3.2.15 |
org.scalatest | scalatest-wordspec_2.12 | 3.2.15 |
org.scalatest | scalatest_2.12 | 3.2.15 |
org.slf4j | jcl-over-slf4j | 2.0.7 |
org.slf4j | jul-to-slf4j | 2.0.7 |
org.slf4j | slf4j-api | 2.0.7 |
org.slf4j | slf4j-simple | 1.7.25 |
org.threeten | threeten-extra | 1.7.1 |
org.tukaani | xz | 1,9 |
org.typelevel | algebra_2.12 | 2.0.1 |
org.typelevel | katten-kernel_2.12 | 2.1.1 |
org.typelevel | spire-macros_2.12 | 0.17.0 |
org.typelevel | spire-platform_2.12 | 0.17.0 |
org.typelevel | spire-util_2.12 | 0.17.0 |
org.typelevel | spire_2.12 | 0.17.0 |
org.wildfly.openssl | wildfly-openssl | 1.1.3.Final |
org.xerial | sqlite-jdbc | 3.42.0.0 |
org.xerial.snappy | snappy-java | 1.1.10.3 |
org.yaml | snakeyaml | 2.0 |
oro | oro | 2.0.8 |
pl.edu.icm | JLargeArrays | 1.5 |
software.amazon.cryptools | AmazonCorrettoCryptoProvider | 1.6.2-linux-x86_64 |
software.amazon.ion | ion-java | 1.0.2 |
stax | stax-api | 1.0.1 |