Databricks Runtime 11.3 LTS
Catatan rilis berikut memberikan informasi tentang Databricks Runtime 11.3 LTS, didukung oleh Apache Spark 3.3.0. Databricks merilis versi ini pada Oktober 2022.
Catatan
LTS berarti versi ini berada di bawah dukungan jangka panjang. Lihat Siklus hidup versi LTS Runtime Databricks.
Tip
Untuk melihat catatan rilis untuk versi Databricks Runtime yang telah mencapai akhir dukungan (EoS), lihat Catatan rilis Databricks Runtime akhir dukungan. Versi EoS Databricks Runtime telah dihentikan dan mungkin tidak diperbarui.
Perubahan perilaku
[Perubahan menerobos] Versi Python baru memerlukan pembaruan klien Databricks Connect V1 Python
Catatan
Pembaruan berikutnya memindahkan versi Python di Databricks Runtime 11.3 LTS ke 3.9.21. Versi 3.9.21 tidak memperkenalkan perubahan perilaku apa pun.
Untuk menerapkan patch keamanan yang diperlukan, versi Python di Databricks Runtime 11.3 LTS diperbarui dari 3.9.5 ke 3.9.19. Karena perubahan ini dapat menyebabkan kesalahan pada klien yang menggunakan fungsi PySpark tertentu, setiap klien yang menggunakan Databricks Connect V1 untuk Python dengan Databricks Runtime 11.3 LTS harus diperbarui ke Python 3.9.7 atau yang lebih baru.
Fitur dan peningkatan baru
- Python ditingkatkan dari 3.9.19 ke 3.9.21
- Pemicu Streaming Terstruktur sekali tidak digunakan lagi
- Mengubah jalur sumber untuk Auto Loader
- Konektor Databricks Kinesis sekarang mendukung pembacaan dari aliran Data Kinesis dalam mode EFO
- Fungsi geospasial H3 baru dan menambahkan dukungan Photon untuk semua fungsi H3
- Fitur baru untuk I/O Prediktif
- Meningkatkan partisi awal untuk memindai kueri selektif
- Visualisasi versi paket AQE baru
- Pelacakan kemajuan asinkron baru dan mode pembersihan log
-
Streaming Terstruktur di Unity Catalog sekarang mendukung
display()
- Peristiwa alur sekarang dicatat dalam format JSON
- Pemrosesan Stateful Arbitrer dalam Streaming Terstruktur dengan Python
- Inferensi tanggal dalam file CSV
- Mengkloning dukungan untuk tabel Apache Parquet dan Apache Iceberg (Pratinjau Umum)
- Gunakan SQL untuk menentukan lokasi penyimpanan tingkat skema dan katalog untuk tabel terkelola Katalog Unity
Python ditingkatkan dari 3.9.19 ke 3.9.21
Versi Python di Databricks Runtime 11.3 LTS diperbarui dari 3.9.19 ke 3.9.21.
Pemicu Streaming Terstruktur sekali tidak digunakan lagi
Trigger.Once
Pengaturan tidak digunakan lagi. Databricks merekomendasikan Anda menggunakan Trigger.AvailableNow
. Lihat Mengonfigurasi interval pemicu Streaming Terstruktur.
Mengubah jalur sumber untuk Auto Loader
Anda sekarang dapat mengubah jalur input direktori untuk Auto Loader yang dikonfigurasi dengan mode daftar direktori tanpa harus memilih direktori titik pemeriksaan baru. Lihat Mengubah jalur sumber untuk Auto Loader.
Konektor Databricks Kinesis sekarang mendukung pembacaan dari aliran Data Kinesis dalam mode EFO
Anda sekarang dapat menggunakan sumber streaming terstruktur Databricks Kinesis di Databricks Runtime 11.3 LTS untuk menjalankan kueri yang dibaca dari aliran Data Kinesis dalam mode fan-out yang ditingkatkan. Ini memungkinkan throughput khusus per pecahan, per konsumen dan merekam pengiriman dalam mode pendorongan.
Fungsi geospasial H3 baru dan menambahkan dukungan Photon untuk semua fungsi H3
Memperkenalkan 4 fungsi H3 baru, , h3_maxchild
, h3_minchild
h3_pointash3
, dan h3_pointash3string
. Fungsi-fungsi ini tersedia di SQL, Scala, dan Python. Semua ekspresi H3 sekarang didukung di Photon. Lihat Fungsi geospasial H3.
Fitur baru untuk I/O Prediktif
Photon mendukung mode rentang untuk menjalankan bingkai, menggunakan RANGE BETWEEN UNBOUNDED PRECEDING AND CURRENT ROW
. Photon juga mendukung mode rentang untuk bingkai yang berkembang, menggunakan RANGE BETWEEN UNBOUNDED PRECEDING AND offset_stop { PRECEDING | FOLLOWING }
.
Meningkatkan partisi awal untuk memindai kueri selektif
Nilai partisi awal yang akan dipindai telah ditingkatkan menjadi 10 untuk kueri selektif dengan take/tail/limit
di kluster yang diaktifkan Photon dan LIMIT
di Databricks SQL. Dengan 10 partisi, Anda dapat menghindari overhead meluncurkan beberapa pekerjaan kecil dan peningkatan skala yang lambat. Anda juga dapat mengonfigurasi ini melalui spark.sql.limit.selectiveInitialNumPartitions
.
Visualisasi versi paket AQE baru
Memperkenalkan versi paket AQE yang memungkinkan Anda memvisualisasikan pembaruan rencana runtime Anda dari eksekusi kueri adaptif (AQE).
Pelacakan kemajuan asinkron baru dan mode pembersihan log
Memperkenalkan mode Streaming Terstruktur yang disebut pelacakan kemajuan asinkron dan pembersihan log asinkron. Mode pembersihan log asinkron menurunkan latensi kueri streaming dengan menghapus log yang digunakan untuk pelacakan kemajuan di latar belakang.
Streaming Terstruktur di Unity Catalog sekarang mendukung display()
Sekarang Anda dapat menggunakan display()
saat menggunakan Streaming Terstruktur untuk bekerja dengan tabel yang terdaftar di Katalog Unity.
Peristiwa alur sekarang dicatat dalam format JSON
Azure Databricks sekarang menulis peristiwa alur ke log driver dalam format JSON. Meskipun setiap peristiwa akan dapat diurai JSON, peristiwa besar mungkin tidak berisi semua bidang, atau bidang mungkin terpotong. Setiap peristiwa dicatat dalam satu baris dengan awalan Event received:
. Berikut ini adalah contoh peristiwa.
Event received: {"id":"some-event-id","origin":{"pipeline_id":"some-pipeline-id","cluster_id":"some-cluster id"},"message":"simple [truncated] message","level":"WARN"}
Pemrosesan Stateful Arbitrer dalam Streaming Terstruktur dengan Python
Memperkenalkan applyInPandasWithState
fungsi yang dapat digunakan untuk melakukan pemrosesan stateful arbitrer di PySpark. Ini setara dengan flatMapGroupsWithState
fungsi di Java API.
Inferensi tanggal dalam file CSV
Memperkenalkan inferensi kolom jenis tanggal yang ditingkatkan dalam file CSV. Saat format tanggal konsisten di seluruh rekaman untuk kolom, kolom tersebut dapat disimpulkan sebagai DateType
. Anda juga dapat memiliki kombinasi format tanggal di berbagai kolom. Azure Databricks dapat secara otomatis menyimpulkan format tanggal untuk setiap kolom. Kolom tanggal dalam file CSV sebelum Databricks Runtime 11.3 LTS dibiarkan sebagai StringType
.
Mengkloning dukungan untuk tabel Apache Parquet dan Apache Iceberg (Pratinjau Umum)
Kloning sekarang dapat digunakan untuk membuat dan memperbarui tabel Delta secara bertahap yang mencerminkan tabel Apache Parquet dan Apache Iceberg. Anda dapat memperbarui tabel Parquet sumber anda dan secara bertahap menerapkan perubahan ke tabel Delta kloning mereka dengan perintah kloning. Lihat Mengkloning parquet dan tabel Iceberg secara bertahap ke Delta Lake.
Gunakan SQL untuk menentukan lokasi penyimpanan tingkat skema dan katalog untuk tabel terkelola Katalog Unity
Anda sekarang dapat menggunakan MANAGED LOCATION
perintah SQL untuk menentukan lokasi penyimpanan cloud untuk tabel terkelola di tingkat katalog dan skema. Lihat CREATE CATALOG dan CREATE SCHEMA.
Perubahan perilaku
Databricks Connect 11.3.2
Pembaruan klien Databricks Connect 11.3.2 sekarang didukung. Lihat Catatan rilis Databricks Connect dan Databricks Connect.
Konektor Snowflake Azure Databricks yang diperbarui
Konektor Azure Databricks Snowflake telah diperbarui ke versi terbaru kode dari repositori sumber terbuka, Sumber Data Snowflake untuk Apache Spark. Ini sekarang sepenuhnya kompatibel dengan Databricks Runtime 11.3 LTS, termasuk pushdown predikat dan pushdown rencana kueri internal sambil mempertahankan semua fitur versi sumber terbuka.
Cache Hadoop untuk S3A sekarang dinonaktifkan
Cache Hadoop (FileSystem Apache Hadoop Main 3.3.4 API) untuk S3A sekarang dinonaktifkan. Ini untuk menyelaraskan dengan konektor penyimpanan cloud lainnya. Untuk beban kerja yang mengandalkan penembolokan sistem file, pastikan bahwa sistem file yang baru dibuat disediakan dengan konfigurasi Hadoop yang benar, termasuk penyedia kredensial.
Skema pengumpulan statistik Delta Lake sekarang cocok dengan urutan kolom dalam definisi skema tabel
Perubahan ini mengatasi bug dalam protokol Delta Lake di mana statistik tidak dikumpulkan untuk kolom karena ketidakcocokan dalam DataFrame dan pengurutan kolom tabel. Dalam beberapa kasus, Anda mungkin mengalami penurunan performa tulis karena koleksi statistik pada bidang yang sebelumnya tidak terlaruti. Lihat Melewatkan data untuk Delta Lake.
applyInPandasWithState memunculkan kesalahan jika kueri mengalami pengacakan setelah operator
Operator applyInPandasWithState
melemparkan kesalahan jika kueri memiliki shuffle
setelah operator. Ini terjadi ketika pengguna menambahkan shuffle
setelah operasi, atau pengoptimal atau sink menambahkan secara implisit shuffle
.
Peningkatan pustaka
- Pustaka Python yang ditingkatkan:
- distlib dari 0.3.5 hingga 0.3.6
- Pustaka R yang ditingkatkan:
- sapu dari 1.0.0 hingga 1.0.1
- callr dari 3.7.1 ke 3.7.2
- dplyr dari 1.0.9 hingga 1.0.10
- dtplyr dari 1.2.1 ke 1.2.2
- forcats dari 0.5.1 hingga 0.5.2
- dari 1.27.0 hingga 1.28.0
- future.apply dari 1.9.0 hingga 1.9.1
- gert dari 1.7.0 hingga 1.8.0
- global dari 0,16,0 ke 0,16,1
- dapat di gtable dari 0.3.0 hingga 0.3.1
- dari 2.5.0 hingga 2.5.1
- hms dari 1.1.1 hingga 1.1.2
- httr dari 1.4.3 hingga 1.4.4
- rajut dari 1,39 hingga 1,40
- modelr dari 0.1.8 hingga 0.1.9
- pilar dari 1.8.0 hingga 1.8.1
- progressr dari 0.10.1 ke 0.11.0
- readxl dari 1.4.0 hingga 1.4.1
- reprex dari 2.0.1 ke 2.0.2
- rlang dari 1.0.4 ke 1.0.5
- rmarkdown dari 2.14 ke 2.16
- RSQLite dari 2.2.15 ke 2.2.16
- rstudioapi dari 0,13 hingga 0,14
- rversion dari 2.1.1 hingga 2.1.2
- rvest dari 1.0.2 hingga 1.0.3
- skala dari 1.2.0 ke 1.2.1
- sparklyr dari 1.7.7 ke 1.7.8
- stringr dari 1.4.0 hingga 1.4.1
- bertahan hidup dari 3,2-13 hingga 3,4-0
- tinytex dari 0,40 hingga 0,41
- viridisLite dari 0.4.0 ke 0.4.1
- Pustaka Java yang ditingkatkan:
- com.fasterxml.jackson.core.jackson-anotasi dari 2.13.3 hingga 2.13.4
- com.fasterxml.jackson.core.jackson-core dari 2.13.3 ke 2.13.4
- com.fasterxml.jackson.core.jackson-databind dari 2.13.3 ke 2.13.4
- com.fasterxml.jackson.dataformat.jackson-dataformat-cbor dari 2.13.3 ke 2.13.4
- com.fasterxml.jackson.datatype.jackson-datatype-joda dari 2.13.3 hingga 2.13.4
- com.fasterxml.jackson.datatype.jackson-datatype-jsr310 dari 2.13.3 hingga 2.13.4
- com.fasterxml.jackson.module.jackson-module-paranamer dari 2.13.3 hingga 2.13.4
- com.fasterxml.jackson.module.jackson-module-scala_2.12 dari 2.13.3 hingga 2.13.4
- org.apache.hadoop.hadoop-client-api dari 3.3.2-databricks ke 3.3.4-databricks
- org.apache.hadoop.hadoop-client-runtime dari 3.3.2 hingga 3.3.4
- org.apache.orc.orc-core dari 1.7.5 hingga 1.7.6
- org.apache.orc.orc-mapreduce dari 1.7.5 hingga 1.7.6
- org.apache.orc.orc-shims dari 1.7.5 hingga 1.7.6
- org.apache.parquet.parquet-column dari 1.12.0-databricks-0004 hingga 1.12.0-databricks-0007
- org.apache.parquet.parquet-common dari 1.12.0-databricks-0004 hingga 1.12.0-databricks-0007
- org.apache.parquet.parquet-encoding dari 1.12.0-databricks-0004 ke 1.12.0-databricks-0007
- org.apache.parquet.parquet-format-structures dari 1.12.0-databricks-0004 hingga 1.12.0-databricks-0007
- org.apache.parquet.parquet-hadoop dari 1.12.0-databricks-0004 ke 1.12.0-databricks-0007
- org.apache.parquet.parquet-jackson dari 1.12.0-databricks-0004 ke 1.12.0-databricks-0007
- org.glassfish.jersey.containers.jersey-container-servlet dari 2.34 hingga 2.36
- org.glassfish.jersey.containers.jersey-container-servlet-core dari 2.34 hingga 2.36
- org.glassfish.jersey.core.jersey-client dari 2.34 hingga 2.36
- org.glassfish.jersey.core.jersey-common dari 2.34 hingga 2.36
- org.glassfish.jersey.core.jersey-server dari 2.34 hingga 2.36
- org.glassfish.jersey.inject.jersey-hk2 dari 2.34 hingga 2.36
Apache Spark
Databricks Runtime 11.3 LTS mencakup Apache Spark 3.3.0. Rilis ini mencakup semua perbaikan dan peningkatan Spark yang disertakan dalam Databricks Runtime 11.2 (EoS), serta perbaikan bug dan peningkatan tambahan berikut yang dilakukan pada Spark:
- [SPARK-39957] [WARMFIX][sc-111425][CORE] Penundaan eksekusi onDisconnected untuk memungkinkan Driver menerima ExecutorExitCode
- [SPARK-39955] [WARMFIX][sc-111424][CORE] Meningkatkan proses LaunchTask untuk menghindari kegagalan Tahap yang disebabkan oleh pesan LaunchTask yang gagal dikirim
- [SPARK-40474] [SC-106248][cherry-pick] Memperbaiki perilaku inferensi skema CSV untuk kolom tanggal dan waktu serta memperkenalkan deteksi otomatis untuk bidang tanggal
- [SPARK-40535] [SC-111243][sql] Perbaiki bug pada buffer AggregatingAccumulator yang tidak akan dibuat jika baris inputnya kosong
- [SPARK-40434] [SC-111125][sc-111144][SC-111138][spark-40435][11.3][ss][PYTHON] Menerapkan applyInPandasWithState di PySpark
-
[SPARK-40460] [SC-110832][ss] Perbaiki metrik streaming saat memilih
_metadata
-
[SPARK-40324] [SC-109943][sql] Menyediakan konteks kueri
ParseException
- [SPARK-40466] [SC-110899][ss] Meningkatkan pesan kesalahan saat DSv2 dinonaktifkan sementara DSv1 tidak tersedia
- [SPARK-40456] [SC-110848][sql] PartitionIterator.hasNext harus murah untuk dipanggil berulang kali
- [SPARK-40169] [SC-110772][sql] Jangan terapkan filter Parquet tanpa referensi ke skema data
- [SPARK-40467] [SC-110759][ss] Membagi FlatMapGroupsWithState menjadi beberapa suite pengujian
- [SPARK-40468] [SC-110813][sql] Perbaiki pemangkasan kolom di CSV saat _corrupt_record dipilih
- [SPARK-40291] [SC-110085][sql] Meningkatkan pesan untuk kolom yang tidak berada dalam grup berdasarkan kesalahan klausa
- [SPARK-40398] [SC-110762][core][SQL] Gunakan Loop alih-alih Arrays.stream API
- [SPARK-40433] [SC-110684][ss][PYTHON] Tambahkan toJVMRow di PythonSQLUtils untuk mengonversi Row PySpark yang terseial ke Row JVM
- [SPARK-40414] [SC-110568][sql][PYTHON] Jenis generik lainnya di PythonArrowInput dan PythonArrowOutput
- [SPARK-40352] [SC-109945][sql] Tambahkan alias fungsi: len, datepart, dateadd, date_diff dan curdate
- [SPARK-40470] [SC-110761][sql] Handle GetArrayStructFields dan GetMapValue dalam fungsi "arrays_zip"
- [SPARK-40387] [SC-110685][sql] Meningkatkan implementasi Spark Decimal
- [SPARK-40429] [SC-110675][sql] Hanya atur KeyGroupedPartitioning saat kolom yang direferensikan ada di output
- [SPARK-40432] [SC-110716][ss][PYTHON] Memperkenalkan GroupStateImpl dan GroupStateTimeout di PySpark
- [SPARK-39915] [SC-110496][sql] Pastikan partisi output ditentukan pengguna di AQE
-
[SPARK-29260] [SQL] Dukungan
ALTER DATABASE SET LOCATION
jika HMS mendukung - [SPARK-40185] [SC-110056][sql] Hapus saran kolom saat daftar kandidat kosong
- [SPARK-40362] [SC-110401][sql] Perbaiki kanonisasi BinaryComparison
- [SPARK-40411] [SC-110381][ss] Refaktorisasi FlatMapGroupsWithStateExec agar memiliki sifat induk
- [SPARK-40293] [SC-110084][sql] Membuat pesan kesalahan tabel V2 lebih bermakna
-
[SPARK-38734] [SC-110383][sql] Hapus kelas kesalahan
INDEX_OUT_OF_BOUNDS
- [SPARK-40292] [SC-110300][sql] Perbaiki nama kolom dalam fungsi "arrays_zip" saat array direferensikan dari struktur berlapis
- [SPARK-40276] [SC-109674][core] Kurangi ukuran hasil dari RDD.takeOrdered
- [SPARK-40197] [SC-109176][sql] Ganti rencana kueri dengan konteks untuk MULTI_VALUE_SUBQUERY_ERROR
-
[SPARK-40300] [SC-109942][sql] Migrasi ke kelas kesalahan
DATATYPE_MISMATCH
- [SPARK-40149] [SC-110055][sql] Sebarkan kolom metadata melalui Project
- [SPARK-40280] [SC-110146][sql] Tambahkan dukungan untuk pushdown parquet untuk int dan long yang diberi anotasi
- [SPARK-40220] [SC-110143][sc-109175][SQL] Jangan keluarkan peta kosong parameter pesan kesalahan
- [SPARK-40295] [SC-110070][sql] Izinkan fungsi v2 dengan arg harfiah dalam distribusi/pemesanan tulis
-
[SPARK-40156] [SC-109264][sql]
url_decode()
harus mengembalikan kelas kesalahan - [SPARK-39195] [SQL] Spark OutputCommitCoordinator harus membatalkan tahap ketika file yang diterapkan tidak konsisten dengan status tugas
- [SPARK-40260] [SC-109424][sql] Gunakan kelas kesalahan untuk menyusun kesalahan di GROUP BY sebuah posisi
- [SPARK-40205] [SC-110144][sc-109082][SQL] Menyediakan konteks pencarian untuk ELEMENT_AT_BY_INDEX_ZERO
- [SPARK-40112] [SC-109676][sql] Meningkatkan fungsi TO_BINARY()
-
[SPARK-40209] [SC-109081][sql] Jangan mengubah nilai interval Desimal dalam
changePrecision()
ketika terjadi kesalahan - [SPARK-40319] [SC-109873][sql] Hapus metode kesalahan eksekusi kueri duplikat untuk PARSE_DATETIME_BY_NEW_PARSER
- [SPARK-40222] [SC-109209][sql] Numeric try_add/try_divide/try_subtract/try_multiply harus melemparkan kesalahan dari anak-anak mereka
- [SPARK-40183] [SC-108907][sql] Gunakan kelas kesalahan NUMERIC_VALUE_OUT_OF_RANGE untuk luapan dalam konversi desimal
-
[SPARK-40180] [SC-109069][sql] Format pesan kesalahan dengan
spark-sql
- [SPARK-40153] [SC-109165][sql] Menyatukan fungsi pemecahan masalah dan fungsi bernilai tabel
-
[SPARK-40308] [SC-109880][sql] Izinkan argumen pemisah yang tidak dapat dilipat ke fungsi
str_to_map
- [SPARK-40219] [SC-110052][sc-109663][SQL] Rencana logis tampilan yang diselesaikan harus menyimpan skema untuk menghindari pencarian berlebihan
- [SPARK-40098] [SC-109939][sc-108693][SQL] Format pesan kesalahan di Thrift Server
- [SPARK-39917] [SC-109038][sql] Gunakan kelas kesalahan yang berbeda untuk luapan aritmatika numerik/interval
- [SPARK-40033] [SC-109875][sql] Dukungan pemangkasan skema berlapis melalui element_at
- [SPARK-40194] [SC-109660][sql] SPLIT pada regex kosong harus memotong string kosong berikutnya.
- [SPARK-40228] [SC-109835][sql] Jangan menyederhanakan multiLike jika anak bukan ekspresi murah
- [SPARK-40039] [SC-109896][sc-109260][SS] Memperkenalkan manajer file titik pemeriksaan streaming berdasarkan antarmuka Abortable Hadoop
-
[SPARK-40285] [SC-109679][sql] Menyederhanakan
roundTo[Numeric]
untuk SparkDecimal
- [SPARK-39896] [SC-109658][sql] UnwrapCastInBinaryComparison harus berfungsi ketika literal downcast In/InSet gagal.
- [SPARK-40040] [SC-109662][sql] Terapkan pembatas lokal ke kedua sisi jika syarat gabungan kosong
- [SPARK-40055] [SC-109075][sql] listCatalogs juga harus mengembalikan spark_catalog bahkan ketika implementasi spark_catalog adalah defaultSessionCatalog
- [SPARK-39915] [SC-109391][sql] Dataset.repartition(N) mungkin tidak membuat N partisi pada bagian Non-AQE
- [SPARK-40207] [SC-109401][sql] Tentukan nama kolom saat tipe data tidak didukung oleh sumber data
- [SPARK-40245] [SC-109295][sql] Perbaiki pemeriksaan kesetaraan FileScan saat kolom filter partisi atau data tidak dibaca
- [SPARK-40113] [SC-109405][sql] Implementasi antarmuka Reactor ParquetScanBuilder DataSourceV2
- [SPARK-40211] [SC-109226][core][SQL] Izinkan kustomisasi nomor partisi awal dalam perilaku take()
-
[SPARK-40252] [SC-109379][sql] Ganti
Stream.collect(Collectors.joining)
denganStringJoiner
Api - [SPARK-40247] [SC-109272][sql] Perbaiki pemeriksaan kesetaraan BitSet
- [SPARK-40067] [SQL] Gunakan Table#name() alih-alih Scan#name() untuk mengisi nama tabel di simpul BatchScan di SparkUI
- [SPARK-39966] [SQL] Menggunakan Filter V2 di SupportsDelete
- [SPARK-39607] [SC-109268][sql][DSV2] Distribusi dan pemesanan mendukung fungsi V2 secara tertulis
- [SPARK-40224] [SC-109271][sql] Membuat ObjectHashAggregateExec melepaskan memori dengan cepat saat beralih ke berbasis pengurutan
-
[SPARK-40013] [SQL] Ekspresi DS V2 harus memiliki default
toString
- [SPARK-40214] [SC-109079][python][SQL] tambahkan 'get' ke fungsi
- [SPARK-40192] [SC-109089][sql][ML] Hapus groupby yang berlebihan
- [SPARK-40146] [SC-108694][sql] Sederhanakan proses codegen untuk mendapatkan nilai peta
- [SPARK-40109] [SQL] Fungsi SQL baru: get()
- [SPARK-39929] [SQL] DS V2 mendukung fungsi string push down (non ANSI)
- [SPARK-39819] [SQL] Pendorongan agregat DS V2 dapat berfungsi dengan N Teratas atau Penomoran (Urutkan dengan ekspresi)
- [SPARK-40213] [SC-109077][sql] Mendukung konversi nilai ASCII untuk karakter Latin-1
- [SPARK-39887] [SQL] RemoveRedundantAliases harus menyimpan alias yang membuat output simpul proyeksi unik
- [SPARK-39764] [SQL] Membuat PhysicalOperation sama dengan ScanOperation
- [SPARK-39964] [SQL] Pushdown DS V2 harus menyatukan jalur terjemahan
- [SPARK-39528] [SQL] Menggunakan Filter V2 di SupportsRuntimeFiltering
- [SPARK-40066] [SQL] Mode ANSI: selalu mengembalikan null pada akses yang tidak valid ke kolom peta
- [SPARK-39912] [SPARK-39828][sql] Refine CatalogImpl
- [SPARK-39833] [SC-108736][sql] Nonaktifkan indeks kolom Parquet di DSv1 untuk memperbaiki masalah kebenaran dalam kasus partisi dan kolom data yang tumpang tindih
- [SPARK-39880] [SQL] V2 SHOW FUNCTIONS perintah harus mencetak nama fungsi yang memenuhi syarat seperti v1
- [SPARK-39767] [SQL] Hapus UnresolvedDBObjectName dan tambahkan UnresolvedIdentifier
- [SPARK-40163] [SC-108740][sql] feat: SparkSession.config(Map)
- [SPARK-40136] [SQL] Memperbaiki fragmen konteks kueri SQL
- [SPARK-40107] [SC-108689][sql] Memisahkan konversi dari kosong menjadi null dari FileFormatWriter
- [SPARK-40121] [PYTHON][sql] Inisialisasi proyeksi yang digunakan untuk Python UDF
- [SPARK-40128] [SQL] Buat VectorizedColumnReader mengenali DELTA_LENGTH_BYTE_ARRAY sebagai pengodean kolom mandiri
- [SPARK-40132] [ML] Pulihkan rawPredictionCol ke MultilayerPerceptronClassifier.setParams
-
[SPARK-40050] [SC-108696][sql] Enhance
EliminateSorts
untuk mendukung penghapusan pengurutan melaluiLocalLimit
- [SPARK-39629] [SQL] Dukungan v2 SHOW FUNCTIONS
- [SPARK-39925] [SC-108734][sql] Tambahkan kelebihan beban array_sort(kolom, komparator) ke operasi DataFrame
- [SPARK-40117] [PYTHON][sql] Konversi kondisi ke java di DataFrameWriterV2.overwrite
- [SPARK-40105] [SQL] Meningkatkan partisi ulang di ReplaceCTERefWithRepartition
- [SPARK-39503] [SQL] Menambahkan nama katalog sesi untuk tabel dan fungsi database v1
- [SPARK-39889] [SQL] Gunakan kelas kesalahan yang berbeda untuk numerik/interval yang dibagi 0
- [SPARK-39741] [SQL] Mendukung pengodean/dekode url sebagai fungsi bawaan dan merapikan fungsi terkait url
- [SPARK-40102] [SQL] Gunakan SparkException alih-alih IllegalStateException di SparkPlan
- [SPARK-40014] [SQL] Mendukung pemeran desimal ke interval ANSI
- [SPARK-39776] [SQL][lanjut] Perbarui pengujian unit untuk PlanStabilitySuite dalam mode ANSI
-
[SPARK-39963] [SQL] Menyederhanakan
SimplifyCasts.isWiderCast
Pembaruan pemeliharaan
Lihat Pembaruan pemeliharaan Databricks Runtime 11.3.
Lingkungan sistem
- Sistem Operasi: Ubuntu 20.04.5 LTS
- Java: Zulu 8.56.0.21-CA-linux64
- Scala: 2.12.14
- Python: 3.9.21
- R: 4.1.3
- Danau Delta: 2.1.0
Pustaka Python yang diinstal
Pustaka | Versi | Pustaka | Versi | Pustaka | Versi |
---|---|---|---|---|---|
argon2-cffi | 20.1.0 | async-generator | 1.10 | attrs | 21.2.0 |
backcall | 0.2.0 | backports.entry-points-selectable | 1.1.1 | hitam | 22.3.0 |
pemutih | 4.0.0 | boto3 | 1.21.18 | botocore | 1.24.18 |
certifi | 2021.10.8 | cffi | 1.14.6 | chardet | 4.0.0 |
charset-normalizer | 2.0.4 | klik | 8.0.3 | cryptography | 3.4.8 |
cycler | 0.10.0 | Cython | 0.29.24 | dbus-python | 1.2.16 |
debugpy | 1.4.1 | decorator | 5.1.0 | defusedxml | 0.7.1 |
distlib | 0.3.6 | titik masuk | 0,3 | facets-overview | 1.0.0 |
filelock | 3.8.0 | idna | 3.2 | ipykernel | 6.12.1 |
ipython | 7.32.0 | ipython-genutils | 0.2.0 | ipywidgets | 7.7.0 |
jedi | 0.18.0 | Jinja2 | 2.11.3 | jmespath | 0.10.0 |
joblib | 1.0.1 | jsonschema | 3.2.0 | jupyter-client | 6.1.12 |
jupyter-core | 4.8.1 | jupyterlab-pygments | 0.1.2 | jupyterlab-widgets | 1.0.0 |
kiwisolver | 1.3.1 | MarkupSafe | 2.0.1 | matplotlib | 3.4.3 |
matplotlib-inline | 0.1.2 | mistune | 0.8.4 | ekstensi mypy | 0.4.3 |
nbclient | 0.5.3 | nbconvert | 6.1.0 | nbformat | 5.1.3 |
nest-asyncio | 1.5.1 | buku catatan | 6.4.5 | numpy | 1.20.3 |
packaging | 21.0 | pandas | 1.3.4 | pandocfilters | 1.4.3 |
parso | 0.8.2 | pathspec | 0.9.0 | patsy | 0.5.2 |
pexpect=4.8.0 | 4.8.0 | pickleshare | 0.7.5 | Pillow | 8.4.0 |
pip | 21.2.4 | platformdir | 2.5.2 | plotly | 5.9.0 |
prometheus-client | 0.11.0 | prompt-toolkit | 3.0.20 | protobuf | 4.21.5 |
psutil | 5.8.0 | psycopg2 | 2.9.3 | ptyprocess | 0.7.0 |
pyarrow | 7.0.0 | pycparser | 2,20 | Pygments | 2.10.0 |
PyGObject | 3.36.0 | pyodbc | 4.0.31 | pyparsing | 3.0.4 |
pyrsistent | 0.18.0 | python-dateutil | 2.8.2 | pytz | 2021.3 |
pyzmq | 22.2.1 | permintaan | 2.26.0 | requests-unixsocket | 0.2.0 |
s3transfer | 0.5.2 | scikit-learn | 0.24.2 | scipy | 1.7.1 |
seaborn | 0.11.2 | Send2Trash | 1.8.0 | setuptools | 58.0.4 |
six | 1.16.0 | ssh-import-id | 5.10 | statsmodels | 0.12.2 |
tenacity | 8.0.1 | terminado | 0.9.4 | testpath | 0.5.0 |
threadpoolctl | 2.2.0 | tokenize-rt | 4.2.1 | tomli | 2.0.1 |
tornado | 6.1 | traitlets=5.0.5 | 5.1.0 | typing-extensions | 3.10.0.2 |
unattended-upgrades | 0.1 | urllib3 | 1.26.7 | virtualenv | 20.8.0 |
wcwidth | 0.2.5 | webencodings=0.5.1 | 0.5.1 | wheel | 0.37.0 |
widgetsnbextension | 3.6.0 |
Pustaka R yang diinstal
Pustaka R diinstal dari rekam jepret Microsoft CRAN pada 2022-09-08. Rekam jepret tidak lagi tersedia.
Pustaka | Versi | Pustaka | Versi | Pustaka | Versi |
---|---|---|---|---|---|
askpass | 1.1 | assertthat | 0.2.1 | backports | 1.4.1 |
dasar | 4.1.3 | base64enc | 0.1-3 | bit | 4.0.4 |
bit64 | 4.0.5 | blob | 1.2.3 | boot | 1.3-28 |
brew | 1.0-7 | brio | 1.1.3 | broom | 1.0.1 |
bslib | 0.4.0 | cachem | 1.0.6 | callr | 3.7.2 |
caret | 6.0-93 | cellranger | 1.1.0 | chron | 2.3-57 |
kelas | 7.3-20 | cli | 3.3.0 | clipr | 0.8.0 |
klaster | 2.1.3 | codetools | 0.2-18 | colorspace | 2.0-3 |
commonmark | 1.8.0 | compiler | 4.1.3 | config | 0.3.1 |
cpp11 | 0.4.2 | crayon | 1.5.1 | informasi masuk | 1.3.2 |
curl | 4.3.2 | data.table | 1.14.2 | datasets | 4.1.3 |
DBI | 1.1.3 | dbplyr | 2.2.1 | desc | 1.4.1 |
devtools | 2.4.4 | diffobj | 0.3.5 | digest | 0.6.29 |
downlit | 0.4.2 | dplyr | 1.0.10 | dtplyr | 1.2.2 |
e1071 | 1.7-11 | ellipsis | 0.3.2 | evaluate | 0.16 |
fansi | 1.0.3 | farver | 2.1.1 | fastmap | 1.1.0 |
fontawesome | 0.3.0 | forcats | 0.5.2 | foreach | 1.5.2 |
foreign | 0.8-82 | forge | 0.2.0 | fs | 1.5.2 |
future | 1.28.0 | future.apply | 1.9.1 | gargle | 1.2.0 |
generics | 0.1.3 | Gert | 1.8.0 | ggplot2 | 3.3.6 |
GH | 1.3.0 | gitcreds | 0.1.1 | glmnet | 4.1-4 |
globals | 0.16.1 | glue | 1.6.2 | googledrive | 2.0.0 |
googlesheets4 | 1.0.1 | gower | 1.0.0 | graphics | 4.1.3 |
grDevices | 4.1.3 | grid | 4.1.3 | gridExtra | 2.3 |
gsubfn | 0,7 | gtable | 0.3.1 | hardhat | 1.2.0 |
haven | 2.5.1 | highr | 0,9 | hms | 1.1.2 |
htmltools | 0.5.3 | htmlwidgets | 1.5.4 | httpuv | 1.6.5 |
httr | 1.4.4 | ids | 1.0.1 | ini | 0.3.1 |
ipred | 0.9-13 | isoband | 0.2.5 | iterators | 1.0.14 |
jquerylib | 0.1.4 | jsonlite | 1.8.0 | KernSmooth | 2.23-20 |
knitr | 1.40 | labeling | 0.4.2 | later | 1.3.0 |
lattice | 0.20-45 | lava | 1.6.10 | lifecycle | 1.0.1 |
listenv | 0.8.0 | lubridate | 1.8.0 | magrittr | 2.0.3 |
markdown | 1.1 | MASS | 7.3-56 | Matrix | 1.4-1 |
memoise | 2.0.1 | methods | 4.1.3 | mgcv | 1.8-40 |
mime | 0.12 | miniUI | 0.1.1.1 | ModelMetrics | 1.2.2.2 |
modelr | 0.1.9 | munsell | 0.5.0 | nlme | 3.1-157 |
nnet | 7.3-17 | numDeriv | 2016.8-1.1 | openssl | 2.0.2 |
parallel | 4.1.3 | parallelly | 1.32.1 | pillar | 1.8.1 |
pkgbuild | 1.3.1 | pkgconfig | 2.0.3 | pkgdown | 2.0.6 |
pkgload | 1.3.0 | plogr | 0.2.0 | plyr | 1.8.7 |
praise | 1.0.0 | prettyunits | 1.1.1 | pROC | 1.18.0 |
processx | 3.7.0 | prodlim | 2019.11.13 | profvis | 0.3.7 |
kemajuan | 1.2.2 | progressr | 0.11.0 | promises | 1.2.0.1 |
proto | 1.0.0 | proksi | 0.4-27 | ps | 1.7.1 |
purrr | 0.3.4 | r2d3 | 0.2.6 | R6 | 2.5.1 |
ragg | 1.2.2 | randomForest | 4.7-1.1 | rappdirs | 0.3.3 |
rcmdcheck | 1.4.0 | RColorBrewer | 1.1-3 | Rcpp | 1.0.9 |
RcppEigen | 0.3.3.9.2 | readr | 2.1.2 | readxl | 1.4.1 |
recipes | 1.0.1 | rematch | 1.0.1 | rematch2 | 2.1.2 |
remotes | 2.4.2 | reprex | 2.0.2 | reshape2 | 1.4.4 |
rlang | 1.0.5 | rmarkdown | 2,16 | RODBC | 1.3-19 |
roxygen2 | 7.2.1 | rpart | 4.1.16 | rprojroot | 2.0.3 |
Rserve | 1.8-11 | RSQLite | 2.2.16 | rstudioapi | 0.14 |
rversions | 2.1.2 | rvest | 1.0.3 | sass | 0.4.2 |
scales | 1.2.1 | selectr | 0.4-2 | sessioninfo | 1.2.2 |
bentuk | 1.4.6 | shiny | 1.7.2 | sourcetools | 0.1.7 |
sparklyr | 1.7.8 | SparkR | 3.3.0 | spatial | 7.3-11 |
splines | 4.1.3 | sqldf | 0.4-11 | SQUAREM | 2021.1 |
stats | 4.1.3 | stats4 | 4.1.3 | stringi | 1.7.8 |
stringr | 1.4.1 | survival | 3.4-0 | sys | 3.4 |
systemfonts | 1.0.4 | tcltk | 4.1.3 | testthat | 3.1.4 |
pembahasan teks | 0.3.6 | tibble | 3.1.8 | tidyr | 1.2.0 |
tidyselect | 1.1.2 | tidyverse | 1.3.2 | timeDate | 4021.104 |
tinytex | 0.41 | alat | 4.1.3 | tzdb | 0.3.0 |
urlchecker | 1.0.1 | usethis | 2.1.6 | utf8 | 1.2.2 |
utils | 4.1.3 | uuid | 1.1-0 | vctrs | 0.4.1 |
viridisLite | 0.4.1 | vroom | 1.5.7 | waldo | 0.4.0 |
whisker | 0,4 | withr | 2.5.0 | xfun | 0,32 |
xml2 | 1.3.3 | xopen | 1.0.0 | xtable | 1.8-4 |
yaml | 2.3.5 | zip | 2.2.0 |
Pustaka Java dan Scala yang diinstal (versi kluster Scala 2.12)
ID Grup | ID Artefak | Versi |
---|---|---|
antlr | antlr | 2.7.7 |
com.amazonaws | amazon-kinesis-client | 1.12.0 |
com.amazonaws | aws-java-sdk-autoscaling | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudformation | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudfront | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudhsm | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudsearch | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudtrail | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudwatch | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.189 |
com.amazonaws | aws-java-sdk-codedeploy | 1.12.189 |
com.amazonaws | aws-java-sdk-cognitoidentity | 1.12.189 |
com.amazonaws | aws-java-sdk-cognitosync | 1.12.189 |
com.amazonaws | aws-java-sdk-config | 1.12.189 |
com.amazonaws | aws-java-sdk-core | 1.12.189 |
com.amazonaws | aws-java-sdk-datapipeline | 1.12.189 |
com.amazonaws | aws-java-sdk-directconnect | 1.12.189 |
com.amazonaws | aws-java-sdk-directory | 1.12.189 |
com.amazonaws | aws-java-sdk-dynamodb | 1.12.189 |
com.amazonaws | aws-java-sdk-ec2 | 1.12.189 |
com.amazonaws | aws-java-sdk-ecs | 1.12.189 |
com.amazonaws | aws-java-sdk-efs | 1.12.189 |
com.amazonaws | aws-java-sdk-elasticache | 1.12.189 |
com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.12.189 |
com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.12.189 |
com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.189 |
com.amazonaws | aws-java-sdk-emr | 1.12.189 |
com.amazonaws | aws-java-sdk-glacier | 1.12.189 |
com.amazonaws | aws-java-sdk-glue | 1.12.189 |
com.amazonaws | aws-java-sdk-iam | 1.12.189 |
com.amazonaws | aws-java-sdk-importexport | 1.12.189 |
com.amazonaws | aws-java-sdk-kinesis | 1.12.189 |
com.amazonaws | aws-java-sdk-kms | 1.12.189 |
com.amazonaws | aws-java-sdk-lambda | 1.12.189 |
com.amazonaws | aws-java-sdk-logs | 1.12.189 |
com.amazonaws | aws-java-sdk-machinelearning | 1.12.189 |
com.amazonaws | aws-java-sdk-opsworks | 1.12.189 |
com.amazonaws | aws-java-sdk-rds | 1.12.189 |
com.amazonaws | aws-java-sdk-redshift | 1.12.189 |
com.amazonaws | aws-java-sdk-route53 | 1.12.189 |
com.amazonaws | aws-java-sdk-s3 | 1.12.189 |
com.amazonaws | aws-java-sdk-ses | 1.12.189 |
com.amazonaws | aws-java-sdk-simpledb | 1.12.189 |
com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.189 |
com.amazonaws | aws-java-sdk-sns | 1.12.189 |
com.amazonaws | aws-java-sdk-sqs | 1.12.189 |
com.amazonaws | aws-java-sdk-ssm | 1.12.189 |
com.amazonaws | aws-java-sdk-storagegateway | 1.12.189 |
com.amazonaws | aws-java-sdk-sts | 1.12.189 |
com.amazonaws | aws-java-sdk-support | 1.12.189 |
com.amazonaws | aws-java-sdk-swf-libraries | 1.11.22 |
com.amazonaws | aws-java-sdk-workspaces | 1.12.189 |
com.amazonaws | jmespath-java | 1.12.189 |
com.chuusai | shapeless_2.12 | 2.3.3 |
com.clearspring.analytics | stream | 2.9.6 |
com.databricks | Rserve | 1.8-3 |
com.databricks | jets3t | 0.7.1-0 |
com.databricks.scalapb | compilerplugin_2.12 | 0.4.15-10 |
com.databricks.scalapb | scalapb-runtime_2.12 | 0.4.15-10 |
com.esotericsoftware | kryo-shaded | 4.0.2 |
com.esotericsoftware | minlog | 1.3.0 |
com.fasterxml | classmate | 1.3.4 |
com.fasterxml.jackson.core | jackson-annotations | 2.13.4 |
com.fasterxml.jackson.core | jackson-core | 2.13.4 |
com.fasterxml.jackson.core | jackson-databind | 2.13.4 |
com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.13.4 |
com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.13.4 |
com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.13.4 |
com.fasterxml.jackson.module | jackson-module-paranamer | 2.13.4 |
com.fasterxml.jackson.module | jackson-module-scala_2.12 | 2.13.4 |
com.github.ben-manes.caffeine | caffeine | 2.3.4 |
com.github.fommil | jniloader | 1.1 |
com.github.fommil.netlib | inti | 1.1.2 |
com.github.fommil.netlib | native_ref-java | 1.1 |
com.github.fommil.netlib | native_ref-java-natives | 1.1 |
com.github.fommil.netlib | native_system-java | 1.1 |
com.github.fommil.netlib | native_system-java-natives | 1.1 |
com.github.fommil.netlib | netlib-native_ref-linux-x86_64-natives | 1.1 |
com.github.fommil.netlib | netlib-native_system-linux-x86_64-natives | 1.1 |
com.github.luben | zstd-jni | 1.5.2-1 |
com.github.wendykierp | JTransforms | 3.1 |
com.google.code.findbugs | jsr305 | 3.0.0 |
com.google.code.gson | gson | 2.8.6 |
com.google.crypto.tink | tink | 1.6.1 |
com.google.flatbuffers | flatbuffers-java | 1.12.0 |
com.google.guava | guava | 15.0 |
com.google.protobuf | protobuf-java | 2.6.1 |
com.h2database | h2 | 2.0.204 |
com.helger | profiler | 1.1.1 |
com.jcraft | jsch | 0.1.50 |
com.jolbox | bonecp | 0.8.0.RELEASE |
com.lihaoyi | sourcecode_2.12 | 0.1.9 |
com.microsoft.azure | azure-data-lake-store-sdk | 2.3.9 |
com.microsoft.sqlserver | mssql-jdbc | 9.2.1.jre8 |
com.ning | compress-lzf | 1.1 |
com.sun.mail | javax.mail | 1.5.2 |
com.tdunning | json | 1.8 |
com.thoughtworks.paranamer | paranamer | 2.8 |
com.trueaccord.lenses | lenses_2.12 | 0.4.12 |
com.twitter | chill-java | 0.10.0 |
com.twitter | chill_2.12 | 0.10.0 |
com.twitter | util-app_2.12 | 7.1.0 |
com.twitter | util-app_2.12 | 7.1.0 |
com.twitter | util-function_2.12 | 7.1.0 |
com.twitter | util-jvm_2.12 | 7.1.0 |
com.twitter | util-lint_2.12 | 7.1.0 |
com.twitter | util-registry_2.12 | 7.1.0 |
com.twitter | util-stats_2.12 | 7.1.0 |
com.typesafe | config | 1.2.1 |
com.typesafe.scala-logging | scala-logging_2.12 | 3.7.2 |
com.uber | h3 | 3.7.0 |
com.univocity | univocity-parsers | 2.9.1 |
com.zaxxer | HikariCP | 4.0.3 |
commons-cli | commons-cli | 1.5.0 |
commons-codec | commons-codec | 1.15 |
commons-collections | commons-collections | 3.2.2 |
commons-dbcp | commons-dbcp | 1.4 |
commons-fileupload | commons-fileupload | 1.3.3 |
commons-httpclient | commons-httpclient | 3.1 |
commons-io | commons-io | 2.11.0 |
commons-lang | commons-lang | 2.6 |
commons-logging | commons-logging | 1.1.3 |
commons-pool | commons-pool | 1.5.4 |
dev.ludovic.netlib | arpack | 2.2.1 |
dev.ludovic.netlib | blas | 2.2.1 |
dev.ludovic.netlib | lapack | 2.2.1 |
info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
io.airlift | aircompressor | 0,21% |
io.delta | delta-sharing-spark_2.12 | 0.5.1 |
io.dropwizard.metrics | metrics-core | 4.1.1 |
io.dropwizard.metrics | metrics-graphite | 4.1.1 |
io.dropwizard.metrics | metrics-healthchecks | 4.1.1 |
io.dropwizard.metrics | metrics-jetty9 | 4.1.1 |
io.dropwizard.metrics | metrics-jmx | 4.1.1 |
io.dropwizard.metrics | metrics-json | 4.1.1 |
io.dropwizard.metrics | metrics-jvm | 4.1.1 |
io.dropwizard.metrics | metrics-servlets | 4.1.1 |
io.netty | netty-all | 4.1.74.Final |
io.netty | netty-buffer | 4.1.74.Final |
io.netty | netty-codec | 4.1.74.Final |
io.netty | netty-common | 4.1.74.Final |
io.netty | netty-handler | 4.1.74.Final |
io.netty | netty-resolver | 4.1.74.Final |
io.netty | kelas netty-tcnative | 2.0.48.Final |
io.netty | netty-transport | 4.1.74.Final |
io.netty | netty-transport-classes-epoll | 4.1.74.Final |
io.netty | netty-transport-classes-kqueue | 4.1.74.Final |
io.netty | netty-transport-native-epoll-linux-aarch_64 | 4.1.74.Final |
io.netty | netty-transport-native-epoll-linux-x86_64 | 4.1.74.Final |
io.netty | netty-transport-native-kqueue-osx-aarch_64 | 4.1.74.Final |
io.netty | netty-transport-native-kqueue-osx-x86_64 | 4.1.74.Final |
io.netty | netty-transport-native-unix-common | 4.1.74.Final |
io.prometheus | simpleclient | 0.7.0 |
io.prometheus | simpleclient_common | 0.7.0 |
io.prometheus | simpleclient_dropwizard | 0.7.0 |
io.prometheus | simpleclient_pushgateway | 0.7.0 |
io.prometheus | simpleclient_servlet | 0.7.0 |
io.prometheus.jmx | collector | 0.12.0 |
jakarta.annotation | jakarta.annotation-api | 1.3.5 |
jakarta.servlet | jakarta.servlet-api | 4.0.3 |
jakarta.validation | jakarta.validation-api | 2.0.2 |
jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
javax.activation | activation | 1.1.1 |
javax.annotation | javax.annotation-api | 1.3.2 |
javax.el | javax.el-api | 2.2.4 |
javax.jdo | jdo-api | 3.0.1 |
javax.transaction | jta | 1.1 |
javax.transaction | transaction-api | 1.1 |
javax.xml.bind | jaxb-api | 2.2.11 |
javolution | javolution | 5.5.1 |
jline | jline | 2.14.6 |
joda-time | joda-time | 2.10.13 |
net.java.dev.jna | jna | 5.8.0 |
net.razorvine | acar | 1.2 |
net.sf.jpam | jpam | 1.1 |
net.sf.opencsv | opencsv | 2.3 |
net.sf.supercsv | super-csv | 2.2.0 |
net.snowflake | snowflake-ingest-sdk | 0.9.6 |
net.snowflake | snowflake-jdbc | 3.13.14 |
net.sourceforge.f2j | arpack_combined_all | 0.1 |
org.acplt.remotetea | remotetea-oncrpc | 1.1.2 |
org.antlr | ST4 | 4.0.4 |
org.antlr | antlr-runtime | 3.5.2 |
org.antlr | antlr4-runtime | 4.8 |
org.antlr | stringtemplate | 3.2.1 |
org.apache.ant | ant | 1.9.2 |
org.apache.ant | ant-jsch | 1.9.2 |
org.apache.ant | ant-launcher | 1.9.2 |
org.apache.arrow | arrow-format | 7.0.0 |
org.apache.arrow | arrow-memory-core | 7.0.0 |
org.apache.arrow | arrow-memory-netty | 7.0.0 |
org.apache.arrow | arrow-vector | 7.0.0 |
org.apache.avro | avro | 1.11.0 |
org.apache.avro | avro-ipc | 1.11.0 |
org.apache.avro | avro-mapred | 1.11.0 |
org.apache.commons | commons-collections4 | 4.4 |
org.apache.commons | commons-compress | 1.21 |
org.apache.commons | commons-crypto | 1.1.0 |
org.apache.commons | commons-lang3 | 3.12.0 |
org.apache.commons | commons-math3 | 3.6.1 |
org.apache.commons | commons-text | 1.9 |
org.apache.curator | curator-client | 2.13.0 |
org.apache.curator | curator-framework | 2.13.0 |
org.apache.curator | curator-recipes | 2.13.0 |
org.apache.derby | derby | 10.14.2.0 |
org.apache.hadoop | hadoop-client-api | 3.3.4-databricks |
org.apache.hadoop | hadoop-client-runtime | 3.3.4 |
org.apache.hive | hive-beeline | 2.3.9 |
org.apache.hive | hive-cli | 2.3.9 |
org.apache.hive | hive-jdbc | 2.3.9 |
org.apache.hive | hive-llap-client | 2.3.9 |
org.apache.hive | hive-llap-common | 2.3.9 |
org.apache.hive | hive-serde | 2.3.9 |
org.apache.hive | hive-shims | 2.3.9 |
org.apache.hive | hive-storage-api | 2.7.2 |
org.apache.hive.shims | hive-shims-0.23 | 2.3.9 |
org.apache.hive.shims | hive-shims-common | 2.3.9 |
org.apache.hive.shims | hive-shims-scheduler | 2.3.9 |
org.apache.httpcomponents | httpclient | 4.5.13 |
org.apache.httpcomponents | httpcore | 4.4.14 |
org.apache.ivy | ivy | 2.5.0 |
org.apache.logging.log4j | log4j-1.2-api | 2.18.0 |
org.apache.logging.log4j | log4j-api | 2.18.0 |
org.apache.logging.log4j | log4j-core | 2.18.0 |
org.apache.logging.log4j | log4j-slf4j-impl | 2.18.0 |
org.apache.mesos | mesos-shaded-protobuf | 1.4.0 |
org.apache.orc | orc-core | 1.7.6 |
org.apache.orc | orc-mapreduce | 1.7.6 |
org.apache.orc | orc-shims | 1.7.6 |
org.apache.parquet | parquet-column | 1.12.0-databricks-0007 |
org.apache.parquet | parquet-common | 1.12.0-databricks-0007 |
org.apache.parquet | parquet-encoding | 1.12.0-databricks-0007 |
org.apache.parquet | parquet-format-structures | 1.12.0-databricks-0007 |
org.apache.parquet | parquet-hadoop | 1.12.0-databricks-0007 |
org.apache.parquet | parquet-jackson | 1.12.0-databricks-0007 |
org.apache.thrift | libfb303 | 0.9.3 |
org.apache.thrift | libthrift | 0.12.0 |
org.apache.xbean | xbean-asm9-shaded | 4.20 |
org.apache.yetus | audience-annotations | 0.5.0 |
org.apache.zookeeper | zookeeper | 3.6.2 |
org.apache.zookeeper | zookeeper-jute | 3.6.2 |
org.checkerframework | checker-qual | 3.5.0 |
org.codehaus.jackson | jackson-core-asl | 1.9.13 |
org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
org.codehaus.janino | commons-compiler | 3.0.16 |
org.codehaus.janino | janino | 3.0.16 |
org.datanucleus | datanucleus-api-jdo | 4.2.4 |
org.datanucleus | datanucleus-core | 4.1.17 |
org.datanucleus | datanucleus-rdbms | 4.1.19 |
org.datanucleus | javax.jdo | 3.2.0-m3 |
org.eclipse.jetty | jetty-client | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-continuation | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-http | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-io | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-jndi | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-plus | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-proxy | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-security | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-server | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-servlet | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-servlets | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-util | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-util-ajax | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-webapp | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-xml | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | websocket-api | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | websocket-client | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | websocket-common | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | websocket-server | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | websocket-servlet | 9.4.46.v20220331 |
org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
org.glassfish.hk2 | hk2-api | 2.6.1 |
org.glassfish.hk2 | hk2-locator | 2.6.1 |
org.glassfish.hk2 | hk2-utils | 2.6.1 |
org.glassfish.hk2 | osgi-resource-locator | 1.0.3 |
org.glassfish.hk2.external | aopalliance-repackaged | 2.6.1 |
org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
org.glassfish.jersey.containers | jersey-container-servlet | 2.36 |
org.glassfish.jersey.containers | jersey-container-servlet-core | 2.36 |
org.glassfish.jersey.core | jersey-client | 2.36 |
org.glassfish.jersey.core | jersey-common | 2.36 |
org.glassfish.jersey.core | jersey-server | 2.36 |
org.glassfish.jersey.inject | jersey-hk2 | 2.36 |
org.hibernate.validator | hibernate-validator | 6.1.0.Final |
org.javassist | javassist | 3.25.0-GA |
org.jboss.logging | jboss-logging | 3.3.2.Final |
org.jdbi | jdbi | 2.63.1 |
org.jetbrains | anotasi | 17.0.0 |
org.joda | joda-convert | 1.7 |
org.jodd | jodd-core | 3.5.2 |
org.json4s | json4s-ast_2.12 | 3.7.0-M11 |
org.json4s | json4s-core_2.12 | 3.7.0-M11 |
org.json4s | json4s-jackson_2.12 | 3.7.0-M11 |
org.json4s | json4s-scalap_2.12 | 3.7.0-M11 |
org.lz4 | lz4-java | 1.8.0 |
org.mariadb.jdbc | mariadb-java-client | 2.7.4 |
org.mlflow | mlflow-spark | 1.27.0 |
org.objenesis | objenesis | 2.5.1 |
org.postgresql | postgresql | 42.3.3 |
org.roaringbitmap | RoaringBitmap | 0.9.25 |
org.roaringbitmap | shims | 0.9.25 |
org.rocksdb | rocksdbjni | 6.24.2 |
org.rosuda.REngine | REngine | 2.1.0 |
org.scala-lang | scala-compiler_2.12 | 2.12.14 |
org.scala-lang | scala-library_2.12 | 2.12.14 |
org.scala-lang | scala-reflect_2.12 | 2.12.14 |
org.scala-lang.modules | scala-collection-compat_2.12 | 2.4.3 |
org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
org.scala-lang.modules | scala-xml_2.12 | 1.2.0 |
org.scala-sbt | test-interface | 1.0 |
org.scalacheck | scalacheck_2.12 | 1.14.2 |
org.scalactic | scalactic_2.12 | 3.0.8 |
org.scalanlp | breeze-macros_2.12 | 1.2 |
org.scalanlp | breeze_2.12 | 1.2 |
org.scalatest | scalatest_2.12 | 3.0.8 |
org.slf4j | jcl-over-slf4j | 1.7.36 |
org.slf4j | jul-to-slf4j | 1.7.36 |
org.slf4j | slf4j-api | 1.7.36 |
org.spark-project.spark | tidak digunakan | 1.0.0 |
org.threeten | threeten-extra | 1.5.0 |
org.tukaani | xz | 1.8 |
org.typelevel | algebra_2.12 | 2.0.1 |
org.typelevel | cats-kernel_2.12 | 2.1.1 |
org.typelevel | macro-compat_2.12 | 1.1.1 |
org.typelevel | spire-macros_2.12 | 0.17.0 |
org.typelevel | spire-platform_2.12 | 0.17.0 |
org.typelevel | spire-util_2.12 | 0.17.0 |
org.typelevel | spire_2.12 | 0.17.0 |
org.wildfly.openssl | wildfly-openssl | 1.0.7.Final |
org.xerial | sqlite-jdbc | 3.8.11.2 |
org.xerial.snappy | snappy-java | 1.1.8.4 |
org.yaml | snakeyaml | 1.24 |
oro | oro | 2.0.8 |
pl.edu.icm | JLargeArrays | 1.5 |
software.amazon.ion | ion-java | 1.0.2 |
stax | stax-api | 1.0.1 |