Databricks Runtime 14.3 LTS
Catatan rilis berikut memberikan informasi tentang Databricks Runtime 14.3 LTS, didukung oleh Apache Spark 3.5.0.
Databricks merilis versi ini pada Februari 2024.
Catatan
LTS berarti versi ini berada di bawah dukungan jangka panjang. Lihat Siklus hidup versi LTS Runtime Databricks.
Tip
Untuk melihat catatan rilis untuk versi Databricks Runtime yang telah mencapai akhir dukungan (EoS), lihat Catatan rilis Databricks Runtime akhir dukungan. Versi EoS Databricks Runtime telah dihentikan dan mungkin tidak diperbarui.
Fitur dan peningkatan baru
- Dukungan sistem file ruang kerja di PySpark User-Defined Functions (UDF) pada kluster bersama
-
Dukungan untuk pengoptimalan vektor
MERGE
penghapusan tanpa Photon - API katalog Spark sekarang didukung penuh dalam mode akses bersama
- Delta UniForm sekarang tersedia secara umum
- fungsi SQL Baru EXECUTE IMMEDIATE
- Komputasi ulang statistik lompati data untuk tabel Delta
- Informasi status kueri untuk kueri streaming stateful
- Menggunakan ID Microsoft Entra untuk autentikasi Kafka pada kluster bersama
- Dukungan ditambahkan untuk pemangkasan file dan partisi untuk meningkatkan performa kueri
- Mendeklarasikan variabel sementara dalam Sesi SQL
- Pembaruan thriftserver untuk menghapus fitur yang tidak digunakan
- Menggunakan file truststore dan keystore dalam volume Katalog Unity
- Dukungan format file XML asli (Pratinjau Umum)
- Dukungan untuk penyimpanan Cloudflare R2 (Pratinjau Umum)
- Akses Spark dan dbutils ke dukungan file ruang kerja pada kluster Unity Catalog akses bersama
- Skrip init dan dukungan pustaka kluster pada kluster Unity Catalog akses bersama
Dukungan sistem file ruang kerja di PySpark User-Defined Functions (UDF) pada kluster bersama
UDF PySpark pada kluster bersama sekarang dapat mengimpor modul Python dari folder Git, file ruang kerja, atau volume UC.
Untuk informasi selengkapnya tentang bekerja dengan modul di folder Git atau file ruang kerja, lihat Bekerja dengan modul Python dan R.
Dukungan untuk pengoptimalan vektor MERGE
penghapusan tanpa Photon
Photon tidak lagi diperlukan untuk MERGE
operasi guna memanfaatkan pengoptimalan vektor penghapusan. Lihat Apa itu vektor penghapusan?.
API katalog Spark sekarang didukung penuh dalam mode akses bersama
Anda sekarang dapat menggunakan semua fungsi dalam spark.catalog
API di Python dan Scala pada komputasi yang dikonfigurasi dengan mode akses bersama.
Delta UniForm sekarang tersedia secara umum
UniForm sekarang tersedia secara umum dan menggunakan IcebergCompatV2
fitur tabel. Sekarang Anda dapat mengaktifkan atau memutakhirkan UniForm pada tabel yang sudah ada. Lihat tabel Read Delta dengan klien Iceberg.
EXECUTE IMMEDIATE fungsi SQL baru
Anda sekarang dapat menggunakan sintaks EXECUTE IMMEDIATE untuk mendukung kueri berparameter di SQL. Lihat EXECUTE IMMEDIATE.
Komputasi ulang statistik lompati data untuk tabel Delta
Anda sekarang dapat mengolah ulang statistik yang disimpan di log Delta setelah mengubah kolom yang digunakan untuk melewatkan data. Lihat Menentukan kolom statistik Delta.
Informasi status kueri untuk kueri streaming stateful
Sekarang Anda dapat mengkueri data dan metadata status Streaming Terstruktur. Lihat Membaca informasi status Streaming Terstruktur.
Menggunakan ID Microsoft Entra untuk autentikasi Kafka pada kluster bersama
Anda sekarang dapat mengautentikasi layanan Azure Event Hubs melalui OAuth dengan ID Microsoft Entra pada komputasi yang dikonfigurasi dengan mode akses bersama. Lihat Autentikasi Perwakilan Layanan dengan ID Microsoft Entra dan Azure Event Hubs.
Dukungan ditambahkan untuk pemangkasan file dan partisi untuk meningkatkan performa kueri
Untuk mempercepat beberapa kueri yang mengandalkan kesetaraan toleran null dalam kondisi JOIN, kami sekarang mendukung DynamicFilePruning
dan DynamicPartitionPruning
untuk operator EqualNullSafe
di JOIN.
Mendeklarasikan variabel sementara dalam Sesi SQL
Rilis ini memperkenalkan kemampuan untuk mendeklarasikan variabel sementara dalam sesi yang dapat diatur dan kemudian dirujuk dari dalam kueri. Lihat Variabel.
Pembaruan thriftserver untuk menghapus fitur yang tidak digunakan
Kode Thriftserver telah diperbarui untuk menghapus kode untuk fitur usang. Karena perubahan ini, konfigurasi berikut tidak lagi didukung:
- JAR tambahan Apache Hive, yang dikonfigurasi menggunakan
hive.aux.jars.path
properti , tidak didukung lagi untukhive-thriftserver
koneksi. - File init global Apache Hive (
.hiverc
), yang lokasinya dikonfigurasi menggunakanhive.server2.global.init.file.location
properti atauHIVE_CONF_DIR
variabel lingkungan, tidak didukung lagi untukhive-thriftserver
koneksi.
Menggunakan file truststore dan keystore dalam volume Katalog Unity
Anda sekarang dapat menggunakan file truststore dan keystore dalam volume Unity Catalog untuk mengautentikasi ke Confluent Schema Registry untuk data buffer avro atau protokol. Lihat dokumentasi untuk buffer avro atau protokol.
Dukungan format file XML asli (Pratinjau Umum)
Dukungan format file XML asli sekarang ada di Pratinjau Umum. Dukungan format file XML memungkinkan penyerapan, kueri, dan penguraian data XML untuk pemrosesan atau streaming batch. Ini dapat secara otomatis menyimpulkan dan mengembangkan skema dan jenis data, mendukung ekspresi SQL seperti from_xml
, dan dapat menghasilkan dokumen XML. Ini tidak memerlukan jar eksternal dan berfungsi dengan mulus dengan Auto Loader, read_files
, COPY INTO
, dan Delta Live Tables. Lihat Membaca dan menulis file XML.
Dukungan untuk penyimpanan Cloudflare R2 (Pratinjau Umum)
Anda sekarang dapat menggunakan Cloudflare R2 sebagai penyimpanan cloud untuk data yang terdaftar di Unity Catalog. Cloudflare R2 ditujukan terutama untuk kasus penggunaan Berbagi Delta di mana Anda ingin menghindari biaya keluar data yang dibebankan oleh penyedia cloud saat data melintasi wilayah. Penyimpanan R2 mendukung semua data Databricks dan aset AI yang didukung di AWS S3, Azure Data Lake Storage Gen2, dan Google Cloud Storage. Lihat Menggunakan replika Cloudflare R2 atau memigrasikan penyimpanan ke R2 dan Membuat kredensial penyimpanan untuk menyambungkan ke Cloudflare R2.
Akses Spark dan dbutils ke dukungan file ruang kerja pada kluster Unity Catalog akses bersama
Akses Spark dan dbutils
baca dan tulis ke file ruang kerja sekarang didukung pada kluster Katalog Unity dalam mode akses bersama. Lihat Bekerja dengan file ruang kerja.
Skrip init dan dukungan pustaka kluster pada kluster Unity Catalog akses bersama
Penginstalan skrip init cakupan kluster dan pustaka Python dan JAR pada kluster Katalog Unity dalam mode akses bersama, termasuk penginstalan menggunakan kebijakan kluster, sekarang tersedia secara umum. Databricks merekomendasikan penginstalan skrip dan pustaka init dari volume Unity Catalog.
Peningkatan pustaka
- Pustaka Python yang ditingkatkan:
- fastjsonschema dari 2.19.0 ke 2.19.1
- filelock dari 3.12.4 ke 3.13.1
- googleapis-common-protos dari 1.61.0 hingga 1.62.0
- kemasan dari 22.0 hingga 23.2
- Pustaka R yang ditingkatkan:
- asing dari 0,8-82 menjadi 0,8-85
- nlme dari 3.1-162 ke 3.1-163
- rpart dari 4.1.19 ke 4.1.21
- Pustaka Java yang ditingkatkan:
- com.databricks.databricks-sdk-java dari 0.7.0 hingga 0.13.0
- org.apache.orc.orc-core dari 1.9.1-shaded-protobuf ke 1.9.2-shaded-protobuf
- org.apache.orc.orc-mapreduce dari 1.9.1-shaded-protobuf ke 1.9.2-shaded-protobuf
- org.apache.orc.orc-shims dari 1.9.1 hingga 1.9.2
- org.scala-lang.modules.scala-collection-compat_2.12 dari 2.9.0 hingga 2.11.0
Apache Spark
Databricks Runtime 14.3 mencakup Apache Spark 3.5.0. Rilis ini mencakup semua perbaikan dan peningkatan Spark yang disertakan dalam Databricks Runtime 14.2 (EoS), serta perbaikan bug dan peningkatan tambahan berikut yang dilakukan pada Spark:
- [SPARK-46541] [SC-153546][SQL][SAMBUNGKAN] Memperbaiki referensi kolom ambigu dalam gabungan mandiri
- [SPARK-45433] Kembalikan "[SC-145163][SQL] Perbaiki infer skema CSV/JSON...
- [SPARK-46723] [14.3][SASP-2792][SC-153425][SAMBUNGKAN][SCALA] Membuat addArtifact dapat dicoba kembali
- [SPARK-46660] [SC-153391][SAMBUNGKAN] Memasang ulangExecute meminta pembaruan keakuratan SessionHolder
- [SPARK-46670] [SC-153273][PyTHON][SQL] Membuat DataSourceManager dapat mengkloning sendiri dengan memisahkan Sumber Data Python statis dan runtime
- [SPARK-46720] [SC-153410][SQL][PyTHON] Refaktor Sumber Data Python untuk menyelaraskan dengan Sumber Data bawaan DSv2 lainnya
- [SPARK-46684] [SC-153275][PyTHON][SAMBUNGKAN] Perbaiki CoGroup.applyInPandas/Arrow untuk meneruskan argumen dengan benar
- [SPARK-46667] [SC-153271][SC-153263][SQL] XML: Melemparkan kesalahan pada beberapa sumber data XML
- [SPARK-46382] [SC-151881][SQL]XML: Default ignoreSurroundingSpaces ke true
-
[SPARK-46382] [SC-153178][SQL] XML: Perbarui dokumen untuk
ignoreSurroundingSpaces
- [SPARK-45292] Kembalikan "[SC-151609][SQL][HIVE] Hapus Jambu Biji dari kelas bersama dari IsolatedClientLoader"
- [SPARK-45292] [SC-151609][SQL][HIVE] Menghapus Jambu biji dari kelas bersama dari IsolatedClientLoader
-
[SPARK-46311] [SC-150137][CORE] Mencatat status akhir driver selama
Master.removeDriver
- [SPARK-46413] [SC-151052][PyTHON] Memvalidasi returnType dari Arrow Python UDF
- [SPARK-46633] [WARMFIX][SC-153092][SQL] Perbaiki pembaca Avro untuk menangani blok panjang nol
- [SPARK-46537] [SC-151286][SQL] Mengonversi NPE dan menegaskan dari perintah ke kesalahan internal
- [SPARK-46179] [SC-151678][SQL] Tambahkan CrossDbmsQueryTestSuites, yang menjalankan DBMS lain terhadap file emas dengan DBMS lain, dimulai dengan Postgres
- [SPARK-44001] [SC-151413][PROTOBUF] Tambahkan opsi untuk memungkinkan pembungkusan protobuf jenis pembungkus terkenal protobuf
- [SPARK-40876] [SC-151786][SQL] Melebarkan promosi jenis untuk desimal dengan skala yang lebih besar dalam pembaca Parquet
-
[SPARK-46605] [SC-151769][SAMBUNGKAN] Membuat
lit/typedLit
fungsi dalam dukungan modul sambungkans.c.immutable.ArraySeq
- [SPARK-46634] [SC-153005]Validasi harfiah [SQL] tidak boleh menelusuri paling detail ke bidang null
-
[SPARK-37039] [SC-153094][PS] Perbaiki
Series.astype
untuk bekerja dengan benar dengan nilai yang hilang -
[SPARK-46312] [SC-150163][CORE] Gunakan
lower_camel_case
distore_types.proto
- [SPARK-46630] [SC-153084][SQL] XML: Memvalidasi nama elemen XML saat menulis
- [SPARK-46627] [SC-152981][SS][UI] Memperbaiki konten tipsalat garis waktu pada antarmuka pengguna streaming
- [SPARK-46248] [SC-151774][SQL] XML: Dukungan untuk opsi ignoreCorruptFiles dan ignoreMissingFiles
- [SPARK-46386] [SC-150766][PyTHON] Meningkatkan pernyataan pengamatan (pyspark.sql.observation)
- [SPARK-46581] [SC-151789][CORE] Perbarui komentar di isZero di AccumulatorV2
- [SPARK-46601] [SC-151785] [CORE] Memperbaiki kesalahan log dalam handleStatusMessage
- [SPARK-46568] [SC-151685][PyTHON] Jadikan opsi sumber data Python sebagai kamus yang tidak peka huruf besar/kecil
- [SPARK-46611] [SC-151783][CORE] Hapus ThreadLocal dengan mengganti SimpleDateFormat dengan DateTimeFormatter
-
[SPARK-46604] [SC-151768][SQL] Membuat
Literal.apply
dukungans.c.immuable.ArraySeq
- [SPARK-46324] [SC-150223][SQL][PyTHON] Perbaiki nama output pyspark.sql.functions.user dan session_user
- [SPARK-46621] [SC-151794][PyTHON] Alamat null dari Pengecualian.getMessage dalam pengecualian yang diambil Py4J
- [SPARK-46598] [SC-151767][SQL] OrcColumnarBatchReader harus menghormati mode memori saat membuat vektor kolom untuk kolom yang hilang
- [SPARK-46613] [SC-151778][SQL][PyTHON] Mencatat pengecualian penuh saat gagal mencari Sumber Data Python
-
[SPARK-46559] [SC-151364][MLLIB] Bungkus
export
dalam nama paket dengan backticks - [SPARK-46522] [SC-151784][PyTHON] Memblokir pendaftaran sumber data Python dengan konflik nama
- [SPARK-45580] [SC-149956][SQL] Menangani kasus di mana subkueri berlapis menjadi gabungan keberadaan
- [SPARK-46609] [SC-151714][SQL] Hindari ledakan eksponensial di PartitioningPreservingUnaryExecNode
- [SPARK-46535] [SC-151288][SQL] Perbaiki NPE saat menjelaskan perluasan kolom tanpa statistik col
- [SPARK-46599] [SC-147661][SC-151770][SQL] XML: Gunakan TypeCoercion.findTightestCommonType untuk pemeriksaan kompatibilitas
- [SPARK-40876] [SC-151129][SQL] Melebarkan promosi jenis di pembaca Parquet
- [SPARK-46179] [SC-151069][SQL] Menarik kode ke fungsi yang dapat digunakan kembali di SQLQueryTestSuite
-
[SPARK-46586] [SC-151679][SQL] Dukungan
s.c.immutable.ArraySeq
seperticustomCollectionCls
dalamMapObjects
-
[SPARK-46585] [SC-151622][CORE] Secara langsung dibangun
metricPeaks
sebagaiimmutable.ArraySeq
alih-alih digunakanmutable.ArraySeq.toSeq
dalamExecutor
- [SPARK-46488] [SC-151173][SQL] Melewati pemangkasanSemua panggilan selama penguraian tanda waktu
-
[SPARK-46231] [SC-149724][PyTHON] Migrasikan semua sisa
NotImplementedError
&TypeError
ke kerangka kerja kesalahan PySpark -
[SPARK-46348] [SC-150281][CORE] Dukung
spark.deploy.recoveryTimeout
-
[SPARK-46313] [SC-150164][CORE]
Spark HA
Durasi pemulihan log -
[SPARK-46358] [SC-150307][SAMBUNGKAN] Menyederhanakan pemeriksaan kondisi di
ResponseValidator#verifyResponse
- [SPARK-46380] [SC-151078][SQL]Ganti waktu/tanggal saat ini sebelum mengevaluasi ekspresi tabel sebaris.
- [SPARK-46563] [SC-151441][SQL] Lihat simpleString tidak mengikuti conf spark.sql.debug.maxToStringFields
- [SPARK-46101] [SC-149211][CORE][SQL][MLLIB][SS][R][CONNCT][GRAPHX] Kurangi kedalaman tumpukan dengan mengganti (string|array).ukuran dengan (string|array).length
- [SPARK-46539] [SC-151469][SQL] SELECT * EXCEPT(semua bidang dari struct) mengakibatkan kegagalan asersi
- [SPARK-46565] [SC-151414][PyTHON] Memperbaiki kelas kesalahan dan pesan kesalahan untuk sumber data Python
- [SPARK-46576] [SC-151614][SQL] Meningkatkan pesan kesalahan untuk mode penyimpanan sumber data yang tidak didukung
- [SPARK-46540] [SC-151355][PyTHON] Menghormati nama kolom saat sumber data Python membaca output fungsi bernama Objek baris
- [SPARK-46577] [SC-151448][SQL] HiveMetastoreLazyInitializationSuite membocorkan SessionState hive
-
[SPARK-44556] [SC-151562][SQL] Gunakan
OrcTail
kembali saat mengaktifkan vectorizedReader - [SPARK-46587] [SC-151618][SQL] XML: Perbaiki konversi bilangan bulat besar XSD
- [SPARK-46382] [SC-151297][SQL] XML: Mengambil nilai yang diselingi antar elemen
- [SPARK-46567] [SC-151447][CORE] Hapus ThreadLocal untuk ReadAheadInputStream
- [SPARK-45917] [SC-151269][PyTHON][SQL] Pendaftaran otomatis Sumber Data Python saat startup
- [SPARK-28386] [SC-151014][SQL] Tidak dapat menyelesaikan kolom ORDER BY dengan GROUP BY dan HAVING
- [SPARK-46524] [SC-151446][SQL] Meningkatkan pesan kesalahan untuk mode penyimpanan yang tidak valid
- [SPARK-46294] [SC-150672][SQL] Membersihkan semantik nilai init vs nol
-
[SPARK-46301] [SC-150100][CORE] Dukung
spark.worker.(initial|max)RegistrationRetries
-
[SPARK-46542] [SC-151324][SQL] Hapus cek
c>=0
dariExternalCatalogUtils#needsEscaping
karena selalu benar -
[SPARK-46553] [SC-151360][PS]
FutureWarning
untukinterpolate
dengan dtype objek - [SPARK-45914] [SC-151312][PyTHON] Penerapan dukungan dan batalkan API untuk penulisan sumber data Python
-
[SPARK-46543] [SC-151350][PyTHON][SAMBUNGKAN] Buat
json_tuple
melempar PySparkValueError untuk bidang kosong - [SPARK-46520] [SC-151227][PyTHON] Mode timpa dukungan untuk penulisan sumber data Python
- [SPARK-46502] [SC-151235][SQL] Mendukung jenis tanda waktu di UnwrapCastInBinaryComparison
-
[SPARK-46532] [SC-151279][SAMBUNGKAN] Meneruskan parameter pesan dalam metadata dari
ErrorInfo
-
[SPARK-46397] Kembalikan fungsi
sha2
"[SC-151311][PYTHON][CONNECT] harus menaikkanPySparkValueError
untuk tidak validnumBits
" - [SPARK-46170] [SC-149472][SQL] Mendukung menyuntikkan aturan strategi pasca-perencana kueri adaptif di SparkSessionExtensions
- [SPARK-46444] [SC-151195][SQL] V2SessionCatalog#createTable tidak boleh memuat tabel
-
[SPARK-46397] [SC-151311][PyTHON][SAMBUNGKAN] Fungsi
sha2
harus dinaikkanPySparkValueError
untuk tidak validnumBits
- [SPARK-46145] [SC-149471][SQL] spark.catalog.listTables tidak melemparkan pengecualian ketika tabel atau tampilan tidak ditemukan
- [SPARK-46272] [SC-151012][SQL] Mendukung CTAS menggunakan sumber DSv2
- [SPARK-46480] [SC-151127][CORE][SQL] Memperbaiki NPE saat upaya tugas cache tabel
- [SPARK-46100] [SC-149051][CORE][PyTHON] Kurangi kedalaman tumpukan dengan mengganti (string|array).ukuran dengan (string|array).length
- [SPARK-45795] [SC-150764][SQL] DS V2 mendukung Mode push down
- [SPARK-46485] [SC-151133][SQL] V1Write tidak boleh menambahkan Sortir saat tidak diperlukan
- [SPARK-46468] [SC-151121] [SQL] Menangani bug COUNT untuk subkueri EXISTS dengan Agregat tanpa mengelompokkan kunci
- [SPARK-46246] [SC-150927][SQL] EXECUTE IMMEDIATE dukungan SQL
-
[SPARK-46498] [SC-151199][CORE] Hapus
shuffleServiceEnabled
dario.a.spark.util.Utils#getConfiguredLocalDirs
-
[SPARK-46440] [SC-150807][SQL] Atur konfigurasi rebase ke
CORRECTED
mode secara default - [SPARK-45525] [SC-151120][SQL][PyTHON] Dukungan untuk penulisan sumber data Python menggunakan DSv2
-
[SPARK-46505] [SC-151187][SAMBUNGKAN] Membuat ambang batas byte dapat dikonfigurasi di
ProtoUtils.abbreviate
- [SPARK-46447] [SC-151025][SQL] Menghapus konfigurasi SQL rebasing tanggalwaktu warisan
- [SPARK-46443] [SC-151123][SQL] Presisi dan skala desimal harus diputuskan oleh dialek H2.
- [SPARK-46384] [SC-150694][SPARK-46404][SS][UI] Memperbaiki Bagan Tumpukan Durasi Operasi di Halaman Streaming Terstruktur
- [SPARK-46207] [SC-151068][SQL] Mendukung MergeInto di DataFrameWriterV2
- [SPARK-46452] [SC-151018][SQL] Menambahkan API baru di DataWriter untuk menulis iterator rekaman
- [SPARK-46273] [SC-150313][SQL] Dukungan INSERT INTO/OVERWRITE menggunakan sumber DSv2
- [SPARK-46344] [SC-150267][CORE] Peringatkan dengan benar ketika driver berhasil ada tetapi master terputus
-
[SPARK-46284] [SC-149944][PyTHON][SAMBUNGKAN] Menambahkan
session_user
fungsi ke Python - [SPARK-46043] [SC-149786][SQL] Dukungan membuat tabel menggunakan sumber DSv2
- [SPARK-46323] [SC-150191][PyTHON] Perbaiki nama output pyspark.sql.functions.now
-
[SPARK-46465] [SC-151059][PyTHON][SAMBUNGKAN] Tambahkan
Column.isNaN
di PySpark -
[SPARK-46456] [SC-151050][CORE] Tambahkan
spark.ui.jettyStopTimeout
untuk mengatur batas waktu berhenti server Jetty untuk membuka blokir matikan SparkContext - [SPARK-43427] [SC-150356][PROTOBUF] spark protobuf: izinkan peningkatan jenis bilangan bulat yang tidak ditandatangani
- [SPARK-46399] [SC-151013][14.x][Inti] Menambahkan status keluar ke peristiwa Akhir Aplikasi untuk penggunaan Spark Listener
- [SPARK-46423] [SC-150752][PyTHON][SQL] Membuat instans Sumber Data Python di DataSource.lookupDataSourceV2
- [SPARK-46424] [SC-150765][PyTHON][SQL] Mendukung metrik Python di Sumber Data Python
- [SPARK-46330] [SC-151015] Pemuatan blok UI Spark untuk waktu yang lama ketika HybridStore diaktifkan
- [SPARK-46378] [SC-150397][SQL] Masih hapus Urutkan setelah mengonversi Agregat ke Proyek
- [SPARK-45506] [SC-146959][SAMBUNGKAN] Menambahkan dukungan URI ivy ke addArtifact SparkConnect
- [SPARK-45814] [SC-147871][SAMBUNGKAN][SQL]Buat ArrowConverters.createEmptyArrowBatch panggilan close() untuk menghindari kebocoran memori
- [SPARK-46427] [SC-150759][PyTHON][SQL] Ubah deskripsi Sumber Data Python menjadi cukup jelas
- [SPARK-45597] [SC-150730][PyTHON][SQL] Mendukung pembuatan tabel menggunakan sumber data Python di SQL (DSv2 exec)
- [SPARK-46402] [SC-150700][PyTHON] Menambahkan getMessageParameters dan dukungan getQueryContext
-
[SPARK-46453] [SC-150897][SAMBUNGKAN] Lempar pengecualian dari
internalError()
dalamSessionHolder
- [SPARK-45758] [SC-147454][SQL] Memperkenalkan pemeta untuk codec kompresi hadoop
-
[SPARK-46213] [PyTHON] Memperkenalkan
PySparkImportError
kerangka kerja kesalahan -
[SPARK-46230] [SC-149960][PyTHON] Migrasikan
RetriesExceeded
ke kesalahan PySpark - [SPARK-45035] [SC-145887][SQL] Memperbaiki ignoreCorruptFiles/ignoreMissingFiles dengan CSV/JSON multibaris akan melaporkan kesalahan
- [SPARK-46289] [SC-150846][SQL] Mendukung pengurutan UDT dalam mode yang ditafsirkan
- [SPARK-46229] [SC-150798][PyTHON][SAMBUNGKAN] Menambahkan applyInArrow ke groupBy dan cogroup di Spark Connect
- [SPARK-46420] [SC-150847][SQL] Menghapus transportasi yang tidak digunakan di SparkSQLCLIDriver
-
[SPARK-46226] [PyTHON] Migrasikan semua yang tersisa
RuntimeError
ke dalam kerangka kerja kesalahan PySpark - [SPARK-45796] [SC-150613][SQL] Support MODE() DALAM GROUP (ORDER BY col)
- [SPARK-40559] [SC-149686][PyTHON][14.X] Menambahkan applyInArrow ke groupBy dan cogroup
- [SPARK-46069] [SC-149672][SQL] Mendukung jenis tanda waktu unwrap ke jenis tanggal
- [SPARK-46406] [SC-150770][SQL] Tetapkan nama ke kelas kesalahan _LEGACY_ERROR_TEMP_1023
-
[SPARK-46431] [SC-150782][SS] Mengonversi
IllegalStateException
keinternalError
dalam iterator sesi - [SPARK-45807] [SC-150751][SQL] Meningkatkan VIEWCatalog API
- [SPARK-46009] [SC-149771][SQL][SAMBUNGKAN] Menggabungkan aturan penguraian PercentileCont dan PercentileDisc ke dalam functionCall
- [SPARK-46403] [SC-150756][SQL] Dekodekan biner parquet dengan metode getBytesUnsafe
-
[SPARK-46389] [SC-150779][CORE] Tutup
RocksDB/LevelDB
instans secara manual saatcheckVersion
melempar Pengecualian -
[SPARK-46360] [SC-150376][PyTHON] Meningkatkan penelusuran kesalahan pesan kesalahan dengan API baru
getMessage
-
[SPARK-46233] [SC-149766][PyTHON] Migrasikan semua yang tersisa
AttributeError
ke dalam kerangka kerja kesalahan PySpark -
[SPARK-46394] [SC-150599][SQL] Memperbaiki masalah spark.catalog.listDatabases() pada skema dengan karakter khusus saat
spark.sql.legacy.keepCommandOutputSchema
diatur ke true - [SPARK-45964] [SC-148484][SQL] Hapus aksesor sql privat dalam paket XML dan JSON di bawah paket katalis
- [SPARK-45856] [SC-148691] Pindahkan ArtifactManager dari Spark Connect ke SparkSession (sql/core)
- [SPARK-46409] [SC-150714][SAMBUNGKAN] Memperbaiki skrip peluncuran spark-connect-scala-client
-
[SPARK-46416] [SC-150699][CORE] Tambahkan
@tailrec
keHadoopFSUtils#shouldFilterOutPath
-
[SPARK-46115] [SC-149154][SQL] Membatasi charset di
encode()
- [SPARK-46253] [SC-150416][PyTHON] Merencanakan baca sumber data Python menggunakan MapInArrow
- [SPARK-46339] [SC-150266][SS] Direktori dengan nama nomor batch tidak boleh diperlakukan sebagai log metadata
-
[SPARK-46353] [SC-150396][CORE] Refaktor untuk meningkatkan
RegisterWorker
cakupan pengujian unit - [SPARK-45826] [SC-149061][SQL] Menambahkan konfigurasi SQL untuk jejak tumpukan dalam konteks kueri DataFrame
- [SPARK-45649] [SC-150300][SQL] Menyatukan kerangka kerja persiapan untuk OffsetWindowFunctionFrame
-
[SPARK-46346] [SC-150282][CORE] Perbaiki Master untuk memperbarui pekerja dari
UNKNOWN
keALIVE
diRegisterWorker
msg -
[SPARK-46388] [SC-150496][SQL] HiveAnalysis melewatkan penjaga pola
query.resolved
-
[SPARK-46401] [SC-150609][CORE] Gunakan
!isEmpty()
padaRoaringBitmap
alih-alihgetCardinality() > 0
diRemoteBlockPushResolver
- [SPARK-46393] [SC-150603][SQL] Mengklasifikasikan pengecualian dalam katalog tabel JDBC
- [SPARK-45798] [SC-150513][SAMBUNGKAN] Tindak lanjut: menambahkan serverSessionId ke SessionHolderInfo
- [SPARK-46153] [SC-146564][SC-150508][SQL] XML: Menambahkan dukungan TimestampNTZType
- [SPARK-46075] [SC-150393][SAMBUNGKAN] Penyempurnaan SparkConnectSessionManager
- [SPARK-46357] [SC-150596] Ganti penggunaan dokumentasi setConf yang salah dengan conf.set
- [SPARK-46202] [SC-150420][SAMBUNGKAN] Mengekspos API ArtifactManager baru untuk mendukung direktori target kustom
-
[SPARK-45824] [SC-147648][SQL] Menerapkan kelas kesalahan di
ParseException
- [SPARK-45845] [SC-148163][SS][UI] Menambahkan jumlah baris status yang dikeluarkan ke antarmuka pengguna streaming
-
[SPARK-46316] [SC-150181][CORE] Aktifkan
buf-lint-action
padacore
modul -
[SPARK-45816] [SC-147656][SQL] Mengembalikan
NULL
saat meluap selama transmisi dari tanda waktu ke bilangan bulat -
[SPARK-46333] [SC-150263][SQL] Ganti
IllegalStateException
denganSparkException.internalError
dalam katalis - [SPARK-45762] [SC-148486][CORE] Mendukung manajer acak yang ditentukan dalam jar pengguna dengan mengubah urutan startup
-
[SPARK-46239] [SC-149752][CORE] Sembunyikan
Jetty
info -
[SPARK-45886] [SC-148089][SQL] Output pelacakan tumpukan penuh dalam
callSite
konteks DataFrame - [SPARK-46290] [SC-150059][PyTHON] Mengubah saveMode menjadi bendera boolean untuk DataSourceWriter
- [SPARK-45899] [SC-148097][SAMBUNGKAN] Mengatur errorClass dalam errorInfoToThrowable
-
[SPARK-45841] [SC-147657][SQL] Mengekspos pelacakan tumpukan dengan
DataFrameQueryContext
-
[SPARK-45843] [SC-147721][CORE] Dukungan
killall
dalam REST Submission API -
[SPARK-46234] [SC-149711][PyTHON] Memperkenalkan
PySparkKeyError
kerangka kerja kesalahan PySpark - [SPARK-45606] [SC-147655][SQL] Pembatasan rilis pada filter runtime multi-lapisan
- [SPARK-45725] [SC-147006][SQL] Menghapus filter runtime in subkueri non-default
-
[SPARK-45694] [SC-147314][SPARK-45695][SQL] Membersihkan penggunaan
View.force
API yang tidak digunakan lagi danScalaNumberProxy.signum
-
[SPARK-45805] [SC-147488][SQL] Membuat
withOrigin
lebih banyak generik - [SPARK-46292] [SC-150086][CORE][UI] Memperlihatkan ringkasan pekerja di MasterPage
-
[SPARK-45685] [SC-146881][CORE][SQL] Gunakan
LazyList
alih-alihStream
- [SPARK-45888] [SC-149945][SS] Menerapkan kerangka kerja kelas kesalahan ke Sumber Data Status (Metadata)
-
[SPARK-46261] [SC-150111][SAMBUNGKAN]
DataFrame.withColumnsRenamed
harus menjaga urutan dict/map -
[SPARK-46263] [SC-149933][SQL][SS][ML][MLLIB][UI] Pembersihan
SeqOps.view
danArrayOps.view
konversi -
[SPARK-46029] [SC-149255][SQL] Lolos dari kuotasi tunggal,
_
dan%
untuk pushdown DS V2 - [SPARK-46275] [SC-150189] Protobuf: Mengembalikan null dalam mode permisif saat deserialisasi gagal.
-
[SPARK-46320] [SC-150187][CORE] Dukung
spark.master.rest.host
- [SPARK-46092] [SC-149658][SQL] Jangan mendorong ke bawah filter grup baris Parquet yang meluap
- [SPARK-46300] [SC-150097][PyTHON][SAMBUNGKAN] Cocokkan pencocokan perilaku kecil di Kolom dengan cakupan pengujian penuh
- [SPARK-46298] [SC-150092][PyTHON][SAMBUNGKAN] Cocokkan peringatan penghentian, kasus pengujian, dan kesalahan Catalog.createExternalTable
-
[SPARK-45689] [SC-146898][SPARK-45690][SPARK-45691][CORE][SQL] Bersihkan penggunaan API yang tidak digunakan lagi yang terkait dengan
StringContext/StringOps/RightProjection/LeftProjection/Either
dan jenis penggunaanBufferedIterator/CanBuildFrom/Traversable
- [SPARK-33393] [SC-148407][SQL] Dukungan SHOW TABLE EXTENDED di v2
-
[SPARK-45737] [SC-147011][SQL] Hapus yang tidak perlu
.toArray[InternalRow]
diSparkPlan#executeTake
- [SPARK-46249] [SC-149797][SS] Memerlukan kunci instans untuk memperoleh metrik RocksDB untuk mencegah balapan dengan operasi latar belakang
-
[SPARK-46260] [SC-149940][PyTHON][SQL]
DataFrame.withColumnsRenamed
harus menghormati urutan dict - [SPARK-46274] [SC-150043] [SQL] Perbaiki ComputeStats() operator Rentang untuk memeriksa validitas panjang sebelum mengonversi
- [SPARK-46040] [SC-149767][SQL][Python] Perbarui API UDTF untuk kolom partisi/pengurutan 'analisis' untuk mendukung ekspresi umum
-
[SPARK-46287] [SC-149949][PyTHON][SAMBUNGKAN]
DataFrame.isEmpty
harus bekerja dengan semua jenis data - [SPARK-45678] [SC-146825][CORE] Sampul BufferReleasingInputStream.available/reset di bawah tryOrFetchFailedException
-
[SPARK-45667] [SC-146716][CORE][SQL][SAMBUNGKAN] Bersihkan penggunaan API yang tidak digunakan lagi yang terkait dengan
IterableOnceExtensionMethods
. -
[SPARK-43980] [SC-148992][SQL] memperkenalkan
select * except
sintaksis - [SPARK-46269] [SC-149816][PS] Mengaktifkan lebih banyak pengujian fungsi kompatibilitas NumPy
- [SPARK-45807] [SC-149851][SQL] Tambahkan createOrReplaceView(..) / replaceView(..) ke ViewCatalog
-
[SPARK-45742] [SC-147212][CORE][SAMBUNGKAN][MLLIB][PyTHON] Perkenalkan fungsi implisit untuk Array Scala untuk dibungkus ke dalam
immutable.ArraySeq
. -
[SPARK-46205] [SC-149655][CORE] Meningkatkan
PersistenceEngine
performa denganKryoSerializer
- [SPARK-45746] [SC-149359][Python] Mengembalikan pesan kesalahan tertentu jika metode 'analisis' atau 'eval' UDTF menerima atau mengembalikan nilai yang salah
- [SPARK-46186] [SC-149707][SAMBUNGKAN] Memperbaiki transisi status ilegal saat ExecuteThreadRunner terganggu sebelum dimulai
-
[SPARK-46262] [SC-149803][PS] Aktifkan pengujian untuk
np.left_shift
objek Pandas-on-Spark. - [SPARK-45093] [SC-149679][SAMBUNGKAN][PyTHON] Mendukung penanganan dan konversi kesalahan dengan benar untuk AddArtifactHandler
- [SPARK-46188] [SC-149571][Doc][3.5] Perbaiki CSS tabel yang dihasilkan dokumen Spark
- [SPARK-45940] [SC-149549][PyTHON] Menambahkan InputPartition ke antarmuka DataSourceReader
- [SPARK-43393] [SC-148301][SQL] Bug luapan ekspresi urutan alamat.
- [SPARK-46144] [SC-149466][SQL] Fail INSERT INTO ... Pernyataan REPLACE jika kondisi berisi subkueri
-
[SPARK-46118] [SC-149096][SQL][SS][SAMBUNGKAN] Gunakan
SparkSession.sessionState.conf
alih-alihSQLContext.conf
dan tandaiSQLContext.conf
sebagai tidak digunakan lagi - [SPARK-45760] [SC-147550][SQL] Tambahkan Dengan ekspresi untuk menghindari ekspresi duplikat
- [SPARK-43228] [SC-149670][SQL] Kunci gabungan juga cocok dengan PartitioningCollection di CoalesceBucketsInJoin
- [SPARK-46223] [SC-149691][PS] Uji SparkPandasNotImplementedError dengan membersihkan kode yang tidak digunakan
-
[SPARK-46119] [SC-149205][SQL] Mengambil alih
toString
metode untukUnresolvedAlias
- [SPARK-46206] [SC-149674][PS] Menggunakan pengecualian cakupan yang lebih sempit untuk prosesor SQL
-
[SPARK-46191] [SC-149565][CORE] Meningkatkan
FileSystemPersistenceEngine.persist
kesalahan msg jika file yang ada - [SPARK-46036] [SC-149356][SQL] Menghapus kelas kesalahan dari fungsi raise_error
- [SPARK-46055] [SC-149254][SQL] Menulis ulang implementasi API Database Katalog
- [SPARK-46152] [SC-149454][SQL] XML: Menambahkan dukungan DecimalType dalam inferensi skema XML
- [SPARK-45943] [SC-149452][SQL] Memindahkan DetermineTableStats ke aturan resolusi
-
[SPARK-45887] [SC-148994][SQL] Menyelaraskan implementasi codegen dan non-codegen
Encode
- [SPARK-45022] [SC-147158][SQL] Menyediakan konteks untuk kesalahan API himpunan data
-
[SPARK-45469] [SC-145135][CORE][SQL][SAMBUNGKAN][PyTHON] Ganti
toIterator
denganiterator
untukIterableOnce
- [SPARK-46141] [SC-149357][SQL] Ubah default untuk spark.sql.legacy.ctePrecedencePolicy menjadi CORRECTED
-
[SPARK-45663] [SC-146617][CORE][MLLIB] Ganti
IterableOnceOps#aggregate
denganIterableOnceOps#foldLeft
- [SPARK-45660] [SC-146493][SQL] Menggunakan kembali objek Literal dalam aturan ComputeCurrentTime
-
[SPARK-45803] [SC-147489][CORE] Hapus yang tidak lagi digunakan
RpcAbortException
- [SPARK-46148] [SC-149350][PS] Memperbaiki pengujian pyspark.pandas.mlflow.load_model (Python 3.12)
- [SPARK-46110] [SC-149090][PyTHON] Menggunakan kelas kesalahan dalam modul katalog, conf, connect, observation, pandas
- [SPARK-45827] [SC-149203][SQL] Perbaikan varian dengan codegen dan pembaca vektor dinonaktifkan
- [SPARK-46080] Kembalikan "[SC-149012][PYTHON] Upgrade Cloudpickle ke 3.0.0"
-
[SPARK-45460] [SC-144852][SQL] Ganti
scala.collection.convert.ImplicitConversions
kescala.jdk.CollectionConverters
- [SPARK-46073] [SC-149019][SQL] Menghapus resolusi khusus UnresolvedNamespace untuk perintah tertentu
- [SPARK-45600] [SC-148976][PyTHON] Membuat tingkat sesi pendaftaran sumber data Python
- [SPARK-46074] [SC-149063][SAMBUNGKAN][SCALA] Detail tidak mencukup dalam pesan kesalahan pada kegagalan UDF
- [SPARK-46114] [SC-149076][PyTHON] Menambahkan PySparkIndexError untuk kerangka kerja kesalahan
-
[SPARK-46120] [SC-149083][SAMBUNGKAN][PyTHON] Menghapus fungsi pembantu
DataFrame.withPlan
- [SPARK-45927] [SC-148660][PyTHON] Memperbarui penanganan jalur untuk sumber data Python
- [SPARK-46062] [14.x][SC-148991][SQL] Sinkronkan bendera isStreaming antara definisi CTE dan referensi
-
[SPARK-45698] [SC-146736][CORE][SQL][SS] Bersihkan penggunaan API yang tidak digunakan lagi yang terkait dengan
Buffer
- [SPARK-46064] [SC-148984][SQL][SS] Pindahkan EliminateEventTimeWatermark ke penganalisis dan ubah agar hanya berlaku pada anak yang diselesaikan
- [SPARK-45922] [SC-149038][SAMBUNGKAN][KLIEN] Refaktor coba lagi minor (tindak lanjuti beberapa kebijakan)
- [SPARK-45851] [SC-148419][SAMBUNGKAN][SCALA] Mendukung beberapa kebijakan di klien scala
- [SPARK-45974] [SC-149062][SQL] Menambahkan penilaian scan.filterAttributes yang tidak kosong untuk RowLevelOperationRuntimeGroupFiltering
- [SPARK-46085] [SC-149049][SAMBUNGKAN] Dataset.groupingSets di klien Scala Spark Connect
- [SPARK-45136] [SC-146607][SAMBUNGKAN] Tingkatkan ClosureCleaner dengan dukungan Amonite
- [SPARK-46084] [SC-149020][PS] Operasi pengecoran jenis data refaktor untuk jenis Kategoris.
- [SPARK-46083] [SC-149018][PyTHON] Jadikan SparkNoSuchElementException sebagai API kesalahan kanonis
- [SPARK-46048] [SC-148982][PyTHON][SAMBUNGKAN] Mendukung DataFrame.groupingSets di Python Spark Connect
- [SPARK-46080] [SC-149012][PyTHON] Meningkatkan Cloudpickle ke 3.0.0
- [SPARK-46082] [SC-149015][PyTHON][SAMBUNGKAN] Memperbaiki representasi string protobuf untuk Pandas Functions API dengan Spark Connect
-
[SPARK-46065] [SC-148985][PS] Refaktor
(DataFrame|Series).factorize()
untuk menggunakancreate_map
. - [SPARK-46070] [SC-148993][SQL] Mengkompilasi pola regex di SparkDateTimeUtils.getZoneId di luar perulangan panas
- [SPARK-46063] [SC-148981][PyTHON][SAMBUNGKAN] Meningkatkan pesan kesalahan yang terkait dengan jenis argumen di cute, rollup, groupby, dan pivot
- [SPARK-44442] [SC-144120][MESOS] Menghapus dukungan Mesos
- [SPARK-45555] [SC-147620][PyTHON] Menyertakan objek yang dapat di-debug untuk pernyataan yang gagal
- [SPARK-46048] [SC-148871][PyTHON][SQL] Mendukung DataFrame.groupingSets di PySpark
- [SPARK-45768] [SC-147304][SQL][PyTHON] Jadikan faulthandler sebagai konfigurasi runtime untuk eksekusi Python di SQL
- [SPARK-45996] [SC-148586][PyTHON][SAMBUNGKAN] Menampilkan pesan persyaratan dependensi yang tepat untuk Spark Connect
- [SPARK-45681] [SC-146893][UI] Mengkloning versi js UIUtils.errorMessageCell untuk penyajian kesalahan yang konsisten pada UI
-
[SPARK-45767] [SC-147225][CORE] Hapus
TimeStampedHashMap
dan UT-nya - [SPARK-45696] [SC-148864][CORE] Memperbaiki metode tryCompleteWith dalam sifat Promise tidak digunakan lagi
- [SPARK-45503] [SC-146338][SS] Tambahkan Conf untuk Mengatur Kompresi RocksDB
-
[SPARK-45338] [SC-143934][CORE][SQL] Ganti
scala.collection.JavaConverters
kescala.jdk.CollectionConverters
-
[SPARK-44973] [SC-148804][SQL] Perbaiki
ArrayIndexOutOfBoundsException
diconv()
- [SPARK-45912] [SC-144982][SC-148467][SQL] Peningkatan XSDToSchema API: Ubah ke HDFS API untuk aksesibilitas penyimpanan cloud
-
[SPARK-45819] [SC-147570][CORE] Dukungan
clear
dalam REST Submission API -
[SPARK-45552] [14.x][SC-146874][PS] Memperkenalkan parameter fleksibel ke
assertDataFrameEqual
-
[SPARK-45815] [SC-147877][SQL][Streaming][14.x][CHERRY-PICK] Menyediakan antarmuka untuk sumber Streaming lainnya untuk menambahkan
_metadata
kolom - [SPARK-45929] [SC-148692][SQL] Mendukung operasi groupingSets di api dataframe
- [SPARK-46012] [SC-148693][CORE] EventLogFileReader tidak boleh membaca log bergulir jika file status aplikasi hilang
- [SPARK-45965] [SC-148575][SQL] Memindahkan ekspresi partisi DSv2 ke functions.partitioning
-
[SPARK-45971] [SC-148541][CORE][SQL] Koreksi nama paket menjadi
SparkCollectionUtils
org.apache.spark.util
-
[SPARK-45688] [SC-147356][SPARK-45693][CORE] Bersihkan penggunaan API yang tidak digunakan lagi yang terkait dengan
MapOps
& Perbaikimethod += in trait Growable is deprecated
-
[SPARK-45962] [SC-144645][SC-148497][SQL] Hapus
treatEmptyValuesAsNulls
dan gunakannullValue
opsi sebagai gantinya di XML -
[SPARK-45988] [SC-148580][SPARK-45989][PyTHON] Memperbaiki typehints untuk menangani
list
GenericAlias di Python 3.11+ -
[SPARK-45999] [SC-148595][PS] Gunakan khusus
PandasProduct
dicumprod
-
[SPARK-45986] [SC-148583][ML][PyTHON] Perbaikan
pyspark.ml.torch.tests.test_distributor
di Python 3.11 -
[SPARK-45994] [SC-148581][PyTHON] Ubah
description-file
menjadidescription_file
- [SPARK-45575] [SC-146713][SQL] Opsi perjalanan waktu dukungan untuk API baca df
- [SPARK-45747] [SC-148404][SS] Gunakan informasi kunci awalan dalam metadata status untuk menangani status baca untuk agregasi jendela sesi
- [SPARK-45898] [SC-148213][SQL] Menulis ulang API tabel katalog untuk menggunakan rencana logis yang tidak terselesaikan
- [SPARK-45828] [SC-147663][SQL] Menghapus metode yang tidak digunakan lagi di dsl
-
[SPARK-45990] [SC-148576][SPARK-45987][PyTHON][SAMBUNGKAN] Tingkatkan
protobuf
ke 4.25.1 untuk mendukungPython 3.11
- [SPARK-45911] [SC-148226][CORE] Jadikan TLS1.3 default untuk RPC SSL
- [SPARK-45955] [SC-148429][UI] Ciutkan Dukungan untuk detail Flamegraph dan pembuangan utas
-
[SPARK-45936] [SC-148392][PS] Mengoptimalkan
Index.symmetric_difference
- [SPARK-45389] [SC-144834][SQL][3.5] Aturan pencocokan MetaException yang benar tentang mendapatkan metadata partisi
- [SPARK-45655] [SC-148085][SQL][SS] Mengizinkan ekspresi non-deterministik di dalam AggregateFunctions di CollectMetrics
- [SPARK-45946] [SC-148448][SS] Memperbaiki penggunaan penulisan FileUtils yang tidak digunakan lagi untuk meneruskan charset default di RocksDBSuite
- [SPARK-45511] [SC-148285][SS] Sumber Data Status - Pembaca
-
[SPARK-45918] [SC-148293][PS] Mengoptimalkan
MultiIndex.symmetric_difference
- [SPARK-45813] [SC-148288][SAMBUNGKAN][PyTHON] Mengembalikan metrik yang diamati dari perintah
-
[SPARK-45867] [SC-147916][CORE] Dukung
spark.worker.idPattern
-
[SPARK-45945] [SC-148418][SAMBUNGKAN] Menambahkan fungsi pembantu untuk
parser
- [SPARK-45930] [SC-148399][SQL] Mendukung UDF non-deterministik di MapInPandas/MapInArrow
- [SPARK-45810] [SC-148356][Python] Membuat API UDTF Python untuk berhenti menggunakan baris dari tabel input
-
[SPARK-45731] [SC-147929][SQL] Perbarui juga statistik partisi dengan
ANALYZE TABLE
perintah -
[SPARK-45868] [SC-148355][SAMBUNGKAN] Pastikan
spark.table
gunakan parser yang sama dengan vanilla spark - [SPARK-45882] [SC-148161][SQL] BroadcastHashJoinExec menyebarkan partisi harus menghormati CoalescedHashPartitioning
- [SPARK-45710] [SC-147428][SQL] Tetapkan nama ke _LEGACY_ERROR_TEMP_21 kesalahan[59.60.61.62]
-
[SPARK-45915] [SC-148306][SQL] Perlakukan desimal(x, 0) sama dengan IntegralType di
PromoteStrings
- [SPARK-45786] [SC-147552][SQL] Memperbaiki hasil perkalian desimal dan pembagian yang tidak akurat
-
[SPARK-45871] [SC-148084][SAMBUNGKAN] Konversi pengumpulan pengoptimalan yang terkait dengan
.toBuffer
dalamconnect
modul - [SPARK-45822] [SC-147546][SAMBUNGKAN] SparkConnectSessionManager mungkin mencari sparkcontext yang dihentikan
- [SPARK-45913] [SC-148289][PyTHON] Buat atribut internal privat dari kesalahan PySpark.
- [SPARK-45827] [SC-148201][SQL] Tambahkan jenis data Varian di Spark.
- [SPARK-44886] [SC-147876][SQL] Memperkenalkan klausul CLUSTER BY untuk CREATE/REPLACE TABLE
-
[SPARK-45756] [SC-147959][CORE] Dukung
spark.master.useAppNameAsAppId.enabled
- [SPARK-45798] [SC-147956][SAMBUNGKAN] Menegaskan ID sesi sisi server
-
[SPARK-45896] [SC-148091][SQL] Buat
ValidateExternalType
dengan jenis yang diharapkan dengan benar -
[SPARK-45902] [SC-148123][SQL] Hapus fungsi
resolvePartitionColumns
yang tidak digunakan dariDataSource
-
[SPARK-45909] [SC-148137][SQL] Hapus
NumericType
cast jika dapat dengan aman di-castIsNotNull
- [SPARK-42821] [SC-147715][SQL] Menghapus parameter yang tidak digunakan dalam metode splitFiles
-
[SPARK-45875] [SC-148088][CORE] Hapus
MissingStageTableRowData
daricore
modul - [SPARK-45783] [SC-148120][PyTHON][SAMBUNGKAN] Meningkatkan pesan kesalahan saat mode Spark Connect diaktifkan tetapi URL jarak jauh tidak diatur
- [SPARK-45804] [SC-147529][UI] Tambahkan konfigurasi spark.ui.threadDump.flamegraphEnabled untuk mengaktifkan/menonaktifkan grafik api
- [SPARK-45664] [SC-146878][SQL] Memperkenalkan pemeta untuk codec kompresi orc
- [SPARK-45481] [SC-146715][SQL] Memperkenalkan pemeta untuk codec kompresi parket
- [SPARK-45752] [SC-148005][SQL] Menyederhanakan kode untuk memeriksa hubungan CTE yang tidak direferensikan
- [SPARK-44752] [SC-146262][SQL] XML: Memperbarui Dokumen Spark
- [SPARK-45752] [SC-147869][SQL] CTE yang tidak direferensikan harus diperiksa oleh CheckAnalysis0
- [SPARK-45842] [SC-147853][SQL] Refaktor API Fungsi Katalog untuk menggunakan penganalisis
- [SPARK-45639] [SC-147676][SQL][PyTHON] Mendukung pemuatan sumber data Python di DataFrameReader
- [SPARK-45592] [SC-146977][SQL] Masalah kebenaran di AQE dengan InMemoryTableScanExec
- [SPARK-45794] [SC-147646][SS] Memperkenalkan sumber metadata status untuk mengkueri informasi metadata status streaming
- [SPARK-45739] [SC-147059][PyTHON] Tangkap IOException alih-alih EOFException saja untuk faulthandler
- [SPARK-45677] [SC-146700] Pengelogan kesalahan yang lebih baik untuk Api Pengamatan
- [SPARK-45544] [SC-146873][CORE] Mengintegrasikan dukungan SSL ke dalam TransportContext
- [SPARK-45654] [SC-147152][PyTHON] Menambahkan API tulis sumber data Python
-
[SPARK-45771] [SC-147270][CORE] Aktifkan
spark.eventLog.rolling.enabled
secara default - [SPARK-45713] [SC-146986][PyTHON] Dukungan mendaftarkan sumber data Python
- [SPARK-45656] [SC-146488][SQL] Memperbaiki pengamatan saat pengamatan bernama dengan nama yang sama pada himpunan data yang berbeda
- [SPARK-45808] [SC-147571][SAMBUNGKAN][PyTHON] Penanganan kesalahan yang lebih baik untuk Pengecualian SQL
-
[SPARK-45774] [SC-147353][CORE][UI] Dukungan
spark.master.ui.historyServerUrl
diApplicationPage
-
[SPARK-45776] [SC-147327][CORE] Hapus pemeriksaan null defensif untuk
MapOutputTrackerMaster#unregisterShuffle
ditambahkan di SPARK-39553 - [SPARK-45780] [SC-147410][SAMBUNGKAN] Menyebarkan semua threadlocal klien Spark Connect di InheritableThread
-
[SPARK-45785] [SC-147419][CORE] Dukungan
spark.deploy.appNumberModulo
untuk memutar nomor aplikasi - [SPARK-45793] [SC-147456][CORE] Meningkatkan codec kompresi bawaan
- [SPARK-45757] [SC-147282][ML] Hindari komputasi ulang NNZ di Binarizer
- [SPARK-45209] [SC-146490][CORE][UI] Dukungan Grafik Api Untuk Halaman Pembuangan Utas Pelaksana
-
[SPARK-45777] [SC-147319][CORE] Dukungan
spark.test.appId
diLocalSchedulerBackend
- [SPARK-45523] [SC-146331][PyTHON] Refaktor pemeriksaan null untuk memiliki pintasan
- [SPARK-45711] [SC-146854][SQL] Memperkenalkan pemeta untuk codec kompresi avro
- [SPARK-45523] [SC-146077][Python] Mengembalikan pesan kesalahan yang berguna jika UDTF mengembalikan Tidak Ada untuk kolom yang tidak dapat diubah ke null
- [SPARK-45614] [SC-146729][SQL] Tetapkan nama ke _LEGACY_ERROR_TEMP_215 kesalahan[6,7,8]
-
[SPARK-45755] [SC-147164][SQL] Meningkatkan
Dataset.isEmpty()
dengan menerapkan batas global1
- [SPARK-45569] [SC-145915][SQL] Tetapkan nama ke _LEGACY_ERROR_TEMP_2153 kesalahan
-
[SPARK-45749] [SC-147153][CORE][WEBUI] Perbaiki
Spark History Server
untuk mengurutkanDuration
kolom dengan benar -
[SPARK-45754] [SC-147169][CORE] Dukung
spark.deploy.appIdPattern
-
[SPARK-45707] [SC-146880][SQL] Sederhanakan
DataFrameStatFunctions.countMinSketch
denganCountMinSketchAgg
-
[SPARK-45753] [SC-147167][CORE] Dukung
spark.deploy.driverIdPattern
-
[SPARK-45763] [SC-147177][CORE][UI] Tingkatkan
MasterPage
untuk memperlihatkanResource
kolom hanya jika ada - [SPARK-45112] [SC-143259][SQL] Menggunakan resolusi berbasis UnresolvedFunction dalam fungsi Himpunan Data SQL
Dukungan driver Databricks ODBC/JDBC
Databricks mendukung driver ODBC/JDBC yang dirilis dalam 2 tahun terakhir. Silakan unduh driver dan peningkatan yang baru dirilis (unduh ODBC, unduh JDBC).
Pembaruan pemeliharaan
Lihat Pembaruan pemeliharaan Databricks Runtime 14.3.
Lingkungan sistem
- Sistem Operasi: Ubuntu 22.04.3 LTS
- Java: Zulu 8.74.0.17-CA-linux64
- Scala: 2.12.15
- Python: 3.10.12
- R: 4.3.1
- Danau Delta: 3.1.0
Pustaka Python yang diinstal
Pustaka | Versi | Pustaka | Versi | Pustaka | Versi |
---|---|---|---|---|---|
anyio | 3.5.0 | argon2-cffi | 21.3.0 | argon2-cffi-bindings | 21.2.0 |
asttoken | 2.0.5 | attrs | 22.1.0 | backcall | 0.2.0 |
beautifulsoup4 | 4.11.1 | hitam | 22.6.0 | pemutih | 4.1.0 |
blinker | 1.4 | boto3 | 1.24.28 | botocore | 1.27.96 |
certifi | 2022.12.7 | cffi | 1.15.1 | chardet | 4.0.0 |
charset-normalizer | 2.0.4 | klik | 8.0.4 | komunikasi | 0.1.2 |
konturpy | 1.0.5 | cryptography | 39.0.1 | cycler | 0.11.0 |
Cython | 0.29.32 | databricks-sdk | 0.1.6 | dbus-python | 1.2.18 |
debugpy | 1.6.7 | decorator | 5.1.1 | defusedxml | 0.7.1 |
distlib | 0.3.7 | docstring-to-markdown | 0.11 | titik masuk | 0,4 |
menjalankan | 0.8.3 | facets-overview | 1.1.1 | fastjsonschema | 2.19.1 |
filelock | 3.13.1 | fonttools | 4.25.0 | googleapis-common-protos | 1.62.0 |
grpcio | 1.48.2 | grpcio-status | 1.48.1 | httplib2 | 0.20.2 |
idna | 3.4 | importlib-metadata | 4.6.4 | ipykernel | 6.25.0 |
ipython | 8.14.0 | ipython-genutils | 0.2.0 | ipywidgets | 7.7.2 |
jedi | 0.18.1 | Jeepney | 0.7.1 | Jinja2 | 3.1.2 |
jmespath | 0.10.0 | joblib | 1.2.0 | jsonschema | 4.17.3 |
jupyter-client | 7.3.4 | jupyter-server | 1.23.4 | jupyter_core | 5.2.0 |
jupyterlab-pygments | 0.1.2 | jupyterlab-widgets | 1.0.0 | keyring | 23.5.0 |
kiwisolver | 1.4.4 | launchpadlib | 1.10.16 | lazr.restfulclient | 0.14.4 |
lazr.uri | 1.0.6 | lxml | 4.9.1 | MarkupSafe | 2.1.1 |
matplotlib | 3.7.0 | matplotlib-inline | 0.1.6 | Mccabe | 0.7.0 |
mistune | 0.8.4 | more-itertools | 8.10.0 | ekstensi mypy | 0.4.3 |
nbclassic | 0.5.2 | nbclient | 0.5.13 | nbconvert | 6.5.4 |
nbformat | 5.7.0 | nest-asyncio | 1.5.6 | nodeenv | 1.8.0 |
buku catatan | 6.5.2 | notebook_shim | 0.2.2 | numpy | 1.23.5 |
oauthlib | 3.2.0 | packaging | 23.2 | pandas | 1.5.3 |
pandocfilters | 1.5.0 | parso | 0.8.3 | pathspec | 0.10.3 |
patsy | 0.5.3 | pexpect=4.8.0 | 4.8.0 | pickleshare | 0.7.5 |
Pillow | 9.4.0 | pip | 22.3.1 | platformdir | 2.5.2 |
plotly | 5.9.0 | pluggy | 1.0.0 | prometheus-client | 0.14.1 |
prompt-toolkit | 3.0.36 | protobuf | 4.24.0 | psutil | 5.9.0 |
psycopg2 | 2.9.3 | ptyprocess | 0.7.0 | pure-eval | 0.2.2 |
pyarrow | 8.0.0 | pyarrow-hotfix | 0,5 | pycparser | 2.21 |
pydantic | 1.10.6 | pyflakes | 3.1.0 | Pygments | 2.11.2 |
PyGObject | 3.42.1 | PyJWT | 2.3.0 | pyodbc | 4.0.32 |
pyparsing | 3.0.9 | pyright | 1.1.294 | pyrsistent | 0.18.0 |
python-dateutil | 2.8.2 | python-lsp-jsonrpc | 1.1.1 | python-lsp-server | 1.8.0 |
pytoolconfig | 1.2.5 | pytz | 2022.7 | pyzmq | 23.2.0 |
permintaan | 2.28.1 | tali | 1.7.0 | s3transfer | 0.6.2 |
scikit-learn | 1.1.1 | scipy | 1.10.0 | seaborn | 0.12.2 |
SecretStorage | 3.3.1 | Send2Trash | 1.8.0 | setuptools | 65.6.3 |
six | 1.16.0 | sniffio | 1.2.0 | soupsieve | 2.3.2.post1 |
ssh-import-id | 5.11 | stack-data | 0.2.0 | statsmodels | 0.13.5 |
tenacity | 8.1.0 | terminado | 0.17.1 | threadpoolctl | 2.2.0 |
tinycss2 | 1.2.1 | tokenize-rt | 4.2.1 | tomli | 2.0.1 |
tornado | 6.1 | traitlets=5.0.5 | 5.7.1 | typing_extensions | 4.4.0 |
ujson | 5.4.0 | unattended-upgrades | 0.1 | urllib3 | 1.26.14 |
virtualenv | 20.16.7 | wadllib | 1.3.6 | wcwidth | 0.2.5 |
webencodings=0.5.1 | 0.5.1 | websocket-client | 0.58.0 | whatthepatch | 1.0.2 |
wheel | 0.38.4 | widgetsnbextension | 3.6.1 | yapf | 0.33.0 |
zipp | 1.0.0 |
Pustaka R yang diinstal
Pustaka R diinstal dari rekam jepret CRAN Manajer Paket Posit pada 2023-02-10.
Pustaka | Versi | Pustaka | Versi | Pustaka | Versi |
---|---|---|---|---|---|
anak panah | 12.0.1 | askpass | 1.1 | assertthat | 0.2.1 |
backports | 1.4.1 | dasar | 4.3.1 | base64enc | 0.1-3 |
bit | 4.0.5 | bit64 | 4.0.5 | blob | 1.2.4 |
boot | 1.3-28 | brew | 1,0-8 | brio | 1.1.3 |
broom | 1.0.5 | bslib | 0.5.0 | cachem | 1.0.8 |
callr | 3.7.3 | caret | 6.0-94 | cellranger | 1.1.0 |
chron | 2.3-61 | kelas | 7.3-22 | cli | 3.6.1 |
clipr | 0.8.0 | Jam | 0.7.0 | klaster | 2.1.4 |
codetools | 0.2-19 | colorspace | 2.1-0 | commonmark | 1.9.0 |
compiler | 4.3.1 | config | 0.3.1 | Berkonflik | 1.2.0 |
cpp11 | 0.4.4 | crayon | 1.5.2 | informasi masuk | 1.3.2 |
curl | 5.0.1 | data.table | 1.14.8 | datasets | 4.3.1 |
DBI | 1.1.3 | dbplyr | 2.3.3 | desc | 1.4.2 |
devtools | 2.4.5 | bagan | 1.6.5 | diffobj | 0.3.5 |
digest | 0.6.33 | downlit | 0.4.3 | dplyr | 1.1.2 |
dtplyr | 1.3.1 | e1071 | 1.7-13 | ellipsis | 0.3.2 |
evaluate | 0,21% | fansi | 1.0.4 | farver | 2.1.1 |
fastmap | 1.1.1 | fontawesome | 0.5.1 | forcats | 1.0.0 |
foreach | 1.5.2 | foreign | 0.8-85 | forge | 0.2.0 |
fs | 1.6.2 | future | 1.33.0 | future.apply | 1.11.0 |
gargle | 1.5.1 | generics | 0.1.3 | Gert | 1.9.2 |
ggplot2 | 3.4.2 | GH | 1.4.0 | gitcreds | 0.1.2 |
glmnet | 4.1-7 | globals | 0.16.2 | glue | 1.6.2 |
googledrive | 2.1.1 | googlesheets4 | 1.1.1 | gower | 1.0.1 |
graphics | 4.3.1 | grDevices | 4.3.1 | grid | 4.3.1 |
gridExtra | 2.3 | gsubfn | 0,7 | gtable | 0.3.3 |
hardhat | 1.3.0 | haven | 2.5.3 | highr | 0.10 |
hms | 1.1.3 | htmltools | 0.5.5 | htmlwidgets | 1.6.2 |
httpuv | 1.6.11 | httr | 1.4.6 | httr2 | 0.2.3 |
ids | 1.0.1 | ini | 0.3.1 | ipred | 0.9-14 |
isoband | 0.2.7 | iterators | 1.0.14 | jquerylib | 0.1.4 |
jsonlite | 1.8.7 | KernSmooth | 2.23-21 | knitr | 1,43 |
labeling | 0.4.2 | later | 1.3.1 | lattice | 0.21-8 |
lava | 1.7.2.1 | lifecycle | 1.0.3 | listenv | 0.9.0 |
lubridate | 1.9.2 | magrittr | 2.0.3 | markdown | 1.7 |
MASS | 7.3-60 | Matrix | 1.5-4.1 | memoise | 2.0.1 |
methods | 4.3.1 | mgcv | 1.8-42 | mime | 0.12 |
miniUI | 0.1.1.1 | ModelMetrics | 1.2.2.2 | modelr | 0.1.11 |
munsell | 0.5.0 | nlme | 3.1-163 | nnet | 7.3-19 |
numDeriv | 2016.8-1.1 | openssl | 2.0.6 | parallel | 4.3.1 |
parallelly | 1.36.0 | pillar | 1.9.0 | pkgbuild | 1.4.2 |
pkgconfig | 2.0.3 | pkgdown | 2.0.7 | pkgload | 1.3.2.1 |
plogr | 0.2.0 | plyr | 1.8.8 | praise | 1.0.0 |
prettyunits | 1.1.1 | pROC | 1.18.4 | processx | 3.8.2 |
prodlim | 2023.03.31 | profvis | 0.3.8 | kemajuan | 1.2.2 |
progressr | 0.13.0 | promises | 1.2.0.1 | proto | 1.0.0 |
proksi | 0.4-27 | ps | 1.7.5 | purrr | 1.0.1 |
r2d3 | 0.2.6 | R6 | 2.5.1 | ragg | 1.2.5 |
randomForest | 4.7-1.1 | rappdirs | 0.3.3 | rcmdcheck | 1.4.0 |
RColorBrewer | 1.1-3 | Rcpp | 1.0.11 | RcppEigen | 0.3.3.9.3 |
readr | 2.1.4 | readxl | 1.4.3 | recipes | 1.0.6 |
rematch | 1.0.1 | rematch2 | 2.1.2 | remotes | 2.4.2 |
reprex | 2.0.2 | reshape2 | 1.4.4 | rlang | 1.1.1 |
rmarkdown | 2.23 | RODBC | 1.3-20 | roxygen2 | 7.2.3 |
rpart | 4.1.21 | rprojroot | 2.0.3 | Rserve | 1.8-11 |
RSQLite | 2.3.1 | rstudioapi | 0.15.0 | rversions | 2.1.2 |
rvest | 1.0.3 | sass | 0.4.6 | scales | 1.2.1 |
selectr | 0.4-2 | sessioninfo | 1.2.2 | bentuk | 1.4.6 |
shiny | 1.7.4.1 | sourcetools | 0.1.7-1 | sparklyr | 1.8.1 |
spatial | 7.3-15 | splines | 4.3.1 | sqldf | 0.4-11 |
SQUAREM | 2021.1 | stats | 4.3.1 | stats4 | 4.3.1 |
stringi | 1.7.12 | stringr | 1.5.0 | survival | 3.5-5 |
sys | 3.4.2 | systemfonts | 1.0.4 | tcltk | 4.3.1 |
testthat | 3.1.10 | pembahasan teks | 0.3.6 | tibble | 3.2.1 |
tidyr | 1.3.0 | tidyselect | 1.2.0 | tidyverse | 2.0.0 |
pertukaran waktu | 0.2.0 | timeDate | 4022.108 | tinytex | 0,45 |
alat | 4.3.1 | tzdb | 0.4.0 | urlchecker | 1.0.1 |
usethis | 2.2.2 | utf8 | 1.2.3 | utils | 4.3.1 |
uuid | 1.1-0 | vctrs | 0.6.3 | viridisLite | 0.4.2 |
vroom | 1.6.3 | waldo | 0.5.1 | whisker | 0.4.1 |
withr | 2.5.0 | xfun | 0,39 | xml2 | 1.3.5 |
xopen | 1.0.0 | xtable | 1.8-4 | yaml | 2.3.7 |
zip | 2.3.0 |
Pustaka Java dan Scala yang diinstal (versi kluster Scala 2.12)
ID Grup | ID Artefak | Versi |
---|---|---|
antlr | antlr | 2.7.7 |
com.amazonaws | amazon-kinesis-client | 1.12.0 |
com.amazonaws | aws-java-sdk-autoscaling | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudformation | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudfront | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudhsm | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudsearch | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudtrail | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudwatch | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.390 |
com.amazonaws | aws-java-sdk-codedeploy | 1.12.390 |
com.amazonaws | aws-java-sdk-cognitoidentity | 1.12.390 |
com.amazonaws | aws-java-sdk-cognitosync | 1.12.390 |
com.amazonaws | aws-java-sdk-config | 1.12.390 |
com.amazonaws | aws-java-sdk-core | 1.12.390 |
com.amazonaws | aws-java-sdk-datapipeline | 1.12.390 |
com.amazonaws | aws-java-sdk-directconnect | 1.12.390 |
com.amazonaws | aws-java-sdk-directory | 1.12.390 |
com.amazonaws | aws-java-sdk-dynamodb | 1.12.390 |
com.amazonaws | aws-java-sdk-ec2 | 1.12.390 |
com.amazonaws | aws-java-sdk-ecs | 1.12.390 |
com.amazonaws | aws-java-sdk-efs | 1.12.390 |
com.amazonaws | aws-java-sdk-elasticache | 1.12.390 |
com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.12.390 |
com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.12.390 |
com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.390 |
com.amazonaws | aws-java-sdk-emr | 1.12.390 |
com.amazonaws | aws-java-sdk-glacier | 1.12.390 |
com.amazonaws | aws-java-sdk-glue | 1.12.390 |
com.amazonaws | aws-java-sdk-iam | 1.12.390 |
com.amazonaws | aws-java-sdk-importexport | 1.12.390 |
com.amazonaws | aws-java-sdk-kinesis | 1.12.390 |
com.amazonaws | aws-java-sdk-kms | 1.12.390 |
com.amazonaws | aws-java-sdk-lambda | 1.12.390 |
com.amazonaws | aws-java-sdk-logs | 1.12.390 |
com.amazonaws | aws-java-sdk-machinelearning | 1.12.390 |
com.amazonaws | aws-java-sdk-opsworks | 1.12.390 |
com.amazonaws | aws-java-sdk-rds | 1.12.390 |
com.amazonaws | aws-java-sdk-redshift | 1.12.390 |
com.amazonaws | aws-java-sdk-route53 | 1.12.390 |
com.amazonaws | aws-java-sdk-s3 | 1.12.390 |
com.amazonaws | aws-java-sdk-ses | 1.12.390 |
com.amazonaws | aws-java-sdk-simpledb | 1.12.390 |
com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.390 |
com.amazonaws | aws-java-sdk-sns | 1.12.390 |
com.amazonaws | aws-java-sdk-sqs | 1.12.390 |
com.amazonaws | aws-java-sdk-ssm | 1.12.390 |
com.amazonaws | aws-java-sdk-storagegateway | 1.12.390 |
com.amazonaws | aws-java-sdk-sts | 1.12.390 |
com.amazonaws | aws-java-sdk-support | 1.12.390 |
com.amazonaws | aws-java-sdk-swf-libraries | 1.11.22 |
com.amazonaws | aws-java-sdk-workspaces | 1.12.390 |
com.amazonaws | jmespath-java | 1.12.390 |
com.clearspring.analytics | stream | 2.9.6 |
com.databricks | Rserve | 1.8-3 |
com.databricks | databricks-sdk-java | 0.13.0 |
com.databricks | jets3t | 0.7.1-0 |
com.databricks.scalapb | compilerplugin_2.12 | 0.4.15-10 |
com.databricks.scalapb | scalapb-runtime_2.12 | 0.4.15-10 |
com.esotericsoftware | kryo-shaded | 4.0.2 |
com.esotericsoftware | minlog | 1.3.0 |
com.fasterxml | classmate | 1.3.4 |
com.fasterxml.jackson.core | jackson-annotations | 2.15.2 |
com.fasterxml.jackson.core | jackson-core | 2.15.2 |
com.fasterxml.jackson.core | jackson-databind | 2.15.2 |
com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.15.2 |
com.fasterxml.jackson.dataformat | jackson-dataformat-yaml | 2.15.2 |
com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.15.2 |
com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.15.1 |
com.fasterxml.jackson.module | jackson-module-paranamer | 2.15.2 |
com.fasterxml.jackson.module | jackson-module-scala_2.12 | 2.15.2 |
com.github.ben-manes.caffeine | caffeine | 2.9.3 |
com.github.fommil | jniloader | 1.1 |
com.github.fommil.netlib | native_ref-java | 1.1 |
com.github.fommil.netlib | native_ref-java | 1.1-asli |
com.github.fommil.netlib | native_system-java | 1.1 |
com.github.fommil.netlib | native_system-java | 1.1-asli |
com.github.fommil.netlib | netlib-native_ref-linux-x86_64 | 1.1-asli |
com.github.fommil.netlib | netlib-native_system-linux-x86_64 | 1.1-asli |
com.github.luben | zstd-jni | 1.5.5-4 |
com.github.wendykierp | JTransforms | 3.1 |
com.google.code.findbugs | jsr305 | 3.0.0 |
com.google.code.gson | gson | 2.10.1 |
com.google.crypto.tink | tink | 1.9.0 |
com.google.errorprone | error_prone_annotations | 2.10.0 |
com.google.flatbuffers | flatbuffers-java | 1.12.0 |
com.google.guava | guava | 15.0 |
com.google.protobuf | protobuf-java | 2.6.1 |
com.helger | profiler | 1.1.1 |
com.jcraft | jsch | 0.1.55 |
com.jolbox | bonecp | 0.8.0.RELEASE |
com.lihaoyi | sourcecode_2.12 | 0.1.9 |
com.microsoft.azure | azure-data-lake-store-sdk | 2.3.9 |
com.microsoft.sqlserver | mssql-jdbc | 11.2.2.jre8 |
com.ning | compress-lzf | 1.1.2 |
com.sun.mail | javax.mail | 1.5.2 |
com.sun.xml.bind | jaxb-core | 2.2.11 |
com.sun.xml.bind | jaxb-impl | 2.2.11 |
com.tdunning | json | 1.8 |
com.thoughtworks.paranamer | paranamer | 2.8 |
com.trueaccord.lenses | lenses_2.12 | 0.4.12 |
com.twitter | chill-java | 0.10.0 |
com.twitter | chill_2.12 | 0.10.0 |
com.twitter | util-app_2.12 | 7.1.0 |
com.twitter | util-app_2.12 | 7.1.0 |
com.twitter | util-function_2.12 | 7.1.0 |
com.twitter | util-jvm_2.12 | 7.1.0 |
com.twitter | util-lint_2.12 | 7.1.0 |
com.twitter | util-registry_2.12 | 7.1.0 |
com.twitter | util-stats_2.12 | 7.1.0 |
com.typesafe | config | 1.2.1 |
com.typesafe.scala-logging | scala-logging_2.12 | 3.7.2 |
com.uber | h3 | 3.7.3 |
com.univocity | univocity-parsers | 2.9.1 |
com.zaxxer | HikariCP | 4.0.3 |
commons-cli | commons-cli | 1.5.0 |
commons-codec | commons-codec | 1.16.0 |
commons-collections | commons-collections | 3.2.2 |
commons-dbcp | commons-dbcp | 1.4 |
commons-fileupload | commons-fileupload | 1.5 |
commons-httpclient | commons-httpclient | 3.1 |
commons-io | commons-io | 2.13.0 |
commons-lang | commons-lang | 2.6 |
commons-logging | commons-logging | 1.1.3 |
commons-pool | commons-pool | 1.5.4 |
dev.ludovic.netlib | arpack | 3.0.3 |
dev.ludovic.netlib | blas | 3.0.3 |
dev.ludovic.netlib | lapack | 3.0.3 |
info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
io.airlift | aircompressor | 0.25 |
io.delta | delta-sharing-client_2.12 | 1.0.3 |
io.dropwizard.metrics | metrik-anotasi | 4.2.19 |
io.dropwizard.metrics | metrics-core | 4.2.19 |
io.dropwizard.metrics | metrics-graphite | 4.2.19 |
io.dropwizard.metrics | metrics-healthchecks | 4.2.19 |
io.dropwizard.metrics | metrics-jetty9 | 4.2.19 |
io.dropwizard.metrics | metrics-jmx | 4.2.19 |
io.dropwizard.metrics | metrics-json | 4.2.19 |
io.dropwizard.metrics | metrics-jvm | 4.2.19 |
io.dropwizard.metrics | metrics-servlets | 4.2.19 |
io.netty | netty-all | 4.1.96.Final |
io.netty | netty-buffer | 4.1.96.Final |
io.netty | netty-codec | 4.1.96.Final |
io.netty | netty-codec-http | 4.1.96.Final |
io.netty | netty-codec-http2 | 4.1.96.Final |
io.netty | netty-codec-socks | 4.1.96.Final |
io.netty | netty-common | 4.1.96.Final |
io.netty | netty-handler | 4.1.96.Final |
io.netty | netty-handler-proxy | 4.1.96.Final |
io.netty | netty-resolver | 4.1.96.Final |
io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-linux-aarch_64 |
io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-linux-x86_64 |
io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-osx-aarch_64 |
io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-osx-x86_64 |
io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-windows-x86_64 |
io.netty | kelas netty-tcnative | 2.0.61.Final |
io.netty | netty-transport | 4.1.96.Final |
io.netty | netty-transport-classes-epoll | 4.1.96.Final |
io.netty | netty-transport-classes-kqueue | 4.1.96.Final |
io.netty | netty-transport-native-epoll | 4.1.96.Final |
io.netty | netty-transport-native-epoll | 4.1.96.Final-linux-aarch_64 |
io.netty | netty-transport-native-epoll | 4.1.96.Final-linux-x86_64 |
io.netty | netty-transport-native-kqueue | 4.1.96.Final-osx-aarch_64 |
io.netty | netty-transport-native-kqueue | 4.1.96.Final-osx-x86_64 |
io.netty | netty-transport-native-unix-common | 4.1.96.Final |
io.prometheus | simpleclient | 0.7.0 |
io.prometheus | simpleclient_common | 0.7.0 |
io.prometheus | simpleclient_dropwizard | 0.7.0 |
io.prometheus | simpleclient_pushgateway | 0.7.0 |
io.prometheus | simpleclient_servlet | 0.7.0 |
io.prometheus.jmx | collector | 0.12.0 |
jakarta.annotation | jakarta.annotation-api | 1.3.5 |
jakarta.servlet | jakarta.servlet-api | 4.0.3 |
jakarta.validation | jakarta.validation-api | 2.0.2 |
jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
javax.activation | activation | 1.1.1 |
javax.el | javax.el-api | 2.2.4 |
javax.jdo | jdo-api | 3.0.1 |
javax.transaction | jta | 1.1 |
javax.transaction | transaction-api | 1.1 |
javax.xml.bind | jaxb-api | 2.2.11 |
javolution | javolution | 5.5.1 |
jline | jline | 2.14.6 |
joda-time | joda-time | 2.12.1 |
net.java.dev.jna | jna | 5.8.0 |
net.razorvine | acar | 1.3 |
net.sf.jpam | jpam | 1.1 |
net.sf.opencsv | opencsv | 2.3 |
net.sf.supercsv | super-csv | 2.2.0 |
net.snowflake | snowflake-ingest-sdk | 0.9.6 |
net.sourceforge.f2j | arpack_combined_all | 0.1 |
org.acplt.remotetea | remotetea-oncrpc | 1.1.2 |
org.antlr | ST4 | 4.0.4 |
org.antlr | antlr-runtime | 3.5.2 |
org.antlr | antlr4-runtime | 4.9.3 |
org.antlr | stringtemplate | 3.2.1 |
org.apache.ant | ant | 1.9.16 |
org.apache.ant | ant-jsch | 1.9.16 |
org.apache.ant | ant-launcher | 1.9.16 |
org.apache.arrow | arrow-format | 12.0.1 |
org.apache.arrow | arrow-memory-core | 12.0.1 |
org.apache.arrow | arrow-memory-netty | 12.0.1 |
org.apache.arrow | arrow-vector | 12.0.1 |
org.apache.avro | avro | 1.11.2 |
org.apache.avro | avro-ipc | 1.11.2 |
org.apache.avro | avro-mapred | 1.11.2 |
org.apache.commons | commons-collections4 | 4.4 |
org.apache.commons | commons-compress | 1.23.0 |
org.apache.commons | commons-crypto | 1.1.0 |
org.apache.commons | commons-lang3 | 3.12.0 |
org.apache.commons | commons-math3 | 3.6.1 |
org.apache.commons | commons-text | 1.10.0 |
org.apache.curator | curator-client | 2.13.0 |
org.apache.curator | curator-framework | 2.13.0 |
org.apache.curator | curator-recipes | 2.13.0 |
org.apache.datasketches | datasketches-java | 3.1.0 |
org.apache.datasketches | datasketches-memory | 2.0.0 |
org.apache.derby | derby | 10.14.2.0 |
org.apache.hadoop | hadoop-client-runtime | 3.3.6 |
org.apache.hive | hive-beeline | 2.3.9 |
org.apache.hive | hive-cli | 2.3.9 |
org.apache.hive | hive-jdbc | 2.3.9 |
org.apache.hive | hive-llap-client | 2.3.9 |
org.apache.hive | hive-llap-common | 2.3.9 |
org.apache.hive | hive-serde | 2.3.9 |
org.apache.hive | hive-shims | 2.3.9 |
org.apache.hive | hive-storage-api | 2.8.1 |
org.apache.hive.shims | hive-shims-0.23 | 2.3.9 |
org.apache.hive.shims | hive-shims-common | 2.3.9 |
org.apache.hive.shims | hive-shims-scheduler | 2.3.9 |
org.apache.httpcomponents | httpclient | 4.5.14 |
org.apache.httpcomponents | httpcore | 4.4.16 |
org.apache.ivy | ivy | 2.5.1 |
org.apache.logging.log4j | log4j-1.2-api | 2.20.0 |
org.apache.logging.log4j | log4j-api | 2.20.0 |
org.apache.logging.log4j | log4j-core | 2.20.0 |
org.apache.logging.log4j | log4j-slf4j2-impl | 2.20.0 |
org.apache.orc | orc-core | 1.9.2-shaded-protobuf |
org.apache.orc | orc-mapreduce | 1.9.2-shaded-protobuf |
org.apache.orc | orc-shims | 1.9.2 |
org.apache.thrift | libfb303 | 0.9.3 |
org.apache.thrift | libthrift | 0.12.0 |
org.apache.ws.xmlschema | xmlschema-core | 2.3.0 |
org.apache.xbean | xbean-asm9-shaded | 4.23 |
org.apache.yetus | audience-annotations | 0.13.0 |
org.apache.zookeeper | zookeeper | 3.6.3 |
org.apache.zookeeper | zookeeper-jute | 3.6.3 |
org.checkerframework | checker-qual | 3.31.0 |
org.codehaus.jackson | jackson-core-asl | 1.9.13 |
org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
org.codehaus.janino | commons-compiler | 3.0.16 |
org.codehaus.janino | janino | 3.0.16 |
org.datanucleus | datanucleus-api-jdo | 4.2.4 |
org.datanucleus | datanucleus-core | 4.1.17 |
org.datanucleus | datanucleus-rdbms | 4.1.19 |
org.datanucleus | javax.jdo | 3.2.0-m3 |
org.eclipse.jetty | jetty-client | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-continuation | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-http | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-io | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-jndi | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-plus | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-proxy | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-security | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-server | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-servlet | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-servlets | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-util | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-util-ajax | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-webapp | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-xml | 9.4.52.v20230823 |
org.eclipse.jetty.websocket | websocket-api | 9.4.52.v20230823 |
org.eclipse.jetty.websocket | websocket-client | 9.4.52.v20230823 |
org.eclipse.jetty.websocket | websocket-common | 9.4.52.v20230823 |
org.eclipse.jetty.websocket | websocket-server | 9.4.52.v20230823 |
org.eclipse.jetty.websocket | websocket-servlet | 9.4.52.v20230823 |
org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
org.glassfish.hk2 | hk2-api | 2.6.1 |
org.glassfish.hk2 | hk2-locator | 2.6.1 |
org.glassfish.hk2 | hk2-utils | 2.6.1 |
org.glassfish.hk2 | osgi-resource-locator | 1.0.3 |
org.glassfish.hk2.external | aopalliance-repackaged | 2.6.1 |
org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
org.glassfish.jersey.containers | jersey-container-servlet | 2,40 |
org.glassfish.jersey.containers | jersey-container-servlet-core | 2,40 |
org.glassfish.jersey.core | jersey-client | 2,40 |
org.glassfish.jersey.core | jersey-common | 2,40 |
org.glassfish.jersey.core | jersey-server | 2,40 |
org.glassfish.jersey.inject | jersey-hk2 | 2,40 |
org.hibernate.validator | hibernate-validator | 6.1.7.Final |
org.ini4j | ini4j | 0.5.4 |
org.javassist | javassist | 3.29.2-GA |
org.jboss.logging | jboss-logging | 3.3.2.Final |
org.jdbi | jdbi | 2.63.1 |
org.jetbrains | anotasi | 17.0.0 |
org.joda | joda-convert | 1.7 |
org.jodd | jodd-core | 3.5.2 |
org.json4s | json4s-ast_2.12 | 3.7.0-M11 |
org.json4s | json4s-core_2.12 | 3.7.0-M11 |
org.json4s | json4s-jackson_2.12 | 3.7.0-M11 |
org.json4s | json4s-scalap_2.12 | 3.7.0-M11 |
org.lz4 | lz4-java | 1.8.0 |
org.mlflow | mlflow-spark_2.12 | 2.9.1 |
org.objenesis | objenesis | 2.5.1 |
org.postgresql | postgresql | 42.6.0 |
org.roaringbitmap | RoaringBitmap | 0.9.45 |
org.roaringbitmap | shims | 0.9.45 |
org.rocksdb | rocksdbjni | 8.3.2 |
org.rosuda.REngine | REngine | 2.1.0 |
org.scala-lang | scala-compiler_2.12 | 2.12.15 |
org.scala-lang | scala-library_2.12 | 2.12.15 |
org.scala-lang | scala-reflect_2.12 | 2.12.15 |
org.scala-lang.modules | scala-collection-compat_2.12 | 2.11.0 |
org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
org.scala-lang.modules | scala-xml_2.12 | 1.2.0 |
org.scala-sbt | test-interface | 1.0 |
org.scalacheck | scalacheck_2.12 | 1.14.2 |
org.scalactic | scalactic_2.12 | 3.2.15 |
org.scalanlp | breeze-macros_2.12 | 2.1.0 |
org.scalanlp | breeze_2.12 | 2.1.0 |
org.scalatest | kompatibel dengan skalar | 3.2.15 |
org.scalatest | scalatest-core_2.12 | 3.2.15 |
org.scalatest | scalatest-diagrams_2.12 | 3.2.15 |
org.scalatest | scalatest-featurespec_2.12 | 3.2.15 |
org.scalatest | scalatest-flatspec_2.12 | 3.2.15 |
org.scalatest | scalatest-freespec_2.12 | 3.2.15 |
org.scalatest | scalatest-funspec_2.12 | 3.2.15 |
org.scalatest | scalatest-funsuite_2.12 | 3.2.15 |
org.scalatest | scalatest-matchers-core_2.12 | 3.2.15 |
org.scalatest | scalatest-mustmatchers_2.12 | 3.2.15 |
org.scalatest | scalatest-propspec_2.12 | 3.2.15 |
org.scalatest | scalatest-refspec_2.12 | 3.2.15 |
org.scalatest | scalatest-shouldmatchers_2.12 | 3.2.15 |
org.scalatest | scalatest-wordspec_2.12 | 3.2.15 |
org.scalatest | scalatest_2.12 | 3.2.15 |
org.slf4j | jcl-over-slf4j | 2.0.7 |
org.slf4j | jul-to-slf4j | 2.0.7 |
org.slf4j | slf4j-api | 2.0.7 |
org.slf4j | slf4j-simple | 1.7.25 |
org.threeten | threeten-extra | 1.7.1 |
org.tukaani | xz | 1.9 |
org.typelevel | algebra_2.12 | 2.0.1 |
org.typelevel | cats-kernel_2.12 | 2.1.1 |
org.typelevel | spire-macros_2.12 | 0.17.0 |
org.typelevel | spire-platform_2.12 | 0.17.0 |
org.typelevel | spire-util_2.12 | 0.17.0 |
org.typelevel | spire_2.12 | 0.17.0 |
org.wildfly.openssl | wildfly-openssl | 1.1.3.Final |
org.xerial | sqlite-jdbc | 3.42.0.0 |
org.xerial.snappy | snappy-java | 1.1.10.3 |
org.yaml | snakeyaml | 2.0 |
oro | oro | 2.0.8 |
pl.edu.icm | JLargeArrays | 1.5 |
software.amazon.cryptools | AmazonCorrettoCryptoProvider | 1.6.1-linux-x86_64 |
software.amazon.ion | ion-java | 1.0.2 |
stax | stax-api | 1.0.1 |