Databricks Runtime 12.1 (EoS)
Catatan
Dukungan untuk versi Databricks Runtime ini telah berakhir. Untuk tanggal akhir dukungan, lihat Riwayat akhir dukungan. Untuk semua versi Runtime Databricks yang didukung, lihat Versi dan kompatibilitas catatan rilis Databricks Runtime.
Catatan rilis berikut memberikan informasi tentang Databricks Runtime 12.1, didukung oleh Apache Spark 3.3.1.
Databricks merilis versi ini pada Januari 2023.
Fitur dan peningkatan baru
- Fitur tabel Delta Lake yang didukung untuk manajemen protokol
- I/O prediktif untuk pembaruan ada di pratinjau publik
- Catalog Explorer sekarang tersedia untuk semua persona
- Dukungan untuk beberapa operator stateful dalam satu kueri streaming
- Dukungan untuk buffer protokol ada di Pratinjau Umum
- Dukungan untuk autentikasi Confluent Schema Registry
- Dukungan untuk berbagi riwayat tabel dengan berbagi Berbagi Delta
- Dukungan untuk streaming dengan berbagi Berbagi Delta
- Versi tabel menggunakan tanda waktu sekarang didukung untuk tabel Berbagi Delta dalam katalog
- Dukungan untuk fitur WHEN NOT MATCHED BY SOURCE pada MERGE INTO
- Kumpulan statistik yang dioptimalkan untuk CONVERT TO DELTA
- Dukungan Unity Catalog untuk melepas tetesan tabel
Fitur tabel Delta Lake yang didukung untuk manajemen protokol
Azure Databricks telah memperkenalkan dukungan untuk fitur tabel Delta Lake, yang memperkenalkan bendera granular yang menentukan fitur mana yang didukung oleh tabel tertentu. Lihat Bagaimana Azure Databricks mengelola kompatibilitas fitur Delta Lake?.
I/O prediktif untuk pembaruan ada di pratinjau publik
I/O prediktif sekarang mempercepat DELETE
operasi , MERGE
, dan UPDATE
untuk tabel Delta dengan vektor penghapusan diaktifkan pada komputasi yang diaktifkan Photon. Lihat Apa itu I/O prediktif?.
Catalog Explorer sekarang tersedia untuk semua persona
Catalog Explorer sekarang tersedia untuk semua persona Azure Databricks saat menggunakan Databricks Runtime 7.3 LTS ke atas.
Dukungan untuk beberapa operator stateful dalam satu kueri streaming
Pengguna sekarang dapat menautkan operator stateful dengan mode tambahan dalam kueri streaming. Tidak semua operator didukung sepenuhnya. Gabung interval waktu stream-stream dan flatMapGroupsWithState
tidak mengizinkan operator stateful lainnya untuk ditautkan.
Dukungan untuk buffer protokol ada di Pratinjau Umum
Anda dapat menggunakan from_protobuf
fungsi dan to_protobuf
untuk bertukar data antara jenis biner dan struct. Lihat Buffer protokol baca dan tulis.
Dukungan untuk autentikasi Confluent Schema Registry
Integrasi Azure Databricks dengan Confluent Schema Registry sekarang mendukung alamat registri skema eksternal dengan autentikasi. Fitur ini tersedia untuk from_avro
fungsi , to_avro
, from_protobuf
, dan to_protobuf
. Lihat Protobuf atau Avro.
Dukungan untuk berbagi riwayat tabel dengan berbagi Berbagi Delta
Sekarang Anda dapat berbagi tabel dengan riwayat lengkap menggunakan Berbagi Delta, yang memungkinkan penerima melakukan kueri perjalanan waktu dan mengkueri tabel menggunakan Spark Structured Streaming.
WITH HISTORY
direkomendasikan alih-alih CHANGE DATA FEED
, meskipun yang terakhir terus didukung. Lihat ALTER SHARE dan Tambahkan tabel ke bagikan.
Dukungan untuk streaming dengan berbagi Berbagi Delta
Spark Structured Streaming sekarang berfungsi dengan format deltasharing
pada tabel Berbagi Delta sumber yang telah dibagikan menggunakan WITH HISTORY
.
Versi tabel menggunakan tanda waktu sekarang didukung untuk tabel Berbagi Delta dalam katalog
Sekarang Anda dapat menggunakan sintaks TIMESTAMP AS OF
SQL dalam SELECT
pernyataan untuk menentukan versi tabel Berbagi Delta yang dipasang dalam katalog. Tabel harus dibagikan menggunakan WITH HISTORY
.
Dukungan untuk WHEN NOT MATCHED BY SOURCE untuk MERGE INTO
Sekarang Anda dapat menambahkan WHEN NOT MATCHED BY SOURCE
klausa untuk MERGE INTO
memperbarui atau menghapus baris dalam tabel yang dipilih yang tidak memiliki kecocokan dalam tabel sumber berdasarkan kondisi penggabungan. Klausa baru tersedia di SQL, Python, Scala, dan Java. Lihat MERGE INTO.
Pengumpulan statistik yang dioptimalkan untuk CONVERT TO DELTA
Pengumpulan statistik untuk CONVERT TO DELTA
operasi sekarang jauh lebih cepat. Ini mengurangi jumlah beban kerja yang mungkin digunakan NO STATISTICS
untuk efisiensi.
Dukungan Unity Catalog untuk melepas tetesan tabel
Fitur ini awalnya dirilis di Pratinjau Umum. Ini adalah GA per 25 Oktober 2023.
Anda sekarang dapat membatalkan pengelompokan tabel terkelola atau eksternal yang dihilangkan dalam skema yang ada dalam waktu tujuh hari setelah dihilangkan. Lihat UNDROP TABLE dan SHOW TABLES DROPPED.
Peningkatan pustaka
- Pustaka Python yang ditingkatkan:
- filelock dari 3.8.0 hingga 3.8.2
- platformdir dari 2.5.4 hingga 2.6.0
- setuptools dari 58.0.4 hingga 61.2.0
- Pustaka R yang ditingkatkan:
- Pustaka Java yang ditingkatkan:
- io.delta.delta-sharing-spark_2.12 dari 0.5.2 hingga 0.6.2
- org.apache.hive.hive-storage-api dari 2.7.2 hingga 2.8.1
- org.apache.parquet.parquet-column dari 1.12.3-databricks-0001 ke 1.12.3-databricks-0002
- org.apache.parquet.parquet-common dari 1.12.3-databricks-0001 hingga 1.12.3-databricks-0002
- org.apache.parquet.parquet-encoding dari 1.12.3-databricks-0001 ke 1.12.3-databricks-0002
- org.apache.parquet.parquet-format-structures dari 1.12.3-databricks-0001 hingga 1.12.3-databricks-0002
- org.apache.parquet.parquet-hadoop dari 1.12.3-databricks-0001 ke 1.12.3-databricks-0002
- org.apache.parquet.parquet-jackson dari 1.12.3-databricks-0001 ke 1.12.3-databricks-0002
- org.tukaani.xz dari 1.8 hingga 1.9
Apache Spark
Databricks Runtime 12.1 menyertakan Apache Spark 3.3.1. Rilis ini mencakup semua perbaikan dan peningkatan Spark yang disertakan dalam Databricks Runtime 12.0 (EoS), serta perbaikan bug tambahan dan peningkatan berikut yang dilakukan pada Spark:
- [SPARK-41405] [SC-119769][12.1.0] Kembalikan "[SC-119411][SQL] Pusatkan logika resolusi kolom" dan "[SC-117170][SPARK-41338][SQL] Atasi referensi luar dan kolom normal dalam batch penganalisis yang sama"
- [SPARK-41405] [SC-119411][SQL] Memusatkan logika resolusi kolom
- [SPARK-41859] [SC-119514][SQL] CreateHiveTableAsSelectCommand harus mengatur bendera penimpaan dengan benar
- [SPARK-41659] [SC-119526][SAMBUNGKAN][12.X] Mengaktifkan doctest di pyspark.sql.connect.readwriter
- [SPARK-41858] [SC-119427][SQL] Memperbaiki regresi perf pembaca ORC karena fitur nilai DEFAULT
- [SPARK-41807] [SC-119399][CORE] Hapus kelas kesalahan yang tidak ada: UNSUPPORTED_FEATURE. DISTRIBUTE_BY
- [SPARK-41578] [12.x][SC-119273][SQL] Tetapkan nama ke _LEGACY_ERROR_TEMP_2141
- [SPARK-41571] [SC-119362][SQL] Tetapkan nama ke _LEGACY_ERROR_TEMP_2310
- [SPARK-41810] [SC-119373][SAMBUNGKAN] Menyimpulkan nama dari daftar kamus di SparkSession.createDataFrame
- [SPARK-40993] [SC-119504][SPARK-41705][SAMBUNGKAN][12.X] Memindahkan dokumentasi dan skrip Spark Connect ke dokumentasi dev/ dan Python
- [SPARK-41534] [SC-119456][SAMBUNGKAN][SQL][12.x] Menyiapkan modul klien awal untuk Spark Connect
- [SPARK-41365] [SC-118498][UI][3.3] Halaman UI tahapan gagal dimuat untuk proksi di lingkungan yarn tertentu
-
[SPARK-41481] [SC-118150][CORE][SQL] Gunakan
INVALID_TYPED_LITERAL
kembali alih-alih_LEGACY_ERROR_TEMP_0020
- [SPARK-41049] [SC-119305][SQL] Mengunjungi kembali penanganan ekspresi stateful
-
[SPARK-41726] [SC-119248][SQL] Buka
OptimizedCreateHiveTableAsSelectCommand
-
[SPARK-41271] [SC-118648][SC-118348][SQL] Mendukung kueri SQL berparameter berdasarkan
sql()
-
[SPARK-41066] [SC-119344][SAMBUNGKAN][PyTHON] Menerapkan
DataFrame.sampleBy
danDataFrame.stat.sampleBy
- [SPARK-41407] [SC-119402][SC-119012][SQL][SEMUA TES] Menarik keluar tulisan v1 ke WriteFiles
-
[SPARK-41565] [SC-118868][SQL] Menambahkan kelas kesalahan
UNRESOLVED_ROUTINE
- [SPARK-41668] [SC-118925][SQL] Fungsi DECODE mengembalikan hasil yang salah ketika diteruskan NULL
- [SPARK-41554] [SC-119274] perbaikan perubahan skala Desimal ketika skala menurun oleh m...
-
[SPARK-41065] [SC-119324][SAMBUNGKAN][PyTHON] Menerapkan
DataFrame.freqItems
danDataFrame.stat.freqItems
- [SPARK-41742] [SC-119404][SPARK-41745][SAMBUNGKAN][12.X] Uji dokumen yang dapat diperpanjang dan tambahkan alias kolom yang hilang ke count()
-
[SPARK-41069] [SC-119310][SAMBUNGKAN][PyTHON] Menerapkan
DataFrame.approxQuantile
danDataFrame.stat.approxQuantile
-
[SPARK-41809] [SC-119367][SAMBUNGKAN][PyTHON] Membuat fungsi
from_json
mendukung Skema DataType -
[SPARK-41804] [SC-119382][SQL] Pilih ukuran elemen yang benar untuk
InterpretedUnsafeProjection
array UDT - [SPARK-41786] [SC-119308][SAMBUNGKAN][PyTHON] Fungsi pembantu Deduplikasi
-
[SPARK-41745] [SC-119378][SPARK-41789][12.X] Membuat
createDataFrame
daftar dukungan Baris - [SPARK-41344] [SC-119217][SQL] Buat kesalahan lebih jelas ketika tabel tidak ditemukan di katalog SupportsCatalogOptions
-
[SPARK-41803] [SC-119380][SAMBUNGKAN][PyTHON] Menambahkan fungsi yang hilang
log(arg1, arg2)
- [SPARK-41808] [SC-119356][SAMBUNGKAN][PyTHON] Membuat opsi dukungan fungsi JSON
-
[SPARK-41779] [SC-119275][SPARK-41771][SAMBUNGKAN][PyTHON] Buat
__getitem__
filter dukungan dan pilih - [SPARK-41783] [SC-119288][SPARK-41770][SAMBUNGKAN][PyTHON] Membuat dukungan op kolom Tidak Ada
- [SPARK-41440] [SC-119279][SAMBUNGKAN][PyTHON] Hindari operator cache untuk Sampel umum.
-
[SPARK-41785] [SC-119290][SAMBUNGKAN][PyTHON] Alat
GroupedData.mean
- [SPARK-41629] [SC-119276][SAMBUNGKAN] Dukungan untuk Ekstensi Protokol dalam Relasi dan Ekspresi
-
[SPARK-41417] [SC-118000][CORE][SQL] Ganti nama
_LEGACY_ERROR_TEMP_0019
menjadiINVALID_TYPED_LITERAL
- [SPARK-41533] [SC-119342][SAMBUNGKAN][12.X] Penanganan Kesalahan yang Tepat untuk Spark Connect Server / Client
- [SPARK-41292] [SC-119357][SAMBUNGKAN][12.X] Jendela Dukungan di namespace pyspark.sql.window
- [SPARK-41493] [SC-119339][SAMBUNGKAN][PyTHON] Membuat opsi dukungan fungsi csv
- [SPARK-39591] [SC-118675][SS] Pelacakan Kemajuan Asinkron
-
[SPARK-41767] [SC-119337][SAMBUNGKAN][PyTHON][12.X] Alat
Column.{withField, dropFields}
-
[SPARK-41068] [SC-119268][SAMBUNGKAN][PyTHON] Alat
DataFrame.stat.corr
- [SPARK-41655] [SC-119323][SAMBUNGKAN][12.X] Mengaktifkan doctest di pyspark.sql.connect.column
- [SPARK-41738] [SC-119170][SAMBUNGKAN] Mencampur ClientId dalam cache SparkSession
-
[SPARK-41354] [SC-119194][SAMBUNGKAN] Tambahkan
RepartitionByExpression
ke proto -
[SPARK-41784] [SC-119289][SAMBUNGKAN][PyTHON] Tambahkan hilang
__rmod__
di Kolom - [SPARK-41778] [SC-119262][SQL] Menambahkan alias "reduce" ke ArrayAggregate
-
[SPARK-41067] [SC-119171][SAMBUNGKAN][PyTHON] Alat
DataFrame.stat.cov
- [SPARK-41764] [SC-119216][SAMBUNGKAN][PyTHON] Buat nama op string internal konsisten dengan FunctionRegistry
- [SPARK-41734] [SC-119160][SAMBUNGKAN] Menambahkan pesan induk untuk Katalog
- [SPARK-41742] [SC-119263] Mendukung df.groupBy().agg({"*":"count"})
-
[SPARK-41761] [SC-119213][SAMBUNGKAN][PyTHON] Perbaiki ops aritmatika:
__neg__
, ,__pow__
__rpow__
-
[SPARK-41062] [SC-118182][SQL] Ganti nama
UNSUPPORTED_CORRELATED_REFERENCE
menjadiCORRELATED_REFERENCE
-
[SPARK-41751] [SC-119211][SAMBUNGKAN][PyTHON] Perbaiki
Column.{isNull, isNotNull, eqNullSafe}
-
[SPARK-41728] [SC-119164][SAMBUNGKAN][PyTHON][12.X] Menerapkan
unwrap_udt
fungsi -
[SPARK-41333] [SC-119195][SPARK-41737] Alat
GroupedData.{min, max, avg, sum}
-
[SPARK-41751] [SC-119206][SAMBUNGKAN][PyTHON] Perbaiki
Column.{bitwiseAND, bitwiseOR, bitwiseXOR}
- [SPARK-41631] [SC-101081][SQL] Mendukung resolusi alias kolom lateral implisit pada Agregat
- [SPARK-41529] [SC-119207][SAMBUNGKAN][12.X] Menerapkan SparkSession.stop
-
[SPARK-41729] [SC-119205][CORE][SQL][12.X] Ganti nama
_LEGACY_ERROR_TEMP_0011
menjadiUNSUPPORTED_FEATURE.COMBINATION_QUERY_RESULT_CLAUSES
- [SPARK-41717] [SC-119078][SAMBUNGKAN][12.X] Cetak Deduplikasi dan repr_html di LogicalPlan
-
[SPARK-41740] [SC-119169][SAMBUNGKAN][PyTHON] Alat
Column.name
- [SPARK-41733] [SC-119163][SQL][SS] Menerapkan pemangkasan berbasis pola pohon untuk aturan ResolveWindowTime
- [SPARK-41732] [SC-119157][SQL][SS] Menerapkan pemangkasan berbasis pola pohon untuk aturan SessionWindowing
- [SPARK-41498] [SC-119018] Menyebarkan metadata melalui Union
- [SPARK-41731] [SC-119166][SAMBUNGKAN][PyTHON][12.X] Menerapkan pengakses kolom
-
[SPARK-41736] [SC-119161][SAMBUNGKAN][PyTHON]
pyspark_types_to_proto_types
harus mendukungArrayType
-
[SPARK-41473] [SC-119092][SAMBUNGKAN][PyTHON] Menerapkan
format_number
fungsi - [SPARK-41707] [SC-119141][SAMBUNGKAN][12.X] Menerapkan API Katalog di Spark Connect
-
[SPARK-41710] [SC-119062][SAMBUNGKAN][PyTHON] Alat
Column.between
- [SPARK-41235] [SC-119088][SQL][PyTHON]Fungsi urutan tinggi: implementasi array_compact
-
[SPARK-41518] [SC-118453][SQL] Menetapkan nama ke kelas kesalahan
_LEGACY_ERROR_TEMP_2422
-
[SPARK-41723] [SC-119091][SAMBUNGKAN][PyTHON] Menerapkan
sequence
fungsi - [SPARK-41703] [SC-119060][SAMBUNGKAN][PyTHON] Menggabungkan NullType dan typed_null dalam Literal
- [SPARK-41722] [SC-119090][SAMBUNGKAN][PyTHON] Menerapkan 3 fungsi jendela waktu yang hilang
- [SPARK-41503] [SC-119043][SAMBUNGKAN][PyTHON] Menerapkan Fungsi Transformasi Partisi
- [SPARK-41413] [SC-118968][SQL] Hindari pengacakan di Storage-Partitioned Join saat kunci partisi tidak cocok, tetapi ekspresi gabungan kompatibel
-
[SPARK-41700] [SC-119046][SAMBUNGKAN][PyTHON] Buka
FunctionBuilder
-
[SPARK-41706] [SC-119094][SAMBUNGKAN][PyTHON]
pyspark_types_to_proto_types
harus mendukungMapType
- [SPARK-41702] [SC-119049][SAMBUNGKAN][PyTHON] Menambahkan ops kolom yang tidak valid
- [SPARK-41660] [SC-118866][SQL] Hanya sebarkan kolom metadata jika digunakan
- [SPARK-41637] [SC-119003][SQL] ORDER BY ALL
- [SPARK-41513] [SC-118945][SQL] Menerapkan akumulator untuk mengumpulkan metrik jumlah baris per pemeta
- [SPARK-41647] [SC-119064][SAMBUNGKAN][12.X] Deduplikasi docstring di pyspark.sql.connect.functions
-
[SPARK-41701] [SC-119048][SAMBUNGKAN][PyTHON] Membuat dukungan operasi kolom
decimal
-
[SPARK-41383] [SC-119015][SPARK-41692][SPARK-41693] Menerapkan
rollup
,cube
danpivot
- [SPARK-41635] [SC-118944][SQL] GROUP BY ALL
- [SPARK-41645] [SC-119057][SAMBUNGKAN][12.X] Deduplikasi docstring di pyspark.sql.connect.dataframe
- [SPARK-41688] [SC-118951][SAMBUNGKAN][PyTHON] Pindahkan Ekspresi ke expressions.py
- [SPARK-41687] [SC-118949][SAMBUNGKAN] Deduplikasi docstring di pyspark.sql.connect.group
- [SPARK-41649] [SC-118950][SAMBUNGKAN] Deduplikasi docstring di pyspark.sql.connect.window
- [SPARK-41681] [SC-118939][SAMBUNGKAN] Factor GroupedData keluar ke group.py
-
[SPARK-41292] [SC-119038][SPARK-41640][SPARK-41641][SAMBUNGKAN][PyTHON][12.X] Menerapkan
Window
fungsi -
[SPARK-41675] [SC-119031][SC-118934][SAMBUNGKAN][PyTHON][12.X] Membuat dukungan Column op
datetime
- [SPARK-41672] [SC-118929][SAMBUNGKAN][PyTHON] Mengaktifkan fungsi yang tidak digunakan lagi
-
[SPARK-41673] [SC-118932][SAMBUNGKAN][PyTHON] Alat
Column.astype
-
[SPARK-41364] [SC-118865][SAMBUNGKAN][PyTHON] Menerapkan
broadcast
fungsi - [SPARK-41648] [SC-118914][SAMBUNGKAN][12.X] Deduplikasi docstring di pyspark.sql.connect.readwriter
- [SPARK-41646] [SC-118915][SAMBUNGKAN][12.X] Deduplikasi docstring di pyspark.sql.connect.session
- [SPARK-41643] [SC-118862][SAMBUNGKAN][12.X] Deduplikasi docstring di pyspark.sql.connect.column
- [SPARK-41663] [SC-118936][SAMBUNGKAN][PyTHON][12.X] Menerapkan fungsi Lambda lainnya
- [SPARK-41441] [SC-118557][SQL] Dukungan Hasilkan tanpa output anak yang diperlukan untuk menghosting referensi luar
- [SPARK-41669] [SC-118923][SQL] Pemangkasan awal di canCollapseExpressions
- [SPARK-41639] [SC-118927][SQL][PROTOBUF] : Hapus ScalaReflectionLock dari SchemaConverters
-
[SPARK-41464] [SC-118861][SAMBUNGKAN][PyTHON] Alat
DataFrame.to
-
[SPARK-41434] [SC-118857][SAMBUNGKAN][PyTHON] Implementasi awal
LambdaFunction
- [SPARK-41539] [SC-118802][SQL] Remap statistik dan batasan terhadap output dalam rencana logis untuk LogicalRDD
- [SPARK-41396] [SC-118786][SQL][PROTOBUF] Dukungan bidang OneOf dan pemeriksaan rekursi
- [SPARK-41528] [SC-118769][SAMBUNGKAN][12.X] Gabungkan namespace Spark Connect dan PySpark API
- [SPARK-41568] [SC-118715][SQL] Tetapkan nama ke _LEGACY_ERROR_TEMP_1236
-
[SPARK-41440] [SC-118788][SAMBUNGKAN][PyTHON] Alat
DataFrame.randomSplit
- [SPARK-41583] [SC-118718][SC-118642][SAMBUNGKAN][PROTOBUF] Tambahkan Spark Connect dan protobuf ke setup.py dengan menentukan dependensi
- [SPARK-27561] [SC-101081][12.x][SQL] Mendukung resolusi alias kolom lateral implisit pada Project
-
[SPARK-41535] [SC-118645][SQL] Atur null dengan benar untuk bidang interval kalender di
InterpretedUnsafeProjection
danInterpretedMutableProjection
- [SPARK-40687] [SC-118439][SQL] Mendukung fungsi bawaan masking data 'mask'
- [SPARK-41520] [SC-118440][SQL] Pisahkan AND_OR TreePattern untuk memisahkan AND dan OR TreePatterns
- [SPARK-41349] [SC-118668][SAMBUNGKAN][PyTHON] Menerapkan DataFrame.hint
-
[SPARK-41546] [SC-118541][SAMBUNGKAN][PyTHON]
pyspark_types_to_proto_types
harus mendukung StructType. -
[SPARK-41334] [SC-118549][SAMBUNGKAN][PyTHON] Memindahkan
SortOrder
proto dari relasi ke ekspresi - [SPARK-41387] [SC-118450][SS] Menegaskan offset akhir saat ini dari sumber data Kafka untuk Trigger.AvailableNow
-
[SPARK-41508] [SC-118445][CORE][SQL] Ganti nama
_LEGACY_ERROR_TEMP_1180
menjadiUNEXPECTED_INPUT_TYPE
dan hapus_LEGACY_ERROR_TEMP_1179
-
[SPARK-41319] [SC-118441][SAMBUNGKAN][PyTHON] Terapkan Kolom. {when, otherwise} dan Function
when
withUnresolvedFunction
- [SPARK-41541] [SC-118460][SQL] Memperbaiki panggilan ke metode anak yang salah di SQLShuffleWriteMetricsReporter.decRecordsWritten()
-
[SPARK-41453] [SC-118458][SAMBUNGKAN][PyTHON] Alat
DataFrame.subtract
- [SPARK-41248] [SC-118436][SC-118303][SQL] Tambahkan "spark.sql.json.enablePartialResults" untuk mengaktifkan/menonaktifkan hasil parsial JSON
- [SPARK-41437] Kembalikan "[SC-117601][SQL] Jangan optimalkan kueri input dua kali untuk v1 write fallback"
- [SPARK-41472] [SC-118352][SAMBUNGKAN][PyTHON] Menerapkan fungsi string/biner lainnya
-
[SPARK-41526] [SC-118355][SAMBUNGKAN][PyTHON] Alat
Column.isin
- [SPARK-32170] [SC-118384] [CORE] Tingkatkan spekulasi melalui metrik tugas tahapan.
- [SPARK-41524] [SC-118399][SS] Membedakan SQLConf dan extraOptions di StateStoreConf untuk penggunaannya di RocksDBConf
- [SPARK-41465] [SC-118381][SQL] Tetapkan nama ke kelas kesalahan _LEGACY_ERROR_TEMP_1235
- [SPARK-41511] [SC-118365][SQL] Dukungan LongToUnsafeRowMap ignoresDuplicatedKey
-
[SPARK-41409] [SC-118302][CORE][SQL] Ganti nama
_LEGACY_ERROR_TEMP_1043
menjadiWRONG_NUM_ARGS.WITHOUT_SUGGESTION
-
[SPARK-41438] [SC-118344][SAMBUNGKAN][PyTHON] Alat
DataFrame.colRegex
- [SPARK-41437] [SC-117601][SQL] Jangan optimalkan kueri input dua kali untuk fallback tulis v1
-
[SPARK-41314] [SC-117172][SQL] Menetapkan nama ke kelas kesalahan
_LEGACY_ERROR_TEMP_1094
- [SPARK-41443] [SC-118004][SQL] Tetapkan nama ke kelas kesalahan _LEGACY_ERROR_TEMP_1061
- [SPARK-41506] [SC-118241][SAMBUNGKAN][PyTHON] Refaktor LiteralExpression untuk mendukung DataType
- [SPARK-41448] [SC-118046] Membuat ID pekerjaan MR yang konsisten di FileBatchWriter dan FileFormatWriter
- [SPARK-41456] [SC-117970][SQL] Meningkatkan performa try_cast
-
[SPARK-41495] [SC-118125][SAMBUNGKAN][PyTHON] Menerapkan
collection
fungsi: P~Z - [SPARK-41478] [SC-118167][SQL] Tetapkan nama ke kelas kesalahan _LEGACY_ERROR_TEMP_1234
-
[SPARK-41406] [SC-118161][SQL] Pesan kesalahan refaktor untuk
NUM_COLUMNS_MISMATCH
membuatnya lebih umum -
[SPARK-41404] [SC-118016][SQL] Refaktor
ColumnVectorUtils#toBatch
untuk membuatColumnarBatchSuite#testRandomRows
pengujian dataType yang lebih primitif - [SPARK-41468] [SC-118044][SQL] Memperbaiki penanganan PlanExpression di EquivalentExpressions
- [SPARK-40775] [SC-118045][SQL] Memperbaiki entri deskripsi duplikat untuk pemindaian file V2
- [SPARK-41492] [SC-118042][SAMBUNGKAN][PyTHON] Menerapkan fungsi MISC
- [SPARK-41459] [SC-118005][SQL] memperbaiki output log operasi server thrift kosong
-
[SPARK-41395] [SC-117899][SQL]
InterpretedMutableProjection
harus digunakansetDecimal
untuk mengatur nilai null untuk desimal dalam baris yang tidak aman - [SPARK-41376] [SC-117840][CORE][3.3] Koreksi logika pemeriksaan Netty preferDirectBufs pada awal pelaksana
-
[SPARK-41484] [SC-118159][SC-118036][SAMBUNGKAN][PyTHON][12.x] Menerapkan
collection
fungsi: E~M -
[SPARK-41389] [SC-117426][CORE][SQL] Gunakan
WRONG_NUM_ARGS
kembali alih-alih_LEGACY_ERROR_TEMP_1044
- [SPARK-41462] [SC-117920][SQL] Jenis tanggal dan tanda waktu dapat di-cast ke TimestampNTZ
-
[SPARK-41435] [SC-117810][SQL] Ubah untuk memanggil
invalidFunctionArgumentsError
curdate()
kapanexpressions
tidak kosong - [SPARK-41187] [SC-118030][CORE] Memori LiveExecutorLeak di AppStatusListener saat ExecutorLost terjadi
- [SPARK-41360] [SC-118083][CORE] Hindari pendaftaran ulang BlockManager jika pelaksana telah hilang
- [SPARK-41378] [SC-117686][SQL] Statistik Kolom Dukungan di DS v2
- [SPARK-41402] [SC-117910][SQL][SAMBUNGKAN][12.X] Mengambil alih prettyName dari StringDecode
- [SPARK-41414] [SC-118041][SAMBUNGKAN][PyTHON][12.x] Menerapkan fungsi tanggal/tanda waktu
- [SPARK-41329] [SC-117975][SAMBUNGKAN] Mengatasi impor melingkar di Spark Connect
- [SPARK-41477] [SC-118025][SAMBUNGKAN][PyTHON] Menyimpulkan dengan benar jenis data bilangan bulat harfiah
-
[SPARK-41446] [SC-118024][SAMBUNGKAN][PyTHON][12.x] Membuat
createDataFrame
skema dukungan dan jenis himpunan data input lainnya - [SPARK-41475] [SC-117997][SAMBUNGKAN] Memperbaiki kesalahan perintah lint-scala dan kesalahan ketik
- [SPARK-38277] [SC-117799][SS] Hapus batch tulis setelah penerapan penyimpanan status RocksDB
- [SPARK-41375] [SC-117801][SS] Hindari KafkaSourceOffset terbaru yang kosong
-
[SPARK-41412] [SC-118015][SAMBUNGKAN] Alat
Column.cast
-
[SPARK-41439] [SC-117893][SAMBUNGKAN][PyTHON] Menerapkan
DataFrame.melt
danDataFrame.unpivot
- [SPARK-41399] [SC-118007][SC-117474][SAMBUNGKAN] Merefaktor pengujian terkait kolom ke test_connect_column
- [SPARK-41351] [SC-117957][SC-117412][SAMBUNGKAN][12.x] Kolom harus mendukung operator !=
- [SPARK-40697] [SC-117806][SC-112787][SQL] Menambahkan padding karakter sisi baca untuk mencakup file data eksternal
- [SPARK-41349] [SC-117594][SAMBUNGKAN][12.X] Menerapkan DataFrame.hint
- [SPARK-41338] [SC-117170][SQL] Mengatasi referensi luar dan kolom normal dalam batch penganalisis yang sama
-
[SPARK-41436] [SC-117805][SAMBUNGKAN][PyTHON] Menerapkan
collection
fungsi: A~C - [SPARK-41445] [SC-117802][SAMBUNGKAN] Menerapkan DataFrameReader.parquet
-
[SPARK-41452] [SC-117865][SQL]
to_char
harus mengembalikan null ketika format null - [SPARK-41444] [SC-117796][SAMBUNGKAN] Dukungan read.json()
- [SPARK-41398] [SC-117508][SQL] Melonggarkan batasan pada Storage-Partitioned Join saat kunci partisi setelah pemfilteran runtime tidak cocok
-
[SPARK-41228] [SC-117169][SQL] Ganti nama & Tingkatkan pesan kesalahan untuk
COLUMN_NOT_IN_GROUP_BY_CLAUSE
. -
[SPARK-41381] [SC-117593][SAMBUNGKAN][PyTHON] Menerapkan
count_distinct
dansum_distinct
fungsi - [SPARK-41433] [SC-117596][SAMBUNGKAN] Membuat Ukuran Batch Panah Maks dapat dikonfigurasi
- [SPARK-41397] [SC-117590][SAMBUNGKAN][PyTHON] Menerapkan bagian dari fungsi string/biner
-
[SPARK-41382] [SC-117588][SAMBUNGKAN][PyTHON] Menerapkan
product
fungsi -
[SPARK-41403] [SC-117595][SAMBUNGKAN][PyTHON] Alat
DataFrame.describe
- [SPARK-41366] [SC-117580][SAMBUNGKAN] DF.groupby.agg() harus kompatibel
- [SPARK-41369] [SC-117584][SAMBUNGKAN] Menambahkan sambungkan umum ke jar berbayang server
- [SPARK-41411] [SC-117562][SS] Marka air Operator Multi-Stateful mendukung perbaikan bug
- [SPARK-41176] [SC-116630][SQL] Tetapkan nama ke kelas kesalahan _LEGACY_ERROR_TEMP_1042
- [SPARK-41380] [SC-117476][SAMBUNGKAN][PyTHON][12.X] Menerapkan fungsi agregasi
- [SPARK-41363] [SC-117470][SAMBUNGKAN][PyTHON][12.X] Menerapkan fungsi normal
- [SPARK-41305] [SC-117411][SAMBUNGKAN] Meningkatkan Dokumentasi untuk Proto Perintah
- [SPARK-41372] [SC-117427][SAMBUNGKAN][PyTHON] Menerapkan DataFrame TempView
- [SPARK-41379] [SC-117420][SS][PyTHON] Menyediakan sesi spark kloning di DataFrame dalam fungsi pengguna untuk sink foreachBatch di PySpark
- [SPARK-41373] [SC-117405][SQL][KESALAHAN] Ganti nama CAST_WITH_FUN_SUGGESTION menjadi CAST_WITH_FUNC_SUGGESTION
-
[SPARK-41358] [SC-117417][SQL] Metode refaktor
ColumnVectorUtils#populate
untuk digunakanPhysicalDataType
alih-alihDataType
- [SPARK-41355] [SC-117423][SQL] Penanganan masalah validasi nama tabel apache hive
-
[SPARK-41390] [SC-117429][SQL] Memperbarui skrip yang digunakan untuk menghasilkan
register
fungsi diUDFRegistration
-
[SPARK-41206] [SC-117233][SC-116381][SQL] Ganti nama kelas
_LEGACY_ERROR_TEMP_1233
kesalahan menjadiCOLUMN_ALREADY_EXISTS
- [SPARK-41357] [SC-117310][SAMBUNGKAN][PyTHON][12.X] Menerapkan fungsi matematika
- [SPARK-40970] [SC-117308][SAMBUNGKAN][PyTHON] Daftar Dukungan[Kolom] untuk argumen On Join
- [SPARK-41345] [SC-117178][SAMBUNGKAN] Tambahkan Petunjuk untuk Menyambungkan Proto
- [SPARK-41226] [SC-117194][SQL][12.x] Refaktor jenis Spark dengan memperkenalkan jenis fisik
- [SPARK-41317] [SC-116902][SAMBUNGKAN][PyTHON][12.X] Menambahkan dukungan dasar untuk DataFrameWriter
- [SPARK-41347] [SC-117173][SAMBUNGKAN] Menambahkan cast ke ekspresi proto
- [SPARK-41323] [SC-117128][SQL] Current_schema Dukungan
- [SPARK-41339] [SC-117171][SQL] Tutup dan buat ulang batch tulis RocksDB alih-alih hanya membersihkan
- [SPARK-41227] [SC-117165][SAMBUNGKAN][PyTHON] Menerapkan gabungan silang DataFrame
-
[SPARK-41346] [SC-117176][SAMBUNGKAN][PyTHON] Menerapkan
asc
dandesc
fungsi - [SPARK-41343] [SC-117166][SAMBUNGKAN] Memindahkan penguraian FunctionName ke sisi server
- [SPARK-41321] [SC-117163][SAMBUNGKAN] Bidang target dukungan untuk UnresolvedStar
-
[SPARK-41237] [SC-117167][SQL] Gunakan kembali kelas
UNSUPPORTED_DATATYPE
kesalahan untuk_LEGACY_ERROR_TEMP_0030
-
[SPARK-41309] [SC-116916][SQL] Gunakan
INVALID_SCHEMA.NON_STRING_LITERAL
kembali alih-alih_LEGACY_ERROR_TEMP_1093
-
[SPARK-41276] [SC-117136][SQL][ML][MLLIB][PROTOBUF][PyTHON][R][SS][AVRO] Mengoptimalkan penggunaan konstruktor
StructType
- [SPARK-41335] [SC-117135][SAMBUNGKAN][PyTHON] Mendukung IsNull dan IsNotNull di Kolom
-
[SPARK-41332] [SC-117131][SAMBUNGKAN][PyTHON] Perbaiki
nullOrdering
diSortOrder
- [SPARK-41325] [SC-117132][SAMBUNGKAN][12.X] Memperbaiki avg() yang hilang untuk GroupBy di DF
-
[SPARK-41327] [SC-117137][CORE] Perbaiki
SparkStatusTracker.getExecutorInfos
dengan mengaktifkan/OffHeapStorageMemory info -
[SPARK-41315] [SC-117129][SAMBUNGKAN][PyTHON] Menerapkan
DataFrame.replace
danDataFrame.na.replace
- [SPARK-41328] [SC-117125][SAMBUNGKAN][PyTHON] Menambahkan API logis dan string ke Kolom
-
[SPARK-41331] [SC-117127][SAMBUNGKAN][PyTHON] Tambahkan
orderBy
dandrop_duplicates
-
[SPARK-40987] [SC-117124][CORE]
BlockManager#removeBlockInternal
harus memastikan kunci tidak terkunci dengan baik - [SPARK-41268] [SC-117102][SC-116970][SAMBUNGKAN][PyTHON] Refaktor "Kolom" untuk Kompatibilitas API
- [SPARK-41312] [SC-116881][SAMBUNGKAN][PyTHON][12.X] Menerapkan DataFrame.withColumnRenamed
-
[SPARK-41221] [SC-116607][SQL] Menambahkan kelas kesalahan
INVALID_FORMAT
- [SPARK-41272] [SC-116742][SQL] Tetapkan nama ke kelas kesalahan _LEGACY_ERROR_TEMP_2019
-
[SPARK-41180] [SC-116760][SQL] Gunakan
INVALID_SCHEMA
kembali alih-alih_LEGACY_ERROR_TEMP_1227
- [SPARK-41260] [SC-116880][PyTHON][SS][12.X] Transmisikan instans NumPy ke jenis primitif Python dalam pembaruan GroupState
-
[SPARK-41174] [SC-116609][CORE][SQL] Menyebarkan kelas kesalahan kepada pengguna untuk tidak valid
format
to_binary()
- [SPARK-41264] [SC-116971][SAMBUNGKAN][PyTHON] Membuat dukungan Literal lebih banyak jenis data
- [SPARK-41326] [SC-116972] [SAMBUNGKAN] Memperbaiki deduplikasi kehilangan input
- [SPARK-41316] [SC-116900][SQL] Mengaktifkan rekursi ekor sedapat mungkin
- [SPARK-41297] [SC-116931] [SAMBUNGKAN] [PyTHON] Mendukung Ekspresi String dalam filter.
- [SPARK-41256] [SC-116932][SC-116883][SAMBUNGKAN] Menerapkan DataFrame.withColumn
- [SPARK-41182] [SC-116632][SQL] Tetapkan nama ke kelas kesalahan _LEGACY_ERROR_TEMP_1102
- [SPARK-41181] [SC-116680][SQL] Memigrasikan kesalahan opsi peta ke kelas kesalahan
- [SPARK-40940] [SC-115993][12.x] Hapus pemeriksa operator multi-stateful untuk kueri streaming.
- [SPARK-41310] [SC-116885][SAMBUNGKAN][PyTHON] Menerapkan DataFrame.toDF
- [SPARK-41179] [SC-116631][SQL] Tetapkan nama ke kelas kesalahan _LEGACY_ERROR_TEMP_1092
- [SPARK-41003] [SC-116741][SQL] BHJ LeftAnti tidak memperbarui numOutputRows saat codegen dinonaktifkan
-
[SPARK-41148] [SC-116878][SAMBUNGKAN][PyTHON] Menerapkan
DataFrame.dropna
danDataFrame.na.drop
-
[SPARK-41217] [SC-116380][SQL] Menambahkan kelas kesalahan
FAILED_FUNCTION_CALL
- [SPARK-41308] [SC-116875][SAMBUNGKAN][PyTHON] Meningkatkan DataFrame.count()
- [SPARK-41301] [SC-116786] [SAMBUNGKAN] Homogenisasi Perilaku untuk SparkSession.range()
- [SPARK-41306] [SC-116860][SAMBUNGKAN] Meningkatkan dokumentasi proto Connect Expression
- [SPARK-41280] [SC-116733][SAMBUNGKAN] Menerapkan DataFrame.tail
- [SPARK-41300] [SC-116751] [SAMBUNGKAN] Skema yang tidak diatur ditafsirkan sebagai Skema
- [SPARK-41255] [SC-116730][SC-116695] [SAMBUNGKAN] Ganti nama RemoteSparkSession
- [SPARK-41250] [SC-116788][SC-116633][SAMBUNGKAN][PyTHON] DataFrame. toPandas tidak boleh mengembalikan dataframe panda opsional
-
[SPARK-41291] [SC-116738][SAMBUNGKAN][PyTHON]
DataFrame.explain
harus mencetak dan mengembalikan Tidak Ada - [SPARK-41278] [SC-116732][SAMBUNGKAN] Membersihkan QualifiedAttribute yang tidak digunakan di Expression.proto
- [SPARK-41097] [SC-116653][CORE][SQL][SS][PROTOBUF] Menghapus basis konversi koleksi redundan pada kode Scala 2.13
- [SPARK-41261] [SC-116718][PyTHON][SS] Memperbaiki masalah untuk applyInPandasWithState ketika kolom kunci pengelompokan tidak ditempatkan secara berurutan dari awal
- [SPARK-40872] [SC-116717][3.3] Fallback ke blok acak asli ketika potongan acak yang digabungkan dorong berukuran nol
- [SPARK-41114] [SC-116628][SAMBUNGKAN] Mendukung data lokal untuk LocalRelation
-
[SPARK-41216] [SC-116678][SAMBUNGKAN][PyTHON] Alat
DataFrame.{isLocal, isStreaming, printSchema, inputFiles}
- [SPARK-41238] [SC-116670][SAMBUNGKAN][PyTHON] Mendukung lebih banyak jenis data bawaan
-
[SPARK-41230] [SC-116674][SAMBUNGKAN][PyTHON] Hapus
str
dari jenis ekspresi agregat - [SPARK-41224] [SC-116652][SPARK-41165][SPARK-41184][SAMBUNGKAN] Implementasi pengumpulan berbasis Panah yang Dioptimalkan untuk mengalirkan dari server ke klien
- [SPARK-41222] [SC-116625][SAMBUNGKAN][PyTHON] Menyatukan definisi pengetikan
- [SPARK-41225] [SC-116623] [SAMBUNGKAN] [PyTHON] Nonaktifkan fungsi yang tidak didukung.
-
[SPARK-41201] [SC-116526][SAMBUNGKAN][PyTHON] Menerapkan
DataFrame.SelectExpr
di klien Python - [SPARK-41203] [SC-116258] [SAMBUNGKAN] Mendukung Dataframe.tansform di klien Python.
-
[SPARK-41213] [SC-116375][SAMBUNGKAN][PyTHON] Menerapkan
DataFrame.__repr__
danDataFrame.dtypes
-
[SPARK-41169] [SC-116378][SAMBUNGKAN][PyTHON] Alat
DataFrame.drop
- [SPARK-41172] [SC-116245][SQL] Memigrasikan kesalahan ref ambigu ke kelas kesalahan
- [SPARK-41122] [SC-116141][SAMBUNGKAN] Menjelaskan API dapat mendukung mode yang berbeda
- [SPARK-41209] [SC-116584][SC-116376][PyTHON] Meningkatkan inferensi jenis PySpark dalam metode _merge_type
- [SPARK-41196] [SC-116555][SC-116179] [SAMBUNGKAN] Homogenisasi versi protobuf di seluruh server Spark connect untuk menggunakan versi utama yang sama.
- [SPARK-35531] [SC-116409][SQL] Memperbarui statistik tabel apache hive tanpa konversi yang tidak perlu
- [SPARK-41154] [SC-116289][SQL] Penembolokan relasi yang salah untuk kueri dengan spesifikasi perjalanan waktu
-
[SPARK-41212] [SC-116554][SC-116389][SAMBUNGKAN][PyTHON] Alat
DataFrame.isEmpty
-
[SPARK-41135] [SC-116400][SQL] Ganti nama
UNSUPPORTED_EMPTY_LOCATION
menjadiINVALID_EMPTY_LOCATION
- [SPARK-41183] [SC-116265][SQL] Menambahkan API ekstensi untuk melakukan normalisasi rencana untuk penembolokan
- [SPARK-41054] [SC-116447][UI][CORE] Mendukung RocksDB sebagai KVStore di antarmuka pengguna langsung
- [SPARK-38550] [SC-115223]Kembalikan "[SQL][CORE] Gunakan penyimpanan berbasis disk untuk menyimpan lebih banyak informasi debug untuk antarmuka pengguna langsung"
-
[SPARK-41173] [SC-116185][SQL] Pindah
require()
dari konstruktor ekspresi string - [SPARK-41188] [SC-116242][CORE][ML] Atur executorEnv OMP_NUM_THREADS menjadi spark.task.cpus secara default untuk proses JVM pelaksana spark
-
[SPARK-41130] [SC-116155][SQL] Ganti nama
OUT_OF_DECIMAL_TYPE_RANGE
menjadiNUMERIC_OUT_OF_SUPPORTED_RANGE
- [SPARK-41175] [SC-116238][SQL] Tetapkan nama ke kelas kesalahan _LEGACY_ERROR_TEMP_1078
- [SPARK-41106] [SC-116073][SQL] Mengurangi konversi koleksi saat membuat AttributeMap
-
[SPARK-41139] [SC-115983][SQL] Tingkatkan kelas kesalahan:
PYTHON_UDF_IN_ON_CLAUSE
- [SPARK-40657] [SC-115997][PROTOBUF] Memerlukan bayangan untuk jar kelas Java, meningkatkan penanganan kesalahan
- [SPARK-40999] [SC-116168] Penyebaran petunjuk ke subkueri
- [SPARK-41017] [SC-116054][SQL] Pemangkasan kolom dukungan dengan beberapa Filter nondeterministik
- [SPARK-40834] [SC-114773][SQL] Menggunakan SparkListenerSQLExecutionEnd untuk melacak status SQL akhir di UI
-
[SPARK-41118] [SC-116027][SQL]
to_number
/try_to_number
harus kembalinull
ketika format adalahnull
- [SPARK-39799] [SC-115984][SQL] DataSourceV2: Menampilkan antarmuka katalog
- [SPARK-40665] [SC-116210][SC-112300][SAMBUNGKAN] Hindari menyematkan Spark Connect di rilis biner Apache Spark
- [SPARK-41048] [SC-116043][SQL] Meningkatkan partisi dan pengurutan output dengan cache AQE
- [SPARK-41198] [SC-116256][SS] Memperbaiki metrik dalam kueri streaming yang memiliki sumber streaming CTE dan DSv1
- [SPARK-41199] [SC-116244][SS] Memperbaiki masalah metrik saat sumber streaming DSv1 dan sumber streaming DSv2 digunakan bersama
- [SPARK-40957] [SC-116261][SC-114706] Menambahkan cache memori di HDFSMetadataLog
- [SPARK-40940] Kembalikan "[SC-115993] Hapus pemeriksa operator Multi-stateful untuk kueri streaming."
-
[SPARK-41090] [SC-116040][SQL] Lempar Pengecualian untuk
db_name.view_name
saat membuat tampilan sementara oleh API Himpunan Data -
[SPARK-41133] [SC-116085][SQL] Mengintegrasikan
UNSCALED_VALUE_TOO_LARGE_FOR_PRECISION
ke dalamNUMERIC_VALUE_OUT_OF_RANGE
- [SPARK-40557] [SC-116182][SC-111442][SAMBUNGKAN] Penerapan Code Dump 9
- [SPARK-40448] [SC-114447][SC-111314][SAMBUNGKAN] Build Spark Connect sebagai Plugin Driver dengan Dependensi Berbayang
- [SPARK-41096] [SC-115812][SQL] Mendukung pembacaan jenis FIXED_LEN_BYTE_ARRAY parkquet
-
[SPARK-41140] [SC-115879][SQL] Ganti nama kelas
_LEGACY_ERROR_TEMP_2440
kesalahan menjadiINVALID_WHERE_CONDITION
- [SPARK-40918] [SC-114438][SQL] Ketidakcocokan antara FileSourceScanExec dan Orc dan ParquetFileFormat tentang menghasilkan output kolom
- [SPARK-41155] [SC-115991][SQL] Menambahkan pesan kesalahan ke SchemaColumnConvertNotSupportedException
- [SPARK-40940] [SC-115993] Hapus pemeriksa operator multi-stateful untuk kueri streaming.
-
[SPARK-41098] [SC-115790][SQL] Ganti nama
GROUP_BY_POS_REFERS_AGG_EXPR
menjadiGROUP_BY_POS_AGGREGATE
- [SPARK-40755] [SC-115912][SQL] Migrasikan kegagalan pemeriksaan jenis pemformatan angka ke kelas kesalahan
-
[SPARK-41059] [SC-115658][SQL] Ganti nama
_LEGACY_ERROR_TEMP_2420
menjadiNESTED_AGGREGATE_FUNCTION
- [SPARK-41044] [SC-115662][SQL] Konversi DATATYPE_MISMATCH. UNSPECIFIED_FRAME ke INTERNAL_ERROR
-
[SPARK-40973] [SC-115132][SQL] Ganti nama
_LEGACY_ERROR_TEMP_0055
menjadiUNCLOSED_BRACKETED_COMMENT
Pembaruan pemeliharaan
Lihat Pembaruan pemeliharaan Databricks Runtime 12.1.
Lingkungan sistem
- Sistem Operasi: Ubuntu 20.04.5 LTS
- Java: Zulu 8.64.0.19-CA-linux64
- Scala: 2.12.14
- Python: 3.9.5
- R: 4.2.2
- Danau Delta: 2.2.0
Pustaka Python yang diinstal
Pustaka | Versi | Pustaka | Versi | Pustaka | Versi |
---|---|---|---|---|---|
argon2-cffi | 21.3.0 | argon2-cffi-bindings | 21.2.0 | asttoken | 2.0.5 |
attrs | 21.4.0 | backcall | 0.2.0 | backports.entry-points-selectable | 1.2.0 |
beautifulsoup4 | 4.11.1 | hitam | 22.3.0 | pemutih | 4.1.0 |
boto3 | 1.21.32 | botocore | 1.24.32 | certifi | 2021.10.8 |
cffi | 1.15.0 | chardet | 4.0.0 | charset-normalizer | 2.0.4 |
klik | 8.0.4 | cryptography | 3.4.8 | cycler | 0.11.0 |
Cython | 0.29.28 | dbus-python | 1.2.16 | debugpy | 1.5.1 |
decorator | 5.1.1 | defusedxml | 0.7.1 | distlib | 0.3.6 |
docstring-to-markdown | 0.11 | titik masuk | 0,4 | menjalankan | 0.8.3 |
facets-overview | 1.0.0 | fastjsonschema | 2.16.2 | filelock | 3.8.2 |
fonttools | 4.25.0 | idna | 3.3 | ipykernel | 6.15.3 |
ipython | 8.5.0 | ipython-genutils | 0.2.0 | ipywidgets | 7.7.2 |
jedi | 0.18.1 | Jinja2 | 2.11.3 | jmespath | 0.10.0 |
joblib | 1.1.0 | jsonschema | 4.4.0 | jupyter-client | 6.1.12 |
jupyter_core | 4.11.2 | jupyterlab-pygments | 0.1.2 | jupyterlab-widgets | 1.0.0 |
kiwisolver | 1.3.2 | MarkupSafe | 2.0.1 | matplotlib | 3.5.1 |
matplotlib-inline | 0.1.2 | Mccabe | 0.7.0 | mistune | 0.8.4 |
ekstensi mypy | 0.4.3 | nbclient | 0.5.13 | nbconvert | 6.4.4 |
nbformat | 5.3.0 | nest-asyncio | 1.5.5 | nodeenv | 1.7.0 |
buku catatan | 6.4.8 | numpy | 1.21.5 | packaging | 21.3 |
pandas | 1.4.2 | pandocfilters | 1.5.0 | parso | 0.8.3 |
pathspec | 0.9.0 | patsy | 0.5.2 | pexpect=4.8.0 | 4.8.0 |
pickleshare | 0.7.5 | Pillow | 9.0.1 | pip | 21.2.4 |
platformdir | 2.6.0 | plotly | 5.6.0 | pluggy | 1.0.0 |
prometheus-client | 0.13.1 | prompt-toolkit | 3.0.20 | protobuf | 3.19.4 |
psutil | 5.8.0 | psycopg2 | 2.9.3 | ptyprocess | 0.7.0 |
pure-eval | 0.2.2 | pyarrow | 7.0.0 | pycparser | 2.21 |
pyflakes | 2.5.0 | Pygments | 2.11.2 | PyGObject | 3.36.0 |
pyodbc | 4.0.32 | pyparsing | 3.0.4 | pyright | 1.1.283 |
pyrsistent | 0.18.0 | python-dateutil | 2.8.2 | python-lsp-jsonrpc | 1.0.0 |
python-lsp-server | 1.6.0 | pytz | 2021.3 | pyzmq | 22.3.0 |
permintaan | 2.27.1 | requests-unixsocket | 0.2.0 | tali | 0.22.0 |
s3transfer | 0.5.0 | scikit-learn | 1.0.2 | scipy | 1.7.3 |
seaborn | 0.11.2 | Send2Trash | 1.8.0 | setuptools | 61.2.0 |
six | 1.16.0 | soupsieve | 2.3.1 | ssh-import-id | 5.10 |
stack-data | 0.2.0 | statsmodels | 0.13.2 | tenacity | 8.0.1 |
terminado | 0.13.1 | testpath | 0.5.0 | threadpoolctl | 2.2.0 |
tokenize-rt | 4.2.1 | tomli | 1.2.2 | tornado | 6.1 |
traitlets=5.0.5 | 5.1.1 | typing_extensions | 4.1.1 | ujson | 5.1.0 |
unattended-upgrades | 0.1 | urllib3 | 1.26.9 | virtualenv | 20.8.0 |
wcwidth | 0.2.5 | webencodings=0.5.1 | 0.5.1 | whatthepatch | 1.0.3 |
wheel | 0.37.0 | widgetsnbextension | 3.6.1 | yapf | 0.31.0 |
Pustaka R yang diinstal
Pustaka R diinstal dari rekam jepret Microsoft CRAN pada 2022-11-11.
Pustaka | Versi | Pustaka | Versi | Pustaka | Versi |
---|---|---|---|---|---|
anak panah | 10.0.0 | askpass | 1.1 | assertthat | 0.2.1 |
backports | 1.4.1 | dasar | 4.2.2 | base64enc | 0.1-3 |
bit | 4.0.4 | bit64 | 4.0.5 | blob | 1.2.3 |
boot | 1.3-28 | brew | 1,0-8 | brio | 1.1.3 |
broom | 1.0.1 | bslib | 0.4.1 | cachem | 1.0.6 |
callr | 3.7.3 | caret | 6.0-93 | cellranger | 1.1.0 |
chron | 2.3-58 | kelas | 7.3-20 | cli | 3.4.1 |
clipr | 0.8.0 | Jam | 0.6.1 | klaster | 2.1.4 |
codetools | 0.2-18 | colorspace | 2.0-3 | commonmark | 1.8.1 |
compiler | 4.2.2 | config | 0.3.1 | cpp11 | 0.4.3 |
crayon | 1.5.2 | informasi masuk | 1.3.2 | curl | 4.3.3 |
data.table | 1.14.4 | datasets | 4.2.2 | DBI | 1.1.3 |
dbplyr | 2.2.1 | desc | 1.4.2 | devtools | 2.4.5 |
diffobj | 0.3.5 | digest | 0.6.30 | downlit | 0.4.2 |
dplyr | 1.0.10 | dtplyr | 1.2.2 | e1071 | 1.7-12 |
ellipsis | 0.3.2 | evaluate | 0,18 | fansi | 1.0.3 |
farver | 2.1.1 | fastmap | 1.1.0 | fontawesome | 0.4.0 |
forcats | 0.5.2 | foreach | 1.5.2 | foreign | 0.8-82 |
forge | 0.2.0 | fs | 1.5.2 | future | 1.29.0 |
future.apply | 1.10.0 | gargle | 1.2.1 | generics | 0.1.3 |
Gert | 1.9.1 | ggplot2 | 3.4.0 | GH | 1.3.1 |
gitcreds | 0.1.2 | glmnet | 4.1-4 | globals | 0.16.1 |
glue | 1.6.2 | googledrive | 2.0.0 | googlesheets4 | 1.0.1 |
gower | 1.0.0 | graphics | 4.2.2 | grDevices | 4.2.2 |
grid | 4.2.2 | gridExtra | 2.3 | gsubfn | 0,7 |
gtable | 0.3.1 | hardhat | 1.2.0 | haven | 2.5.1 |
highr | 0,9 | hms | 1.1.2 | htmltools | 0.5.3 |
htmlwidgets | 1.5.4 | httpuv | 1.6.6 | httr | 1.4.4 |
ids | 1.0.1 | ini | 0.3.1 | ipred | 0.9-13 |
isoband | 0.2.6 | iterators | 1.0.14 | jquerylib | 0.1.4 |
jsonlite | 1.8.3 | KernSmooth | 2.23-20 | knitr | 1.40 |
labeling | 0.4.2 | later | 1.3.0 | lattice | 0.20-45 |
lava | 1.7.0 | lifecycle | 1.0.3 | listenv | 0.8.0 |
lubridate | 1.9.0 | magrittr | 2.0.3 | markdown | 1.3 |
MASS | 7.3-58 | Matrix | 1.5-1 | memoise | 2.0.1 |
methods | 4.2.2 | mgcv | 1.8-41 | mime | 0.12 |
miniUI | 0.1.1.1 | ModelMetrics | 1.2.2.2 | modelr | 0.1.9 |
munsell | 0.5.0 | nlme | 3.1-160 | nnet | 7.3-18 |
numDeriv | 2016.8-1.1 | openssl | 2.0.4 | parallel | 4.2.2 |
parallelly | 1.32.1 | pillar | 1.8.1 | pkgbuild | 1.3.1 |
pkgconfig | 2.0.3 | pkgdown | 2.0.6 | pkgload | 1.3.1 |
plogr | 0.2.0 | plyr | 1.8.7 | praise | 1.0.0 |
prettyunits | 1.1.1 | pROC | 1.18.0 | processx | 3.8.0 |
prodlim | 2019.11.13 | profvis | 0.3.7 | kemajuan | 1.2.2 |
progressr | 0.11.0 | promises | 1.2.0.1 | proto | 1.0.0 |
proksi | 0.4-27 | ps | 1.7.2 | purrr | 0.3.5 |
r2d3 | 0.2.6 | R6 | 2.5.1 | ragg | 1.2.4 |
randomForest | 4.7-1.1 | rappdirs | 0.3.3 | rcmdcheck | 1.4.0 |
RColorBrewer | 1.1-3 | Rcpp | 1.0.9 | RcppEigen | 0.3.3.9.3 |
readr | 2.1.3 | readxl | 1.4.1 | recipes | 1.0.3 |
rematch | 1.0.1 | rematch2 | 2.1.2 | remotes | 2.4.2 |
reprex | 2.0.2 | reshape2 | 1.4.4 | rlang | 1.0.6 |
rmarkdown | 2,18 | RODBC | 1.3-19 | roxygen2 | 7.2.1 |
rpart | 4.1.19 | rprojroot | 2.0.3 | Rserve | 1.8-11 |
RSQLite | 2.2.18 | rstudioapi | 0.14 | rversions | 2.1.2 |
rvest | 1.0.3 | sass | 0.4.2 | scales | 1.2.1 |
selectr | 0.4-2 | sessioninfo | 1.2.2 | bentuk | 1.4.6 |
shiny | 1.7.3 | sourcetools | 0.1.7 | sparklyr | 1.7.8 |
SparkR | 3.3.1 | spatial | 7.3-11 | splines | 4.2.2 |
sqldf | 0.4-11 | SQUAREM | 2021.1 | stats | 4.2.2 |
stats4 | 4.2.2 | stringi | 1.7.8 | stringr | 1.4.1 |
survival | 3.4-0 | sys | 3.4.1 | systemfonts | 1.0.4 |
tcltk | 4.2.2 | testthat | 3.1.5 | pembahasan teks | 0.3.6 |
tibble | 3.1.8 | tidyr | 1.2.1 | tidyselect | 1.2.0 |
tidyverse | 1.3.2 | pertukaran waktu | 0.1.1 | timeDate | 4021.106 |
tinytex | 0,42 | alat | 4.2.2 | tzdb | 0.3.0 |
urlchecker | 1.0.1 | usethis | 2.1.6 | utf8 | 1.2.2 |
utils | 4.2.2 | uuid | 1.1-0 | vctrs | 0.5.0 |
viridisLite | 0.4.1 | vroom | 1.6.0 | waldo | 0.4.0 |
whisker | 0,4 | withr | 2.5.0 | xfun | 0.34 |
xml2 | 1.3.3 | xopen | 1.0.0 | xtable | 1.8-4 |
yaml | 2.3.6 | zip | 2.2.2 |
Pustaka Java dan Scala yang diinstal (versi kluster Scala 2.12)
ID Grup | ID Artefak | Versi |
---|---|---|
antlr | antlr | 2.7.7 |
com.amazonaws | amazon-kinesis-client | 1.12.0 |
com.amazonaws | aws-java-sdk-autoscaling | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudformation | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudfront | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudhsm | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudsearch | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudtrail | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudwatch | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.189 |
com.amazonaws | aws-java-sdk-codedeploy | 1.12.189 |
com.amazonaws | aws-java-sdk-cognitoidentity | 1.12.189 |
com.amazonaws | aws-java-sdk-cognitosync | 1.12.189 |
com.amazonaws | aws-java-sdk-config | 1.12.189 |
com.amazonaws | aws-java-sdk-core | 1.12.189 |
com.amazonaws | aws-java-sdk-datapipeline | 1.12.189 |
com.amazonaws | aws-java-sdk-directconnect | 1.12.189 |
com.amazonaws | aws-java-sdk-directory | 1.12.189 |
com.amazonaws | aws-java-sdk-dynamodb | 1.12.189 |
com.amazonaws | aws-java-sdk-ec2 | 1.12.189 |
com.amazonaws | aws-java-sdk-ecs | 1.12.189 |
com.amazonaws | aws-java-sdk-efs | 1.12.189 |
com.amazonaws | aws-java-sdk-elasticache | 1.12.189 |
com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.12.189 |
com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.12.189 |
com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.189 |
com.amazonaws | aws-java-sdk-emr | 1.12.189 |
com.amazonaws | aws-java-sdk-glacier | 1.12.189 |
com.amazonaws | aws-java-sdk-glue | 1.12.189 |
com.amazonaws | aws-java-sdk-iam | 1.12.189 |
com.amazonaws | aws-java-sdk-importexport | 1.12.189 |
com.amazonaws | aws-java-sdk-kinesis | 1.12.189 |
com.amazonaws | aws-java-sdk-kms | 1.12.189 |
com.amazonaws | aws-java-sdk-lambda | 1.12.189 |
com.amazonaws | aws-java-sdk-logs | 1.12.189 |
com.amazonaws | aws-java-sdk-machinelearning | 1.12.189 |
com.amazonaws | aws-java-sdk-opsworks | 1.12.189 |
com.amazonaws | aws-java-sdk-rds | 1.12.189 |
com.amazonaws | aws-java-sdk-redshift | 1.12.189 |
com.amazonaws | aws-java-sdk-route53 | 1.12.189 |
com.amazonaws | aws-java-sdk-s3 | 1.12.189 |
com.amazonaws | aws-java-sdk-ses | 1.12.189 |
com.amazonaws | aws-java-sdk-simpledb | 1.12.189 |
com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.189 |
com.amazonaws | aws-java-sdk-sns | 1.12.189 |
com.amazonaws | aws-java-sdk-sqs | 1.12.189 |
com.amazonaws | aws-java-sdk-ssm | 1.12.189 |
com.amazonaws | aws-java-sdk-storagegateway | 1.12.189 |
com.amazonaws | aws-java-sdk-sts | 1.12.189 |
com.amazonaws | aws-java-sdk-support | 1.12.189 |
com.amazonaws | aws-java-sdk-swf-libraries | 1.11.22 |
com.amazonaws | aws-java-sdk-workspaces | 1.12.189 |
com.amazonaws | jmespath-java | 1.12.189 |
com.chuusai | shapeless_2.12 | 2.3.3 |
com.clearspring.analytics | stream | 2.9.6 |
com.databricks | Rserve | 1.8-3 |
com.databricks | jets3t | 0.7.1-0 |
com.databricks.scalapb | compilerplugin_2.12 | 0.4.15-10 |
com.databricks.scalapb | scalapb-runtime_2.12 | 0.4.15-10 |
com.esotericsoftware | kryo-shaded | 4.0.2 |
com.esotericsoftware | minlog | 1.3.0 |
com.fasterxml | classmate | 1.3.4 |
com.fasterxml.jackson.core | jackson-annotations | 2.13.4 |
com.fasterxml.jackson.core | jackson-core | 2.13.4 |
com.fasterxml.jackson.core | jackson-databind | 2.13.4.2 |
com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.13.4 |
com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.13.4 |
com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.13.4 |
com.fasterxml.jackson.module | jackson-module-paranamer | 2.13.4 |
com.fasterxml.jackson.module | jackson-module-scala_2.12 | 2.13.4 |
com.github.ben-manes.caffeine | caffeine | 2.3.4 |
com.github.fommil | jniloader | 1.1 |
com.github.fommil.netlib | inti | 1.1.2 |
com.github.fommil.netlib | native_ref-java | 1.1 |
com.github.fommil.netlib | native_ref-java-natives | 1.1 |
com.github.fommil.netlib | native_system-java | 1.1 |
com.github.fommil.netlib | native_system-java-natives | 1.1 |
com.github.fommil.netlib | netlib-native_ref-linux-x86_64-natives | 1.1 |
com.github.fommil.netlib | netlib-native_system-linux-x86_64-natives | 1.1 |
com.github.luben | zstd-jni | 1.5.2-1 |
com.github.wendykierp | JTransforms | 3.1 |
com.google.code.findbugs | jsr305 | 3.0.0 |
com.google.code.gson | gson | 2.8.6 |
com.google.crypto.tink | tink | 1.6.1 |
com.google.flatbuffers | flatbuffers-java | 1.12.0 |
com.google.guava | guava | 15.0 |
com.google.protobuf | protobuf-java | 2.6.1 |
com.h2database | h2 | 2.0.204 |
com.helger | profiler | 1.1.1 |
com.jcraft | jsch | 0.1.50 |
com.jolbox | bonecp | 0.8.0.RELEASE |
com.lihaoyi | sourcecode_2.12 | 0.1.9 |
com.microsoft.azure | azure-data-lake-store-sdk | 2.3.9 |
com.ning | compress-lzf | 1.1 |
com.sun.mail | javax.mail | 1.5.2 |
com.tdunning | json | 1.8 |
com.thoughtworks.paranamer | paranamer | 2.8 |
com.trueaccord.lenses | lenses_2.12 | 0.4.12 |
com.twitter | chill-java | 0.10.0 |
com.twitter | chill_2.12 | 0.10.0 |
com.twitter | util-app_2.12 | 7.1.0 |
com.twitter | util-app_2.12 | 7.1.0 |
com.twitter | util-function_2.12 | 7.1.0 |
com.twitter | util-jvm_2.12 | 7.1.0 |
com.twitter | util-lint_2.12 | 7.1.0 |
com.twitter | util-registry_2.12 | 7.1.0 |
com.twitter | util-stats_2.12 | 7.1.0 |
com.typesafe | config | 1.2.1 |
com.typesafe.scala-logging | scala-logging_2.12 | 3.7.2 |
com.uber | h3 | 3.7.0 |
com.univocity | univocity-parsers | 2.9.1 |
com.zaxxer | HikariCP | 4.0.3 |
commons-cli | commons-cli | 1.5.0 |
commons-codec | commons-codec | 1.15 |
commons-collections | commons-collections | 3.2.2 |
commons-dbcp | commons-dbcp | 1.4 |
commons-fileupload | commons-fileupload | 1.3.3 |
commons-httpclient | commons-httpclient | 3.1 |
commons-io | commons-io | 2.11.0 |
commons-lang | commons-lang | 2.6 |
commons-logging | commons-logging | 1.1.3 |
commons-pool | commons-pool | 1.5.4 |
dev.ludovic.netlib | arpack | 2.2.1 |
dev.ludovic.netlib | blas | 2.2.1 |
dev.ludovic.netlib | lapack | 2.2.1 |
info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
io.airlift | aircompressor | 0,21% |
io.delta | delta-sharing-spark_2.12 | 0.6.2 |
io.dropwizard.metrics | metrics-core | 4.1.1 |
io.dropwizard.metrics | metrics-graphite | 4.1.1 |
io.dropwizard.metrics | metrics-healthchecks | 4.1.1 |
io.dropwizard.metrics | metrics-jetty9 | 4.1.1 |
io.dropwizard.metrics | metrics-jmx | 4.1.1 |
io.dropwizard.metrics | metrics-json | 4.1.1 |
io.dropwizard.metrics | metrics-jvm | 4.1.1 |
io.dropwizard.metrics | metrics-servlets | 4.1.1 |
io.netty | netty-all | 4.1.74.Final |
io.netty | netty-buffer | 4.1.74.Final |
io.netty | netty-codec | 4.1.74.Final |
io.netty | netty-common | 4.1.74.Final |
io.netty | netty-handler | 4.1.74.Final |
io.netty | netty-resolver | 4.1.74.Final |
io.netty | kelas netty-tcnative | 2.0.48.Final |
io.netty | netty-transport | 4.1.74.Final |
io.netty | netty-transport-classes-epoll | 4.1.74.Final |
io.netty | netty-transport-classes-kqueue | 4.1.74.Final |
io.netty | netty-transport-native-epoll-linux-aarch_64 | 4.1.74.Final |
io.netty | netty-transport-native-epoll-linux-x86_64 | 4.1.74.Final |
io.netty | netty-transport-native-kqueue-osx-aarch_64 | 4.1.74.Final |
io.netty | netty-transport-native-kqueue-osx-x86_64 | 4.1.74.Final |
io.netty | netty-transport-native-unix-common | 4.1.74.Final |
io.prometheus | simpleclient | 0.7.0 |
io.prometheus | simpleclient_common | 0.7.0 |
io.prometheus | simpleclient_dropwizard | 0.7.0 |
io.prometheus | simpleclient_pushgateway | 0.7.0 |
io.prometheus | simpleclient_servlet | 0.7.0 |
io.prometheus.jmx | collector | 0.12.0 |
jakarta.annotation | jakarta.annotation-api | 1.3.5 |
jakarta.servlet | jakarta.servlet-api | 4.0.3 |
jakarta.validation | jakarta.validation-api | 2.0.2 |
jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
javax.activation | activation | 1.1.1 |
javax.el | javax.el-api | 2.2.4 |
javax.jdo | jdo-api | 3.0.1 |
javax.transaction | jta | 1.1 |
javax.transaction | transaction-api | 1.1 |
javax.xml.bind | jaxb-api | 2.2.11 |
javolution | javolution | 5.5.1 |
jline | jline | 2.14.6 |
joda-time | joda-time | 2.10.13 |
net.java.dev.jna | jna | 5.8.0 |
net.razorvine | acar | 1.2 |
net.sf.jpam | jpam | 1.1 |
net.sf.opencsv | opencsv | 2.3 |
net.sf.supercsv | super-csv | 2.2.0 |
net.snowflake | snowflake-ingest-sdk | 0.9.6 |
net.snowflake | snowflake-jdbc | 3.13.22 |
net.sourceforge.f2j | arpack_combined_all | 0.1 |
org.acplt.remotetea | remotetea-oncrpc | 1.1.2 |
org.antlr | ST4 | 4.0.4 |
org.antlr | antlr-runtime | 3.5.2 |
org.antlr | antlr4-runtime | 4.8 |
org.antlr | stringtemplate | 3.2.1 |
org.apache.ant | ant | 1.9.2 |
org.apache.ant | ant-jsch | 1.9.2 |
org.apache.ant | ant-launcher | 1.9.2 |
org.apache.arrow | arrow-format | 7.0.0 |
org.apache.arrow | arrow-memory-core | 7.0.0 |
org.apache.arrow | arrow-memory-netty | 7.0.0 |
org.apache.arrow | arrow-vector | 7.0.0 |
org.apache.avro | avro | 1.11.0 |
org.apache.avro | avro-ipc | 1.11.0 |
org.apache.avro | avro-mapred | 1.11.0 |
org.apache.commons | commons-collections4 | 4.4 |
org.apache.commons | commons-compress | 1.21 |
org.apache.commons | commons-crypto | 1.1.0 |
org.apache.commons | commons-lang3 | 3.12.0 |
org.apache.commons | commons-math3 | 3.6.1 |
org.apache.commons | commons-text | 1.10.0 |
org.apache.curator | curator-client | 2.13.0 |
org.apache.curator | curator-framework | 2.13.0 |
org.apache.curator | curator-recipes | 2.13.0 |
org.apache.derby | derby | 10.14.2.0 |
org.apache.hadoop | hadoop-client-api | 3.3.4-databricks |
org.apache.hadoop | hadoop-client-runtime | 3.3.4 |
org.apache.hive | hive-beeline | 2.3.9 |
org.apache.hive | hive-cli | 2.3.9 |
org.apache.hive | hive-jdbc | 2.3.9 |
org.apache.hive | hive-llap-client | 2.3.9 |
org.apache.hive | hive-llap-common | 2.3.9 |
org.apache.hive | hive-serde | 2.3.9 |
org.apache.hive | hive-shims | 2.3.9 |
org.apache.hive | hive-storage-api | 2.8.1 |
org.apache.hive.shims | hive-shims-0.23 | 2.3.9 |
org.apache.hive.shims | hive-shims-common | 2.3.9 |
org.apache.hive.shims | hive-shims-scheduler | 2.3.9 |
org.apache.httpcomponents | httpclient | 4.5.13 |
org.apache.httpcomponents | httpcore | 4.4.14 |
org.apache.ivy | ivy | 2.5.0 |
org.apache.logging.log4j | log4j-1.2-api | 2.18.0 |
org.apache.logging.log4j | log4j-api | 2.18.0 |
org.apache.logging.log4j | log4j-core | 2.18.0 |
org.apache.logging.log4j | log4j-slf4j-impl | 2.18.0 |
org.apache.mesos | mesos-shaded-protobuf | 1.4.0 |
org.apache.orc | orc-core | 1.7.6 |
org.apache.orc | orc-mapreduce | 1.7.6 |
org.apache.orc | orc-shims | 1.7.6 |
org.apache.parquet | parquet-column | 1.12.3-databricks-0002 |
org.apache.parquet | parquet-common | 1.12.3-databricks-0002 |
org.apache.parquet | parquet-encoding | 1.12.3-databricks-0002 |
org.apache.parquet | parquet-format-structures | 1.12.3-databricks-0002 |
org.apache.parquet | parquet-hadoop | 1.12.3-databricks-0002 |
org.apache.parquet | parquet-jackson | 1.12.3-databricks-0002 |
org.apache.thrift | libfb303 | 0.9.3 |
org.apache.thrift | libthrift | 0.12.0 |
org.apache.xbean | xbean-asm9-shaded | 4.20 |
org.apache.yetus | audience-annotations | 0.13.0 |
org.apache.zookeeper | zookeeper | 3.6.2 |
org.apache.zookeeper | zookeeper-jute | 3.6.2 |
org.checkerframework | checker-qual | 3.5.0 |
org.codehaus.jackson | jackson-core-asl | 1.9.13 |
org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
org.codehaus.janino | commons-compiler | 3.0.16 |
org.codehaus.janino | janino | 3.0.16 |
org.datanucleus | datanucleus-api-jdo | 4.2.4 |
org.datanucleus | datanucleus-core | 4.1.17 |
org.datanucleus | datanucleus-rdbms | 4.1.19 |
org.datanucleus | javax.jdo | 3.2.0-m3 |
org.eclipse.jetty | jetty-client | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-continuation | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-http | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-io | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-jndi | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-plus | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-proxy | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-security | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-server | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-servlet | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-servlets | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-util | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-util-ajax | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-webapp | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-xml | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | websocket-api | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | websocket-client | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | websocket-common | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | websocket-server | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | websocket-servlet | 9.4.46.v20220331 |
org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
org.glassfish.hk2 | hk2-api | 2.6.1 |
org.glassfish.hk2 | hk2-locator | 2.6.1 |
org.glassfish.hk2 | hk2-utils | 2.6.1 |
org.glassfish.hk2 | osgi-resource-locator | 1.0.3 |
org.glassfish.hk2.external | aopalliance-repackaged | 2.6.1 |
org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
org.glassfish.jersey.containers | jersey-container-servlet | 2.36 |
org.glassfish.jersey.containers | jersey-container-servlet-core | 2.36 |
org.glassfish.jersey.core | jersey-client | 2.36 |
org.glassfish.jersey.core | jersey-common | 2.36 |
org.glassfish.jersey.core | jersey-server | 2.36 |
org.glassfish.jersey.inject | jersey-hk2 | 2.36 |
org.hibernate.validator | hibernate-validator | 6.1.0.Final |
org.javassist | javassist | 3.25.0-GA |
org.jboss.logging | jboss-logging | 3.3.2.Final |
org.jdbi | jdbi | 2.63.1 |
org.jetbrains | anotasi | 17.0.0 |
org.joda | joda-convert | 1.7 |
org.jodd | jodd-core | 3.5.2 |
org.json4s | json4s-ast_2.12 | 3.7.0-M11 |
org.json4s | json4s-core_2.12 | 3.7.0-M11 |
org.json4s | json4s-jackson_2.12 | 3.7.0-M11 |
org.json4s | json4s-scalap_2.12 | 3.7.0-M11 |
org.lz4 | lz4-java | 1.8.0 |
org.mariadb.jdbc | mariadb-java-client | 2.7.4 |
org.mlflow | mlflow-spark | 1.27.0 |
org.objenesis | objenesis | 2.5.1 |
org.postgresql | postgresql | 42.3.3 |
org.roaringbitmap | RoaringBitmap | 0.9.25 |
org.roaringbitmap | shims | 0.9.25 |
org.rocksdb | rocksdbjni | 6.24.2 |
org.rosuda.REngine | REngine | 2.1.0 |
org.scala-lang | scala-compiler_2.12 | 2.12.14 |
org.scala-lang | scala-library_2.12 | 2.12.14 |
org.scala-lang | scala-reflect_2.12 | 2.12.14 |
org.scala-lang.modules | scala-collection-compat_2.12 | 2.4.3 |
org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
org.scala-lang.modules | scala-xml_2.12 | 1.2.0 |
org.scala-sbt | test-interface | 1.0 |
org.scalacheck | scalacheck_2.12 | 1.14.2 |
org.scalactic | scalactic_2.12 | 3.0.8 |
org.scalanlp | breeze-macros_2.12 | 1.2 |
org.scalanlp | breeze_2.12 | 1.2 |
org.scalatest | scalatest_2.12 | 3.0.8 |
org.slf4j | jcl-over-slf4j | 1.7.36 |
org.slf4j | jul-to-slf4j | 1.7.36 |
org.slf4j | slf4j-api | 1.7.36 |
org.spark-project.spark | tidak digunakan | 1.0.0 |
org.threeten | threeten-extra | 1.5.0 |
org.tukaani | xz | 1.9 |
org.typelevel | algebra_2.12 | 2.0.1 |
org.typelevel | cats-kernel_2.12 | 2.1.1 |
org.typelevel | macro-compat_2.12 | 1.1.1 |
org.typelevel | spire-macros_2.12 | 0.17.0 |
org.typelevel | spire-platform_2.12 | 0.17.0 |
org.typelevel | spire-util_2.12 | 0.17.0 |
org.typelevel | spire_2.12 | 0.17.0 |
org.wildfly.openssl | wildfly-openssl | 1.0.7.Final |
org.xerial | sqlite-jdbc | 3.8.11.2 |
org.xerial.snappy | snappy-java | 1.1.8.4 |
org.yaml | snakeyaml | 1.24 |
oro | oro | 2.0.8 |
pl.edu.icm | JLargeArrays | 1.5 |
software.amazon.ion | ion-java | 1.0.2 |
stax | stax-api | 1.0.1 |