Databricks Runtime 13.1 (EoS)
Catatan
Dukungan untuk versi Databricks Runtime ini telah berakhir. Untuk tanggal akhir dukungan, lihat Riwayat akhir dukungan. Untuk semua versi Runtime Databricks yang didukung, lihat Versi dan kompatibilitas catatan rilis Databricks Runtime.
Catatan rilis berikut memberikan informasi tentang Databricks Runtime 13.1, didukung oleh Apache Spark 3.4.0.
Databricks merilis versi ini pada Bulan Mei 2023.
Fitur dan peningkatan baru
- Dukungan kluster untuk JDK 17 (Pratinjau Umum)
- Menambahkan, mengubah, atau menghapus data dalam tabel streaming
- Baca Kafka dengan SQL
- Fungsi bawaan SQL baru
- Dukungan Unity Catalog untuk pustaka Python dengan cakupan kluster
- Pengaktifan default yang diperluas untuk penulisan yang dioptimalkan di Katalog Unity
- Dukungan tingkat lanjut untuk operator stateful dalam beban kerja Streaming Terstruktur
- Klon delta untuk Katalog Unity ada di Pratinjau Umum
- Dukungan Pub/Sub untuk Streaming Terstruktur
- Menghilangkan duplikat dalam marka air di Streaming Terstruktur
- Dukungan yang diperluas untuk konversi Delta dari tabel Iceberg dengan kolom partisi terpotong
- Melakukan streaming perubahan skema dengan pemetaan kolom di Delta Lake
- Hapus VERSI MULAI
- Ekspresi H3 baru tersedia dengan Python
Dukungan kluster untuk JDK 17 (Pratinjau Umum)
Databricks sekarang menyediakan dukungan kluster untuk Java Development Kit (JDK) 17. Lihat Databricks SDK untuk Java.
Menambahkan, mengubah, atau menghapus data dalam tabel streaming
Anda sekarang dapat menggunakan pernyataan DML untuk memodifikasi tabel streaming yang diterbitkan ke Unity Catalog oleh alur Tabel Langsung Delta. Lihat Menambahkan, mengubah, atau menghapus data dalam tabel streaming dan Menambahkan, mengubah, atau menghapus data dalam tabel streaming target. Anda juga dapat menggunakan pernyataan DML untuk memodifikasi tabel streaming yang dibuat di Databricks SQL.
Baca Kafka dengan SQL
Anda sekarang dapat menggunakan read_kafka
fungsi SQL untuk membaca data Kafka. Streaming dengan SQL hanya didukung di Tabel Langsung Delta atau dengan tabel streaming di Databricks SQL. Lihat read_kafka fungsi bernilai tabel.
Fungsi bawaan SQL baru
Fungsi berikut telah ditambahkan:
-
array_prepend(array, elem) Menampilkan
array
yang telah ditambahkan sebelumnya olehelem
. -
try_aes_decrypt(expr, key [, mode [, padding]]) Mendekripsi biner yang diproduksi menggunakan enkripsi AES, dan mengembalikan
NULL
jika ada kesalahan. - sql_keywords() Mengembalikan tabel kata kunci Azure Databricks SQL.
Dukungan Unity Catalog untuk pustaka Python dengan cakupan kluster
Katalog Unity memiliki beberapa batasan pada penggunaan pustaka. Pada Databricks Runtime 13.1 ke atas, pustaka Python yang terlingkup kluster didukung, termasuk file roda Python yang diunggah sebagai file ruang kerja. Pustaka yang direferensikan menggunakan jalur file DBFS tidak didukung, baik di akar DBFS atau lokasi eksternal yang dipasang ke DBFS. Pustaka non-Python tidak didukung. Lihat Pustaka kluster.
Pada Databricks Runtime 13.0 ke bawah, pustaka dengan cakupan kluster tidak didukung pada kluster yang menggunakan mode akses bersama di ruang kerja yang mendukung Katalog Unity.
Pengaktifan default yang diperluas untuk penulisan yang dioptimalkan di Katalog Unity
Dukungan tulis default yang dioptimalkan untuk tabel Delta yang terdaftar di Unity Catalog telah diperluas untuk menyertakan CTAS
pernyataan dan INSERT
operasi untuk tabel yang dipartisi. Perilaku ini selaras dengan default pada gudang SQL. Lihat Penulisan yang dioptimalkan untuk Delta Lake di Azure Databricks.
Dukungan tingkat lanjut untuk operator stateful dalam beban kerja Streaming Terstruktur
Anda sekarang dapat menautkan beberapa operator stateful bersama-sama, yang berarti Anda dapat memberi umpan output operasi seperti agregasi berjendela ke operasi stateful lainnya seperti gabungan. Lihat Apa itu streaming stateful?.
Klon delta untuk Katalog Unity ada di Pratinjau Umum
Anda sekarang dapat menggunakan kloning dangkal untuk membuat tabel terkelola Unity Catalog baru dari tabel terkelola Unity Catalog yang ada. Lihat Kloning dangkal untuk tabel Unity Catalog.
Dukungan Pub/Sub untuk Streaming Terstruktur
Anda sekarang dapat menggunakan konektor bawaan untuk berlangganan Google Pub/Sub dengan Streaming Terstruktur. Lihat Berlangganan Google Pub/Sub.
Menghilangkan duplikat dalam marka air di Streaming Terstruktur
Anda sekarang dapat menggunakan dropDuplicatesWithinWatermark
dalam kombinasi dengan ambang marka air tertentu untuk mendeduplikasi rekaman dalam Streaming Terstruktur. Lihat Menghilangkan duplikat dalam marka air.
Dukungan yang diperluas untuk konversi Delta dari tabel Iceberg dengan kolom partisi terpotong
Anda sekarang dapat menggunakan CLONE
dan CONVERT TO DELTA
dengan tabel Iceberg yang memiliki partisi yang ditentukan pada kolom jenis int
terpotong , , long
dan string
. Kolom tipe decimal
terpotong tidak didukung.
Melakukan streaming perubahan skema dengan pemetaan kolom di Delta Lake
Anda sekarang dapat menyediakan lokasi pelacakan skema untuk mengaktifkan streaming dari tabel Delta dengan pemetaan kolom diaktifkan. Untuk detailnya, lihat Streaming dengan pemetaan kolom dan perubahan skema.
Hapus VERSI MULAI
START VERSION
sekarang tidak digunakan lagi untuk ALTER SHARE
.
Ekspresi H3 baru tersedia dengan Python
Ekspresi h3_coverash3
dan h3_coverash3string
tersedia dengan Python.
Perbaikan bug
Parquet failOnUnknownFields tidak lagi menjatuhkan data secara diam-diam pada jenis ketidakcocokan
Jika file Parquet dibaca hanya failOnUnknownFields
dengan opsi atau dengan Auto Loader dalam failOnNewColumns
mode evolusi skema, kolom yang memiliki jenis data yang berbeda sekarang gagal dan merekomendasikan penggunaan rescuedDataColumn
. Auto Loader sekarang membaca dengan benar dan tidak lagi menyelamatkan jenis Bilangan Bulat, Pendek, atau Byte jika salah satu jenis data ini disediakan. File Parquet menyarankan salah satu dari dua jenis lainnya.
Perubahan mencolok
Tingkatkan versi sqlite-jdbc ke 3.42.0.0 ke alamat CVE-2023-32697
Tingkatkan versi sqlite-jdbc dari 3.8.11.2 ke 3.42.0.0. API versi 3.42.0.0 tidak sepenuhnya kompatibel dengan 3.8.11.2. Jika menggunakan sqlite-jdbc dalam kode Anda, periksa laporan kompatibilitas sqlite-jdbc untuk detailnya. Jika Anda bermigrasi ke 13.1 dan menggunakan sqlite, konfirmasikan metode Anda dan kembalikan jenis dalam versi 3.42.0.0.
Peningkatan pustaka
- Pustaka Python yang ditingkatkan:
- ringkasan faset dari 1.0.2 hingga 1.0.3
- filelock dari 3.10.7 hingga 3.12.0
- pyarrow dari 7.0.0 hingga 8.0.0
- tenacity dari 8.0.1 hingga 8.1.0
- Pustaka R yang ditingkatkan:
- Pustaka Java yang ditingkatkan:
- com.github.ben-manes.caffeine.caffeine dari 2.3.4 hingga 2.9.3
- io.delta.delta-sharing-spark_2.12 dari 0.6.8 hingga 0.6.4
- net.snowflake.snowflake-jdbc dari 3.13.29 hingga 3.13.22
- org.checkerframework.checker-qual dari 3.5.0 hingga 3.19.0
- org.scalactic.scalactic_2.12 dari 3.0.8 ke 3.2.15
- org.scalatest.scalatest_2.12 dari 3.0.8 ke 3.2.15
- org.xerial.sqlite-jdbc dari 3.8.11.2 ke 3.42.0.0
Apache Spark
Databricks Runtime 13.1 mencakup Apache Spark 3.4.0. Rilis ini mencakup semua perbaikan dan peningkatan Spark yang disertakan dalam Databricks Runtime 13.0 (EoS), serta perbaikan bug tambahan dan peningkatan berikut yang dilakukan pada Spark:
- [SPARK-42719] [DBRRM-199][SC-131578] Kembalikan "[SC-125225] 'MapOutputTracker#getMap...
- [SPARK-39696] [DBRRM-166][SC-130056][CORE] Kembalikan [SC-127830]/
- [SPARK-43331] [SC-130064][SAMBUNGKAN] Menambahkan Spark Connect SparkSession.interruptAll
- [SPARK-43332] [SC-130051][SAMBUNGKAN][PyTHON] Memungkinkan untuk memperluas ChannelBuilder untuk SparkConnectClient
- [SPARK-43323] [SC-129966][SQL][PyTHON] Perbaiki DataFrame.toPandas dengan Arrow diaktifkan untuk menangani pengecualian dengan benar
- [SPARK-42940] [SC-129896][SS][SAMBUNGKAN] Meningkatkan manajemen sesi untuk kueri streaming
- [SPARK-43032] [SC-125756] [SAMBUNGKAN][SS] Menambahkan manajer kueri Streaming
- [SPARK-16484] [SC-129975][SQL] Menambahkan dukungan untuk Datasketches HllSketch
- [SPARK-43260] [SC-129281][PyTHON] Migrasikan kesalahan jenis panah panda Spark SQL ke dalam kelas kesalahan.
- [SPARK-41766] [SC-129964][CORE] Menangani permintaan penonaktifan yang dikirim sebelum pendaftaran eksekutor
- [SPARK-43307] [SC-129971][PyTHON] Memigrasikan kesalahan nilai PandasUDF ke dalam kelas kesalahan
- [SPARK-43206] [SC-129903] [SS] [SAMBUNGKAN] Pengecualian StreamingQuery() menyertakan pelacakan tumpukan
- [SPARK-43311] [SC-129905][SS] Menambahkan penyempurnaan manajemen memori penyedia penyimpanan status RocksDB
- [SPARK-43237] [SC-129898][CORE] Menangani pesan pengecualian null di log peristiwa
- [SPARK-43320] [SC-129899][SQL][HIVE] Langsung hubungi Apache Hive 2.3.9 API
-
[SPARK-43270] [SC-129897][PyTHON] Terapkan
__dir__()
dipyspark.sql.dataframe.DataFrame
untuk menyertakan kolom - [SPARK-43183] Kembalikan "[SC-128938][SS] Perkenalkan panggilan balik baru "...
- [SPARK-43143] [SC-129902] [SS] [SAMBUNGKAN] Scala StreamingQuery awaitTermination()
- [SPARK-43257] [SC-129675][SQL] Ganti kelas kesalahan _LEGACY_ERROR_TEMP_2022 oleh kesalahan internal
- [SPARK-43198] [SC-129470][SAMBUNGKAN] Perbaiki "Tidak dapat menginisialisasi amonit kelas..." kesalahan saat menggunakan filter
- [SPARK-43165] [SC-129777][SQL] Pindahkan canWrite ke DataTypeUtils
- [SPARK-43298] [SC-129729][PyTHON][ML] predict_batch_udf dengan input skalar gagal dengan ukuran batch satu
- [SPARK-43298] [SC-129700]Kembalikan "[PYTHON][ML] predict_batch_udf dengan input skalar gagal dengan ukuran batch satu"
- [SPARK-43052] [SC-129663][CORE] Menangani stacktrace dengan nama file null dalam log peristiwa
- [SPARK-43183] [SC-128938][SS] Memperkenalkan panggilan balik baru "onQueryIdle" ke StreamingQueryListener
- [SPARK-43209] [SC-129190][SAMBUNGKAN][PyTHON] Memigrasikan kesalahan Ekspresi ke dalam kelas kesalahan
- [SPARK-42151] [SC-128754][SQL] Selaraskan penugasan UPDATE dengan atribut tabel
- [SPARK-43134] [SC-129468] [SAMBUNGKAN] [SS] Api pengecualian() StreamingQuery klien JVM
- [SPARK-43298] [SC-129699][PyTHON][ML] predict_batch_udf dengan input skalar gagal dengan ukuran batch satu
- [SPARK-43248] [SC-129660][SQL] Serialisasi/deserialisasi Jalur yang tidak perlu pada paralel mengumpulkan statistik partisi
-
[SPARK-43274] [SC-129464][SPARK-43275][PyTHON][SAMBUNGKAN] Memperkenalkan
PySparkNotImplementedError
- [SPARK-43146] [SC-128804][SAMBUNGKAN][PyTHON] Menerapkan evaluasi bersemangat untuk repr dan repr_html
- [SPARK-42953] [SC-129469][Sambungkan][Tindak lanjut] Memperbaiki build pengujian maven untuk pengujian UDF klien Scala
- [SPARK-43144] [SC-129280] Scala Client DataStreamReader table() API
- [SPARK-43136] [SC-129358][SAMBUNGKAN] Menambahkan groupByKey + mapGroup + fungsi coGroup
-
[SPARK-43156] [SC-129672][SC-128532][SQL] Memperbaiki
COUNT(*) is null
bug dalam subkueri skalar berkorelasi - [SPARK-43046] [SC-129110] [SS] [Sambungkan] Menerapkan Python API dropDuplicatesWithinWatermark untuk Spark Connect
- [SPARK-43199] [SC-129467][SQL] Membuat idempotensi InlineCTE
-
[SPARK-43293] [SC-129657][SQL]
__qualified_access_only
harus diabaikan dalam kolom normal - [SPARK-43276] [SC-129461][SAMBUNGKAN][PyTHON] Memigrasikan kesalahan Jendela Spark Connect ke dalam kelas kesalahan
- [SPARK-43174] [SC-129109][SQL] Memperbaiki completer SparkSQLCLIDriver
- [SPARK-43084] [SC-128654] [SS] Menambahkan dukungan applyInPandasWithState untuk spark connect
- [SPARK-43119] [SC-129040][SQL] Dukungan Dapatkan Kata Kunci SQL Secara Dinamis Melalui JDBC API dan TVF
- [SPARK-43082] [SC-129112][SAMBUNGKAN][PyTHON] UDF Python yang dioptimalkan panah di Spark Connect
- [SPARK-43085] [SC-128432][SQL] Mendukung penugasan DEFAULT kolom untuk nama tabel multi-bagian
- [SPARK-43226] [LC-671] Tentukan ekstraktor untuk metadata konstanta file
-
[SPARK-43210] [SC-129189][SAMBUNGKAN][PyTHON] Memperkenalkan
PySparkAssertionError
- [SPARK-43214] [SC-129199][SQL] Pasca metrik sisi driver untuk LocalTableScanExec/CommandResultExec
- [SPARK-43285] [SC-129347] Memperbaiki ReplE2ESuite yang gagal secara konsisten dengan JDK 17
- [SPARK-43268] [SC-129249][SQL] Gunakan kelas kesalahan yang tepat saat pengecualian dibuat dengan pesan
- [SPARK-43142] [SC-129299] Memperbaiki ekspresi DSL pada atribut dengan karakter khusus
- [SPARK-43129] [SC-128896] API inti Scala untuk streaming Spark Connect
- [SPARK-43233] [SC-129250] [SS] Menambahkan pengelogan untuk Pembacaan Batch Kafka untuk partisi topik, rentang offset, dan ID tugas
- [SPARK-43249] [SC-129195][SAMBUNGKAN] Memperbaiki statistik yang hilang untuk Perintah SQL
- [SPARK-42945] [SC-129188][SAMBUNGKAN] Mendukung PYSPARK_JVM_STACKTRACE_ENABLED di Spark Connect
- [SPARK-43178] [SC-129197][SAMBUNGKAN][PyTHON] Memigrasikan kesalahan UDF ke dalam kerangka kerja kesalahan PySpark
- [SPARK-43123] [SC-128494][SQL] Metadata bidang internal tidak boleh bocor ke katalog
- [SPARK-43217] [SC-129205] Berulang dengan benar dalam peta/array berlapis di findNestedField
- [SPARK-43243] [SC-129294][PyTHON][SAMBUNGKAN] Menambahkan param tingkat ke printSchema untuk Python
-
[SPARK-43230] [SC-129191][SAMBUNGKAN] Menyederhanakan
DataFrameNaFunctions.fillna
- [SPARK-43088] [SC-128403][SQL] Respect RequiresDistributionAndOrdering dalam CTAS/RTAS
-
[SPARK-43234] [SC-129192][SAMBUNGKAN][PyTHON] Migrasi
ValueError
dari Conect DataFrame ke dalam kelas kesalahan - [SPARK-43212] [SC-129187][SS][PyTHON] Memigrasikan kesalahan Streaming Terstruktur ke dalam kelas kesalahan
-
[SPARK-43239] [SC-129186][PS] Hapus
null_counts
dari info() - [SPARK-43190] [SC-128930][SQL] ListQuery.childOutput harus konsisten dengan output anak
- [SPARK-43191] [SC-128924][CORE] Ganti refleksi dengan panggilan langsung untuk Hadoop CallerContext
- [SPARK-43193] [SC-129042][SS] Hapus solusi untuk HADOOP-12074
- [SPARK-42657] [SC-128621][SAMBUNGKAN] Dukungan untuk menemukan dan mentransfer repl classfiles sisi klien ke server sebagai artefak
- [SPARK-43098] [SC-77059][SQL] Memperbaiki bug COUNT kebenaran saat subkueri skalar memiliki klausa kelompokkan menurut
-
[SPARK-43213] [SC-129062][PyTHON] Tambahkan
DataFrame.offset
ke vanilla PySpark - [SPARK-42982] [SC-128400][SAMBUNGKAN][PyTHON] Perbaiki createDataFrame untuk menghormati skema ddl yang diberikan
- [SPARK-43124] [SC-129011][SQL] Dataset.show memproyeksikan CommandResults secara lokal
- [SPARK-42998] [SC-127422][SAMBUNGKAN][PyTHON] Memperbaiki DataFrame.collect dengan struct null
- [SPARK-41498] [SC-125343]Kembalikan " Sebarkan metadata melalui Union"
- [SPARK-42960] [SC-129010] [SAMBUNGKAN] [SS] Menambahkan API await_termination() dan exception() untuk Kueri Streaming di Python
- [SPARK-42552] [SC-128824][SQL] Perbaiki strategi penguraian dua tahap pengurai antlr
- [SPARK-43207] [SC-128937][SAMBUNGKAN] Menambahkan fungsi pembantu untuk mengekstrak nilai dari ekspresi harfiah
- [SPARK-43186] [SC-128841][SQL][HIVE] Hapus solusi untuk FileSinkDesc
- [SPARK-43107] [SC-128533][SQL] Wadah coalesce dalam gabungan diterapkan pada sisi aliran gabungan siaran
- [SPARK-43195] [SC-128922][CORE] Menghapus pembungkus yang tidak perlu yang dapat diserialisasi di HadoopFSUtils
- [SPARK-43137] [SC-128828][SQL] Tingkatkan ArrayInsert jika posisi dapat dilipat dan positif.
- [SPARK-37829] [SC-128827][SQL] Dataframe.joinWith outer-join harus mengembalikan nilai null untuk baris yang tidak cocok
- [SPARK-43042] [SC-128602] [SS] [Sambungkan] Menambahkan dukungan API table() untuk DataStreamReader
- [SPARK-43153] [SC-128753][SAMBUNGKAN] Lewati eksekusi Spark saat dataframe bersifat lokal
- [SPARK-43064] [SC-128496][SQL] Tab Spark SQL CLI SQL hanya boleh menampilkan sekali pernyataan sekali
- [SPARK-43126] [SC-128447][SQL] Menandai dua ekspresi UDF Apache Hive sebagai stateful
-
[SPARK-43111] [SC-128750][PS][SAMBUNGKAN][PyTHON] Menggabungkan pernyataan berlapis
if
ke dalam pernyataan tunggalif
- [SPARK-43113] [SC-128749][SQL] Mengevaluasi variabel sisi aliran saat membuat kode untuk kondisi terikat
- [SPARK-42895] [SC-127258][SAMBUNGKAN] Meningkatkan pesan kesalahan untuk sesi Spark yang dihentikan
- [SPARK-42884] [SC-126662][SAMBUNGKAN] Menambahkan integrasi Amonite REPL
- [SPARK-43168] [SC-128674][SQL] Menghapus metode PhysicalDataType dari kelas Datatype
-
[SPARK-43121] [SC-128455][SQL] Gunakan
BytesWritable.copyBytes
alih-alih salinan manual di 'HiveInspectors - [SPARK-42916] [SC-128389][SQL] JDBCTableCatalog Menyimpan meta Char/Varchar di sisi baca
- [SPARK-43050] [SC-128550][SQL] Memperbaiki ekspresi agregat konstruksi dengan mengganti fungsi pengelompokan
-
[SPARK-43095] [SC-128549][SQL] Hindari idepotensi strategi Once rusak untuk batch:
Infer Filters
- [SPARK-43130] [SC-128597][SQL] Pindahkan InternalType ke PhysicalDataType
- [SPARK-43105] [SC-128456][SAMBUNGKAN] Singkatan Byte dan String dalam pesan proto
-
[SPARK-43099] [SC-128596][SQL] Gunakan
getName
alih-alihgetCanonicalName
untuk mendapatkan nama kelas penyusun saat mendaftarkan udf ke FunctionRegistry - [SPARK-42994] [SC-128586][ML][SAMBUNGKAN] Distributor PyTorch mendukung Mode Lokal
- [SPARK-42859] Kembalikan "[SC-127935][CONNECT][PS] Dukungan dasar untuk PANDAS API di Spark Connect"
-
[SPARK-43021] [SC-128472][SQL]
CoalesceBucketsInJoin
tidak berfungsi saat menggunakan AQE - [SPARK-43125] [SC-128477][SAMBUNGKAN] Perbaiki Server Connect Tidak Dapat Menangani Pengecualian Dengan Pesan Null
- [SPARK-43147] [SC-128594] fix flake8 lint untuk pemeriksaan lokal
- [SPARK-43031] [SC-128360] [SS] [Sambungkan] Mengaktifkan pengujian unit dan dokte untuk streaming
- [SPARK-43039] [LC-67] Mendukung bidang kustom di kolom _metadata sumber file.
- [SPARK-43120] [SC-128407][SS] Menambahkan dukungan untuk melacak penggunaan memori blok yang disematkan untuk penyimpanan status RocksDB
- [SPARK-43110] [SC-128381][SQL] Pindahkan asIntegral ke PhysicalDataType
- [SPARK-43118] [SC-128398][SS] Hapus pernyataan yang tidak perlu untuk UninterruptibleThread di KafkaMicroBatchStream
- [SPARK-43055] [SC-128331][SAMBUNGKAN][PyTHON] Mendukung nama bidang berlapis duplikat
- [SPARK-42437] [SC-128339][PyTHON][SAMBUNGKAN] PySpark catalog.cacheTable akan memungkinkan untuk menentukan tingkat penyimpanan
- [SPARK-42985] [SC-128332][SAMBUNGKAN][PyTHON] Perbaiki createDataFrame untuk menghormati konfigurasi SQL
- [SPARK-39696] [SC-127830][CORE] Memperbaiki perlombaan data dalam akses ke TaskMetrics.externalAccums
- [SPARK-43103] [SC-128335][SQL] Memindahkan Integral ke PhysicalDataType
- [SPARK-42741] [SC-125547][SQL] Jangan membongkar cast dalam perbandingan biner ketika literal null
- [SPARK-43057] [SC-127948][SAMBUNGKAN][PyTHON] Memigrasikan kesalahan Kolom Spark Connect ke dalam kelas kesalahan
- [SPARK-42859] [SC-127935][SAMBUNGKAN][PS] Dukungan dasar untuk API panda di Spark Connect
-
[SPARK-43013] [SC-127773][PyTHON] Migrasikan
ValueError
dari DataFrame ke dalamPySparkValueError
. - [SPARK-43089] [SC-128051][SAMBUNGKAN] Meredaksi string debug di UI
- [SPARK-43028] [SC-128070][SQL] Menambahkan SQL_CONF_NOT_FOUND kelas kesalahan
- [SPARK-42999] [SC-127842][Sambungkan] Himpunan data#foreach, foreachPartition
- [SPARK-43066] [SC-127937][SQL] Menambahkan pengujian untuk dropDuplicates di JavaDatasetSuite
-
[SPARK-43075] [SC-127939][SAMBUNGKAN] Ubah
gRPC
kegrpcio
ketika tidak diinstal. - [SPARK-42953] [SC-127809][Sambungkan] Filter jenis, peta, flatMap, mapPartitions
- [SPARK-42597] [SC-125506][SQL] Mendukung jenis tanggal bongkar ke jenis tanda waktu
- [SPARK-42931] [SC-127933][SS] Memperkenalkan dropDuplicatesWithinWatermark
- [SPARK-43073] [SC-127943][SAMBUNGKAN] Menambahkan konstanta tipe data proto
- [SPARK-43077] [SC-128050][SQL] Meningkatkan pesan kesalahan UNRECOGNIZED_SQL_TYPE
- [SPARK-42951] [SC-128030][SS][Sambungkan] API DataStreamReader
- [SPARK-43049] [SC-127846][SQL] Gunakan CLOB alih-alih VARCHAR(255) untuk StringType untuk Oracle JDBC
- [SPARK-43018] [SC-127762][SQL] Perbaiki bug untuk perintah INSERT dengan literal tanda waktu
- [SPARK-42855] [SC-127722][SQL] Menggunakan pemeriksaan null runtime di TableOutputResolver
- [SPARK-43030] [SC-127847][SQL] Deduplikasi hubungan dengan kolom metadata
- [SPARK-42993] [SC-127829][ML][SAMBUNGKAN] Membuat PyTorch Distributor kompatibel dengan Spark Connect
- [SPARK-43058] [SC-128072][SQL] Pindahkan Numerik dan Pecahan ke PhysicalDataType
- [SPARK-43056] [SC-127946][SS] Penerapan penyimpanan status RocksDB harus melanjutkan pekerjaan latar belakang hanya jika dijeda
- [SPARK-43059] [SC-127947][SAMBUNGKAN][PyTHON] Memigrasikan TypeError dari DataFrame(Pembaca|Penulis) ke dalam kelas kesalahan
- [SPARK-43071] [SC-128018][SQL] Mendukung SELECT DEFAULT dengan ORDER BY, LIMIT, OFFSET untuk relasi sumber INSERT
- [SPARK-43061] [SC-127956][CORE][SQL] Memperkenalkan PartitionEvaluator untuk eksekusi operator SQL
- [SPARK-43067] [SC-127938][SS] Memperbaiki lokasi file sumber daya kelas kesalahan di konektor Kafka
- [SPARK-43019] [SC-127844][SQL] Pindahkan Pemesanan ke PhysicalDataType
- [SPARK-43010] [SC-127759][PyTHON] Memigrasikan kesalahan Kolom ke dalam kelas kesalahan
-
[SPARK-42840] [SC-127782][SQL] Mengubah
_LEGACY_ERROR_TEMP_2004
kesalahan menjadi kesalahan internal - [SPARK-43041] [SC-127765][SQL] Memulihkan konstruktor pengecualian untuk kompatibilitas di API konektor
- [SPARK-42939] [SC-127761][SS][SAMBUNGKAN] API Python streaming inti untuk Spark Connect
-
[SPARK-42844] [SC-127766][SQL] Memperbarui kelas
_LEGACY_ERROR_TEMP_2008
kesalahan keINVALID_URL
- [SPARK-42316] [SC-127720][SQL] Tetapkan nama ke _LEGACY_ERROR_TEMP_2044
- [SPARK-42995] [SC-127723][SAMBUNGKAN][PyTHON] Memigrasikan kesalahan Spark Connect DataFrame ke dalam kelas kesalahan
- [SPARK-42983] [SC-127717][SAMBUNGKAN][PyTHON] Memperbaiki createDataFrame untuk menangani array numpy 0-dim dengan benar
- [SPARK-42955] [SC-127476][SQL] Lewati classifyException dan wrap AnalysisException untuk SparkThrowable
- [SPARK-42949] [SC-127255][SQL] Menyederhanakan kode untuk NAAJ
-
[SPARK-43011] [SC-127577][SQL]
array_insert
harus gagal dengan indeks 0 -
[SPARK-42974] [SC-127487][CORE] Pulihkan
Utils.createTempDir
untuk menggunakan metode pembersihanShutdownHookManager
JavaUtils.createTempDir
dan . - [SPARK-42964] [SC-127585][SQL] PosgresDialect '42P07' juga berarti tabel sudah ada
- [SPARK-42978] [SC-127351][SQL] Derby&PG: RENAME tidak dapat memenuhi syarat new-table-Name dengan skema-Name
- [SPARK-37980] [SC-127668][SQL] Akses row_index melalui _metadata jika memungkinkan dalam pengujian
- [SPARK-42655] [SC-127591][SQL] Kesalahan referensi kolom ambigu salah
-
[SPARK-43009] [SC-127596][SQL] Diparameterkan
sql()
denganAny
konstanta - [SPARK-43026] [SC-127590][SQL] Menerapkan AQE dengan cache tabel non-pertukaran
- [SPARK-42963] [SC-127576][SQL] Memperluas SparkSessionExtensions untuk menyuntikkan aturan ke pengoptimal tahap kueri AQE
- [SPARK-42918] [SC-127357] Menggeneralisasi penanganan atribut metadata di FileSourceStrategy
-
[SPARK-42806] [SC-127452][SPARK-42811][SAMBUNGKAN] Menambahkan
Catalog
dukungan - [SPARK-42997] [SC-127535][SQL] TableOutputResolver harus menggunakan jalur kolom yang benar dalam pesan kesalahan untuk array dan peta
- [SPARK-43006] [SC-127486][PySPARK] Memperbaiki kesalahan ketik di StorageLevel eq()
- [SPARK-43005] [SC-127485][PySPARK] Memperbaiki kesalahan ketik di pyspark/pandas/config.py
- [SPARK-43004] [SC-127457][CORE] Memperbaiki kesalahan ketik di ResourceRequest.equals()
- [SPARK-42907] [SC-126984][SAMBUNGKAN][PyTHON] Menerapkan fungsi Avro
- [SPARK-42979] [SC-127272][SQL] Tentukan konstruktor harfiah sebagai kata kunci
- [SPARK-42946] [SC-127252][SQL] Redaksi data sensitif yang ditumpuk oleh substitusi variabel
- [SPARK-42952] [SC-127260][SQL] Menyederhanakan parameter aturan penganalisis PreprocessTableCreation dan DataSourceAnalysis
- [SPARK-42683] [LC-75] Ganti nama kolom metadata yang bertentangan secara otomatis
- [SPARK-42853] [SC-126101][Tindak Lanjut] Memperbaiki konflik
- [SPARK-42929] [SC-126748][CONNECT] membuat dukungan mapInPandas / mapInArrow "is_barrier"
- [SPARK-42968] [SC-127271][SS] Tambahkan opsi untuk melewati koordinator penerapan sebagai bagian dari STREAMINGWrite API untuk sumber/sink DSv2
-
[SPARK-42954] [SC-127261][PyTHON][SAMBUNGKAN] Tambahkan
YearMonthIntervalType
ke Klien PySpark dan Spark Connect Python -
[SPARK-41359] [SC-127256][SQL] Gunakan
PhysicalDataType
alih-alih DataType di UnsafeRow - [SPARK-42873] [SC-127262][SQL] Tentukan jenis Spark SQL sebagai kata kunci
-
[SPARK-42808] [SC-126302][CORE] Hindari mendapatkan availableProcessors setiap kali masuk
MapOutputTrackerMaster#getStatistics
-
[SPARK-42937] [SC-126880][SQL]
PlanSubqueries
harus diaturInSubqueryExec#shouldBroadcast
ke true -
[SPARK-42896] [SC-126729][SQL][PyTHON] Membuat
mapInPandas
/mapInArrow
eksekusi mode hambatan dukungan - [SPARK-42874] [SC-126442][SQL] Aktifkan kerangka kerja pengujian file emas baru untuk analisis untuk semua file input
- [SPARK-42922] [SC-126850][SQL] Pindah dari Random ke SecureRandom
- [SPARK-42753] [SC-126369] ReusedExchange mengacu pada node yang tidak ada
- [SPARK-40822] [SC-126274][SQL] Alias kolom turunan stabil
- [SPARK-42908] [SC-126856][PyTHON] Naikkan RuntimeError saat SparkContext diperlukan tetapi tidak diinisialisasi
- [SPARK-42779] [SC-126042][SQL] Izinkan penulisan V2 untuk menunjukkan ukuran partisi acak penasihat
-
[SPARK-42914] [SC-126727][PyTHON] Gunakan kembali
transformUnregisteredFunction
untukDistributedSequenceID
. - [SPARK-42878] [SC-126882][SAMBUNGKAN] API tabel di DataFrameReader juga dapat menerima opsi
-
[SPARK-42927] [SC-126883][CORE] Mengubah cakupan
o.a.spark.util.Iterators#size
akses menjadiprivate[util]
- [SPARK-42943] [SC-126879][SQL] Gunakan LONGTEXT alih-alih TEXT untuk StringType untuk panjang yang efektif
- [SPARK-37677] [SC-126855][CORE] Unzip dapat menyimpan izin file
- [SPARK-42891] [13.x][SC-126458][SAMBUNGKAN][PyTHON] Menerapkan COGrouped Map API
- [SPARK-41876] [SC-126849][SAMBUNGKAN][PyTHON] Menerapkan DataFrame.toLocalIterator
-
[SPARK-42930] [SC-126761][CORE][SQL] Mengubah cakupan
ProtobufSerDe
akses implementasi terkait menjadiprivate[protobuf]
- [SPARK-42819] [SC-125879][SS] Menambahkan dukungan untuk mengatur max_write_buffer_number dan write_buffer_size untuk RocksDB yang digunakan dalam streaming
- [SPARK-42924] [SC-126737][SQL][SAMBUNGKAN][PyTHON] Mengklarifikasi komentar arg SQL berparameter
- [SPARK-42748] [SC-126455][SAMBUNGKAN] Manajemen Artefak sisi server
- [SPARK-42816] [SC-126365][SAMBUNGKAN] Mendukung ukuran Pesan Maks hingga 128MB
- [SPARK-42850] [SC-126109][SQL] Menghapus aturan duplikat CombineFilters di Optimizer
- [SPARK-42662] [SC-126355][SAMBUNGKAN][PS] Menambahkan pesan proto untuk API panda pada indeks default Spark
- [SPARK-42720] [SC-126136][PS][SQL] Menggunakan ekspresi untuk indeks default urutan terdistribusi alih-alih paket
- [SPARK-42790] [SC-126174][SQL] Abstrak metode yang dikecualikan untuk pengujian yang lebih baik untuk pengujian docker JDBC.
- [SPARK-42900] [SC-126473][SAMBUNGKAN][PyTHON] Perbaiki createDataFrame untuk menghormati nama inferensi dan kolom
- [SPARK-42917] [SC-126657][SQL] Mengoreksi getUpdateColumnNullabilityQuery untuk DerbyDialect
- [SPARK-42684] [SC-125157][SQL] katalog v2 tidak boleh mengizinkan nilai default kolom secara default
- [SPARK-42861] [SC-126635][SQL] Gunakan private[sql] alih-alih dilindungi[sql] untuk menghindari pembuatan dokumen API
- [SPARK-42920] [SC-126728][SAMBUNGKAN][PyTHON] Mengaktifkan pengujian untuk UDF dengan UDT
- [SPARK-42791] [SC-126617][SQL] Membuat kerangka kerja pengujian file emas baru untuk analisis
- [SPARK-42911] [SC-126652][PyTHON] Memperkenalkan pengecualian yang lebih mendasar
- [SPARK-42904] [SC-126634][SQL] Dukungan Char/Varchar untuk Katalog JDBC
-
[SPARK-42901] [SC-126459][SAMBUNGKAN][PyTHON] Pindah
StorageLevel
ke file terpisah untuk menghindari potensifile recursively imports
-
[SPARK-42894] [SC-126451][SAMBUNGKAN] Dukungan
cache
/persist
/unpersist
/storageLevel
untuk klien Spark connect jvm - [SPARK-42792] [SC-125852][SS] Menambahkan dukungan untuk WRITE_FLUSH_BYTES untuk RocksDB yang digunakan dalam operator stateful streaming
- [SPARK-41233] [SC-126441][SAMBUNGKAN][PyTHON] Menambahkan array_prepend ke klien Spark Connect Python
- [SPARK-42681] [SC-125149][SQL] Santai mengurutkan batasan untuk add ALTER TABLE|GANTI deskriptor kolom
- [SPARK-42889] [SC-126367][SAMBUNGKAN][PyTHON] Menerapkan cache, persist, unpersist, dan storageLevel
- [SPARK-42824] [SC-125985][SAMBUNGKAN][PyTHON] Berikan pesan kesalahan yang jelas untuk atribut JVM yang tidak didukung
- [SPARK-42340] [SC-126131][SAMBUNGKAN][PyTHON] Menerapkan API Peta yang Dikelompokkan
- [SPARK-42892] [SC-126454][SQL] Memindahkan sameType dan metode yang relevan dari DataType
-
[SPARK-42827] [SC-126126][SAMBUNGKAN] Dukungan
functions#array_prepend
untuk klien Scala connect -
[SPARK-42823] [SC-125987][SQL]
spark-sql
shell mendukung namespace multipart untuk inisialisasi - [SPARK-42817] [SC-125960][CORE] Mencatat nama layanan acak sekali di ApplicationMaster
- [SPARK-42786] [SC-126438][Sambungkan] Pilih Yang Dititik
-
[SPARK-42800] [SC-125868][SAMBUNGKAN][PyTHON][ML] Menerapkan fungsi ml
{array_to_vector, vector_to_array}
- [SPARK-42052] [SC-126439][SQL] Dukungan Codegen untuk HiveSimpleUDF
-
[SPARK-41233] [SC-126110][SQL][PyTHON] Tambahkan
array_prepend
fungsi -
[SPARK-42864] [SC-126268][ML][3.4] Buat
IsotonicRegression.PointsAccumulator
privat - [SPARK-42876] [SC-126281][SQL] DataType fisik DataType harus bersifat privat[sql]
- [SPARK-42101] [SC-125437][SQL] Membuat dukungan AQE InMemoryTableScanExec
- [SPARK-41290] [SC-124030][SQL] Mendukung ekspresi GENERATED ALWAYS AS untuk kolom dalam pernyataan buat/ganti tabel
-
[SPARK-42870] [SC-126220][SAMBUNGKAN] Pindah
toCatalystValue
keconnect-common
- [SPARK-42247] [SC-126107][SAMBUNGKAN][PyTHON] Perbaiki UserDefinedFunction agar memiliki returnType
- [SPARK-42875] [SC-126258][SAMBUNGKAN][PyTHON] Perbaiki toPandas untuk menangani zona waktu dan jenis peta dengan benar
- [SPARK-42757] [SC-125626][SAMBUNGKAN] Menerapkan textFile untuk DataFrameReader
- [SPARK-42803] [SC-126081][CORE][SQL][ML] Gunakan fungsi getParameterCount alih-alih getParameterTypes.length
-
[SPARK-42833] [SC-126043][SQL] Refaktor
applyExtensions
masukSparkSession
- [SPARK-41765] Kembalikan "[SC-123550][SQL] Tarik keluar metrik tulis v1...
- [SPARK-42848] [SC-126105][SAMBUNGKAN][PyTHON] Menerapkan DataFrame.registerTempTable
- [SPARK-42020] [SC-126103][SAMBUNGKAN][PyTHON] Mendukung UserDefinedType di Spark Connect
- [SPARK-42818] [SC-125861][SAMBUNGKAN][PyTHON] Menerapkan DataFrameReader/Writer.jdbc
- [SPARK-42812] [SC-125867][SAMBUNGKAN] Menambahkan client_type ke pesan addArtifactsRequest protobuf
- [SPARK-42772] [SC-125860][SQL] Ubah nilai default opsi JDBC tentang pendorongan ke true
- [SPARK-42771] [SC-125855][SQL] Refaktor HiveGenericUDF
- [SPARK-25050] [SC-123839][SQL] Avro: menulis serikat pekerja yang kompleks
-
[SPARK-42765] [SC-125850][SAMBUNGKAN][PyTHON] Aktifkan impor
pandas_udf
daripyspark.sql.connect.functions
-
[SPARK-42719] [SC-125225][CORE]
MapOutputTracker#getMapLocation
harus menghormatispark.shuffle.reduceLocality.enabled
- [SPARK-42480] [SC-125173][SQL] Meningkatkan performa partisi penurunan
- [SPARK-42689] [SC-125195][CORE][ACAK] Perbolehkan ShuffleDriverComponent untuk mendeklarasikan apakah data acak disimpan dengan andal
-
[SPARK-42726] [SC-125279][SAMBUNGKAN][PyTHON] Alat
DataFrame.mapInArrow
- [SPARK-41765] [SC-123550][SQL] Menarik keluar metrik tulis v1 ke WriteFiles
- [SPARK-41171] [SC-124191][SQL] Menyimpulkan dan mendorong batas jendela melalui jendela jika partitionSpec kosong
- [SPARK-42686] [SC-125292][CORE] Menukar pemformatan untuk pesan debug di TaskMemoryManager
- [SPARK-42756] [SC-125443][SAMBUNGKAN][PyTHON] Fungsi pembantu untuk mengonversi proto literal ke nilai di Klien Python
-
[SPARK-42793] [SC-125627][SAMBUNGKAN]
connect
modul memerlukanbuild_profile_flags
-
[SPARK-42701] [SC-125192][SQL]
try_aes_decrypt()
Menambahkan fungsi - [SPARK-42679] [SC-125438][SAMBUNGKAN][PYTHON] createDataFrame tidak berfungsi dengan skema yang tidak dapat diubah ke null
- [SPARK-42733] [SC-125542][SAMBUNGKAN][Tindak lanjut] Menulis tanpa jalur atau tabel
- [SPARK-42777] [SC-125525][SQL] Dukungan mengonversi statistik katalog TimestampNTZ ke statistik rencana
-
[SPARK-42770] [SC-125558][SAMBUNGKAN] Tambahkan
truncatedTo(ChronoUnit.MICROS)
untuk membuatSQLImplicitsTestSuite
lulus tugas GA pengujian harian Java 17 - [SPARK-42752] [SC-125550][PySPARK][SQL] Membuat pengecualian PySpark dapat dicetak selama inisialisasi
- [SPARK-42732] [SC-125544][PySPARK][SAMBUNGKAN] Mendukung metode spark connect session getActiveSession
-
[SPARK-42755] [SC-125442][SAMBUNGKAN] Konversi nilai harfiah faktor ke
connect-common
- [SPARK-42747] [SC-125399][ML] Memperbaiki status internal LoR dan AFT yang salah
- [SPARK-42740] [SC-125439][SQL] Memperbaiki bug yang mendorong offset atau halaman tidak valid untuk beberapa dialek bawaan
- [SPARK-42745] [SC-125332][SQL] AliasAwareOutputExpression yang ditingkatkan berfungsi dengan DSv2
- [SPARK-42743] [SC-125330][SQL] Dukungan menganalisis kolom TimestampNTZ
- [SPARK-42721] [SC-125371][SAMBUNGKAN] Pencegat pengelogan RPC
- [SPARK-42691] [SC-125397][SAMBUNGKAN][PyTHON] Menerapkan Dataset.semanticHash
- [SPARK-42688] [SC-124922][SAMBUNGKAN] Ganti nama Connect proto Request client_id ke session_id
- [SPARK-42310] [SC-122792][SQL] Tetapkan nama ke _LEGACY_ERROR_TEMP_1289
- [SPARK-42685] [SC-125339][CORE] Mengoptimalkan rutinitas Utils.bytesToString
- [SPARK-42725] [SC-125296][SAMBUNGKAN][PyTHON] Membuat param array dukungan LiteralExpression
- [SPARK-42702] [SC-125293][SPARK-42623][SQL] Mendukung kueri berparameter dalam subkueri dan CTE
- [SPARK-42697] [SC-125189][WEBUI] Perbaiki /api/v1/applications untuk mengembalikan total waktu aktif alih-alih 0 untuk bidang durasi
- [SPARK-42733] [SC-125278][SAMBUNGKAN][PyTHON] Perbaiki DataFrameWriter.save agar berfungsi tanpa parameter jalur
- [SPARK-42376] [SC-124928][SS] Memperkenalkan penyebaran marka air di antara operator
- [SPARK-42710] [SC-125205][SAMBUNGKAN][PyTHON] Ganti nama frameMap proto menjadi MapPartitions
- [SPARK-37099] [SC-123542][SQL] Perkenalkan batas grup Jendela untuk filter berbasis peringkat untuk mengoptimalkan komputasi k atas
- [SPARK-42630] [SC-125207][SAMBUNGKAN][PyTHON] Memperkenalkan UnparsedDataType dan menunda penguraian string DDL hingga SparkConnectClient tersedia
- [SPARK-42690] [SC-125193][SAMBUNGKAN] Menerapkan fungsi penguraian CSV/JSON untuk klien Scala
-
[SPARK-42709] [SC-125172][PyTHON] Menghapus asumsi
__file__
tersedia - [SPARK-42318] [SC-122648][SPARK-42319][SQL] Tetapkan nama ke LEGACY_ERROR_TEMP(2123|2125)
- [SPARK-42723] [SC-125183][SQL] Mendukung pengurai jenis data json "timestamp_ltz" sebagai TimestampType
- [SPARK-42722] [SC-125175][SAMBUNGKAN][PyTHON] Python Connect def schema() tidak boleh menyimpan skema
- [SPARK-42643] [SC-125152][SAMBUNGKAN][PyTHON] Mendaftarkan fungsi yang ditentukan pengguna Java (agregat)
- [SPARK-42656] [SC-125177][SAMBUNGKAN][Tindak lanjut] Memperbaiki skrip spark-connect
- [SPARK-41516] [SC-123899] [SQL] Perbolehkan dialek jdbc untuk mengambil alih kueri yang digunakan untuk membuat tabel
- [SPARK-41725] [SC-124396][SAMBUNGKAN] Eksekusi bersemangat DF.sql()
-
[SPARK-42687] [SC-124896][SS] Pesan kesalahan yang lebih baik untuk operasi yang tidak didukung
pivot
di Streaming - [SPARK-42676] [SC-124809][SS] Menulis titik pemeriksaan sementara untuk kueri streaming ke sistem file lokal meskipun FS default diatur secara berbeda
- [SPARK-42303] [SC-122644][SQL] Tetapkan nama ke _LEGACY_ERROR_TEMP_1326
- [SPARK-42553] [SC-124560][SQL] Pastikan setidaknya satu unit waktu setelah "interval"
- [SPARK-42649] [SC-124576][CORE] Menghapus header Lisensi Apache standar dari bagian atas file sumber pihak ketiga
- [SPARK-42611] [SC-124395][SQL] Sisipkan pemeriksaan panjang karakter/varchar untuk bidang dalam selama resolusi
- [SPARK-42419] [SC-124019][SAMBUNGKAN][PyTHON] Migrasikan ke kerangka kerja kesalahan untuk Spark Connect Column API.
- [SPARK-42637] [SC-124522][SAMBUNGKAN] Tambahkan SparkSession.stop()
- [SPARK-42647] [SC-124647][PyTHON] Mengubah alias untuk jenis numpy yang tidak digunakan lagi dan dihapus
- [SPARK-42616] [SC-124389][SQL] SparkSQLCLIDriver hanya boleh menutup memulai hive sessionState
- [SPARK-42593] [SC-124405][PS] Hentikan & hapus API yang akan dihapus di pandas 2.0.
- [SPARK-41870] [SC-124402][SAMBUNGKAN][PyTHON] Memperbaiki createDataFrame untuk menangani nama kolom duplikat
- [SPARK-42569] [SC-124379][SAMBUNGKAN] Melemparkan pengecualian untuk API sesi yang tidak didukung
- [SPARK-42631] [SC-124526][SAMBUNGKAN] Mendukung ekstensi kustom di klien Scala
- [SPARK-41868] [SC-124387][SAMBUNGKAN][PyTHON] Memperbaiki createDataFrame untuk mendukung durasi
- [SPARK-42572] [SC-124171][SQL][SS] Memperbaiki perilaku untuk StateStoreProvider.validateStateRowFormat
Pembaruan pemeliharaan
Lihat Pembaruan pemeliharaan Databricks Runtime 13.1.
Lingkungan sistem
- Sistem Operasi: Ubuntu 22.04.2 LTS
- Java: Zulu 8.70.0.23-CA-linux64
- Scala: 2.12.15
- Python: 3.10.12
- R: 4.2.2
- Danau Delta: 2.4.0
Pustaka Python yang diinstal
Pustaka | Versi | Pustaka | Versi | Pustaka | Versi |
---|---|---|---|---|---|
appdirs | 1.4.4 | argon2-cffi | 21.3.0 | argon2-cffi-bindings | 21.2.0 |
asttoken | 2.2.1 | attrs | 21.4.0 | backcall | 0.2.0 |
beautifulsoup4 | 4.11.1 | hitam | 22.6.0 | pemutih | 4.1.0 |
blinker | 1.4 | boto3 | 1.24.28 | botocore | 1.27.28 |
certifi | 2022.9.14 | cffi | 1.15.1 | chardet | 4.0.0 |
charset-normalizer | 2.0.4 | klik | 8.0.4 | cryptography | 37.0.1 |
cycler | 0.11.0 | Cython | 0.29.32 | dbus-python | 1.2.18 |
debugpy | 1.5.1 | decorator | 5.1.1 | defusedxml | 0.7.1 |
distlib | 0.3.6 | docstring-to-markdown | 0.12 | titik masuk | 0,4 |
menjalankan | 1.2.0 | facets-overview | 1.0.3 | fastjsonschema | 2.16.3 |
filelock | 3.12.0 | fonttools | 4.25.0 | googleapis-common-protos | 1.56.4 |
grpcio | 1.48.1 | grpcio-status | 1.48.1 | httplib2 | 0.20.2 |
idna | 3.3 | importlib-metadata | 4.6.4 | ipykernel | 6.17.1 |
ipython | 8.10.0 | ipython-genutils | 0.2.0 | ipywidgets | 7.7.2 |
jedi | 0.18.1 | Jeepney | 0.7.1 | Jinja2 | 2.11.3 |
jmespath | 0.10.0 | joblib | 1.2.0 | jsonschema | 4.16.0 |
jupyter-client | 7.3.4 | jupyter_core | 4.11.2 | jupyterlab-pygments | 0.1.2 |
jupyterlab-widgets | 1.0.0 | keyring | 23.5.0 | kiwisolver | 1.4.2 |
launchpadlib | 1.10.16 | lazr.restfulclient | 0.14.4 | lazr.uri | 1.0.6 |
MarkupSafe | 2.0.1 | matplotlib | 3.5.2 | matplotlib-inline | 0.1.6 |
Mccabe | 0.7.0 | mistune | 0.8.4 | more-itertools | 8.10.0 |
ekstensi mypy | 0.4.3 | nbclient | 0.5.13 | nbconvert | 6.4.4 |
nbformat | 5.5.0 | nest-asyncio | 1.5.5 | nodeenv | 1.7.0 |
buku catatan | 6.4.12 | numpy | 1.21.5 | oauthlib | 3.2.0 |
packaging | 21.3 | pandas | 1.4.4 | pandocfilters | 1.5.0 |
parso | 0.8.3 | pathspec | 0.9.0 | patsy | 0.5.2 |
pexpect=4.8.0 | 4.8.0 | pickleshare | 0.7.5 | Pillow | 9.2.0 |
pip | 22.2.2 | platformdir | 2.5.2 | plotly | 5.9.0 |
pluggy | 1.0.0 | prometheus-client | 0.14.1 | prompt-toolkit | 3.0.36 |
protobuf | 3.19.4 | psutil | 5.9.0 | psycopg2 | 2.9.3 |
ptyprocess | 0.7.0 | pure-eval | 0.2.2 | pyarrow | 8.0.0 |
pycparser | 2.21 | pydantic | 1.10.6 | pyflakes | 3.0.1 |
Pygments | 2.11.2 | PyGObject | 3.42.1 | PyJWT | 2.3.0 |
pyodbc | 4.0.32 | pyparsing | 3.0.9 | pyright | 1.1.294 |
pyrsistent | 0.18.0 | python-dateutil | 2.8.2 | python-lsp-jsonrpc | 1.0.0 |
python-lsp-server | 1.7.1 | pytoolconfig | 1.2.2 | pytz | 2022.1 |
pyzmq | 23.2.0 | permintaan | 2.28.1 | tali | 1.7.0 |
s3transfer | 0.6.0 | scikit-learn | 1.1.1 | scipy | 1.9.1 |
seaborn | 0.11.2 | SecretStorage | 3.3.1 | Send2Trash | 1.8.0 |
setuptools | 63.4.1 | six | 1.16.0 | soupsieve | 2.3.1 |
ssh-import-id | 5.11 | stack-data | 0.6.2 | statsmodels | 0.13.2 |
tenacity | 8.1.0 | terminado | 0.13.1 | testpath | 0.6.0 |
threadpoolctl | 2.2.0 | tokenize-rt | 4.2.1 | tomli | 2.0.1 |
tornado | 6.1 | traitlets=5.0.5 | 5.1.1 | typing_extensions | 4.3.0 |
ujson | 5.4.0 | unattended-upgrades | 0.1 | urllib3 | 1.26.11 |
virtualenv | 20.16.3 | wadllib | 1.3.6 | wcwidth | 0.2.5 |
webencodings=0.5.1 | 0.5.1 | whatthepatch | 1.0.2 | wheel | 0.37.1 |
widgetsnbextension | 3.6.1 | yapf | 0.31.0 | zipp | 1.0.0 |
Pustaka R yang diinstal
Pustaka R diinstal dari rekam jepret Microsoft CRAN pada 2023-02-10.
Pustaka | Versi | Pustaka | Versi | Pustaka | Versi |
---|---|---|---|---|---|
anak panah | 10.0.1 | askpass | 1.1 | assertthat | 0.2.1 |
backports | 1.4.1 | dasar | 4.2.2 | base64enc | 0.1-3 |
bit | 4.0.5 | bit64 | 4.0.5 | blob | 1.2.3 |
boot | 1.3-28 | brew | 1,0-8 | brio | 1.1.3 |
broom | 1.0.3 | bslib | 0.4.2 | cachem | 1.0.6 |
callr | 3.7.3 | caret | 6.0-93 | cellranger | 1.1.0 |
chron | 2.3-59 | kelas | 7.3-21 | cli | 3.6.0 |
clipr | 0.8.0 | Jam | 0.6.1 | klaster | 2.1.4 |
codetools | 0.2-19 | colorspace | 2.1-0 | commonmark | 1.8.1 |
compiler | 4.2.2 | config | 0.3.1 | cpp11 | 0.4.3 |
crayon | 1.5.2 | informasi masuk | 1.3.2 | curl | 5.0.0 |
data.table | 1.14.6 | datasets | 4.2.2 | DBI | 1.1.3 |
dbplyr | 2.3.0 | desc | 1.4.2 | devtools | 2.4.5 |
diffobj | 0.3.5 | digest | 0.6.31 | downlit | 0.4.2 |
dplyr | 1.1.0 | dtplyr | 1.2.2 | e1071 | 1.7-13 |
ellipsis | 0.3.2 | evaluate | 0.20 | fansi | 1.0.4 |
farver | 2.1.1 | fastmap | 1.1.0 | fontawesome | 0.5.0 |
forcats | 1.0.0 | foreach | 1.5.2 | foreign | 0.8-82 |
forge | 0.2.0 | fs | 1.6.1 | future | 1.31.0 |
future.apply | 1.10.0 | gargle | 1.3.0 | generics | 0.1.3 |
Gert | 1.9.2 | ggplot2 | 3.4.0 | GH | 1.3.1 |
gitcreds | 0.1.2 | glmnet | 4.1-6 | globals | 0.16.2 |
glue | 1.6.2 | googledrive | 2.0.0 | googlesheets4 | 1.0.1 |
gower | 1.0.1 | graphics | 4.2.2 | grDevices | 4.2.2 |
grid | 4.2.2 | gridExtra | 2.3 | gsubfn | 0,7 |
gtable | 0.3.1 | hardhat | 1.2.0 | haven | 2.5.1 |
highr | 0.10 | hms | 1.1.2 | htmltools | 0.5.4 |
htmlwidgets | 1.6.1 | httpuv | 1.6.8 | httr | 1.4.4 |
ids | 1.0.1 | ini | 0.3.1 | ipred | 0.9-13 |
isoband | 0.2.7 | iterators | 1.0.14 | jquerylib | 0.1.4 |
jsonlite | 1.8.4 | KernSmooth | 2.23-20 | knitr | 1.42 |
labeling | 0.4.2 | later | 1.3.0 | lattice | 0.20-45 |
lava | 1.7.1 | lifecycle | 1.0.3 | listenv | 0.9.0 |
lubridate | 1.9.1 | magrittr | 2.0.3 | markdown | 1.5 |
MASS | 7.3-58.2 | Matrix | 1.5-1 | memoise | 2.0.1 |
methods | 4.2.2 | mgcv | 1.8-41 | mime | 0.12 |
miniUI | 0.1.1.1 | ModelMetrics | 1.2.2.2 | modelr | 0.1.10 |
munsell | 0.5.0 | nlme | 3.1-162 | nnet | 7.3-18 |
numDeriv | 2016.8-1.1 | openssl | 2.0.5 | parallel | 4.2.2 |
parallelly | 1.34.0 | pillar | 1.8.1 | pkgbuild | 1.4.0 |
pkgconfig | 2.0.3 | pkgdown | 2.0.7 | pkgload | 1.3.2 |
plogr | 0.2.0 | plyr | 1.8.8 | praise | 1.0.0 |
prettyunits | 1.1.1 | pROC | 1.18.0 | processx | 3.8.0 |
prodlim | 2019.11.13 | profvis | 0.3.7 | kemajuan | 1.2.2 |
progressr | 0.13.0 | promises | 1.2.0.1 | proto | 1.0.0 |
proksi | 0.4-27 | ps | 1.7.2 | purrr | 1.0.1 |
r2d3 | 0.2.6 | R6 | 2.5.1 | ragg | 1.2.5 |
randomForest | 4.7-1.1 | rappdirs | 0.3.3 | rcmdcheck | 1.4.0 |
RColorBrewer | 1.1-3 | Rcpp | 1.0.10 | RcppEigen | 0.3.3.9.3 |
readr | 2.1.3 | readxl | 1.4.2 | recipes | 1.0.4 |
rematch | 1.0.1 | rematch2 | 2.1.2 | remotes | 2.4.2 |
reprex | 2.0.2 | reshape2 | 1.4.4 | rlang | 1.0.6 |
rmarkdown | 2,20 | RODBC | 1.3-20 | roxygen2 | 7.2.3 |
rpart | 4.1.19 | rprojroot | 2.0.3 | Rserve | 1.8-12 |
RSQLite | 2.2.20 | rstudioapi | 0.14 | rversions | 2.1.2 |
rvest | 1.0.3 | sass | 0.4.5 | scales | 1.2.1 |
selectr | 0.4-2 | sessioninfo | 1.2.2 | bentuk | 1.4.6 |
shiny | 1.7.4 | sourcetools | 0.1.7-1 | sparklyr | 1.7.9 |
SparkR | 3.4.0 | spatial | 7.3-15 | splines | 4.2.2 |
sqldf | 0.4-11 | SQUAREM | 2021.1 | stats | 4.2.2 |
stats4 | 4.2.2 | stringi | 1.7.12 | stringr | 1.5.0 |
survival | 3.5-3 | sys | 3.4.1 | systemfonts | 1.0.4 |
tcltk | 4.2.2 | testthat | 3.1.6 | pembahasan teks | 0.3.6 |
tibble | 3.1.8 | tidyr | 1.3.0 | tidyselect | 1.2.0 |
tidyverse | 1.3.2 | pertukaran waktu | 0.2.0 | timeDate | 4022.108 |
tinytex | 0,44 | alat | 4.2.2 | tzdb | 0.3.0 |
urlchecker | 1.0.1 | usethis | 2.1.6 | utf8 | 1.2.3 |
utils | 4.2.2 | uuid | 1.1-0 | vctrs | 0.5.2 |
viridisLite | 0.4.1 | vroom | 1.6.1 | waldo | 0.4.0 |
whisker | 0.4.1 | withr | 2.5.0 | xfun | 0.37 |
xml2 | 1.3.3 | xopen | 1.0.0 | xtable | 1.8-4 |
yaml | 2.3.7 | zip | 2.2.2 |
Pustaka Java dan Scala yang diinstal (versi kluster Scala 2.12)
ID Grup | ID Artefak | Versi |
---|---|---|
antlr | antlr | 2.7.7 |
com.amazonaws | amazon-kinesis-client | 1.12.0 |
com.amazonaws | aws-java-sdk-autoscaling | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudformation | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudfront | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudhsm | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudsearch | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudtrail | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudwatch | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.390 |
com.amazonaws | aws-java-sdk-codedeploy | 1.12.390 |
com.amazonaws | aws-java-sdk-cognitoidentity | 1.12.390 |
com.amazonaws | aws-java-sdk-cognitosync | 1.12.390 |
com.amazonaws | aws-java-sdk-config | 1.12.390 |
com.amazonaws | aws-java-sdk-core | 1.12.390 |
com.amazonaws | aws-java-sdk-datapipeline | 1.12.390 |
com.amazonaws | aws-java-sdk-directconnect | 1.12.390 |
com.amazonaws | aws-java-sdk-directory | 1.12.390 |
com.amazonaws | aws-java-sdk-dynamodb | 1.12.390 |
com.amazonaws | aws-java-sdk-ec2 | 1.12.390 |
com.amazonaws | aws-java-sdk-ecs | 1.12.390 |
com.amazonaws | aws-java-sdk-efs | 1.12.390 |
com.amazonaws | aws-java-sdk-elasticache | 1.12.390 |
com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.12.390 |
com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.12.390 |
com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.390 |
com.amazonaws | aws-java-sdk-emr | 1.12.390 |
com.amazonaws | aws-java-sdk-glacier | 1.12.390 |
com.amazonaws | aws-java-sdk-glue | 1.12.390 |
com.amazonaws | aws-java-sdk-iam | 1.12.390 |
com.amazonaws | aws-java-sdk-importexport | 1.12.390 |
com.amazonaws | aws-java-sdk-kinesis | 1.12.390 |
com.amazonaws | aws-java-sdk-kms | 1.12.390 |
com.amazonaws | aws-java-sdk-lambda | 1.12.390 |
com.amazonaws | aws-java-sdk-logs | 1.12.390 |
com.amazonaws | aws-java-sdk-machinelearning | 1.12.390 |
com.amazonaws | aws-java-sdk-opsworks | 1.12.390 |
com.amazonaws | aws-java-sdk-rds | 1.12.390 |
com.amazonaws | aws-java-sdk-redshift | 1.12.390 |
com.amazonaws | aws-java-sdk-route53 | 1.12.390 |
com.amazonaws | aws-java-sdk-s3 | 1.12.390 |
com.amazonaws | aws-java-sdk-ses | 1.12.390 |
com.amazonaws | aws-java-sdk-simpledb | 1.12.390 |
com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.390 |
com.amazonaws | aws-java-sdk-sns | 1.12.390 |
com.amazonaws | aws-java-sdk-sqs | 1.12.390 |
com.amazonaws | aws-java-sdk-ssm | 1.12.390 |
com.amazonaws | aws-java-sdk-storagegateway | 1.12.390 |
com.amazonaws | aws-java-sdk-sts | 1.12.390 |
com.amazonaws | aws-java-sdk-support | 1.12.390 |
com.amazonaws | aws-java-sdk-swf-libraries | 1.11.22 |
com.amazonaws | aws-java-sdk-workspaces | 1.12.390 |
com.amazonaws | jmespath-java | 1.12.390 |
com.clearspring.analytics | stream | 2.9.6 |
com.databricks | Rserve | 1.8-3 |
com.databricks | jets3t | 0.7.1-0 |
com.databricks.scalapb | compilerplugin_2.12 | 0.4.15-10 |
com.databricks.scalapb | scalapb-runtime_2.12 | 0.4.15-10 |
com.esotericsoftware | kryo-shaded | 4.0.2 |
com.esotericsoftware | minlog | 1.3.0 |
com.fasterxml | classmate | 1.3.4 |
com.fasterxml.jackson.core | jackson-annotations | 2.14.2 |
com.fasterxml.jackson.core | jackson-core | 2.14.2 |
com.fasterxml.jackson.core | jackson-databind | 2.14.2 |
com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.14.2 |
com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.14.2 |
com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.13.4 |
com.fasterxml.jackson.module | jackson-module-paranamer | 2.14.2 |
com.fasterxml.jackson.module | jackson-module-scala_2.12 | 2.14.2 |
com.github.ben-manes.caffeine | caffeine | 2.9.3 |
com.github.fommil | jniloader | 1.1 |
com.github.fommil.netlib | native_ref-java | 1.1 |
com.github.fommil.netlib | native_ref-java | 1.1-asli |
com.github.fommil.netlib | native_system-java | 1.1 |
com.github.fommil.netlib | native_system-java | 1.1-asli |
com.github.fommil.netlib | netlib-native_ref-linux-x86_64 | 1.1-asli |
com.github.fommil.netlib | netlib-native_system-linux-x86_64 | 1.1-asli |
com.github.luben | zstd-jni | 1.5.2-5 |
com.github.wendykierp | JTransforms | 3.1 |
com.google.code.findbugs | jsr305 | 3.0.0 |
com.google.code.gson | gson | 2.8.9 |
com.google.crypto.tink | tink | 1.7.0 |
com.google.errorprone | error_prone_annotations | 2.10.0 |
com.google.flatbuffers | flatbuffers-java | 1.12.0 |
com.google.guava | guava | 15.0 |
com.google.protobuf | protobuf-java | 2.6.1 |
com.h2database | h2 | 2.1.214 |
com.helger | profiler | 1.1.1 |
com.jcraft | jsch | 0.1.55 |
com.jolbox | bonecp | 0.8.0.RELEASE |
com.lihaoyi | sourcecode_2.12 | 0.1.9 |
com.microsoft.azure | azure-data-lake-store-sdk | 2.3.9 |
com.microsoft.sqlserver | mssql-jdbc | 11.2.2.jre8 |
com.ning | compress-lzf | 1.1.2 |
com.sun.mail | javax.mail | 1.5.2 |
com.sun.xml.bind | jaxb-core | 2.2.11 |
com.sun.xml.bind | jaxb-impl | 2.2.11 |
com.tdunning | json | 1.8 |
com.thoughtworks.paranamer | paranamer | 2.8 |
com.trueaccord.lenses | lenses_2.12 | 0.4.12 |
com.twitter | chill-java | 0.10.0 |
com.twitter | chill_2.12 | 0.10.0 |
com.twitter | util-app_2.12 | 7.1.0 |
com.twitter | util-app_2.12 | 7.1.0 |
com.twitter | util-function_2.12 | 7.1.0 |
com.twitter | util-jvm_2.12 | 7.1.0 |
com.twitter | util-lint_2.12 | 7.1.0 |
com.twitter | util-registry_2.12 | 7.1.0 |
com.twitter | util-stats_2.12 | 7.1.0 |
com.typesafe | config | 1.2.1 |
com.typesafe.scala-logging | scala-logging_2.12 | 3.7.2 |
com.uber | h3 | 3.7.0 |
com.univocity | univocity-parsers | 2.9.1 |
com.zaxxer | HikariCP | 4.0.3 |
commons-cli | commons-cli | 1.5.0 |
commons-codec | commons-codec | 1.15 |
commons-collections | commons-collections | 3.2.2 |
commons-dbcp | commons-dbcp | 1.4 |
commons-fileupload | commons-fileupload | 1.5 |
commons-httpclient | commons-httpclient | 3.1 |
commons-io | commons-io | 2.11.0 |
commons-lang | commons-lang | 2.6 |
commons-logging | commons-logging | 1.1.3 |
commons-pool | commons-pool | 1.5.4 |
dev.ludovic.netlib | arpack | 3.0.3 |
dev.ludovic.netlib | blas | 3.0.3 |
dev.ludovic.netlib | lapack | 3.0.3 |
info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
io.airlift | aircompressor | 0,21% |
io.delta | delta-sharing-spark_2.12 | 0.6.4 |
io.dropwizard.metrics | metrics-core | 4.2.10 |
io.dropwizard.metrics | metrics-graphite | 4.2.10 |
io.dropwizard.metrics | metrics-healthchecks | 4.2.10 |
io.dropwizard.metrics | metrics-jetty9 | 4.2.10 |
io.dropwizard.metrics | metrics-jmx | 4.2.10 |
io.dropwizard.metrics | metrics-json | 4.2.10 |
io.dropwizard.metrics | metrics-jvm | 4.2.10 |
io.dropwizard.metrics | metrics-servlets | 4.2.10 |
io.netty | netty-all | 4.1.87.Final |
io.netty | netty-buffer | 4.1.87.Final |
io.netty | netty-codec | 4.1.87.Final |
io.netty | netty-codec-http | 4.1.87.Final |
io.netty | netty-codec-http2 | 4.1.87.Final |
io.netty | netty-codec-socks | 4.1.87.Final |
io.netty | netty-common | 4.1.87.Final |
io.netty | netty-handler | 4.1.87.Final |
io.netty | netty-handler-proxy | 4.1.87.Final |
io.netty | netty-resolver | 4.1.87.Final |
io.netty | netty-transport | 4.1.87.Final |
io.netty | netty-transport-classes-epoll | 4.1.87.Final |
io.netty | netty-transport-classes-kqueue | 4.1.87.Final |
io.netty | netty-transport-native-epoll | 4.1.87.Final |
io.netty | netty-transport-native-epoll | 4.1.87.Final-linux-aarch_64 |
io.netty | netty-transport-native-epoll | 4.1.87.Final-linux-x86_64 |
io.netty | netty-transport-native-kqueue | 4.1.87.Final-osx-aarch_64 |
io.netty | netty-transport-native-kqueue | 4.1.87.Final-osx-x86_64 |
io.netty | netty-transport-native-unix-common | 4.1.87.Final |
io.prometheus | simpleclient | 0.7.0 |
io.prometheus | simpleclient_common | 0.7.0 |
io.prometheus | simpleclient_dropwizard | 0.7.0 |
io.prometheus | simpleclient_pushgateway | 0.7.0 |
io.prometheus | simpleclient_servlet | 0.7.0 |
io.prometheus.jmx | collector | 0.12.0 |
jakarta.annotation | jakarta.annotation-api | 1.3.5 |
jakarta.servlet | jakarta.servlet-api | 4.0.3 |
jakarta.validation | jakarta.validation-api | 2.0.2 |
jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
javax.activation | activation | 1.1.1 |
javax.el | javax.el-api | 2.2.4 |
javax.jdo | jdo-api | 3.0.1 |
javax.transaction | jta | 1.1 |
javax.transaction | transaction-api | 1.1 |
javax.xml.bind | jaxb-api | 2.2.11 |
javolution | javolution | 5.5.1 |
jline | jline | 2.14.6 |
joda-time | joda-time | 2.12.1 |
ml.combust.mleap | mleap-databricks-runtime_2.12 | v0.20.0-db2 |
net.java.dev.jna | jna | 5.8.0 |
net.razorvine | acar | 1.3 |
net.sf.jpam | jpam | 1.1 |
net.sf.opencsv | opencsv | 2.3 |
net.sf.supercsv | super-csv | 2.2.0 |
net.snowflake | snowflake-ingest-sdk | 0.9.6 |
net.snowflake | snowflake-jdbc | 3.13.22 |
net.sourceforge.f2j | arpack_combined_all | 0.1 |
org.acplt.remotetea | remotetea-oncrpc | 1.1.2 |
org.antlr | ST4 | 4.0.4 |
org.antlr | antlr-runtime | 3.5.2 |
org.antlr | antlr4-runtime | 4.9.3 |
org.antlr | stringtemplate | 3.2.1 |
org.apache.ant | ant | 1.9.16 |
org.apache.ant | ant-jsch | 1.9.16 |
org.apache.ant | ant-launcher | 1.9.16 |
org.apache.arrow | arrow-format | 11.0.0 |
org.apache.arrow | arrow-memory-core | 11.0.0 |
org.apache.arrow | arrow-memory-netty | 11.0.0 |
org.apache.arrow | arrow-vector | 11.0.0 |
org.apache.avro | avro | 1.11.1 |
org.apache.avro | avro-ipc | 1.11.1 |
org.apache.avro | avro-mapred | 1.11.1 |
org.apache.commons | commons-collections4 | 4.4 |
org.apache.commons | commons-compress | 1.21 |
org.apache.commons | commons-crypto | 1.1.0 |
org.apache.commons | commons-lang3 | 3.12.0 |
org.apache.commons | commons-math3 | 3.6.1 |
org.apache.commons | commons-text | 1.10.0 |
org.apache.curator | curator-client | 2.13.0 |
org.apache.curator | curator-framework | 2.13.0 |
org.apache.curator | curator-recipes | 2.13.0 |
org.apache.datasketches | datasketches-java | 3.1.0 |
org.apache.datasketches | datasketches-memory | 2.0.0 |
org.apache.derby | derby | 10.14.2.0 |
org.apache.hadoop | hadoop-client-runtime | 3.3.4 |
org.apache.hive | hive-beeline | 2.3.9 |
org.apache.hive | hive-cli | 2.3.9 |
org.apache.hive | hive-jdbc | 2.3.9 |
org.apache.hive | hive-llap-client | 2.3.9 |
org.apache.hive | hive-llap-common | 2.3.9 |
org.apache.hive | hive-serde | 2.3.9 |
org.apache.hive | hive-shims | 2.3.9 |
org.apache.hive | hive-storage-api | 2.8.1 |
org.apache.hive.shims | hive-shims-0.23 | 2.3.9 |
org.apache.hive.shims | hive-shims-common | 2.3.9 |
org.apache.hive.shims | hive-shims-scheduler | 2.3.9 |
org.apache.httpcomponents | httpclient | 4.5.14 |
org.apache.httpcomponents | httpcore | 4.4.16 |
org.apache.ivy | ivy | 2.5.1 |
org.apache.logging.log4j | log4j-1.2-api | 2.19.0 |
org.apache.logging.log4j | log4j-api | 2.19.0 |
org.apache.logging.log4j | log4j-core | 2.19.0 |
org.apache.logging.log4j | log4j-slf4j2-impl | 2.19.0 |
org.apache.mesos | mesos | 1.11.0-shaded-protobuf |
org.apache.orc | orc-core | 1.8.3-shaded-protobuf |
org.apache.orc | orc-mapreduce | 1.8.3-shaded-protobuf |
org.apache.orc | orc-shims | 1.8.3 |
org.apache.thrift | libfb303 | 0.9.3 |
org.apache.thrift | libthrift | 0.12.0 |
org.apache.xbean | xbean-asm9-shaded | 4.22 |
org.apache.yetus | audience-annotations | 0.13.0 |
org.apache.zookeeper | zookeeper | 3.6.3 |
org.apache.zookeeper | zookeeper-jute | 3.6.3 |
org.checkerframework | checker-qual | 3.19.0 |
org.codehaus.jackson | jackson-core-asl | 1.9.13 |
org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
org.codehaus.janino | commons-compiler | 3.0.16 |
org.codehaus.janino | janino | 3.0.16 |
org.datanucleus | datanucleus-api-jdo | 4.2.4 |
org.datanucleus | datanucleus-core | 4.1.17 |
org.datanucleus | datanucleus-rdbms | 4.1.19 |
org.datanucleus | javax.jdo | 3.2.0-m3 |
org.eclipse.jetty | jetty-client | 9.4.50.v20221201 |
org.eclipse.jetty | jetty-continuation | 9.4.50.v20221201 |
org.eclipse.jetty | jetty-http | 9.4.50.v20221201 |
org.eclipse.jetty | jetty-io | 9.4.50.v20221201 |
org.eclipse.jetty | jetty-jndi | 9.4.50.v20221201 |
org.eclipse.jetty | jetty-plus | 9.4.50.v20221201 |
org.eclipse.jetty | jetty-proxy | 9.4.50.v20221201 |
org.eclipse.jetty | jetty-security | 9.4.50.v20221201 |
org.eclipse.jetty | jetty-server | 9.4.50.v20221201 |
org.eclipse.jetty | jetty-servlet | 9.4.50.v20221201 |
org.eclipse.jetty | jetty-servlets | 9.4.50.v20221201 |
org.eclipse.jetty | jetty-util | 9.4.50.v20221201 |
org.eclipse.jetty | jetty-util-ajax | 9.4.50.v20221201 |
org.eclipse.jetty | jetty-webapp | 9.4.50.v20221201 |
org.eclipse.jetty | jetty-xml | 9.4.50.v20221201 |
org.eclipse.jetty.websocket | websocket-api | 9.4.50.v20221201 |
org.eclipse.jetty.websocket | websocket-client | 9.4.50.v20221201 |
org.eclipse.jetty.websocket | websocket-common | 9.4.50.v20221201 |
org.eclipse.jetty.websocket | websocket-server | 9.4.50.v20221201 |
org.eclipse.jetty.websocket | websocket-servlet | 9.4.50.v20221201 |
org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
org.glassfish.hk2 | hk2-api | 2.6.1 |
org.glassfish.hk2 | hk2-locator | 2.6.1 |
org.glassfish.hk2 | hk2-utils | 2.6.1 |
org.glassfish.hk2 | osgi-resource-locator | 1.0.3 |
org.glassfish.hk2.external | aopalliance-repackaged | 2.6.1 |
org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
org.glassfish.jersey.containers | jersey-container-servlet | 2.36 |
org.glassfish.jersey.containers | jersey-container-servlet-core | 2.36 |
org.glassfish.jersey.core | jersey-client | 2.36 |
org.glassfish.jersey.core | jersey-common | 2.36 |
org.glassfish.jersey.core | jersey-server | 2.36 |
org.glassfish.jersey.inject | jersey-hk2 | 2.36 |
org.hibernate.validator | hibernate-validator | 6.1.7.Final |
org.javassist | javassist | 3.25.0-GA |
org.jboss.logging | jboss-logging | 3.3.2.Final |
org.jdbi | jdbi | 2.63.1 |
org.jetbrains | anotasi | 17.0.0 |
org.joda | joda-convert | 1.7 |
org.jodd | jodd-core | 3.5.2 |
org.json4s | json4s-ast_2.12 | 3.7.0-M11 |
org.json4s | json4s-core_2.12 | 3.7.0-M11 |
org.json4s | json4s-jackson_2.12 | 3.7.0-M11 |
org.json4s | json4s-scalap_2.12 | 3.7.0-M11 |
org.lz4 | lz4-java | 1.8.0 |
org.mariadb.jdbc | mariadb-java-client | 2.7.4 |
org.mlflow | mlflow-spark | 2.2.0 |
org.objenesis | objenesis | 2.5.1 |
org.postgresql | postgresql | 42.3.8 |
org.roaringbitmap | RoaringBitmap | 0.9.39 |
org.roaringbitmap | shims | 0.9.39 |
org.rocksdb | rocksdbjni | 7.8.3 |
org.rosuda.REngine | REngine | 2.1.0 |
org.scala-lang | scala-compiler_2.12 | 2.12.15 |
org.scala-lang | scala-library_2.12 | 2.12.15 |
org.scala-lang | scala-reflect_2.12 | 2.12.15 |
org.scala-lang.modules | scala-collection-compat_2.12 | 2.4.3 |
org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
org.scala-lang.modules | scala-xml_2.12 | 1.2.0 |
org.scala-sbt | test-interface | 1.0 |
org.scalacheck | scalacheck_2.12 | 1.14.2 |
org.scalactic | scalactic_2.12 | 3.2.15 |
org.scalanlp | breeze-macros_2.12 | 2.1.0 |
org.scalanlp | breeze_2.12 | 2.1.0 |
org.scalatest | kompatibel dengan skalar | 3.2.15 |
org.scalatest | scalatest-core_2.12 | 3.2.15 |
org.scalatest | scalatest-diagrams_2.12 | 3.2.15 |
org.scalatest | scalatest-featurespec_2.12 | 3.2.15 |
org.scalatest | scalatest-flatspec_2.12 | 3.2.15 |
org.scalatest | scalatest-freespec_2.12 | 3.2.15 |
org.scalatest | scalatest-funspec_2.12 | 3.2.15 |
org.scalatest | scalatest-funsuite_2.12 | 3.2.15 |
org.scalatest | scalatest-matchers-core_2.12 | 3.2.15 |
org.scalatest | scalatest-mustmatchers_2.12 | 3.2.15 |
org.scalatest | scalatest-propspec_2.12 | 3.2.15 |
org.scalatest | scalatest-refspec_2.12 | 3.2.15 |
org.scalatest | scalatest-shouldmatchers_2.12 | 3.2.15 |
org.scalatest | scalatest-wordspec_2.12 | 3.2.15 |
org.scalatest | scalatest_2.12 | 3.2.15 |
org.slf4j | jcl-over-slf4j | 2.0.6 |
org.slf4j | jul-to-slf4j | 2.0.6 |
org.slf4j | slf4j-api | 2.0.6 |
org.threeten | threeten-extra | 1.7.1 |
org.tukaani | xz | 1.9 |
org.typelevel | algebra_2.12 | 2.0.1 |
org.typelevel | cats-kernel_2.12 | 2.1.1 |
org.typelevel | spire-macros_2.12 | 0.17.0 |
org.typelevel | spire-platform_2.12 | 0.17.0 |
org.typelevel | spire-util_2.12 | 0.17.0 |
org.typelevel | spire_2.12 | 0.17.0 |
org.wildfly.openssl | wildfly-openssl | 1.1.3.Final |
org.xerial | sqlite-jdbc | 3.42.0.0 |
org.xerial.snappy | snappy-java | 1.1.8.4 |
org.yaml | snakeyaml | 1,33 |
oro | oro | 2.0.8 |
pl.edu.icm | JLargeArrays | 1.5 |
software.amazon.cryptools | AmazonCorrettoCryptoProvider | 1.6.1-linux-x86_64 |
software.amazon.ion | ion-java | 1.0.2 |
stax | stax-api | 1.0.1 |