Databricks Runtime 4.1 (EoS)
Catatan
Dukungan untuk versi Databricks Runtime ini telah berakhir. Untuk tanggal akhir dukungan, lihat Riwayat akhir dukungan. Untuk semua versi Runtime Databricks yang didukung, lihat Versi dan kompatibilitas catatan rilis Databricks Runtime.
Databricks merilis versi ini pada Mei 2018.
Penting
Rilis ini tidak digunakan lagi pada tanggal 17 Januari 2019. Untuk informasi selengkapnya tentang kebijakan dan jadwal penghentian Runtime Databricks, lihat Siklus hidup dukungan Databricks.
Catatan rilis berikut memberikan informasi tentang Databricks Runtime 4.1, yang didukung oleh Apache Spark.
Delta Lake
Databricks Runtime 4.1 menambahkan peningkatan kualitas dan fungsionalitas utama ke Delta Lake. Databricks sangat menyarankan agar semua pelanggan Delta Lake meningkatkan ke runtime baru. Rilis ini tetap dalam Pratinjau Pribadi, tetapi ini merupakan rilis kandidat untuk mengantisipasi rilis ketersediaan umum (GA) yang akan datang.
Delta Lake sekarang tersedia di Pratinjau Pribadi untuk pengguna Azure Databricks. Hubungi manajer akun Anda atau daftar di https://databricks.com/product/databricks-delta.
Perubahan mencolok
Databricks Runtime 4.1 mencakup perubahan pada protokol transaksi untuk mengaktifkan fitur baru, seperti validasi. Tabel yang dibuat dengan Databricks Runtime 4.1 secara otomatis menggunakan versi baru dan tidak dapat ditulis oleh versi Databricks Runtime yang lebih lama. Anda harus meningkatkan tabel yang ada untuk memanfaatkan peningkatan ini. Untuk meningkatkan tabel yang ada, pertama-tama tingkatkan semua tugas yang menulis ke tabel. Kemudian jalankan:
com.databricks.delta.Delta.upgradeTableProtocol("<path-to-table>" or "<tableName>")
Lihat Bagaimana Azure Databricks mengelola kompatibilitas fitur Delta Lake? untuk informasi selengkapnya.
Penulisan sekarang divalidasi terhadap skema tabel saat ini alih-alih secara otomatis menambahkan kolom yang hilang dari tabel tujuan. Untuk mengaktifkan perilaku sebelumnya, atur opsi
mergeSchema
ketrue
.Jika Anda menjalankan versi Databricks Delta yang lebih lama, Anda harus meningkatkan semua pekerjaan sebelum menggunakan Databricks Runtime 4.1. Jika Anda melihat salah satu dari kesalahan ini, tingkatkan ke Databricks Runtime 4.1:
java.lang.NumberFormatException: For input string: "00000000000000....crc" scala.MatchError
Tabel tidak dapat lagi memiliki kolom yang hanya berbeda menurut kasus.
Konfigurasi tabel khusus Delta sekarang harus diawali dengan
delta.
Fitur baru
Manajemen Skema - Databricks Delta sekarang memvalidasi penambahan dan penulisan ulang ke tabel yang ada untuk memastikan bahwa skema yang ditulis cocok dengan skema tabel yang ada.
- Databricks Delta terus mendukung evolusi skema otomatis.
- Databricks Delta sekarang mendukung DDL berikut untuk memodifikasi skema secara eksplisit:
-
ALTER TABLE ADD COLUMN
untuk menambahkan kolom baru ke tabel -
ALTER TABLE CHANGE COLUMNS
untuk mengubah urutan kolom ALTER TABLE [SET|UNSET] TBLPROPERTIES
-
Untuk detailnya, lihat penerapan aturan skema.
DDL yang Ditingkatkan dan dukungan tabel
- Dukungan penuh untuk tabel DDL dan
saveAsTable()
.save()
dansaveAsTable()
sekarang memiliki semantik yang identik. - Semua perintah DDL dan DML mendukung nama tabel dan
delta.`<path-to-table>`
. SHOW PARTITIONS
SHOW COLUMNS
DESC TABLE
- Informasi tabel terperinci - Anda dapat melihat versi pembaca dan penulis tabel saat ini dengan menjalankan
DESCRIBE DETAIL
. Lihat Bagaimana Azure Databricks mengelola kompatibilitas fitur Delta Lake?. - Detail tabel - Informasi asal-usul sekarang sudah tersedia untuk setiap penulisan ke dalam tabel. Bilah samping Data juga memperlihatkan informasi dan riwayat tabel terperinci untuk tabel Databricks Delta. Lihat Tinjau detail tabel Delta Lake dengan menjelaskan detail.
- Tabel streaming - Streaming DataFrame dapat dibuat menggunakan
spark.readStream.format("delta").table("<table-name>")
. - Tabel khusus tambahan - Databricks Delta sekarang mendukung tata kelola data dasar. Anda dapat memblokir penghapusan dan modifikasi pada tabel dengan mengatur properti tabel
delta.appendOnly=true
. -
MERGE INTO
sumber - Menambahkan dukungan yang lebih komprehensif ke spesifikasi kueri sumberMERGE
. Misalnya, Anda dapat menentukanLIMIT
,ORDER BY
danINLINE TABLE
di sumbernya. - Dukungan penuh untuk Daftar Kontrol Akses (ACL) Tabel.
- Dukungan penuh untuk tabel DDL dan
Peningkatan performa
- Mengurangi beban pengumpulan statistik - Efisiensi pengumpulan statistik telah ditingkatkan, dan kini statistik hanya dikumpulkan untuk jumlah kolom yang dapat dikonfigurasi pengguna, secara default diatur ke 32. Performa penulisan Databricks Delta telah ditingkatkan hingga 2x karena pengurangan overhead pengumpulan statistik. Untuk mengonfigurasi jumlah kolom, atur properti tabel
delta.dataSkippingNumIndexedCols=<number-of-columns>
. - Dukungan untuk pendorongan batas ke bawah - Statistik digunakan untuk membatasi jumlah file yang dipindai untuk kueri yang memiliki
LIMIT
dan predikat atas kolom partisi. Ini berlaku untuk kueri di buku catatan karenalimit=1000
implisit yang berlaku untuk semua perintah buku catatan. - Penekanan filter di sumber streaming - Kueri streaming sekarang menggunakan pemartisian saat memulai aliran baru untuk melewatkan data yang tidak relevan.
- Peningkatan paralelisme untuk
OPTIMIZE
-OPTIMIZE
saat ini berjalan sebagai satu tugas Spark dan akan menggunakan semua paralelisme yang tersedia pada kluster (sebelumnya terbatas pada 100 file yang dipadatkan sekaligus). - Melewatkan Data di DML -
UPDATE
,DELETE
, danMERGE
sekarang menggunakan statistik saat menemukan file yang perlu ditulis ulang. - Penurunan retensi titik pemeriksaan - titik pemeriksaan sekarang dipertahankan selama dua hari (riwayat masih dipertahankan selama 30 hari) untuk mengurangi biaya penyimpanan untuk log transaksi.
Perilaku API
- Perilaku
insertInto(<table-name>)
di Databricks Delta sama dengan sumber data lainnya.- Jika tidak ada mode yang ditentukan atau
mode
adalahErrorIfExists
,Ignore
, atauAppend
, tambahkan data dalam DataFrame ke tabel Databricks Delta. - Jika
mode
adalahOverwrite
, maka menghapus semua data dalam tabel yang ada dan memasukkan data dari DataFrame ke dalam tabel Databricks Delta.
- Jika tidak ada mode yang ditentukan atau
- Jika di-cache, tabel tujuan
MERGE
harus dicopot secara manual.
Peningkatan kegunaan
- Validasi migrasi beban kerja - Kesalahan umum yang dilakukan saat memigrasikan beban kerja ke Databricks Delta sekarang melemparkan pengecualian daripada gagal:
- Menggunakan
format("parquet")
untuk membaca atau menulis tabel. - Membaca atau menulis langsung ke partisi (yaitu,
/path/to/delta/part=1
). - Menyedot subdirektori tabel.
-
INSERT OVERWRITE DIRECTORY
menggunakan Parquet pada tabel.
- Menggunakan
- Konfigurasi tidak peka huruf besar/kecil - Opsi untuk DataFrame Reader/Writer dan properti tabel sekarang tidak peka huruf besar/kecil (termasuk jalur baca dan jalur tulis).
- Nama kolom - Nama kolom tabel sekarang dapat menyertakan titik-titik.
Masalah umum
- Sisipan dari pernyataan multi-sisipan berada di unit kerja yang berbeda, bukan dalam transaksi yang sama.
Perbaikan bug
- Masalah perulangan tak berujung saat memulai aliran baru pada tabel yang diperbarui dengan cepat telah diperbaiki.
Penghentian
Streaming Terstruktur tidak menangani input yang bukan tambahan dan melemparkan pengecualian jika ada modifikasi yang terjadi pada tabel yang digunakan sebagai sumber. Sebelumnya Anda dapat mengganti perilaku ini menggunakan bendera ignoreFileDeletion
, tetapi sekarang tidak digunakan lagi. Sebagai gantinya, gunakan ignoreDeletes
atau ignoreChanges
. Lihat tabel delta sebagai sumber.
Perubahan dan Peningkatan Lainnya
- Query Watchdog diaktifkan untuk semua kluster serba guna yang dibuat menggunakan UI.
- Peningkatan performa sisi driver untuk cache DBIO
- Peningkatan performa untuk dekode Parquet melalui dekoder Parquet asli baru
- Peningkatan performa untuk eliminasi subekspresi umum
- Peningkatan performa lompati data untuk tabel besar yang menggabungkan tabel kecil (gabungan tabel dimensi fakta)
-
display()
sekarang merender kolom yang berisi tipe data gambar sebagai HTML yang kaya fitur. - Peningkatan pada pencatatan, pemuatan, dan pendaftaran model MLflow
- Peningkatan dbml-local ke rilis terbaru 0.4.1
- Perbaikan bug dengan model yang diekspor dengan parameter
threshold
yang ditentukan - Penambahan dukungan untuk mengekspor
OneVsRestModel
,GBTClassificationModel
- Meningkatkan beberapa pustaka Python yang terinstal:
- pip: dari 9.0.1 ke 10.0.0b2
- setuptools: dari 38.5.1 ke 39.0.1
- tornado: 4.5.3 ke 5.0.1
- wheel: 0.30.0 ke 0.31.0
- Meningkatkan beberapa pustaka R yang dipasang. Lihat Pustaka R yang Diinstal.
- Peningkatan Azure Data Lake Store SD dari 2.0.11 ke 2.2.8.
- Peningkatan CUDA ke 9.0 dari 8.0 dan CUDNN ke 7.0 dari 6.0 untuk kluster GPU.
Apache Spark
Databricks Runtime 4.1 menyertakan Apache Spark 2.3.0. Rilis ini mencakup semua perbaikan dan peningkatan yang disertakan dalam Databricks Runtime 4.0 (EoS), serta perbaikan bug tambahan dan peningkatan berikut yang dilakukan pada Spark:
- [SPARK-24007][SQL] EqualNullSafe untuk FloatType dan DoubleType mungkin menghasilkan hasil yang salah oleh codegen.
- [SPARK-23942][PYTHON][SQL] Membuat koleksi di PySpark sebagai tindakan untuk pendengar eksekutor kueri
- [SPARK-23815][CORE] Mode penimpaan partisi dinamis penulis di Spark mungkin gagal menghasilkan output pada partisi multi-tingkat
- [SPARK-23748][SS] Perbaiki proses berkelanjutan SS yang tidak mendukung masalah SubqueryAlias
- [SPARK-23963][SQL] Menangani dengan baik jumlah kolom yang banyak dalam kueri pada tabel Hive berbasis teks
- [SPARK-23867][SCHEDULER] gunakan droppedCount di logWarning
- [SPARK-23816][CORE] Tugas yang dimatikan harus mengabaikan FetchFailures.
- [SPARK-23809][SQL] Active SparkSession harus diatur oleh getOrCreate
- [SPARK-23966][SS] Melakukan fefaktor semua logika penulisan file titik pemeriksaan di antarmuka CheckpointFileManager umum
- [SPARK-21351][SQL] Memperbarui nullability berdasarkan output anak
- [SPARK-23847][PYTHON][SQL] Tambahkan asc_nulls_first, asc_nulls_last ke PySpark
- [SPARK-23822][SQL] Memperbaiki pesan kesalahan pada ketidaksesuaian skema Parquet
- [SPARK-23823][SQL] Simpan yang asli dalam transformExpression
- [SPARK-23838][WEBUI] Menjalankan kueri SQL ditampilkan sebagai “selesai” di tab SQL
- [SPARK-23802][SQL] PropagateEmptyRelation dapat membiarkan rencana kueri dalam status tidak terselesaikan
- [SPARK-23727][SQL] Dukungan untuk menekan filter untuk DateType dalam parquet
- [SPARK-23574][SQL] Laporkan SinglePartition di DataSourceV2ScanExec ketika ada tepat 1 pabrik pembaca data yang pasti.
- [SPARK-23533][SS] Tambahkan dukungan untuk mengubah startOffset ContinuousDataReader
- [SPARK-23491][SS] Hapus pembatalan pekerjaan eksplisit dari konfigurasi ulang ContinuousExecution
- [SPARK-23040][CORE] Kembalikan iterator yang dapat diinterupsi untuk pembaca acak
- [SPARK-23827][SS] StreamingJoinExec harus memastikan bahwa data input dipartisi ke dalam jumlah partisi tertentu
- [SPARK-23639][SQL] Dapatkan token sebelum klien metastore init di SparkSQL CLI
- [SPARK-23806] Broadcast.unpersist dapat menyebabkan pengecualian fatal saat digunakan…
- [SPARK-23599][SQL] Gunakan RandomUUIDGenerator dalam ekspresi Uuid
- [SPARK-23599][SQL] Tambahkan generator UUID dari Angka Pseudo-Random
- [SPARK-23759][UI] Tidak dapat mengikat UI Spark ke nama host / IP tertentu
- [SPARK-23769][CORE] Hapus komentar yang tidak perlu yang menonaktifkan pemeriksaan Scalastyle
- [SPARK-23614][SQL] Perbaiki pertukaran penggunaan kembali yang salah saat penembolokan digunakan
- [SPARK-23760][SQL] CodegenContext.withSubExprEliminationExprs harus menyimpan/memulihkan status CSE dengan benar
- [SPARK-23729][CORE] Patuhi fragmen URI saat menyelesaikan glob
- [SPARK-23550][CORE] Bersihkan Util
- [SPARK-23288][SS] Perbaiki metrik output dengan sink parquet
- [SPARK-23264][SQL] Perbaiki scala.MatchError dalam literals.sql.out
- [SPARK-23649][SQL] Melewatkan karakter yang dilarang di UTF-8
- [SPARK-23691][PYTHON] Gunakan util sql_conf dalam pengujian PySpark jika memungkinkan
- [SPARK-23644][CORE][UI] Gunakan jalur absolut untuk panggilan REST di SHS
- [SPARK-23706][PYTHON] spark.conf.get(value, default=None) harus menghasilkan None di PySpark
- [SPARK-23623][SS] Hindari penggunaan cache bersamaan konsumen di CachedKafkaConsumer
- [SPARK-23670][SQL] Perbaiki kebocoran memori di SparkPlanGraphWrapper
- [SPARK-23608][CORE][WEBUI] Tambahkan sinkronisasi dalam SHS antara fungsi attachSparkUI dan detaschSparkUI untuk menghindari masalah modifikasi bersamaan pada Pengatur Jetty
- [SPARK-23671][CORE] Perbaiki kondisi untuk mengaktifkan kelompok rangkaian SHS.
- [SPARK-23658][LAUNCHER] InProcessAppHandle menggunakan kelas yang salah di getLogger
- [SPARK-23642][DOCS] Subkelas AkumulatorV2 adalah perbaikan scaladoc Zero
- [SPARK-22915][MLLIB] Uji streaming untuk fitur spark.ml., dari N hingga Z
- [SPARK-23598][SQL] Membuat metode di BufferedRowIterator publik untuk menghindari kesalahan runtime untuk kueri besar
- [SPARK-23546][SQL] Refaktorisasi metode/nilai tanpa status dalam CodegenContext
- [SPARK-23523][SQL] Perbaiki hasil yang salah yang disebabkan oleh aturan OptimizeMetadataOnlyQuery
- [SPARK-23462][SQL] tingkatkan pesan kesalahan bidang yang hilang di StructType
- [SPARK-23624][SQL] Revisi dokumen metode pushFilters di Datasource V2
- [SPARK-23173][SQL] Hindari membuat file parquet yang rusak saat memuat data dari JSON
- [SPARK-23436][SQL] Infer partisi sebagai Tanggal hanya jika dapat diubah ke Tanggal
- [SPARK-23406][SS] Aktifkan aliran-gabungan mandiri aliran
- [SPARK-23490][SQL] Periksa storage.locationUri dengan tabel yang ada di CreateTable
- [SPARK-23524]Blok acak lokal besar tidak boleh diperiksa untuk korupsi.
- [SPARK-23525][SQL] Dukungan ALTER TABLE CHANGE COLUMN COMMENT untuk tabel sarang eksternal
- [SPARK-23434][SQL] Spark tidak boleh memperingatkan direktori metadata untuk jalur file HDFS
- [SPARK-23457][SQL] Daftarkan pendengar penyelesaian tugas terlebih dahulu di ParquetFileFormat
- [SPARK-23329][SQL] Perbaiki dokumentasi fungsi trigonometri
- [SPARK-23569][PYTHON] Izinkan pandas_udf bekerja dengan fungsi beranotasi jenis gaya python3
- [SPARK-23570][SQL] Tambahkan Spark 2.3.0 di HiveExternalCatalogVersionsSuite
- [SPARK-23517][PYTHON] Buat _pyspark.util. exception_message menghasilkan jejak dari sisi Java menurut Py4JJavaError
- [SPARK-23508][CORE] Perbaiki BlockmanagerId jika blockManagerIdCache menyebabkan habisnya memori
- [SPARK-23448][SQL] Klarifikasi perilaku pengurai JSON dan CSV dalam dokumen
- [SPARK-23365][CORE] Jangan sesuaikan eksekutor angka saat menghentikan eksekutor diam.
- [SPARK-23438][DSTREAMS] Perbaiki kehilangan data DStreams dengan WAL saat driver crash
- [SPARK-23475][UI] Tampilkan juga tahap-tahap yang dilewati
- [SPARK-23518][SQL] Hindari akses metastore ketika pengguna hanya ingin membaca dan menulis bingkai data
- [SPARK-23406][SS] Aktifkan aliran-gabungan mandiri aliran
- [SPARK-23541][SS] Izinkan sumber Kafka membaca data dengan paralelisme yang lebih besar daripada jumlah partisi artikel
- [SPARK-23097][SQL][SS] Migrasikan sumber soket teks ke V2
- [SPARK-23362][SS] Migrasikan sumber Kafka Microbatch ke v2
- [SPARK-23445]Perefaktoran ColumnStat
- [SPARK-23092][SQL] Migrasikan MemoryStream ke API DataSourceV2
- [SPARK-23447][SQL] Bersihkan templat codegen untuk Literal
- [SPARK-23366]Tingkatkan jalur membaca panas di ReadAheadInputStream
- [SPARK-22624][PYSPARK] Ekspos pengacakan pemartisian rentang
Pembaruan Pemeliharaan
Lihat Pembaruan pemeliharaan Databricks Runtime 4.1.
Lingkungan Sistem
- Sistem Operasi: Ubuntu 16.04.4 LTS
- Java: 1.8.0_162
- Scala: 2.11.8
- Python: 2.7.12 untuk kluster Python 2 dan 3.5.2 untuk kluster Python 3.
- R: R versi 3.4.4 (15-03-2018)
-
Kluster GPU: Pustaka GPU NVIDIA berikut diinstal:
- Driver Tesla 375.66
- CUDA 9.0
- cuDNN 7.0
Pustaka Python yang Diinstal
Pustaka | Versi | Pustaka | Versi | Pustaka | Versi |
---|---|---|---|---|---|
ansi2html | 1.1.1 | argparse | 1.2.1 | backports-abc | 0,5 |
boto | 2.42.0 | boto3 | 1.4.1 | botocore | 1.4.70 |
brewer2mpl | 1.4.1 | certifi | 2016.2.28 | cffi | 1.7.0 |
chardet | 2.3.0 | colorama | 0.3.7 | configobj | 5.0.6 |
cryptography | 1.5 | cycler | 0.10.0 | Cython | 0.24.1 |
decorator | 4.0.10 | docutils | 0.14 | enum34 | 1.1.6 |
et-xmlfile | 1.0.1 | freetype-py | 1.0.2 | funcsigs | 1.0.2 |
fusepy | 2.0.4 | futures | 3.2.0 | ggplot | 0.6.8 |
html5lib | 0,999 | idna | 2.1 | ipaddress | 1.0.16 |
ipython | 2.2.0 | ipython-genutils | 0.1.0 | jdcal | 1.2 |
Jinja2 | 2.8 | jmespath | 0.9.0 | llvmlite | 0.13.0 |
lxml | 3.6.4 | MarkupSafe | 0.23 | matplotlib | 1.5.3 |
mpld3 | 0,2 | msgpack-python | 0.4.7 | ndg-httpsclient | 0.3.3 |
numba | 0.28.1 | numpy | 1.11.1 | openpyxl | 2.3.2 |
pandas | 0.19.2 | pathlib2 | 2.1.0 | patsy | 0.4.1 |
pexpect=4.8.0 | 4.0.1 | pickleshare | 0.7.4 | Pillow | 3.3.1 |
pip | 10.0.0b2 | ply | 3.9 | prompt-toolkit | 1.0.7 |
psycopg2 | 2.6.2 | ptyprocess | 0.5.1 | py4j | 0.10.3 |
pyarrow | 0.8.0 | pyasn1 | 0.1.9 | pycparser | 2.14 |
Pygments | 2.1.3 | PyGObject | 3.20.0 | pyOpenSSL | 16.0.0 |
pyparsing | 2.2.0 | pypng | 0.0.18 | Python | 2.7.12 |
python-dateutil | 2.5.3 | python-geohash | 0.8.5 | pytz | 2016.6.1 |
permintaan | 2.11.1 | s3transfer | 0.1.9 | scikit-learn | 0.18.1 |
scipy | 0.18.1 | scour | 0,32 | seaborn | 0.7.1 |
setuptools | 39.0.1 | simplejson | 3.8.2 | simples3 | 1.0 |
singledispatch | 3.4.0.3 | six | 1.10.0 | statsmodels | 0.6.1 |
tornado | 5.0.1 | traitlets=5.0.5 | 4.3.0 | urllib3 | 1.19.1 |
virtualenv | 15.0.1 | wcwidth | 0.1.7 | wheel | 0.31.0 |
wsgiref | 0.1.2 |
Pustaka R yang Diinstal
Pustaka | Versi | Pustaka | Versi | Pustaka | Versi |
---|---|---|---|---|---|
abind | 1.4-5 | assertthat | 0.2.0 | backports | 1.1.2 |
dasar | 3.4.4 | BH | 1.66.0-1 | bindr | 0.1.1 |
bindrcpp | 0.2.2 | bit | 1.1-12 | bit64 | 0.9-7 |
bitops | 1.0-6 | blob | 1.1.1 | boot | 1.3-20 |
brew | 1.0-6 | broom | 0.4.4 | car | 3.0-0 |
carData | 3.0-1 | caret | 6.0-79 | cellranger | 1.1.0 |
chron | 2.3-52 | kelas | 7.3-14 | cli | 1.0.0 |
klaster | 2.0.7 | codetools | 0.2-15 | colorspace | 1.3-2 |
commonmark | 1.4 | compiler | 3.4.4 | crayon | 1.3.4 |
curl | 3.2 | CVST | 0.2-1 | data.table | 1.10.4-3 |
datasets | 3.4.4 | DBI | 0,8 | ddalpha | 1.3.1.1 |
DEoptimR | 1,0-8 | desc | 1.1.1 | devtools | 1.13.5 |
dichromat | 2.0-0 | digest | 0.6.15 | dimRed | 0.1.0 |
doMC | 1.3.5 | dplyr | 0.7.4 | DRR | 0.0.3 |
forcats | 0.3.0 | foreach | 1.4.4 | foreign | 0.8-69 |
gbm | 2.1.3 | ggplot2 | 2.2.1 | git2r | 0.21.0 |
glmnet | 2.0-16 | glue | 1.2.0 | gower | 0.1.2 |
graphics | 3.4.4 | grDevices | 3.4.4 | grid | 3.4.4 |
gsubfn | 0,7 | gtable | 0.2.0 | h2o | 3.16.0.2 |
haven | 1.1.1 | hms | 0.4.2 | httr | 1.3.1 |
hwriter | 1.3.2 | hwriterPlus | 1.0-3 | ipred | 0.9-6 |
iterators | 1.0.9 | jsonlite | 1.5 | kernlab | 0.9-25 |
KernSmooth | 2.23-15 | labeling | 0,3 | lattice | 0.20-35 |
lava | 1.6.1 | lazyeval | 0.2.1 | littler | 0.3.3 |
lme4 | 1.1-17 | lubridate | 1.7.3 | magrittr | 1.5 |
mapproj | 1.2.6 | Peta | 3.3.0 | maptools | 0.9-2 |
MASS | 7.3-49 | Matrix | 1.2-13 | MatrixModels | 0.4-1 |
memoise | 1.1.0 | methods | 3.4.4 | mgcv | 1.8-23 |
mime | 0,5 | minqa | 1.2.4 | mnormt | 1.5-5 |
ModelMetrics | 1.1.0 | munsell | 0.4.3 | mvtnorm | 1.0-7 |
nlme | 3.1-137 | nloptr | 1.0.4 | nnet | 7.3-12 |
numDeriv | 2016.8-1 | openssl | 1.0.1 | openxlsx | 4.0.17 |
parallel | 3.4.4 | pbkrtest | 0.4-7 | pillar | 1.2.1 |
pkgconfig | 2.0.1 | pkgKitten | 0.1.4 | plogr | 0.2.0 |
plyr | 1.8.4 | praise | 1.0.0 | prettyunits | 1.0.2 |
pROC | 1.11.0 | prodlim | 1.6.1 | proto | 1.0.0 |
psych | 1.8.3.3 | purrr | 0.2.4 | quantreg | 5.35 |
R.methodsS3 | 1.7.1 | R.oo | 1.21.0 | R.utils | 2.6.0 |
R6 | 2.2.2 | randomForest | 4.6-14 | RColorBrewer | 1.1-2 |
Rcpp | 0.12.16 | RcppEigen | 0.3.3.4.0 | RcppRoll | 0.2.2 |
RCurl | 1.95-4.10 | readr | 1.1.1 | readxl | 1.0.0 |
recipes | 0.1.2 | rematch | 1.0.1 | reshape2 | 1.4.3 |
rio | 0.5.10 | rlang | 0.2.0 | robustbase | 0.92-8 |
RODBC | 1.3-15 | roxygen2 | 6.0.1 | rpart | 4.1-13 |
rprojroot | 1.3-2 | Rserve | 1.7-3 | RSQLite | 2.1.0 |
rstudioapi | 0,7 | scales | 0.5.0 | sfsmisc | 1.1-2 |
sp | 1.2-7 | SparkR | 2.3.0 | SparseM | 1.77 |
spatial | 7.3-11 | splines | 3.4.4 | sqldf | 0.4-11 |
SQUAREM | 2017.10-1 | statmod | 1.4.30 | stats | 3.4.4 |
stats4 | 3.4.4 | stringi | 1.1.7 | stringr | 1.3.0 |
survival | 2.41-3 | tcltk | 3.4.4 | TeachingDemos | 2.10 |
testthat | 2.0.0 | tibble | 1.4.2 | tidyr | 0.8.0 |
tidyselect | 0.2.4 | timeDate | 3043.102 | alat | 3.4.4 |
utf8 | 1.1.3 | utils | 3.4.4 | viridisLite | 0.3.0 |
whisker | 0.3-2 | withr | 2.1.2 | xml2 | 1.2.0 |
Pustaka Java dan Scala yang dipasang(versi kluster Scala 2.11)
ID Grup | ID Artefak | Versi |
---|---|---|
antlr | antlr | 2.7.7 |
com.amazonaws | amazon-kinesis-client | 1.7.3 |
com.amazonaws | aws-java-sdk-autoscaling | 1.11.313 |
com.amazonaws | aws-java-sdk-cloudformation | 1.11.313 |
com.amazonaws | aws-java-sdk-cloudfront | 1.11.313 |
com.amazonaws | aws-java-sdk-cloudhsm | 1.11.313 |
com.amazonaws | aws-java-sdk-cloudsearch | 1.11.313 |
com.amazonaws | aws-java-sdk-cloudtrail | 1.11.313 |
com.amazonaws | aws-java-sdk-cloudwatch | 1.11.313 |
com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.11.313 |
com.amazonaws | aws-java-sdk-codedeploy | 1.11.313 |
com.amazonaws | aws-java-sdk-cognitoidentity | 1.11.313 |
com.amazonaws | aws-java-sdk-cognitosync | 1.11.313 |
com.amazonaws | aws-java-sdk-config | 1.11.313 |
com.amazonaws | aws-java-sdk-core | 1.11.313 |
com.amazonaws | aws-java-sdk-datapipeline | 1.11.313 |
com.amazonaws | aws-java-sdk-directconnect | 1.11.313 |
com.amazonaws | aws-java-sdk-directory | 1.11.313 |
com.amazonaws | aws-java-sdk-dynamodb | 1.11.313 |
com.amazonaws | aws-java-sdk-ec2 | 1.11.313 |
com.amazonaws | aws-java-sdk-ecs | 1.11.313 |
com.amazonaws | aws-java-sdk-efs | 1.11.313 |
com.amazonaws | aws-java-sdk-elasticache | 1.11.313 |
com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.11.313 |
com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.11.313 |
com.amazonaws | aws-java-sdk-elastictranscoder | 1.11.313 |
com.amazonaws | aws-java-sdk-emr | 1.11.313 |
com.amazonaws | aws-java-sdk-glacier | 1.11.313 |
com.amazonaws | aws-java-sdk-iam | 1.11.313 |
com.amazonaws | aws-java-sdk-importexport | 1.11.313 |
com.amazonaws | aws-java-sdk-kinesis | 1.11.313 |
com.amazonaws | aws-java-sdk-kms | 1.11.313 |
com.amazonaws | aws-java-sdk-lambda | 1.11.313 |
com.amazonaws | aws-java-sdk-logs | 1.11.313 |
com.amazonaws | aws-java-sdk-machinelearning | 1.11.313 |
com.amazonaws | aws-java-sdk-opsworks | 1.11.313 |
com.amazonaws | aws-java-sdk-rds | 1.11.313 |
com.amazonaws | aws-java-sdk-redshift | 1.11.313 |
com.amazonaws | aws-java-sdk-route53 | 1.11.313 |
com.amazonaws | aws-java-sdk-s3 | 1.11.313 |
com.amazonaws | aws-java-sdk-ses | 1.11.313 |
com.amazonaws | aws-java-sdk-simpledb | 1.11.313 |
com.amazonaws | aws-java-sdk-simpleworkflow | 1.11.313 |
com.amazonaws | aws-java-sdk-sns | 1.11.313 |
com.amazonaws | aws-java-sdk-sqs | 1.11.313 |
com.amazonaws | aws-java-sdk-ssm | 1.11.313 |
com.amazonaws | aws-java-sdk-storagegateway | 1.11.313 |
com.amazonaws | aws-java-sdk-sts | 1.11.313 |
com.amazonaws | aws-java-sdk-support | 1.11.313 |
com.amazonaws | aws-java-sdk-swf-libraries | 1.11.22 |
com.amazonaws | aws-java-sdk-workspaces | 1.11.313 |
com.amazonaws | jmespath-java | 1.11.313 |
com.carrotsearch | hppc | 0.7.2 |
com.chuusai | shapeless_2.11 | 2.3.2 |
com.clearspring.analytics | stream | 2.7.0 |
com.databricks | Rserve | 1.8-3 |
com.databricks | dbml-local_2.11 | 0.4.1-db1-spark2.3 |
com.databricks | dbml-local_2.11-tests | 0.4.1-db1-spark2.3 |
com.databricks | jets3t | 0.7.1-0 |
com.databricks.scalapb | compilerplugin_2.11 | 0.4.15-9 |
com.databricks.scalapb | scalapb-runtime_2.11 | 0.4.15-9 |
com.esotericsoftware | kryo-shaded | 3.0.3 |
com.esotericsoftware | minlog | 1.3.0 |
com.fasterxml | classmate | 1.0.0 |
com.fasterxml.jackson.core | jackson-annotations | 2.6.7 |
com.fasterxml.jackson.core | jackson-core | 2.6.7 |
com.fasterxml.jackson.core | jackson-databind | 2.6.7.1 |
com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.6.7 |
com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.6.7 |
com.fasterxml.jackson.module | jackson-module-paranamer | 2.6.7 |
com.fasterxml.jackson.module | jackson-module-scala_2.11 | 2.6.7.1 |
com.github.fommil | jniloader | 1.1 |
com.github.fommil.netlib | inti | 1.1.2 |
com.github.fommil.netlib | native_ref-java | 1.1 |
com.github.fommil.netlib | native_ref-java-natives | 1.1 |
com.github.fommil.netlib | native_system-java | 1.1 |
com.github.fommil.netlib | native_system-java-natives | 1.1 |
com.github.fommil.netlib | netlib-native_ref-linux-x86_64-natives | 1.1 |
com.github.fommil.netlib | netlib-native_system-linux-x86_64-natives | 1.1 |
com.github.luben | zstd-jni | 1.3.2-2 |
com.github.rwl | jtransforms | 2.4.0 |
com.google.code.findbugs | jsr305 | 2.0.1 |
com.google.code.gson | gson | 2.2.4 |
com.google.guava | guava | 15.0 |
com.google.protobuf | protobuf-java | 2.6.1 |
com.googlecode.javaewah | JavaEWAH | 0.3.2 |
com.h2database | h2 | 1.3.174 |
com.jamesmurty.utils | java-xmlbuilder | 1.1 |
com.jcraft | jsch | 0.1.50 |
com.jolbox | bonecp | 0.8.0.RELEASE |
com.mchange | c3p0 | 0.9.5.1 |
com.mchange | mchange-commons-java | 0.2.10 |
com.microsoft.azure | azure-data-lake-store-sdk | 2.2.8 |
com.microsoft.sqlserver | mssql-jdbc | 6.2.2.jre8 |
com.ning | compress-lzf | 1.0.3 |
com.sun.mail | javax.mail | 1.5.2 |
com.thoughtworks.paranamer | paranamer | 2.8 |
com.trueaccord.lenses | lenses_2.11 | 0,3 |
com.twitter | chill-java | 0.8.4 |
com.twitter | chill_2.11 | 0.8.4 |
com.twitter | parquet-hadoop-bundle | 1.6.0 |
com.twitter | util-app_2.11 | 6.23.0 |
com.twitter | util-core_2.11 | 6.23.0 |
com.twitter | util-jvm_2.11 | 6.23.0 |
com.typesafe | config | 1.2.1 |
com.typesafe.scala-logging | scala-logging-api_2.11 | 2.1.2 |
com.typesafe.scala-logging | scala-logging-slf4j_2.11 | 2.1.2 |
com.univocity | univocity-parsers | 2.5.9 |
com.vlkan | flatbuffers | 1.2.0-3f79e055 |
com.zaxxer | HikariCP | 2.4.1 |
commons-beanutils | commons-beanutils | 1.7.0 |
commons-beanutils | commons-beanutils-core | 1.8.0 |
commons-cli | commons-cli | 1.2 |
commons-codec | commons-codec | 1.10 |
commons-collections | commons-collections | 3.2.2 |
commons-configuration | commons-configuration | 1.6 |
commons-dbcp | commons-dbcp | 1.4 |
commons-digester | commons-digester | 1.8 |
commons-httpclient | commons-httpclient | 3.1 |
commons-io | commons-io | 2.4 |
commons-lang | commons-lang | 2.6 |
commons-logging | commons-logging | 1.1.3 |
commons-net | commons-net | 2.2 |
commons-pool | commons-pool | 1.5.4 |
info.ganglia.gmetric4j | gmetric4j | 1.0.7 |
io.airlift | aircompressor | 0,8 |
io.dropwizard.metrics | metrics-core | 3.1.5 |
io.dropwizard.metrics | metrics-ganglia | 3.1.5 |
io.dropwizard.metrics | metrics-graphite | 3.1.5 |
io.dropwizard.metrics | metrics-healthchecks | 3.1.5 |
io.dropwizard.metrics | metrics-jetty9 | 3.1.5 |
io.dropwizard.metrics | metrics-json | 3.1.5 |
io.dropwizard.metrics | metrics-jvm | 3.1.5 |
io.dropwizard.metrics | metrics-log4j | 3.1.5 |
io.dropwizard.metrics | metrics-servlets | 3.1.5 |
io.netty | netty | 3.9.9.Final |
io.netty | netty-all | 4.1.17.Final |
io.prometheus | simpleclient | 0.0.16 |
io.prometheus | simpleclient_common | 0.0.16 |
io.prometheus | simpleclient_dropwizard | 0.0.16 |
io.prometheus | simpleclient_servlet | 0.0.16 |
io.prometheus.jmx | collector | 0,7 |
javax.activation | activation | 1.1.1 |
javax.annotation | javax.annotation-api | 1.2 |
javax.el | javax.el-api | 2.2.4 |
javax.jdo | jdo-api | 3.0.1 |
javax.servlet | javax.servlet-api | 3.1.0 |
javax.servlet.jsp | jsp-api | 2.1 |
javax.transaction | jta | 1.1 |
javax.validation | validation-api | 1.1.0.Final |
javax.ws.rs | javax.ws.rs-api | 2.0.1 |
javax.xml.bind | jaxb-api | 2.2.2 |
javax.xml.stream | stax-api | 1.0-2 |
javolution | javolution | 5.5.1 |
jline | jline | 2.11 |
joda-time | joda-time | 2.9.3 |
log4j | apache-log4j-extras | 1.2.17 |
log4j | log4j | 1.2.17 |
net.hydromatic | eigenbase-properties | 1.1.5 |
net.iharder | base64 | 2.3.8 |
net.java.dev.jets3t | jets3t | 0.9.4 |
net.razorvine | pyrolite | 4.13 |
net.sf.jpam | jpam | 1.1 |
net.sf.opencsv | opencsv | 2.3 |
net.sf.supercsv | super-csv | 2.2.0 |
net.sourceforge.f2j | arpack_combined_all | 0.1 |
org.acplt | oncrpc | 1.0.7 |
org.antlr | ST4 | 4.0.4 |
org.antlr | antlr-runtime | 3.4 |
org.antlr | antlr4-runtime | 4.7 |
org.antlr | stringtemplate | 3.2.1 |
org.apache.ant | ant | 1.9.2 |
org.apache.ant | ant-jsch | 1.9.2 |
org.apache.ant | ant-launcher | 1.9.2 |
org.apache.arrow | arrow-format | 0.8.0 |
org.apache.arrow | arrow-memory | 0.8.0 |
org.apache.arrow | arrow-vector | 0.8.0 |
org.apache.avro | avro | 1.7.7 |
org.apache.avro | avro-ipc | 1.7.7 |
org.apache.avro | avro-ipc-tests | 1.7.7 |
org.apache.avro | avro-mapred-hadoop2 | 1.7.7 |
org.apache.calcite | calcite-avatica | 1.2.0-incubating |
org.apache.calcite | calcite-core | 1.2.0-incubating |
org.apache.calcite | calcite-linq4j | 1.2.0-incubating |
org.apache.commons | commons-compress | 1.4.1 |
org.apache.commons | commons-crypto | 1.0.0 |
org.apache.commons | commons-lang3 | 3.5 |
org.apache.commons | commons-math3 | 3.4.1 |
org.apache.curator | curator-client | 2.7.1 |
org.apache.curator | curator-framework | 2.7.1 |
org.apache.curator | curator-recipes | 2.7.1 |
org.apache.derby | derby | 10.12.1.1 |
org.apache.directory.api | api-asn1-api | 1.0.0-M20 |
org.apache.directory.api | api-util | 1.0.0-M20 |
org.apache.directory.server | apacheds-i18n | 2.0.0-M15 |
org.apache.directory.server | apacheds-kerberos-codec | 2.0.0-M15 |
org.apache.hadoop | hadoop-annotations | 2.7.3 |
org.apache.hadoop | hadoop-auth | 2.7.3 |
org.apache.hadoop | hadoop-client | 2.7.3 |
org.apache.hadoop | hadoop-common | 2.7.3 |
org.apache.hadoop | hadoop-hdfs | 2.7.3 |
org.apache.hadoop | hadoop-mapreduce-client-app | 2.7.3 |
org.apache.hadoop | hadoop-mapreduce-client-common | 2.7.3 |
org.apache.hadoop | hadoop-mapreduce-client-core | 2.7.3 |
org.apache.hadoop | hadoop-mapreduce-client-jobclient | 2.7.3 |
org.apache.hadoop | hadoop-mapreduce-client-shuffle | 2.7.3 |
org.apache.hadoop | hadoop-yarn-api | 2.7.3 |
org.apache.hadoop | hadoop-yarn-client | 2.7.3 |
org.apache.hadoop | hadoop-yarn-common | 2.7.3 |
org.apache.hadoop | hadoop-yarn-server-common | 2.7.3 |
org.apache.htrace | htrace-core | 3.1.0-incubating |
org.apache.httpcomponents | httpclient | 4.5.4 |
org.apache.httpcomponents | httpcore | 4.4.8 |
org.apache.ivy | ivy | 2.4.0 |
org.apache.orc | orc-core-nohive | 1.4.1 |
org.apache.orc | orc-mapreduce-nohive | 1.4.1 |
org.apache.parquet | parquet-column | 1.8.2-databricks1 |
org.apache.parquet | parquet-common | 1.8.2-databricks1 |
org.apache.parquet | parquet-encoding | 1.8.2-databricks1 |
org.apache.parquet | parquet-format | 2.3.1 |
org.apache.parquet | parquet-hadoop | 1.8.2-databricks1 |
org.apache.parquet | parquet-jackson | 1.8.2-databricks1 |
org.apache.thrift | libfb303 | 0.9.3 |
org.apache.thrift | libthrift | 0.9.3 |
org.apache.xbean | xbean-asm5-shaded | 4.4 |
org.apache.zookeeper | zookeeper | 3.4.6 |
org.bouncycastle | bcprov-jdk15on | 1.58 |
org.codehaus.jackson | jackson-core-asl | 1.9.13 |
org.codehaus.jackson | jackson-jaxrs | 1.9.13 |
org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
org.codehaus.jackson | jackson-xc | 1.9.13 |
org.codehaus.janino | commons-compiler | 3.0.8 |
org.codehaus.janino | janino | 3.0.8 |
org.datanucleus | datanucleus-api-jdo | 3.2.6 |
org.datanucleus | datanucleus-core | 3.2.10 |
org.datanucleus | datanucleus-rdbms | 3.2.9 |
org.eclipse.jetty | jetty-client | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-continuation | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-http | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-io | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-jndi | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-plus | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-proxy | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-security | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-server | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-servlet | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-servlets | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-util | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-webapp | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-xml | 9.3.20.v20170531 |
org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
org.glassfish.hk2 | hk2-api | 2.4.0-b34 |
org.glassfish.hk2 | hk2-locator | 2.4.0-b34 |
org.glassfish.hk2 | hk2-utils | 2.4.0-b34 |
org.glassfish.hk2 | osgi-resource-locator | 1.0.1 |
org.glassfish.hk2.external | aopalliance-repackaged | 2.4.0-b34 |
org.glassfish.hk2.external | javax.inject | 2.4.0-b34 |
org.glassfish.jersey.bundles.repackaged | jersey-guava | 2.22.2 |
org.glassfish.jersey.containers | jersey-container-servlet | 2.22.2 |
org.glassfish.jersey.containers | jersey-container-servlet-core | 2.22.2 |
org.glassfish.jersey.core | jersey-client | 2.22.2 |
org.glassfish.jersey.core | jersey-common | 2.22.2 |
org.glassfish.jersey.core | jersey-server | 2.22.2 |
org.glassfish.jersey.media | jersey-media-jaxb | 2.22.2 |
org.hibernate | hibernate-validator | 5.1.1.Final |
org.iq80.snappy | snappy | 0,2 |
org.javassist | javassist | 3.18.1-GA |
org.jboss.logging | jboss-logging | 3.1.3.GA |
org.jdbi | jdbi | 2.63.1 |
org.joda | joda-convert | 1.7 |
org.jodd | jodd-core | 3.5.2 |
org.json4s | json4s-ast_2.11 | 3.2.11 |
org.json4s | json4s-core_2.11 | 3.2.11 |
org.json4s | json4s-jackson_2.11 | 3.2.11 |
org.lz4 | lz4-java | 1.4.0 |
org.mariadb.jdbc | mariadb-java-client | 2.1.2 |
org.mockito | mockito-all | 1.9.5 |
org.objenesis | objenesis | 2.1 |
org.postgresql | postgresql | 42.1.4 |
org.roaringbitmap | RoaringBitmap | 0.5.11 |
org.rocksdb | rocksdbjni | 5.2.1 |
org.rosuda.REngine | REngine | 2.1.0 |
org.scala-lang | scala-compiler_2.11 | 2.11.8 |
org.scala-lang | scala-library_2.11 | 2.11.8 |
org.scala-lang | scala-reflect_2.11 | 2.11.8 |
org.scala-lang | scalap_2.11 | 2.11.8 |
org.scala-lang.modules | scala-parser-combinators_2.11 | 1.0.2 |
org.scala-lang.modules | scala-xml_2.11 | 1.0.5 |
org.scala-sbt | test-interface | 1.0 |
org.scalacheck | scalacheck_2.11 | 1.12.5 |
org.scalanlp | breeze-macros_2.11 | 0.13.2 |
org.scalanlp | breeze_2.11 | 0.13.2 |
org.scalatest | scalatest_2.11 | 2.2.6 |
org.slf4j | jcl-over-slf4j | 1.7.16 |
org.slf4j | jul-to-slf4j | 1.7.16 |
org.slf4j | slf4j-api | 1.7.16 |
org.slf4j | slf4j-log4j12 | 1.7.16 |
org.spark-project.hive | hive-beeline | 1.2.1.spark2 |
org.spark-project.hive | hive-cli | 1.2.1.spark2 |
org.spark-project.hive | hive-exec | 1.2.1.spark2 |
org.spark-project.hive | hive-jdbc | 1.2.1.spark2 |
org.spark-project.hive | hive-metastore | 1.2.1.spark2 |
org.spark-project.spark | tidak digunakan | 1.0.0 |
org.spire-math | spire-macros_2.11 | 0.13.0 |
org.spire-math | spire_2.11 | 0.13.0 |
org.springframework | spring-core | 4.1.4.RELEASE |
org.springframework | spring-test | 4.1.4.RELEASE |
org.tukaani | xz | 1.0 |
org.typelevel | machinist_2.11 | 0.6.1 |
org.typelevel | macro-compat_2.11 | 1.1.1 |
org.xerial | sqlite-jdbc | 3.8.11.2 |
org.xerial.snappy | snappy-java | 1.1.2.6 |
org.yaml | snakeyaml | 1.16 |
oro | oro | 2.0.8 |
software.amazon.ion | ion-java | 1.0.2 |
stax | stax-api | 1.0.1 |
xmlenc | xmlenc | 0.52 |