Referensi tabel sistem pekerjaan
Catatan
lakeflow
Skema sebelumnya dikenal sebagai workflow
. Konten kedua skema identik. Untuk membuat lakeflow
skema terlihat, Anda harus mengaktifkannya secara terpisah.
Artikel ini adalah referensi tentang cara menggunakan tabel sistem lakeflow
untuk memantau pekerjaan di akun Anda. Tabel ini mencakup rekaman dari semua ruang kerja di akun Anda yang disebarkan di wilayah cloud yang sama. Untuk melihat rekaman dari wilayah lain, Anda harus menampilkan tabel dari ruang kerja yang berada di wilayah tersebut.
Persyaratan
- Skema
system.lakeflow
harus diaktifkan oleh admin akun. Lihat Mengaktifkan skema tabel sistem. - Untuk mengakses tabel sistem ini, pengguna harus:
- Menjadi admin metastore dan admin akun, atau
- Memiliki izin
USE
danSELECT
pada skema sistem. Lihat Memberikan akses ke tabel sistem.
Tabel pekerjaan yang tersedia
Semua tabel sistem yang berkaitan dengan pekerjaan berada dalam skema system.lakeflow
. Saat ini, skema menghosting empat tabel:
Meja | Deskripsi | Mendukung streaming | Periode retensi tanpa biaya | Mencakup data global atau regional |
---|---|---|---|---|
pekerjaan (Pratinjau Umum) | Melacak semua pekerjaan yang dibuat di akun | Ya | 365 hari | Wilayah |
tugas_pekerjaan (Pratinjau Umum) | Melacak semua tugas pekerjaan yang berjalan di akun | Ya | 365 hari | Wilayah |
job_run_timeline (Pratinjau Umum) | Melacak jalannya pekerjaan dan metadata terkait | Ya | 365 hari | Wilayah |
job_task_run_timeline (Pratinjau Umum) | Melacak eksekusi tugas pekerjaan dan metadata terkait | Ya | 365 hari | Wilayah |
Referensi skema terperinci
Bagian berikut ini menyediakan referensi skema untuk setiap tabel sistem terkait pekerjaan.
skema tabel pekerjaan
Tabel jobs
adalah tabel dimensi yang berubah perlahan (SCD2). Saat baris berubah, baris baru dikeluarkan, secara logis menggantikan baris sebelumnya.
jalur tabel: system.lakeflow.jobs
Nama kolom | Jenis data | Deskripsi | Catatan |
---|---|---|---|
account_id |
string | ID akun yang terkait dengan tugas ini | |
workspace_id |
string | ID ruang kerja tempat pekerjaan ini berada | |
job_id |
string | ID pekerjaan | Hanya unik dalam satu ruang kerja |
name |
string | Nama pekerjaan yang disediakan pengguna | |
description |
string | Deskripsi pekerjaan yang disediakan pengguna | Bidang ini kosong jika Anda memiliki kunci yang dikelola pelanggan dikonfigurasi. Tidak diisi untuk baris yang dikeluarkan sebelum akhir Agustus 2024 |
creator_id |
string | ID prinsipal yang membuat tugas | |
tags |
string | Tag kustom yang disediakan pengguna yang terkait dengan pekerjaan ini | |
change_time |
penanda waktu | Waktu terakhir pekerjaan dimodifikasi | Zona waktu dicatat sebagai +00:00 (UTC) |
delete_time |
cap waktu | Waktu ketika pekerjaan dihapus oleh pengguna | Zona waktu dicatat sebagai +00:00 (UTC) |
run_as |
string | ID pengguna atau perwakilan layanan yang izinnya digunakan untuk eksekusi pekerjaan |
Contoh kueri
-- Get the most recent version of a job
SELECT
*,
ROW_NUMBER() OVER(PARTITION BY workspace_id, job_id ORDER BY change_time DESC) as rn
FROM
system.lakeflow.jobs QUALIFY rn=1
Skema tabel tugas pekerjaan
Tabel tugas pekerjaan adalah tabel dimensi yang berubah perlahan (SCD2). Saat baris berubah, baris baru dikeluarkan, secara logis menggantikan baris sebelumnya.
jalur tabel: system.lakeflow.job_tasks
Nama kolom | Jenis data | Deskripsi | Catatan |
---|---|---|---|
account_id |
string | ID akun tempat pekerjaan ini berada | |
workspace_id |
string | ID ruang kerja tempat pekerjaan ini berada | |
job_id |
string | ID pekerjaan | Hanya unik dalam satu ruang kerja |
task_key |
string | Kunci referensi untuk tugas dalam pekerjaan | Hanya unik dalam satu pekerjaan |
depends_on_keys |
larik | Elemen kunci dari semua dependensi yang mengalir ke atas dari tugas ini. | |
change_time |
cap waktu | Waktu ketika tugas terakhir diubah | Zona waktu dicatat sebagai +00:00 (UTC) |
delete_time |
cap waktu | Waktu ketika tugas dihapus oleh pengguna | Zona waktu dicatat sebagai +00:00 (UTC) |
Contoh kueri
-- Get the most recent version of a job task
SELECT
*,
ROW_NUMBER() OVER(PARTITION BY workspace_id, job_id ORDER BY change_time DESC) as rn
FROM
system.lakeflow.job_tasks QUALIFY rn=1
Skema tabel garis waktu eksekusi pekerjaan
Tabel garis waktu eksekusi pekerjaan tidak dapat diubah dan selesai pada saat itu diproduksi.
jalur tabel: system.lakeflow.job_run_timeline
Nama kolom | Jenis data | Deskripsi | Catatan |
---|---|---|---|
account_id |
string | ID akun tempat pekerjaan ini berada | |
workspace_id |
string | ID ruang kerja tempat pekerjaan ini berada | |
job_id |
string | ID pekerjaan | Kunci ini hanya unik dalam satu ruang kerja |
run_id |
string | ID pelaksanaan tugas | |
period_start_time |
cap waktu | Waktu mulai untuk berlari atau durasi waktu | Informasi zona waktu dicatat di akhir nilai dengan +00:00 mewakili UTC |
period_end_time |
cap waktu | Waktu akhir untuk jalannya atau periode waktu | Informasi zona waktu dicatat di akhir nilai dengan +00:00 mewakili UTC |
trigger_type |
string | Jenis pemicu yang dapat menjalankan suatu operasi | Untuk nilai yang mungkin, lihat Nilai jenis pemicu |
run_type |
string | Jenis pelaksanaan pekerjaan | Untuk nilai yang mungkin, lihat nilai tipe operasi |
run_name |
string | Nama run yang disediakan pengguna terkait dengan pelaksanaan pekerjaan ini | |
compute_ids |
array | Array yang berisi ID komputasi tugas untuk penjalankan pekerjaan induk | Gunakan untuk mengidentifikasi kluster pekerjaan yang digunakan oleh jenis pemrosesan WORKFLOW_RUN . Untuk informasi komputasi lainnya, lihat job_task_run_timeline tabel.Tidak diisi untuk baris yang dikeluarkan sebelum akhir bulan Agustus 2024 |
result_state |
string | Hasil dari pekerjaan yang dijalankan | Untuk nilai yang mungkin, lihat nilai status Hasil |
termination_code |
string | Kode penghentian pelaksanaan tugas | Untuk nilai yang mungkin, lihat Nilai Kode Penghentian. Tidak diisi untuk baris yang dihasilkan sebelum akhir Agustus 2024. |
job_parameters |
peta | Parameter pada tingkat pekerjaan yang digunakan dalam pelaksanaan pekerjaan | Pengaturan notebook_params yang tidak digunakan lagi tidak disertakan dalam bidang ini. Tidak diisi untuk baris yang dikeluarkan sebelum akhir bulan Agustus 2024 |
Contoh kueri
-- This query gets the daily job count for a workspace for the last 7 days:
SELECT
workspace_id,
COUNT(DISTINCT run_id) as job_count,
to_date(period_start_time) as date
FROM system.lakeflow.job_run_timeline
WHERE
period_start_time > CURRENT_TIMESTAMP() - INTERVAL 7 DAYS
GROUP BY ALL
-- This query returns the daily job count for a workspace for the last 7 days, distributed by the outcome of the job run.
SELECT
workspace_id,
COUNT(DISTINCT run_id) as job_count,
result_state,
to_date(period_start_time) as date
FROM system.lakeflow.job_run_timeline
WHERE
period_start_time > CURRENT_TIMESTAMP() - INTERVAL 7 DAYS
AND result_state IS NOT NULL
GROUP BY ALL
-- This query returns the average time of job runs, measured in seconds. The records are organized by job. A top 90 and a 95 percentile column show the average lengths of the job's longest runs.
with job_run_duration as (
SELECT
workspace_id,
job_id,
run_id,
CAST(SUM(period_end_time - period_start_time) AS LONG) as duration
FROM
system.lakeflow.job_run_timeline
WHERE
period_start_time > CURRENT_TIMESTAMP() - INTERVAL 7 DAYS
GROUP BY ALL
)
SELECT
t1.workspace_id,
t1.job_id,
COUNT(DISTINCT t1.run_id) as runs,
MEAN(t1.duration) as mean_seconds,
AVG(t1.duration) as avg_seconds,
PERCENTILE(t1.duration, 0.9) as p90_seconds,
PERCENTILE(t1.duration, 0.95) as p95_seconds
FROM
job_run_duration t1
GROUP BY ALL
ORDER BY mean_seconds DESC
LIMIT 100
-- This query provides a historical runtime for a specific job based on the `run_name` parameter. For the query to work, you must set the `run_name`.
SELECT
workspace_id,
run_id,
SUM(period_end_time - period_start_time) as run_time
FROM system.lakeflow.job_run_timeline
WHERE
run_type="SUBMIT_RUN"
AND run_name = :run_name
AND period_start_time > CURRENT_TIMESTAMP() - INTERVAL 60 DAYS
GROUP BY ALL
-- This query collects a list of retried job runs with the number of retries for each run.
with repaired_runs as (
SELECT
workspace_id, job_id, run_id, COUNT(*) - 1 as retries_count
FROM system.lakeflow.job_run_timeline
WHERE result_state IS NOT NULL
GROUP BY ALL
HAVING retries_count > 0
)
SELECT
*
FROM repaired_runs
ORDER BY retries_count DESC
LIMIT 10;
Skema tabel garis waktu eksekusi tugas pekerjaan
Tabel garis waktu eksekusi tugas pekerjaan tidak dapat diubah dan selesai pada saat itu diproduksi.
Lokasi tabel: system.lakeflow.job_task_run_timeline
Nama kolom | Jenis data | Deskripsi | Catatan |
---|---|---|---|
account_id |
string | ID akun tempat pekerjaan ini berada | |
workspace_id |
string | ID ruang kerja tempat pekerjaan ini berada | |
job_id |
string | Identitas pekerjaan | Hanya unik dalam satu ruang kerja |
run_id |
string | ID pelaksanaan tugas yang dijalankan | |
job_run_id |
string | ID pelaksanaan pekerjaan | Tidak diisi untuk baris yang dikeluarkan sebelum akhir bulan Agustus 2024 |
parent_run_id |
string | ID proses induk | Tidak diisi untuk baris yang dikeluarkan sebelum akhir Agustus 2024 |
period_start_time |
cap waktu | Waktu mulai untuk tugas atau untuk periode waktu | Informasi zona waktu dicatat di akhir nilai dengan +00:00 mewakili UTC |
period_end_time |
cap waktu | Waktu akhir untuk tugas atau untuk periode waktu | Informasi zona waktu dicatat di akhir nilai dengan +00:00 mewakili UTC |
task_key |
string | Kunci referensi untuk tugas dalam pekerjaan | Kunci ini hanya unik dalam satu pekerjaan |
compute_ids |
larik | Array compute_ids berisi ID kluster pekerjaan, kluster interaktif, dan gudang SQL yang digunakan oleh tugas pekerjaan | |
result_state |
string | Hasil dari tugas pekerjaan yang dijalankan | Untuk nilai yang mungkin, lihat nilai status Hasil |
termination_code |
string | Kode penghentian eksekusi tugas | Untuk nilai-nilai yang mungkin, lihat nilai kode penghentian. Tidak diisi untuk baris yang dikeluarkan sebelum akhir Agustus 2024 |
pola penggabungan umum
Bagian berikut ini menyediakan kueri sampel yang menyoroti pola gabungan yang umum digunakan untuk tabel sistem pekerjaan.
Menggabungkan tabel pekerjaan dan tabel garis waktu jalannya tugas
Memperkaya jalannya pekerjaan dengan nama pekerjaan
with jobs as (
SELECT
*,
ROW_NUMBER() OVER (PARTITION BY workspace_id, job_id ORDER BY change_time DESC) as rn
FROM system.lakeflow.jobs QUALIFY rn=1
)
SELECT
job_run_timeline.*
jobs.name
FROM system.lakeflow.job_run_timeline
LEFT JOIN jobs USING (workspace_id, job_id)
Bergabung dengan linimasa pemrosesan kerja dan tabel penggunaan
Memperkaya setiap log penagihan dengan metadata pelaksanaan pekerjaan
SELECT
t1.*,
t2.*
FROM system.billing.usage t1
LEFT JOIN system.lakeflow.job_run_timeline t2
ON t1.workspace_id = t2.workspace_id
AND t1.usage_metadata.job_id = t2.job_id
AND t1.usage_metadata.job_run_id = t2.run_id
AND t1.usage_start_time >= date_trunc("Hour", t2.period_start_time)
AND t1.usage_start_time < date_trunc("Hour", t2.period_end_time) + INTERVAL 1 HOUR
WHERE
billing_origin_product="JOBS"
Menghitung biaya per pemrosesan pekerjaan
Kueri ini bergabung dengan tabel sistem billing.usage
untuk menghitung biaya per pekerjaan yang dijalankan.
with jobs_usage AS (
SELECT
*,
usage_metadata.job_id,
usage_metadata.job_run_id as run_id,
identity_metadata.run_as as run_as
FROM system.billing.usage
WHERE billing_origin_product="JOBS"
),
jobs_usage_with_usd AS (
SELECT
jobs_usage.*,
usage_quantity * pricing.default as usage_usd
FROM jobs_usage
LEFT JOIN system.billing.list_prices pricing ON
jobs_usage.sku_name = pricing.sku_name
AND pricing.price_start_time <= jobs_usage.usage_start_time
AND (pricing.price_end_time >= jobs_usage.usage_start_time OR pricing.price_end_time IS NULL)
AND pricing.currency_code="USD"
),
jobs_usage_aggregated AS (
SELECT
workspace_id,
job_id,
run_id,
FIRST(run_as, TRUE) as run_as,
sku_name,
SUM(usage_usd) as usage_usd,
SUM(usage_quantity) as usage_quantity
FROM jobs_usage_with_usd
GROUP BY ALL
)
SELECT
t1.*,
MIN(period_start_time) as run_start_time,
MAX(period_end_time) as run_end_time,
FIRST(result_state, TRUE) as result_state
FROM jobs_usage_aggregated t1
LEFT JOIN system.lakeflow.job_run_timeline t2 USING (workspace_id, job_id, run_id)
GROUP BY ALL
ORDER BY usage_usd DESC
LIMIT 100
Dapatkan log penggunaan untuk pekerjaan SUBMIT_RUN
SELECT
*
FROM system.billing.usage
WHERE
EXISTS (
SELECT 1
FROM system.lakeflow.job_run_timeline
WHERE
job_run_timeline.job_id = usage_metadata.job_id
AND run_name = :run_name
AND workspace_id = :workspace_id
)
Menggabungkan garis waktu eksekusi tugas pekerjaan dan tabel kluster
Memperkaya tugas pekerjaan dengan metadata cluster
with clusters as (
SELECT
*,
ROW_NUMBER() OVER (PARTITION BY workspace_id, cluster_id ORDER BY change_time DESC) as rn
FROM system.compute.clusters QUALIFY rn=1
),
exploded_task_runs AS (
SELECT
*,
EXPLODE(compute_ids) as cluster_id
FROM system.lakeflow.job_task_run_timeline
WHERE array_size(compute_ids) > 0
)
SELECT
exploded_task_runs.*,
clusters.*
FROM exploded_task_runs t1
LEFT JOIN clusters t2
USING (workspace_id, cluster_id)
Temukan pekerjaan yang berjalan pada komputasi serbaguna
Kueri ini bergabung dengan compute.clusters
tabel sistem untuk menghasilkan pekerjaan terbaru yang berjalan pada komputasi serbaguna alih-alih komputasi khusus pekerjaan.
with clusters AS (
SELECT
*,
ROW_NUMBER() OVER(PARTITION BY workspace_id, cluster_id ORDER BY change_time DESC) as rn
FROM system.compute.clusters
WHERE cluster_source="UI" OR cluster_source="API"
QUALIFY rn=1
),
job_tasks_exploded AS (
SELECT
workspace_id,
job_id,
EXPLODE(compute_ids) as cluster_id
FROM system.lakeflow.job_task_run_timeline
WHERE period_start_time >= CURRENT_DATE() - INTERVAL 30 DAY
),
all_purpose_cluster_jobs AS (
SELECT
t1.*,
t2.cluster_name,
t2.owned_by,
t2.dbr_version
FROM job_tasks_exploded t1
INNER JOIN clusters t2 USING (workspace_id, cluster_id)
)
SELECT * FROM all_purpose_cluster_jobs LIMIT 10;
Dasbor Pemantauan Pekerjaan
Dasbor berikut menggunakan tabel sistem untuk membantu Anda mulai memantau pekerjaan dan kesehatan operasional Anda. Ini termasuk kasus penggunaan umum seperti pelacakan performa pekerjaan, pemantauan kegagalan, dan pemanfaatan sumber daya.
Untuk informasi tentang mengunduh dasbor, lihat Pantau biaya pekerjaan & performa dengan tabel sistem
Pemecahan masalah
Pekerjaan tidak dicatat dalam tabel lakeflow.jobs
Jika pekerjaan tidak terlihat dalam tabel sistem:
- Pekerjaan tidak dimodifikasi dalam 365 hari terakhir
- Ubah salah satu bidang pekerjaan yang ada dalam skema untuk memancarkan rekaman baru.
- Pekerjaan dibuat di wilayah yang berbeda
- Penciptaan lapangan kerja terbaru (keterlambatan data tabel)
Tidak dapat menemukan pekerjaan yang terlihat dalam tabel job_run_timeline
Tidak semua pelaksanaan tugas terlihat di semua tempat. Sementara entri JOB_RUN
muncul di semua tabel terkait pekerjaan, WORKFLOW_RUN
(eksekusi alur kerja buku catatan) hanya direkam dalam job_run_timeline
dan SUBMIT_RUN
(eksekusi yang dikirim satu kali) hanya direkam di kedua tabel garis waktu. Proses ini tidak dimasukkan ke tabel sistem pekerjaan lain seperti jobs
atau job_tasks
.
Lihat tabel Jenis run di bawah ini untuk perincian tentang di mana setiap jenis run terlihat dan dapat diakses.
Pemrosesan tugas tidak muncul dalam tabel billing.usage
Dalam system.billing.usage
, usage_metadata.job_id
hanya diisi untuk pekerjaan yang berjalan pada komputasi pekerjaan atau komputasi tanpa server.
Selain itu, pekerjaan WORKFLOW_RUN
tidak memiliki atribusi usage_metadata.job_id
atau usage_metadata.job_run_id
sendiri di system.billing.usage
.
Sebaliknya, penggunaan komputasi mereka dikaitkan dengan notebook induk yang memicunya.
Ini berarti ketika buku catatan menjalankan alur kerja, semua biaya komputasi muncul di bawah penggunaan buku catatan induk, bukan sebagai pekerjaan alur kerja yang terpisah.
Lihat referensi metadata Penggunaan untuk informasi selengkapnya.
Menghitung biaya pekerjaan yang berjalan pada komputasi serba guna
Perhitungan biaya yang tepat untuk pekerjaan yang berjalan pada komputasi khusus tidak bisa dihitung dengan akurasi 100%. Saat pekerjaan berjalan pada komputasi interaktif (serba guna), beberapa beban kerja seperti notebook, kueri SQL, atau pekerjaan lain sering berjalan secara bersamaan pada sumber daya komputasi yang sama. Karena sumber daya kluster dibagikan, tidak ada pemetaan 1:1 langsung antara biaya komputasi dan eksekusi pekerjaan individual.
Untuk pelacakan biaya pekerjaan yang akurat, Databricks merekomendasikan untuk menjalankan pekerjaan pada komputasi pekerjaan khusus atau komputasi tanpa server, di mana usage_metadata.job_id
dan usage_metadata.job_run_id
memungkinkan atribusi biaya yang tepat.
Jika Anda harus menggunakan komputasi semua tujuan, Anda dapat:
- Pantau penggunaan dan biaya keseluruhan kluster di
system.billing.usage
berdasarkanusage_metadata.cluster_id
. - Jejak metrik waktu eksekusi pekerjaan secara terpisah.
- Pertimbangkan bahwa setiap estimasi biaya akan bersifat perkiraan karena penggunaan sumber daya yang bersama-sama.
Lihat Referensi metadata penggunaan untuk informasi selengkapnya tentang atribusi biaya.
Nilai referensi
Bagian berikut ini menyertakan referensi untuk kolom tertentu dalam tabel terkait pekerjaan.
Nilai jenis pemicu
Kemungkinan nilai untuk kolom trigger_type
adalah:
CONTINUOUS
CRON
FILE_ARRIVAL
ONETIME
ONETIME_RETRY
Jalankan nilai jenis
Nilai-nilai yang mungkin untuk kolom run_type
adalah:
Jenis | Deskripsi | Lokasi UI | Titik Akhir API | Tabel Sistem |
---|---|---|---|---|
JOB_RUN |
Eksekusi pekerjaan standar | Pekerjaan & Pelaksanaan Pekerjaan UI | titik akhir /jobs dan /jobs/runs | pekerjaan, tugas_pekerjaan, garis_waktu_pelaksanaan_pekerjaan, garis_waktu_pelaksanaan_tugas_pekerjaan |
SUBMIT_RUN |
Eksekusi satu kali melalui POST /jobs/runs/submit | Antarmuka Pengguna Job Runs saja | titik akhir /jobs/runs saja | linimasa_jalannya_pekerjaan, linimasa_jalannya_tugas_pekerjaan |
WORKFLOW_RUN |
Proses dimulai dari alur kerja notebook notebook workflow | Tidak terlihat | Tidak dapat diakses | Linimasa_proses_pekerjaan |
Nilai kondisi hasil
Nilai yang mungkin untuk kolom result_state
adalah:
Negara | Deskripsi |
---|---|
SUCCEEDED |
Pengerjaan selesai dengan sukses |
FAILED |
Proses selesai dengan kesalahan |
SKIPPED |
Pelaksanaan tidak pernah dilakukan karena kondisi tidak terpenuhi |
CANCELLED |
Eksekusi dibatalkan atas permintaan pengguna |
TIMED_OUT |
Proses dihentikan setelah mencapai batas waktu yang ditentukan |
ERROR |
Proses selesai dengan kesalahan |
BLOCKED |
Proses pengoperasian diblokir pada dependensi hulu |
Nilai kode penghentian
Nilai yang mungkin untuk kolom termination_code
adalah:
Kode penghentian | Deskripsi |
---|---|
SUCCESS |
Pelaksanaan berhasil diselesaikan |
CANCELLED |
Eksekusi dibatalkan selama eksekusi oleh platform Databricks; misalnya, jika durasi eksekusi maksimum terlampaui |
SKIPPED |
Eksekusi tidak pernah dilakukan, misalnya, jika eksekusi tugas upstream gagal, kondisi tipe dependensi tidak terpenuhi, atau tidak ada tugas penting untuk dijalankan. |
DRIVER_ERROR |
Proses menjalankan mengalami kesalahan saat berkomunikasi dengan Driver Spark |
CLUSTER_ERROR |
Eksekusi gagal karena kesalahan kluster |
REPOSITORY_CHECKOUT_FAILED |
Gagal menyelesaikan checkout karena kesalahan saat berkomunikasi dengan layanan pihak ketiga |
INVALID_CLUSTER_REQUEST |
Eksekusi gagal karena mengeluarkan permintaan yang tidak valid untuk memulai kluster |
WORKSPACE_RUN_LIMIT_EXCEEDED |
Ruang kerja telah mencapai kuota untuk jumlah maksimum dari proses aktif yang berjalan serentak. Pertimbangkan untuk menjadwalkan sesi dalam jangka waktu yang lebih panjang |
FEATURE_DISABLED |
Eksekusi gagal karena mencoba mengakses fitur yang tidak tersedia untuk ruang kerja |
CLUSTER_REQUEST_LIMIT_EXCEEDED |
Jumlah permintaan pembuatan, memulai, dan peningkatan ukuran kluster telah melebihi batas laju yang dialokasikan. Pertimbangkan untuk menyebarkan pelaksanaan dalam jangka waktu yang lebih lama |
STORAGE_ACCESS_ERROR |
Eksekusi gagal karena kesalahan saat mengakses penyimpanan blob pelanggan |
RUN_EXECUTION_ERROR |
Pelaksanaan selesai dengan adanya kegagalan tugas |
UNAUTHORIZED_ERROR |
Eksekusi gagal karena masalah izin saat mengakses sumber daya |
LIBRARY_INSTALLATION_ERROR |
Eksekusi gagal saat menginstal pustaka yang diminta pengguna. Penyebabnya mungkin termasuk, tetapi tidak terbatas pada: Pustaka yang disediakan tidak valid, ada izin yang tidak mencukupi untuk menginstal pustaka, dan sebagainya |
MAX_CONCURRENT_RUNS_EXCEEDED |
Eksekusi terjadwal melebihi batas eksekusi bersamaan maksimum yang ditetapkan untuk pekerjaan |
MAX_SPARK_CONTEXTS_EXCEEDED |
Eksekusi dijadwalkan pada kluster yang telah mencapai jumlah maksimum konteks yang dikonfigurasi untuk dibuat |
RESOURCE_NOT_FOUND |
Sumber daya yang diperlukan untuk menjalankan eksekusi tidak ada |
INVALID_RUN_CONFIGURATION |
Eksekusi gagal karena konfigurasi yang tidak valid |
CLOUD_FAILURE |
Eksekusi gagal karena masalah penyedia cloud |
MAX_JOB_QUEUE_SIZE_EXCEEDED |
Proses dilewatkan karena mencapai batas ukuran antrean pada tingkat pekerjaan |