İş API 2.0
Önemli
Bu makale, İşler API'sinin 2.0 sürümünü belgeler. Ancak Databricks, yeni ve mevcut istemciler ve betikler için Jobs API 2.2 kullanmanızı tavsiye eder. İşler API'sinin 2.2 sürümündeki değişiklikler hakkında ayrıntılı bilgi için bkz. jobs API 2.1'den 2.2'ye güncelleştirme.
İşler API'si işleri oluşturmanıza, düzenlemenize ve silmenize olanak tanır. İşler API'sine yönelik bir isteğin izin verilen en büyük boyutu 10 MB'tır.
İşler API'sinin daha yeni sürümlerindeki güncellenmiş işlevsellik hakkında bilgi edinmek için bkz. Jobs API 2.0 sürümünden 2.1 sürümüne güncelleştirme ve Jobs API 2.1 sürümünden 2.2 sürümüne güncelleştirme.
Uyarı
Gizli bilgileri asla sabit kodlamayın veya düz metin olarak depolamamalısınız. Secrets API'yi Databricks CLI'da gizli verileri yönetmek için kullanın. Defterlerde ve işlerdeki gizli bilgilere başvurmak için Gizli Bilgiler yardımcı programını (dbutils.secrets) kullanın.
Not
İşler API'si istekleri yaparken 500 düzeyinde bir hata alırsanız Databricks, isteklerin 10 dakika (yeniden denemeler arasında en az 30 saniyelik bir aralıkla) yeniden denemesini önerir.
Önemli
Databricks REST API’lerine erişmek için kimlik doğrulaması yapmanız gerekir.
Oluştur
Uç nokta | HTTP Yöntemi |
---|---|
2.0/jobs/create |
POST |
Yeni bir iş oluşturun.
Örnek
Bu örnek, her gece 22:15'te JAR görevi çalıştıran bir iş oluşturur.
İstek
curl --netrc --request POST \
https://<databricks-instance>/api/2.0/jobs/create \
--data @create-job.json \
| jq .
create-job.json
:
{
"name": "Nightly model training",
"new_cluster": {
"spark_version": "7.3.x-scala2.12",
"node_type_id": "Standard_D3_v2",
"num_workers": 10
},
"libraries": [
{
"jar": "dbfs:/my-jar.jar"
},
{
"maven": {
"coordinates": "org.jsoup:jsoup:1.7.2"
}
}
],
"timeout_seconds": 3600,
"max_retries": 1,
"schedule": {
"quartz_cron_expression": "0 15 22 * * ?",
"timezone_id": "America/Los_Angeles"
},
"spark_jar_task": {
"main_class_name": "com.databricks.ComputeModels"
}
}
Değiştir:
-
<databricks-instance>
Azure Databricks çalışma alanı örneği adını ile,adb-1234567890123456.7.azuredatabricks.net
örneğin. - Çözümünüz için uygun alanları içeren
create-job.json
içeriği.
Bu örnekte bir .netrc dosyası ve jq kullanılır.
Yanıt
{
"job_id": 1
}
İstek yapısı
Önemli
- Yeni bir işler kümesinde bir iş çalıştırdığınızda, bu iş, Jobs Compute fiyatlandırmasına tabi bir otomatik iş yükü olarak değerlendirilir.
- Var olan bir çok amaçlı kümede bir iş çalıştırdığınızda, bu iş, Tüm Amaçlı İşlem fiyatlandırmasına tabi olan Bir Çok Amaçlı İşlem (etkileşimli) iş yükü olarak değerlendirilir.
Alan Adı | Type | Açıklama |
---|---|---|
existing_cluster_id VEYA new_cluster |
STRING OR NewCluster |
Eğer existing_cluster_id varsa, bu işin tüm çalıştırmaları için kullanılacak mevcut kümenin kimliği. Mevcut bir kümede işleri çalıştırırken yanıt vermeyi durdurursa kümeyi el ile yeniden başlatmanız gerekebilir. Daha fazla güvenilirlik için yeni kümelerde iş çalıştırmanızı öneririz. yeni_küme, her bir çalıştırma için oluşturulacak bir kümenin açıklaması. PipelineTask belirtilmesi durumunda bu alan boş olabilir. |
notebook_task VEYA VEYA spark_jar_task spark_python_task VEYA VEYA spark_submit_task pipeline_task VEYA run_job_task |
NotebookTask VEYA SparkJarTask VEYA SparkPythonTask VEYA SparkSubmitTask VEYA PipelineTask VEYA RunJobTask | notebook_task, bu işin bir not defteri çalıştırması gerektiğini gösterir. Bu alan spark_jar_task ile birlikte belirtilmeyebilir. spark_jar_task, bu görevin bir JAR çalıştırması gerektiğini gösterir. spark_python_task, bu işin bir Python dosyası çalıştırması gerektiğini gösterir. spark_submit_task, bu işin Spark gönderme betiği tarafından başlatılması gerektiğini gösterir. pipeline_task, bu işin bir DLT işlem hattı çalıştırması gerektiğini gösterir. run_job_task işlevi, bu işin başka bir işi çalıştırması gerektiğini gösterir. |
name |
STRING |
İş için isteğe bağlı bir ad. Varsayılan değer şudur: Untitled . |
libraries |
Bir kitaplık dizisi | İşi yürütecek kümeye yüklenecek kitaplıkların isteğe bağlı listesi. Varsayılan değer boş bir listedir. |
email_notifications |
İş E-posta Bildirimleri | Çalıştırmaları başladığında ve tamamlandığında ve iş silindiğinde bildirilecek isteğe bağlı bir e-posta adresleri kümesi. Varsayılan davranış, herhangi bir e-posta göndermemektir. |
webhook_notifications |
Webhook Bildirimleri | Çalıştırmaları başladığında, tamamlandığında veya başarısız olduğunda bildirimde bulunmak için isteğe bağlı bir sistem varış noktaları kümesi. |
notification_settings |
İşBildirimAyarları | Bu iş için email_notifications ve webhook_notifications her birine bildirim gönderirken kullanılan isteğe bağlı bildirim ayarları. |
timeout_seconds |
INT32 |
Her çalıştırmada bu işe isteğe bağlı bir zaman aşımı uygulanır. Varsayılan davranış, zaman aşımı olmamasıdır. |
max_retries |
INT32 |
Başarısız bir çalıştırmayı yeniden denemek için maksimum isteğe bağlı deneme sayısı. Bir çalıştırmanın başarısız olduğu kabul edilir eğer FAILED veya result_state ile tamamlanırsa.INTERNAL_ERROR life_cycle_state . -1 değeri süresiz olarak yeniden deneme, 0 değeri ise hiçbir zaman yeniden deneme anlamına gelir. Varsayılan davranış, hiçbir zaman yeniden denememektir. |
min_retry_interval_millis |
INT32 |
Başarısız çalıştırmanın başlangıcı ile sonraki yeniden deneme çalıştırması arasında milisaniye cinsinden isteğe bağlı en düşük aralık. Varsayılan davranış, başarısız girişimlerin hemen yeniden denenmesidir. |
retry_on_timeout |
BOOL |
Bir iş zaman aşımına uğradığında yeniden denenip denenmeyeceğini belirtmek için isteğe bağlı bir ilke. Varsayılan davranış, zaman aşımında yeniden denememektir. |
schedule |
CronSchedule | Bu iş için isteğe bağlı bir düzenli zamanlama. Varsayılan davranış, İşler kullanıcı arabiriminde Şimdi çalıştır seçeneğine tıklayarak veya runNow adresine bir API isteği göndererek tetiklendiğinde işin çalışmasıdır. |
max_concurrent_runs |
INT32 |
Opsiyonel olarak izin verilen maksimum eşzamanlı iş yürütme sayısı. Aynı işin birden çok çalıştırmasını eşzamanlı olarak yürütebilmek istiyorsanız bu değeri ayarlayın. Bu, örneğin işinizi sık sık tetikleyip ardışık çalıştırmaların birbiriyle çakışmasına izin vermek veya giriş parametrelerine göre farklı birden çok çalıştırma tetiklemeniz durumunda yararlı olur. Bu ayar yalnızca yeni çalıştırmaları etkiler. Örneğin, işin eşzamanlılığının 4 olduğunu ve 4 tane eşzamanlı etkin çalışma olduğunu varsayalım. Eşzamanlılık 3 olarak ayarlandığında, etkin çalıştırmaların hiçbiri sonlandırılamaz. Ancak, bundan sonra, 3'ten az etkin çalıştırma olmadığı sürece yeni çalıştırmalar atlanır. Bu değer 1000'i aşamaz. Bu değerin 0 olarak ayarlanması tüm yeni çalıştırmaların atlanmasına neden olur. Varsayılan davranış, yalnızca 1 eşzamanlı çalıştırmaya izin vermektir. |
Yanıt yapısı
Alan Adı | Type | Açıklama |
---|---|---|
job_id |
INT64 |
Yeni oluşturulan işin kanonik tanımlayıcısı. |
Listesi
Uç nokta | HTTP Yöntemi |
---|---|
2.0/jobs/list |
GET |
Tüm işleri listeleyin.
Örnek
İstek
curl --netrc --request GET \
https://<databricks-instance>/api/2.0/jobs/list \
| jq .
<databricks-instance>
değerini Azure Databricks çalışma alanı örneği adı ile değiştirin, örneğin adb-1234567890123456.7.azuredatabricks.net
.
Bu örnekte bir .netrc dosyası ve jq kullanılır.
Yanıt
{
"jobs": [
{
"job_id": 1,
"settings": {
"name": "Nightly model training",
"new_cluster": {
"spark_version": "7.3.x-scala2.12",
"node_type_id": "Standard_D3_v2",
"num_workers": 10
},
"libraries": [
{
"jar": "dbfs:/my-jar.jar"
},
{
"maven": {
"coordinates": "org.jsoup:jsoup:1.7.2"
}
}
],
"timeout_seconds": 100000000,
"max_retries": 1,
"schedule": {
"quartz_cron_expression": "0 15 22 * * ?",
"timezone_id": "America/Los_Angeles",
"pause_status": "UNPAUSED"
},
"spark_jar_task": {
"main_class_name": "com.databricks.ComputeModels"
}
},
"created_time": 1457570074236
}
]
}
Yanıt yapısı
Alan Adı | Type | Açıklama |
---|---|---|
jobs |
Bir İş dizisi | İş listesi. |
Silmek
Uç nokta | HTTP Yöntemi |
---|---|
2.0/jobs/delete |
POST |
bir işi silin ve içinde JobSettings.email_notifications
belirtilen adreslere e-posta gönderin. İş zaten kaldırılmışsa hiçbir eylem gerçekleşmez. İş kaldırıldıktan sonra, ne ayrıntıları ne de çalıştırma geçmişi İşler kullanıcı arabiriminde veya API'de görünür. bu istek tamamlandıktan sonra işin kaldırılması garanti edilir. Ancak, bu isteğin alınmasından önce başlamış olan çalışmalar hala etkin olabilir. Bunlar eşzamanlı olmayan şekilde sonlandırılacaktır.
Örnek
curl --netrc --request POST \
https://<databricks-instance>/api/2.0/jobs/delete \
--data '{ "job_id": <job-id> }'
Değiştir:
-
<databricks-instance>
Azure Databricks çalışma alanı örneği adını ile,adb-1234567890123456.7.azuredatabricks.net
örneğin. -
<job-id>
işin kimliğiyle birlikte, örneğin123
.
Bu örnekte bir .netrc dosyası kullanılır.
İstek yapısı
Alan Adı | Type | Açıklama |
---|---|---|
job_id |
INT64 |
Silinecek işin standart tanımlayıcısı. Bu alan gereklidir. |
İndir
Uç nokta | HTTP Yöntemi |
---|---|
2.0/jobs/get |
GET |
Tek bir iş hakkındaki bilgileri alın.
Örnek
İstek
curl --netrc --request GET \
'https://<databricks-instance>/api/2.0/jobs/get?job_id=<job-id>' \
| jq .
Veya:
curl --netrc --get \
https://<databricks-instance>/api/2.0/jobs/get \
--data job_id=<job-id> \
| jq .
Değiştir:
-
<databricks-instance>
Azure Databricks çalışma alanı örneği adını ile,adb-1234567890123456.7.azuredatabricks.net
örneğin. -
<job-id>
işin kimliğiyle birlikte, örneğin123
.
Bu örnekte bir .netrc dosyası ve jq kullanılır.
Yanıt
{
"job_id": 1,
"settings": {
"name": "Nightly model training",
"new_cluster": {
"spark_version": "7.3.x-scala2.12",
"node_type_id": "Standard_D3_v2",
"num_workers": 10
},
"libraries": [
{
"jar": "dbfs:/my-jar.jar"
},
{
"maven": {
"coordinates": "org.jsoup:jsoup:1.7.2"
}
}
],
"timeout_seconds": 100000000,
"max_retries": 1,
"schedule": {
"quartz_cron_expression": "0 15 22 * * ?",
"timezone_id": "America/Los_Angeles",
"pause_status": "UNPAUSED"
},
"spark_jar_task": {
"main_class_name": "com.databricks.ComputeModels"
}
},
"created_time": 1457570074236
}
İstek yapısı
Alan Adı | Type | Açıklama |
---|---|---|
job_id |
INT64 |
Hakkında bilgi alınacak işin kurallı tanımlayıcısı. Bu alan gereklidir. |
Yanıt yapısı
Alan Adı | Type | Açıklama |
---|---|---|
job_id |
INT64 |
Bu görevin standart tanımlayıcısı. |
creator_user_name |
STRING |
Oluşturucu kullanıcı adı. Kullanıcı silinmişse bu alan yanıta dahil edilmeyecektir. |
settings |
İşAyarları | Bu işin ayarları ve tüm işlemeleri. Bu ayarlar, Sıfırlama veya Güncelleştirme uç noktaları kullanılarak güncelleştirilebilir. |
created_time |
INT64 |
Bu işin dönem milisaniye cinsinden oluşturulduğu saat (1/1/1970 UTC'den bu yana milisaniye). |
sıfırla
Uç nokta | HTTP Yöntemi |
---|---|
2.0/jobs/reset |
POST |
Belirli bir işin tüm ayarlarını değiştirin. İş ayarlarını kısmen güncelleştirmek için Güncelleştirme uç noktasını kullanın.
Örnek
Bu örnek istek, oluşturma örneğindeki 2. işi 1. işle aynı yapar.
curl --netrc --request POST \
https://<databricks-instance>/api/2.0/jobs/reset \
--data @reset-job.json \
| jq .
reset-job.json
:
{
"job_id": 2,
"new_settings": {
"name": "Nightly model training",
"new_cluster": {
"spark_version": "7.3.x-scala2.12",
"node_type_id": "Standard_D3_v2",
"num_workers": 10
},
"libraries": [
{
"jar": "dbfs:/my-jar.jar"
},
{
"maven": {
"coordinates": "org.jsoup:jsoup:1.7.2"
}
}
],
"timeout_seconds": 100000000,
"max_retries": 1,
"schedule": {
"quartz_cron_expression": "0 15 22 * * ?",
"timezone_id": "America/Los_Angeles",
"pause_status": "UNPAUSED"
},
"spark_jar_task": {
"main_class_name": "com.databricks.ComputeModels"
}
}
}
Değiştir:
-
<databricks-instance>
Azure Databricks çalışma alanı örneği adını ile,adb-1234567890123456.7.azuredatabricks.net
örneğin. - Çözümünüz için uygun alanları içeren
reset-job.json
içeriği.
Bu örnekte bir .netrc dosyası ve jq kullanılır.
İstek yapısı
Alan Adı | Type | Açıklama |
---|---|---|
job_id |
INT64 |
Sıfırlanacak görevin standart tanımlayıcısı. Bu alan gereklidir. |
new_settings |
İşAyarları | Görevin yeni ayarları. Bu ayarlar tamamen eski ayarların yerini alır. Etkin çalıştırmalara JobSettings.timeout_seconds alanındaki değişiklikler uygulanır. Diğer alanlarda yapılan değişiklikler yalnızca gelecekteki çalıştırmalarda uygulanır. |
Güncelleştirmesi
Uç nokta | HTTP Yöntemi |
---|---|
2.0/jobs/update |
POST |
Var olan bir işin belirli ayarlarını ekleyin, değiştirin veya kaldırın. Sıfırla uç noktasını kullanarak tüm iş ayarlarını sıfırlayın.
Örnek
Bu örnek istek, oluşturma örneğinde tanımlanan 1. işe kütüphaneleri kaldırır ve e-posta bildirim ayarları ekler.
curl --netrc --request POST \
https://<databricks-instance>/api/2.0/jobs/update \
--data @update-job.json \
| jq .
update-job.json
:
{
"job_id": 1,
"new_settings": {
"existing_cluster_id": "1201-my-cluster",
"email_notifications": {
"on_start": ["someone@example.com"],
"on_success": [],
"on_failure": []
}
},
"fields_to_remove": ["libraries"]
}
Değiştir:
-
<databricks-instance>
Azure Databricks çalışma alanı örneği adını ile,adb-1234567890123456.7.azuredatabricks.net
örneğin. - Çözümünüz için uygun alanları içeren
update-job.json
içeriği.
Bu örnekte bir .netrc dosyası ve jq kullanılır.
İstek yapısı
Alan Adı | Type | Açıklama |
---|---|---|
job_id |
INT64 |
Güncelleştirilecek işin kanonik tanımlayıcısı. Bu alan gereklidir. |
new_settings |
İşAyarları | Görevin yeni ayarları. diziler dışında içinde new_settings belirtilen üst düzey alanlar tamamen değiştirilir. Diziler, task_key veya benzeri anahtar alanlara göre birleştirilir.job_cluster_key ve aynı anahtara sahip dizi girişleri tamamen değiştirilir. Dizi birleştirme dışında, iç içe alanları kısmen güncelleştirme desteklenmez.Etkin çalıştırmalara JobSettings.timeout_seconds alanındaki değişiklikler uygulanır. Diğer alanlarda yapılan değişiklikler yalnızca gelecekteki çalışmalara uygulanır. |
fields_to_remove |
Bir dizi STRING |
İş ayarlarında en üst düzey alanları kaldırın. ve tasks dizilerindeki job_clusters girdiler dışında iç içe alanları kaldırma desteklenmez. Örneğin, aşağıda bu alan için uygun bir argüman verilmiştir.["libraries", "schedule", "tasks/task_1", "job_clusters/Default"] Bu alan isteğe bağlıdır. |
Şimdi çalıştır
Önemli
- Çalışma alanı 2000 eşzamanlı görev çalıştırması ile sınırlıdır. Hemen başlatılamayan bir çalıştırma istediğinizde
429 Too Many Requests
yanıtı döndürülür. - Bir iş alanının bir saat içinde oluşturabileceği iş sayısı 10000 ile sınırlıdır (çalıştırmaların gönderilmesini içerir). Bu sınır REST API ve not defteri iş akışları tarafından oluşturulan işleri de etkiler.
- Çalışma alanı en fazla 12000 kaydedilmiş iş içerebilir.
- Bir iş en fazla 100 görev içerebilir.
Uç nokta | HTTP Yöntemi |
---|---|
2.0/jobs/run-now |
POST |
Şimdi bir iş çalıştırın ve tetiklenen çalıştırmanın run_id
değerini döndürün.
İpucu
Eğer Oluştur ve Şimdi çalıştır'ı birlikte çağırırsanız, iş oluşturmak zorunda kalmadan iş yükünüzü doğrudan göndermenizi sağlayan Çalıştırmalar gönderme uç noktasını bunun yerine kullanabilirsiniz.
Örnek
curl --netrc --request POST \
https://<databricks-instance>/api/2.0/jobs/run-now \
--data @run-job.json \
| jq .
run-job.json
:
Not defteri işi için örnek istek:
{
"job_id": 1,
"notebook_params": {
"name": "john doe",
"age": "35"
}
}
JAR işi için örnek istek:
{
"job_id": 2,
"jar_params": ["john doe", "35"]
}
Değiştir:
-
<databricks-instance>
Azure Databricks çalışma alanı örneği adını ile,adb-1234567890123456.7.azuredatabricks.net
örneğin. - Çözümünüz için uygun alanları içeren
run-job.json
içeriği.
Bu örnekte bir .netrc dosyası ve jq kullanılır.
İstek yapısı
Alan Adı | Type | Açıklama |
---|---|---|
job_id |
INT64 |
|
jar_params |
Bir dizi STRING |
JAR görevleri olan işler için parametrelerin listesi, örneğin. "jar_params": ["john doe", "35"] Parametreler, Spark JAR görevinde belirtilen ana sınıfın ana işlevini çağırmak için kullanılır. üzerinde run-now belirtilmezse, varsayılan olarak boş bir liste olur. jar_params notebook_params ile birlikte belirtilemez. Bu alanın JSON gösterimi (örneğin {"jar_params":["john doe","35"]} ) 10.000 baytı aşamaz. |
notebook_params |
ParamPair haritası | Not defteri görevi olan işler için anahtarların değerlerle eşlemesi, örneğin."notebook_params": {"name": "john doe", "age": "35"} . Harita not defterine geçirilir ve dbutils.widgets.get işlevi aracılığıyla erişilebilir.üzerinde run-now belirtilmezse, tetiklenen çalıştırma işin temel parametrelerini kullanır.notebook_params'i jar_params ile birlikte belirtemezsiniz. Bu alanın JSON gösterimi (örn. {"notebook_params":{"name":"john doe","age":"35"}} ) 10.000 baytı aşamaz. |
python_params |
Bir dizi STRING |
Python görevlerine sahip işler için parametrelerin listesi, örneğin. "python_params": ["john doe", "35"] Parametreler, komut satırı parametreleri olarak Python dosyasına geçirilir. Eğer run-now üzerinde belirtilirse, iş ayarında belirtilen parametrelerin üzerine yazar. Bu alanın JSON gösterimi (örneğin {"python_params":["john doe","35"]} ) 10.000 baytı aşamaz. |
spark_submit_params |
Bir dizi STRING |
Spark gönderme görevi olan işler için parametrelerin listesi, örneğin."spark_submit_params": ["--class", "org.apache.spark.examples.SparkPi"] . Parametreler spark-submit betiğine komut satırı parametreleri olarak geçirilir. Eğer run-now üzerinde belirtilirse, iş ayarında belirtilen parametrelerin üzerine yazar. Bu alanın JSON gösterimi 10.000 baytı aşamaz. |
idempotency_token |
STRING |
İş çalıştırma isteklerinin eşzamanlılığını garanti etmek için isteğe bağlı bir belirteç. Sağlanan belirteçle bir çalıştırma zaten varsa, istek yeni bir çalıştırma oluşturmaz ancak bunun yerine var olan çalıştırmanın kimliğini döndürür. Sağlanan belirteçle bir işlem silinirse bir hata döndürülür. Idempotency token'ı belirtirseniz, hata durumunda istek başarılı olana kadar yeniden deneyebilirsiniz. Azure Databricks, idempotens belirteciyle tam olarak bir işlemin başlatılacağını garanti eder. Bu belirtecin en fazla 64 karakteri olmalıdır. Daha fazla bilgi için bkz İşler için idemponans sağlama yöntemleri. |
Yanıt yapısı
Alan Adı | Type | Açıklama |
---|---|---|
run_id |
INT64 |
Yeni tetiklenen çalıştırmanın küresel olarak benzersiz kimliği. |
number_in_job |
INT64 |
Bu işin tüm çalışmaları arasında bu çalışmanın sıra numarası. |
Gönderme çalıştırmaları
Önemli
- Çalışma alanı 2000 eşzamanlı görev çalıştırması ile sınırlıdır. Hemen başlatılamayan bir çalıştırma istediğinizde
429 Too Many Requests
yanıtı döndürülür. - Bir iş alanının bir saat içinde oluşturabileceği iş sayısı 10000 ile sınırlıdır (çalıştırmaların gönderilmesini içerir). Bu sınır REST API ve not defteri iş akışları tarafından oluşturulan işleri de etkiler.
- Çalışma alanı en fazla 12000 kaydedilmiş iş içerebilir.
- Bir iş en fazla 100 görev içerebilir.
Uç nokta | HTTP Yöntemi |
---|---|
2.0/jobs/runs/submit |
POST |
Tek seferlik çalıştırma gönderin. Bu uç nokta, iş oluşturmadan doğrudan iş yükü göndermenizi sağlar.
jobs/runs/get
İş gönderildikten sonra çalıştırma durumunu denetlemek için API'yi kullanın.
Örnek
İstek
curl --netrc --request POST \
https://<databricks-instance>/api/2.0/jobs/runs/submit \
--data @submit-job.json \
| jq .
submit-job.json
:
{
"run_name": "my spark task",
"new_cluster": {
"spark_version": "7.3.x-scala2.12",
"node_type_id": "Standard_D3_v2",
"num_workers": 10
},
"libraries": [
{
"jar": "dbfs:/my-jar.jar"
},
{
"maven": {
"coordinates": "org.jsoup:jsoup:1.7.2"
}
}
],
"spark_jar_task": {
"main_class_name": "com.databricks.ComputeModels"
}
}
Değiştir:
-
<databricks-instance>
Azure Databricks çalışma alanı örneği adını ile,adb-1234567890123456.7.azuredatabricks.net
örneğin. - Çözümünüz için uygun alanları içeren
submit-job.json
içeriği.
Bu örnekte bir .netrc dosyası ve jq kullanılır.
Yanıt
{
"run_id": 123
}
İstek yapısı
Önemli
- Yeni bir işler kümesinde bir iş çalıştırdığınızda, bu iş, Jobs Compute fiyatlandırmasına tabi bir otomatik iş yükü olarak değerlendirilir.
- Var olan bir çok amaçlı kümede bir iş çalıştırdığınızda, bu iş, Tüm Amaçlı İşlem fiyatlandırmasına tabi olan Bir Çok Amaçlı İşlem (etkileşimli) iş yükü olarak değerlendirilir.
Alan Adı | Type | Açıklama |
---|---|---|
existing_cluster_id VEYA new_cluster |
STRING OR NewCluster |
Eğer existing_cluster_id varsa, bu işin tüm çalıştırmaları için kullanılacak mevcut kümenin kimliği. Mevcut bir kümede işleri çalıştırırken yanıt vermeyi durdurursa kümeyi el ile yeniden başlatmanız gerekebilir. Daha fazla güvenilirlik için yeni kümelerde iş çalıştırmanızı öneririz. yeni_küme, her bir çalıştırma için oluşturulacak bir kümenin açıklaması. PipelineTask belirtilmesi durumunda bu alan boş olabilir. |
notebook_task VEYA VEYA spark_jar_task spark_python_task VEYA VEYA spark_submit_task pipeline_task VEYA run_job_task |
NotebookTask VEYA SparkJarTask VEYA SparkPythonTask VEYA SparkSubmitTask VEYA PipelineTask VEYA RunJobTask | notebook_task, bu işin bir not defteri çalıştırması gerektiğini gösterir. Bu alan spark_jar_task ile birlikte belirtilmeyebilir. spark_jar_task, bu görevin bir JAR çalıştırması gerektiğini gösterir. spark_python_task, bu işin bir Python dosyası çalıştırması gerektiğini gösterir. spark_submit_task, bu işin Spark gönderme betiği tarafından başlatılması gerektiğini gösterir. pipeline_task, bu işin bir DLT işlem hattı çalıştırması gerektiğini gösterir. run_job_task işlevi, bu işin başka bir işi çalıştırması gerektiğini gösterir. |
run_name |
STRING |
Çalışma için isteğe bağlı bir ad. Varsayılan değer şudur: Untitled . |
webhook_notifications |
Webhook Bildirimleri | Çalıştırmaları başladığında, tamamlandığında veya başarısız olduğunda bildirimde bulunmak için isteğe bağlı bir sistem varış noktaları kümesi. |
notification_settings |
İşBildirimAyarları | Bu çalıştırma için webhook_notifications 'lerden her birine bildirim gönderirken kullanılan isteğe bağlı bildirim ayarları. |
libraries |
Bir kitaplık dizisi | İşi yürütecek kümeye yüklenecek kitaplıkların isteğe bağlı listesi. Varsayılan değer boş bir listedir. |
timeout_seconds |
INT32 |
Her çalıştırmada bu işe isteğe bağlı bir zaman aşımı uygulanır. Varsayılan davranış, zaman aşımı olmamasıdır. |
idempotency_token |
STRING |
İş çalıştırma isteklerinin eşzamanlılığını garanti etmek için isteğe bağlı bir belirteç. Sağlanan belirteçle bir çalıştırma zaten varsa, istek yeni bir çalıştırma oluşturmaz ancak bunun yerine var olan çalıştırmanın kimliğini döndürür. Sağlanan jetonla bir işlem silinirse, bir hata mesajı döndürülecektir. Idempotency token'ı belirtirseniz, hata durumunda istek başarılı olana kadar yeniden deneyebilirsiniz. Azure Databricks, idempotens belirteciyle tam olarak bir işlemin başlatılacağını garanti eder. Bu belirtecin en fazla 64 karakteri olmalıdır. Daha fazla bilgi için bkz İşler için idemponans sağlama yöntemleri. |
Yanıt yapısı
Alan Adı | Type | Açıklama |
---|---|---|
run_id |
INT64 |
Yeni gönderilen çalıştırmanın kurallı tanımlayıcısı. |
Koşular listesi
Uç nokta | HTTP Yöntemi |
---|---|
2.0/jobs/runs/list |
GET |
Liste, başlangıç zamanına göre azalan sırada çalışır.
Not
Çalıştırmalar 60 gün sonra otomatik olarak kaldırılır. Onları 60 günden fazla referans almak istiyorsanız, süresi dolmadan önce eski çalışma sonuçlarını kaydetmeniz gerekir. Kullanıcı arabirimini kullanarak dışarı aktarmak için bkz İş çalıştırma sonuçlarını dışarı aktarma. İş API'sini kullanarak dışa aktarma yapmak için bkz İhracat çalışmaları.
Örnek
İstek
curl --netrc --request GET \
'https://<databricks-instance>/api/2.0/jobs/runs/list?job_id=<job-id>&active_only=<true-false>&offset=<offset>&limit=<limit>&run_type=<run-type>' \
| jq .
Veya:
curl --netrc --get \
https://<databricks-instance>/api/2.0/jobs/runs/list \
--data 'job_id=<job-id>&active_only=<true-false>&offset=<offset>&limit=<limit>&run_type=<run-type>' \
| jq .
Değiştir:
-
<databricks-instance>
Azure Databricks çalışma alanı örneği adını ile,adb-1234567890123456.7.azuredatabricks.net
örneğin. -
<job-id>
işin kimliğiyle birlikte, örneğin123
. - "
<true-false>
iletrue
veyafalse
" -
<offset>
değeri ileoffset
. -
<limit>
değeri ilelimit
. -
<run-type>
değeri ilerun_type
.
Bu örnekte bir .netrc dosyası ve jq kullanılır.
Yanıt
{
"runs": [
{
"job_id": 1,
"run_id": 452,
"number_in_job": 5,
"state": {
"life_cycle_state": "RUNNING",
"state_message": "Performing action"
},
"task": {
"notebook_task": {
"notebook_path": "/Users/donald@duck.com/my-notebook"
}
},
"cluster_spec": {
"existing_cluster_id": "1201-my-cluster"
},
"cluster_instance": {
"cluster_id": "1201-my-cluster",
"spark_context_id": "1102398-spark-context-id"
},
"overriding_parameters": {
"jar_params": ["param1", "param2"]
},
"start_time": 1457570074236,
"end_time": 1457570075149,
"setup_duration": 259754,
"execution_duration": 3589020,
"cleanup_duration": 31038,
"run_duration": 3879812,
"trigger": "PERIODIC"
}
],
"has_more": true
}
İstek yapısı
Alan Adı | Type | Açıklama |
---|---|---|
active_only VEYA completed_only |
BOOL VEYA BOOL |
active_only ise true sonuçlara yalnızca etkin çalıştırmalar eklenir; aksi takdirde hem etkin hem de tamamlanmış çalıştırmalar listelenir. Etkin çalıştırma, PENDING , RUNNING veya TERMINATING RunLifecycleState içindeki bir çalıştırmadır.
true alanı, completed_only true olduğunda bu şekilde olamaz.completed_only ise true sonuçlara yalnızca tamamlanmış çalıştırmalar eklenir; aksi takdirde hem etkin hem de tamamlanmış çalıştırmalar listelenir. active_only true iken bu alan true olamaz. |
job_id |
INT64 |
Çalıştırılmak üzere listelenecek iş. Eğer belirtilmezse, İşler hizmeti tüm işlerden çalıştırmaların listesini verir. |
offset |
INT32 |
Döndürülecek ilk çalıştırmanın en son çalıştırmaya göre uzaklığı. |
limit |
INT32 |
Döndürülecek koşu sayısı. Bu değer 0'dan büyük ve 1000'den küçük olmalıdır. Varsayılan değer 20'dir. İstek 0 sınırı belirtirse, hizmet bunun yerine üst sınırı kullanır. |
run_type |
STRING |
Döndürülecek çalışma türü. Çalıştırma türlerinin açıklaması hakkında daha fazla bilgi için Çalıştırma bölümüne bakın. |
Yanıt yapısı
Alan Adı | Type | Açıklama |
---|---|---|
runs |
Bir Çalıştır dizisi | En son başlatılandan en erken başlatılana kadar sıralanmış çalıştırmaların listesi. |
has_more |
BOOL |
Eğer doğruysa, sağlanan filtreyle eşleşen ek çalıştırmalar listelemeye sunulabilir. |
Skorları al
Uç nokta | HTTP Yöntemi |
---|---|
2.0/jobs/runs/get |
GET |
Bir çalıştırmanın meta verilerini al.
Not
Çalıştırmalar 60 gün sonra otomatik olarak kaldırılır. Onları 60 günden fazla referans almak istiyorsanız, süresi dolmadan önce eski çalışma sonuçlarını kaydetmeniz gerekir. Kullanıcı arabirimini kullanarak dışarı aktarmak için bkz İş çalıştırma sonuçlarını dışarı aktarma. İş API'sini kullanarak dışa aktarma yapmak için bkz İhracat çalışmaları.
Örnek
İstek
curl --netrc --request GET \
'https://<databricks-instance>/api/2.0/jobs/runs/get?run_id=<run-id>' \
| jq .
Veya:
curl --netrc --get \
https://<databricks-instance>/api/2.0/jobs/runs/get \
--data run_id=<run-id> \
| jq .
Değiştir:
-
<databricks-instance>
Azure Databricks çalışma alanı örneği adını ile,adb-1234567890123456.7.azuredatabricks.net
örneğin. -
<run-id>
çalıştırma kimliğiyle, örneğin123
.
Bu örnekte bir .netrc dosyası ve jq kullanılır.
Yanıt
{
"job_id": 1,
"run_id": 452,
"number_in_job": 5,
"state": {
"life_cycle_state": "RUNNING",
"state_message": "Performing action"
},
"task": {
"notebook_task": {
"notebook_path": "/Users/someone@example.com/my-notebook"
}
},
"cluster_spec": {
"existing_cluster_id": "1201-my-cluster"
},
"cluster_instance": {
"cluster_id": "1201-my-cluster",
"spark_context_id": "1102398-spark-context-id"
},
"overriding_parameters": {
"jar_params": ["param1", "param2"]
},
"start_time": 1457570074236,
"end_time": 1457570075149,
"setup_duration": 259754,
"execution_duration": 3589020,
"cleanup_duration": 31038,
"run_duration": 3879812,
"trigger": "PERIODIC"
}
İstek yapısı
Alan Adı | Type | Açıklama |
---|---|---|
run_id |
INT64 |
Meta verileri almak için çalıştırmanın özgün tanımlayıcısı. Bu alan gereklidir. |
Yanıt yapısı
Alan Adı | Type | Açıklama |
---|---|---|
job_id |
INT64 |
Bu çalıştırmayı içeren işin standart tanımlayıcısı. |
run_id |
INT64 |
Çalıştırmanın kurallı tanımlayıcısı. Bu kimlik, tüm görevlerin tüm çalıştırma döngüleri arasında benzersizdir. |
number_in_job |
INT64 |
Bu işin tüm çalışmaları arasında bu çalışmanın sıra numarası. Bu değer 1'de başlar. |
original_attempt_run_id |
INT64 |
Eğer bu çalıştırma, önceki bir çalıştırma denemesinin yeniden denemesiyse, bu alan ilk denemenin run_id'sini içerir; aksi halde, run_id aynıdır. |
state |
RunState | Koşunun sonucu ve yaşam döngüsü durumları. |
schedule |
CronSchedule | Düzenli zamanlayıcı tarafından tetiklendiyse bu çalıştırmayı tetikleyen cron zamanlaması. |
task |
jobtask | Varsa, çalıştırmanın gerçekleştirdiği görev. |
cluster_spec |
ClusterSpec | Bu çalışma oluşturulduğunda işin küme yapılandırmasının anlık görüntüsü. |
cluster_instance |
ClusterInstance | Çalıştırma için kullanılan küme bu. Çalıştırmanın yeni bir küme ile çalışması belirtilmişse, İşler hizmeti çalıştırma için bir küme talep edildikten sonra bu alan ayarlanacaktır. |
overriding_parameters |
RunParameters | Bu işlem için kullanılan parametreler. |
start_time |
INT64 |
Bu çalıştırmanın dönem milisaniye cinsinden başlatıldığı saat (1/1/1970 UTC'den bu yana milisaniye). Bu, iş görevinin yürütülmeye başladığı zaman olmayabilir; örneğin, iş, yeni bir kümeye çalışacak şekilde ayarlanmışsa, bu, küme oluşturma çağrısının yapıldığı zamandır. |
end_time |
INT64 |
Bu çalıştırmanın epok milisaniyesi cinsinden sona erdiği saat (1/1/1970 UTC'den bu yana geçen milisaniye). İş çalışmaya devam ediyorsa bu alan 0 olarak ayarlanır. |
setup_duration |
INT64 |
Kümeyi ayarlamak için geçen milisaniye cinsinden süre. Yeni kümelerde çalışan çalıştırmalar için bu, küme oluşturma zamanıdır; mevcut kümelerde çalışanlar için bu süre çok kısa olmalıdır. Çalıştırmanın toplam süresi, setup_duration toplamıdır.execution_duration ve cleanup_duration .
setup_duration alanı, çoklu görev çalıştırmaları için 0 olarak ayarlanmıştır. Birden çok görevli bir iş çalıştırmasının toplam süresi, bu çalıştırmanın süresinin değeridir.run_duration alanı. |
execution_duration |
INT64 |
Komutların JAR veya not defterinde yürütülmesi, tamamlanana, başarısız olana, zaman aşımına uğrayana, iptal edilene veya beklenmeyen bir hatayla karşılaşana kadar geçen süre milisaniye cinsindendir. Çalıştırmanın toplam süresi, setup_duration , execution_duration ve toplamıdır.cleanup_duration .
execution_duration alanı, çoklu görev çalıştırmaları için 0 olarak ayarlanmıştır. Bir çoklu görevli iş çalıştırmasının toplam süresi run_duration alanının değeridir. |
cleanup_duration |
INT64 |
Kümeyi sonlandırmak ve ilişkili kalıntıları temizlemek için geçen süre milisaniye cinsinden ne kadar sürdü. Çalıştırmanın toplam süresi, setup_duration , execution_duration ve cleanup_duration 'nin toplamıdır.
cleanup_duration alanı, çoklu görev çalıştırmaları için 0 olarak ayarlanmıştır. Bir çoklu görevli iş çalıştırmasının toplam süresi run_duration alanının değeridir. |
run_duration |
INT64 |
İşin çalışması ve tüm onarımlarının tamamlanması için geçen süre, milisaniye cinsinden ölçülür. Bu alan yalnızca çok görevli işler için ayarlanır, tek görevli işler için ayarlanmaz. Görev çalıştırmasının süresi, toplamıdır.setup_duration , execution_duration ve cleanup_duration . |
trigger |
TriggerType | Bu çalıştırmayı başlatan tetik türü. |
creator_user_name |
STRING |
Oluşturucu kullanıcı adı. Kullanıcı silinmişse bu alan yanıta dahil edilmeyecektir |
run_page_url |
STRING |
Çalışmanın ayrıntı sayfasının URL'si. |
Dışarı aktarmayı çalıştırır
Uç nokta | HTTP Yöntemi |
---|---|
2.0/jobs/runs/export |
GET |
İş yürütme görevini dışa aktarın ve geri yükleyin.
Not
Yalnızca not defteri çalıştırmaları HTML biçiminde dışarı aktarılabilir. Diğer türlerdeki çalıştırmaları dışarı aktarma girişimleri başarısız olacaktır.
Örnek
İstek
curl --netrc --request GET \
'https://<databricks-instance>/api/2.0/jobs/runs/export?run_id=<run-id>' \
| jq .
Veya:
curl --netrc --get \
https://<databricks-instance>/api/2.0/jobs/runs/export \
--data run_id=<run-id> \
| jq .
Değiştir:
-
<databricks-instance>
Azure Databricks çalışma alanı örneği adını ile,adb-1234567890123456.7.azuredatabricks.net
örneğin. -
<run-id>
çalıştırma kimliğiyle, örneğin123
.
Bu örnekte bir .netrc dosyası ve jq kullanılır.
Yanıt
{
"views": [
{
"content": "<!DOCTYPE html><html><head>Head</head><body>Body</body></html>",
"name": "my-notebook",
"type": "NOTEBOOK"
}
]
}
JSON yanıtından HTML not defterini ayıklamak için bu Python betiğini indirip çalıştırın.
Not
__DATABRICKS_NOTEBOOK_MODEL
nesnesindeki not defteri gövdesi kodlanmış.
İstek yapısı
Alan Adı | Type | Açıklama |
---|---|---|
run_id |
INT64 |
Çalıştırmanın kurallı tanımlayıcısı. Bu alan gereklidir. |
views_to_export |
Dışa Aktarılacak Görünümler | Hangi görünümler dışarı aktarılacak (KOD, PANOLAR veya TÜMÜ). Varsayılan olarak CODE şeklinde ayarlanır. |
Yanıt yapısı
Alan Adı | Type | Açıklama |
---|---|---|
views |
ViewItem dizisi | Dışarı aktarılan içerik HTML biçimindedir (her görünüm öğesi için bir tane). |
Çalıştırmalar iptal olur
Uç nokta | HTTP Yöntemi |
---|---|
2.0/jobs/runs/cancel |
POST |
Bir iş çalışmasını iptal et. Çalıştırma zaman uyumsuz olarak iptal edildiğinden, bu istek tamamlandığında çalıştırma hala devam ediyor olabilir. Çalıştırma kısa süre sonra sonlandırılacaktır. Çalıştırma zaten bir terminaldeyse life_cycle_state
, bu yöntem etkisizdir.
Bu uç nokta, parametrenin run_id
geçerli olduğunu doğrular ve geçersiz parametreler için HTTP durum kodu 400 döndürür.
Örnek
curl --netrc --request POST \
https://<databricks-instance>/api/2.0/jobs/runs/cancel \
--data '{ "run_id": <run-id> }'
Değiştir:
-
<databricks-instance>
Azure Databricks çalışma alanı örneği adını ile,adb-1234567890123456.7.azuredatabricks.net
örneğin. -
<run-id>
çalıştırma kimliğiyle, örneğin123
.
Bu örnekte bir .netrc dosyası kullanılır.
İstek yapısı
Alan Adı | Type | Açıklama |
---|---|---|
run_id |
INT64 |
İptal edilecek işlemin standart tanımlayıcısı. Bu alan gereklidir. |
Çalıştırmalar hepsini iptal eder
Uç nokta | HTTP Yöntemi |
---|---|
2.0/jobs/runs/cancel-all |
POST |
İşin tüm etkin çalıştırmalarını iptal edin. İşletim eşzamansız olarak iptal edildiğinden, yeni işletimlerin başlatılmasını engellemez.
Bu uç nokta, parametrenin job_id
geçerli olduğunu doğrular ve geçersiz parametreler için HTTP durum kodu 400 döndürür.
Örnek
curl --netrc --request POST \
https://<databricks-instance>/api/2.0/jobs/runs/cancel-all \
--data '{ "job_id": <job-id> }'
Değiştir:
-
<databricks-instance>
Azure Databricks çalışma alanı örneği adını ile,adb-1234567890123456.7.azuredatabricks.net
örneğin. -
<job-id>
işin kimliğiyle birlikte, örneğin123
.
Bu örnekte bir .netrc dosyası kullanılır.
İstek yapısı
Alan Adı | Type | Açıklama |
---|---|---|
job_id |
INT64 |
Tüm çalıştırmalarını iptal etmek üzere işin standart tanımlayıcısı. Bu alan gereklidir. |
Çalışmalar çıktı verir
Uç nokta | HTTP Yöntemi |
---|---|
2.0/jobs/runs/get-output |
GET |
Tek bir görev çalıştırmasının çıktısını ve meta verilerini alın. Bir not defteri görevi dbutils.notebook.exit() çağrısı aracılığıyla bir değer döndürdüğünde, bu değeri almak için bu uç noktayı kullanabilirsiniz. Azure Databricks bu API'yi çıkışın ilk 5 MB'ını döndürecek şekilde kısıtlar. Daha büyük bir sonuç döndürmek için iş sonuçlarını bir bulut depolama hizmetinde depolayabilirsiniz.
Bu uç nokta, parametrenin run_id
geçerli olduğunu doğrular ve geçersiz parametreler için HTTP durum kodu 400 döndürür.
Çalıştırmalar 60 gün sonra otomatik olarak kaldırılır. Onları 60 günden fazla referans almak istiyorsanız, süresi dolmadan önce eski çalışma sonuçlarını kaydetmeniz gerekir. Kullanıcı arabirimini kullanarak dışarı aktarmak için bkz İş çalıştırma sonuçlarını dışarı aktarma. İş API'sini kullanarak dışa aktarma yapmak için bkz İhracat çalışmaları.
Örnek
İstek
curl --netrc --request GET \
'https://<databricks-instance>/api/2.0/jobs/runs/get-output?run_id=<run-id>' \
| jq .
Veya:
curl --netrc --get \
https://<databricks-instance>/api/2.0/jobs/runs/get-output \
--data run_id=<run-id> \
| jq .
Değiştir:
-
<databricks-instance>
Azure Databricks çalışma alanı örneği adını ile,adb-1234567890123456.7.azuredatabricks.net
örneğin. -
<run-id>
çalıştırma kimliğiyle, örneğin123
.
Bu örnekte bir .netrc dosyası ve jq kullanılır.
Yanıt
{
"metadata": {
"job_id": 1,
"run_id": 452,
"number_in_job": 5,
"state": {
"life_cycle_state": "TERMINATED",
"result_state": "SUCCESS",
"state_message": ""
},
"task": {
"notebook_task": {
"notebook_path": "/Users/someone@example.com/my-notebook"
}
},
"cluster_spec": {
"existing_cluster_id": "1201-my-cluster"
},
"cluster_instance": {
"cluster_id": "1201-my-cluster",
"spark_context_id": "1102398-spark-context-id"
},
"overriding_parameters": {
"jar_params": ["param1", "param2"]
},
"start_time": 1457570074236,
"setup_duration": 259754,
"execution_duration": 3589020,
"cleanup_duration": 31038,
"run_duration": 3879812,
"trigger": "PERIODIC"
},
"notebook_output": {
"result": "the maybe truncated string passed to dbutils.notebook.exit()"
}
}
İstek yapısı
Alan Adı | Type | Açıklama |
---|---|---|
run_id |
INT64 |
Çalıştırmanın kurallı tanımlayıcısı. Birden fazla görevi olan bir iş için bu, bir görevin yürütülme örneğidir run_id . Bkz . Çalıştırmalar çıktıyı alır. Bu alan gereklidir. |
Yanıt yapısı
Alan Adı | Type | Açıklama |
---|---|---|
notebook_output VEYA error |
NotebookOutput OR STRING |
Eğer notebook_output varsa, not defteri görevinin çıktısı (mevcutsa). Çağrılmadan başarılı veya hatalı bir şekilde sonlanan bir not defteri görevidbutils.notebook.exit() boş bir çıkışa sahip olduğu kabul edilir. Bu alan ayarlanır, ancak sonuç değeri boş olur.Hata oluşursa, çıktının neden mevcut olmadığını belirten bir hata iletisi. İleti yapılandırılmamış ve tam biçimi değiştirilebilir. |
metadata |
Çalıştır | Çıktısı hariç, çalıştırma işleminin tüm ayrıntıları. |
Silme işlemini başlatır
Uç nokta | HTTP Yöntemi |
---|---|
2.0/jobs/runs/delete |
POST |
Etkin olmayan bir işlemi silin. Çalışma aktifse bir hata döndürür.
Örnek
curl --netrc --request POST \
https://<databricks-instance>/api/2.0/jobs/runs/delete \
--data '{ "run_id": <run-id> }'
Değiştir:
-
<databricks-instance>
Azure Databricks çalışma alanı örneği adını ile,adb-1234567890123456.7.azuredatabricks.net
örneğin. -
<run-id>
çalıştırma kimliğiyle, örneğin123
.
Bu örnekte bir .netrc dosyası kullanılır.
İstek yapısı
Alan Adı | Tip | Açıklama |
---|---|---|
run_id |
INT64 |
Meta verileri almak için çalıştırmanın özgün tanımlayıcısı. |
Veri yapıları
Bu bölümde:
- ABFSSStorageInfo
- Otomatik Ölçeklendirme
- AzureAttributes
- AzureAvailability
- ClusterInstance
- ClusterLogConf
- ClusterSpec
- ClusterTag
- CronSchedule
- DbfsStorageInfo
- FileStorageInfo
- InitScriptInfo
- İş
- İş E-posta Bildirimleri
- İşBildirimAyarları
- İşAyarları
- jobtask
- Jobs Sağlık Kuralı
- İşlerSağlıkKuralları
- Kütüphane
- MavenLibrary
- NewCluster
- NotebookOutput
- NotebookTask
- ParamPair
- PipelineTask
- PythonPyPiLibrary
- RCranLibrary
- Çalıştır
- RunJobTask
- RunLifeCycleState
- RunParameters
- RunResultState
- RunState
- SparkConfPair
- SparkEnvPair
- SparkJarTask
- SparkPythonTask
- SparkSubmitTask
- TriggerType
- ViewItem
- ViewType
- Dışa Aktarılacak Görünümler
- Webhook
- Webhook Bildirimleri
- WorkspaceStorageInfo
ABFSSStorageInfo
Azure Data Lake Storage (ADLS) depolama bilgileri.
Alan Adı | Type | Açıklama |
---|---|---|
destination |
STRING |
Dosya hedefi. Örnek: abfss://... |
Otomatik Ölçeklendirme
Küme çalışanlarının en az ve en fazla sayısını tanımlayan aralık.
Alan Adı | Type | Açıklama |
---|---|---|
min_workers |
INT32 |
Az kullanıldığında kümenin küçülebileceği en az çalışan sayısı. Ayrıca, kümenin oluşturulduktan sonra sahip olacağı ilk çalışan sayısıdır. |
max_workers |
INT32 |
Kümenin aşırı yüklendiğinde ölçeklenebileceği maksimum işçi sayısı. max_workers, min_workers'dan kesinlikle büyük olmalıdır. |
AzureAttributes
Azure ile ilgili küme oluşturma sırasında ayarlanan öznitelikler.
Alan Adı | Type | Açıklama |
---|---|---|
first_on_demand |
INT32 |
Kümenin ilk first_on_demand düğümleri isteğe bağlı örneklere yerleştirilir. Bu değer 0'dan büyük olmalıdır, aksi halde küme oluşturma doğrulaması başarısız olur. Bu değer geçerli küme boyutundan büyük veya buna eşitse, tüm düğümler isteğe bağlı örneklere yerleştirilir. Bu değer geçerli küme boyutundan küçükse düğümler first_on_demand isteğe bağlı örneklere, kalanlar ise kullanılabilirlik örneklerine yerleştirilir. Bu değer küme boyutunu etkilemez ve kümenin ömrü boyunca değiştirilemez. |
availability |
AzureAvailability |
first_on_demand düğümlerinden sonraki tüm düğümler için kullanılan kullanılabilirlik türü. |
spot_bid_max_price |
DOUBLE |
Azure spot örnekleri için kullanılan maksimum teklif fiyatı. Bunu geçerli spot fiyattan büyük veya buna eşit olarak ayarlayabilirsiniz. Ayrıca, -1 (varsayılan) olarak da ayarlayabilirsiniz; bu, örneğin fiyat temelinde kaldırılamayacağını belirtir. Örneğin fiyatı, spot örneklerin geçerli fiyatı veya standart bir örneğin fiyatı olacaktır. Azure portalında geçmiş fiyatlandırma ve çıkarma oranlarını görüntüleyebilirsiniz. |
AzureErişilebilirlik
Azure örneği kullanılabilirlik türü davranışı.
Type | Açıklama |
---|---|
SPOT_AZURE |
Spot örnekleri kullanın. |
ON_DEMAND_AZURE |
İsteğe bağlı örnekleri kullanın. |
SPOT_WITH_FALLBACK_AZURE |
Tercihen spot örnekleri kullanın, ancak spot örnekler alınamazsa (örneğin, Azure spot fiyatları çok yüksekse veya kota dışındaysa) isteğe bağlı örneklere geri dönün. Havuz kullanılabilirliği için geçerli değildir. |
ClusterInstance
Bir çalıştırma tarafından kullanılan küme ve Spark bağlamı için tanımlayıcılar. Bu iki değer birlikte tüm zaman boyunca bir yürütme bağlamı tanımlar.
Alan Adı | Type | Açıklama |
---|---|---|
cluster_id |
STRING |
Çalıştırmada kullanılan kümenin kurallı tanımlayıcısı. Bu alan, mevcut kümelerdeki çalıştırmalar için her zaman kullanılabilir. Yeni kümelerdeki çalıştırmalar için, küme oluşturulduktan sonra kullanılabilir duruma gelir. Bu değer, /#setting/sparkui/$cluster_id/driver-logs adresine göz atarak günlükleri görüntülemek için kullanılabilir. Çalıştırma tamamlandıktan sonra günlükler erişilebilir kalacak.Tanımlayıcı henüz kullanılamıyorsa yanıt bu alanı içermez. |
spark_context_id |
STRING |
Çalıştırma tarafından kullanılan Spark bağlamı için kurallı tanımlayıcı. Çalıştırma başladıktan sonra bu alan doldurulacaktır. Bu değer, /#setting/sparkui/$cluster_id/$spark_context_id adresine göz atıp Spark kullanıcı arabirimini görüntülemek için kullanılabilir. Spark kullanıcı arabirimi, çalıştırma tamamlandıktan sonra kullanılabilir olmaya devam edecektir.Tanımlayıcı henüz kullanılamıyorsa yanıt bu alanı içermez. |
ClusterLogConf
Küme günlük kaydının yolu.
Alan Adı | Type | Açıklama |
---|---|---|
dbfs |
Küme günlüğünün DBFS konumu. Hedef belirtilmelidir. Örneğin { "dbfs" : { "destination" : "dbfs:/home/cluster_log" } } |
ClusterSpec
Önemli
- Yeni bir işler kümesinde bir iş çalıştırdığınızda, bu iş, Jobs Compute fiyatlandırmasına tabi bir otomatik iş yükü olarak değerlendirilir.
- Var olan bir çok amaçlı kümede bir iş çalıştırdığınızda, bu iş, Tüm Amaçlı İşlem fiyatlandırmasına tabi olan Bir Çok Amaçlı İşlem (etkileşimli) iş yükü olarak değerlendirilir.
Alan Adı | Type | Açıklama |
---|---|---|
existing_cluster_id VEYA new_cluster |
STRING OR NewCluster |
Eğer existing_cluster_id varsa, bu işin tüm çalıştırmaları için kullanılacak mevcut kümenin kimliği. Mevcut bir kümede işleri çalıştırırken yanıt vermeyi durdurursa kümeyi el ile yeniden başlatmanız gerekebilir. Daha fazla güvenilirlik için yeni kümelerde iş çalıştırmanızı öneririz. yeni_küme, her bir çalıştırma için oluşturulacak bir kümenin açıklaması. PipelineTask belirtilmesi durumunda bu alan boş olabilir. |
libraries |
Bir kitaplık dizisi | İşi yürütecek kümeye yüklenecek kitaplıkların isteğe bağlı listesi. Varsayılan değer boş bir listedir. |
ClusterTag
Küme etiketi tanımı.
Type | Açıklama |
---|---|
STRING |
Etiketin anahtarı. Anahtar şunları yapmalıdır:
|
STRING |
Etiketin değeri. Değer uzunluğu 256 UTF-8 karakterden küçük veya buna eşit olmalıdır. |
Cron Takvimi
Alan Adı | Type | Açıklama |
---|---|---|
quartz_cron_expression |
STRING |
Bir işin zamanlamasını açıklayan Quartz söz dizimini kullanan cron ifadesi. Ayrıntılar için bkz . Cron Tetikleyicisi . Bu alan gereklidir. |
timezone_id |
STRING |
Java saat dilimi kimliği. Bir işin zamanlaması bu saat dilimine göre çözümlenecektir. Ayrıntılar için bkz . Java TimeZone . Bu alan gereklidir. |
pause_status |
STRING |
Bu zamanlamanın duraklatılıp duraklatılmadığını belirtin. "DURAKLATILDI" veya "KULLANILAMADI". |
DbfsStorageInfo
DBFS depolama bilgileri.
Alan Adı | Type | Açıklama |
---|---|---|
destination |
STRING |
DBFS hedefi. Örnek: dbfs:/my/path |
DosyaDepolamaBilgisi
Dosya depolama bilgileri.
Not
Bu konum türü yalnızca Databricks Container Services kullanılarak ayarlanan kümeler için kullanılabilir.
Alan Adı | Type | Açıklama |
---|---|---|
destination |
STRING |
Dosya hedefi. Örnek: file:/my/file.sh |
InitScriptInfo
Bir başlatma betiğinin yolu.
Databricks Container Services ile init betiklerini kullanma yönergeleri için bkz Init betiği kullanma.
Not
Dosya depolama türü (alan adı: file
) yalnızca Databricks Container Services kullanılarak ayarlanan kümeler için kullanılabilir. Bkz. FileStorageInfo.
Alan Adı | Type | Açıklama |
---|---|---|
workspace VEYA dbfs (kullanım dışı)VEYA abfss |
WorkspaceStorageInfo DbfsStorageInfo (kullanım dışı) ABFSSStorageInfo |
init betiğinin çalışma alanı konumu. Hedef belirtilmelidir. Örneğin,{ "workspace" : { "destination" : "/Users/someone@domain.com/init_script.sh" } } (Kullanım dışı) Init betiğinin DBFS konumu. Hedef belirtilmelidir. Örneğin, { "dbfs" : { "destination" : "dbfs:/home/init_script" } } Init betiğinin Azure Data Lake Storage (ADLS) konumu. Hedef belirtilmelidir. Örneğin { "abfss": { "destination" : "abfss://..." } } |
İş
Alan Adı | Type | Açıklama |
---|---|---|
job_id |
INT64 |
Bu görevin standart tanımlayıcısı. |
creator_user_name |
STRING |
Oluşturucu kullanıcı adı. Kullanıcı zaten silinmişse bu alan yanıta dahil edilmeyecektir. |
run_as |
STRING |
Görevin çalıştırılacağı kullanıcı adı.
run_as mevcut iş ayarlarına dayanır ve iş erişim denetimi devre dışı bırakıldığında işin oluşturucusuna, iş erişim denetimi etkinleştirildiğinde ise is_owner iznine ayarlanır. |
settings |
İşAyarları | Bu işin ayarları ve tüm işlemeleri. Bu ayarlar yöntemi kullanılarak resetJob güncelleştirilebilir. |
created_time |
INT64 |
Bu işin dönem milisaniye cinsinden oluşturulduğu saat (1/1/1970 UTC'den bu yana milisaniye). |
İş E-posta Bildirimleri
Önemli
on_start, on_success ve on_failure alanları yalnızca Latin karakterleri (ASCII karakter kümesi) kabul edecektir. ASCII olmayan karakterler kullanıldığında hata döndürülecektir. Geçersiz, ASCII olmayan karakterlere örnek olarak Çince, Japonca kanjiler ve emojiler verilebilir.
Alan Adı | Type | Açıklama |
---|---|---|
on_start |
Bir dizi STRING |
Çalıştırma başladığında bildirilecek e-posta adreslerinin listesi. İş oluşturma, sıfırlama veya güncelleştirme sırasında belirtilmezse liste boş olur ve bildirimler gönderilmez. |
on_success |
Bir dizi STRING |
Bir çalıştırma başarıyla tamamlandığında bildirilecek e-posta adreslerinin listesi. Bir çalıştırma, TERMINATED life_cycle_state ve SUCCESSFUL result_state ile sona eriyorsa başarıyla tamamlanmış kabul edilir. İş oluşturma, sıfırlama veya güncelleştirme sırasında belirtilmezse liste boş olur ve bildirimler gönderilmez. |
on_failure |
Bir dizi STRING |
Bir çalıştırma başarısız tamamlandığında bildirim gönderilecek e-posta adreslerinin listesi. Bir çalıştırma, INTERNAL_ERROR ile biterse başarısız tamamlanmış olarak kabul edilir.life_cycle_state veya bir SKIPPED , FAILED veya TIMED_OUT sonuç_durumu. İş oluşturma, sıfırlama veya güncelleştirme sırasında bu belirtilmezse liste boş olur ve bildirimler gönderilmez. |
on_duration_warning_threshold_exceeded |
Bir dizi STRING |
Süre, RUN_DURATION_SECONDS alanındaki health metriği için belirtilen eşiği aştığında bildirim almak üzere e-posta gönderilecek adreslerin bir listesi. İş için RUN_DURATION_SECONDS alanında health metriğiyle ilgili bir kural belirtilmezse, bildirimler gönderilmez. |
no_alert_for_skipped_runs |
BOOL |
Eğer doğruysa ve çalıştırma atlanırsa, on_failure içinde belirtilen alıcılara e-posta göndermeyin. |
Alan Adı | Type | Açıklama |
---|---|---|
on_start |
Bir Webhook dizisi | Çalıştırma başladığında bildirilecek sistem hedeflerinin isteğe bağlı listesi. İş oluşturma, sıfırlama veya güncelleştirme sırasında belirtilmezse liste boş olur ve bildirimler gönderilmez. Özellik için on_start en fazla 3 hedef belirtilebilir. |
on_success |
Bir Webhook dizisi | Bir çalıştırma başarıyla tamamlandığında bildirilecek isteğe bağlı sistem hedeflerinin listesi. Bir çalıştırma, TERMINATED life_cycle_state ve SUCCESSFUL result_state ile sona eriyorsa başarıyla tamamlanmış kabul edilir. İş oluşturma, sıfırlama veya güncelleştirme sırasında belirtilmezse liste boş olur ve bildirimler gönderilmez. Özellik için on_success en fazla 3 hedef belirtilebilir. |
on_failure |
Bir Webhook dizisi | Bir çalıştırma başarısız olduğunda bildirilecek isteğe bağlı sistem hedeflerinin listesi. Bir çalıştırma, INTERNAL_ERROR ile biterse başarısız tamamlanmış olarak kabul edilir.life_cycle_state veya bir SKIPPED , FAILED veya TIMED_OUT sonuç_durumu. İş oluşturma, sıfırlama veya güncelleştirme sırasında bu belirtilmezse liste boş olur ve bildirimler gönderilmez. Özellik için on_failure en fazla 3 hedef belirtilebilir. |
on_duration_warning_threshold_exceeded |
Bir Webhook dizisi | Çalıştırmanın süresi, RUN_DURATION_SECONDS metriği için health alanında belirtilen eşiği aştığında bildirimde bulunulacak isteğe bağlı sistem hedeflerinin bir listesi. Özellik için on_duration_warning_threshold_exceeded en fazla 3 hedef belirtilebilir. |
İş Bildirim Ayarları
Alan Adı | Type | Açıklama |
---|---|---|
no_alert_for_skipped_runs |
BOOL |
Eğer doğruysa, çalıştırma atlanırsa on_failure içinde belirtilen alıcılara bildirim göndermeyin. |
no_alert_for_canceled_runs |
BOOL |
True ise, çalıştırma iptal edilirse içinde on_failure belirtilen alıcılara bildirim göndermeyin. |
alert_on_last_attempt |
BOOL |
True ise, yeniden denenen çalıştırmalar için içinde on_start belirtilen alıcılara bildirim göndermeyin ve çalıştırmanın son yeniden denemesine kadar içinde on_failure belirtilen alıcılara bildirim göndermeyin. |
İşAyarları
Önemli
- Yeni bir işler kümesinde bir iş çalıştırdığınızda, bu iş, Jobs Compute fiyatlandırmasına tabi bir otomatik iş yükü olarak değerlendirilir.
- Var olan bir çok amaçlı kümede bir iş çalıştırdığınızda, bu iş, Tüm Amaçlı İşlem fiyatlandırmasına tabi olan Bir Çok Amaçlı İşlem (etkileşimli) iş yükü olarak değerlendirilir.
Bir işin ayarları. Bu ayarlar yöntemi kullanılarak resetJob
güncelleştirilebilir.
Alan Adı | Tip | Açıklama |
---|---|---|
existing_cluster_id VEYA new_cluster |
STRING OR NewCluster |
Eğer existing_cluster_id varsa, bu işin tüm çalıştırmaları için kullanılacak mevcut kümenin kimliği. Mevcut bir kümede işleri çalıştırırken yanıt vermeyi durdurursa kümeyi el ile yeniden başlatmanız gerekebilir. Daha fazla güvenilirlik için yeni kümelerde iş çalıştırmanızı öneririz. yeni_küme, her bir çalıştırma için oluşturulacak bir kümenin açıklaması. PipelineTask belirtilmesi durumunda bu alan boş olabilir. |
notebook_task VEYA VEYA spark_jar_task spark_python_task VEYA VEYA spark_submit_task pipeline_task VEYA run_job_task |
NotebookTask YADA SparkJarTask YADA SparkPythonTask YADA SparkSubmitTask YADA PipelineTask YADA RunJobTask | notebook_task, bu işin bir not defteri çalıştırması gerektiğini gösterir. Bu alan spark_jar_task ile birlikte belirtilmeyebilir. spark_jar_task, bu görevin bir JAR çalıştırması gerektiğini gösterir. spark_python_task, bu işin bir Python dosyası çalıştırması gerektiğini gösterir. spark_submit_task, bu işin Spark gönderme betiği tarafından başlatılması gerektiğini gösterir. pipeline_task, bu işin bir DLT işlem hattı çalıştırması gerektiğini gösterir. run_job_task işlevi, bu işin başka bir işi çalıştırması gerektiğini gösterir. |
name |
STRING |
İş için isteğe bağlı bir ad. Varsayılan değer şudur: Untitled . |
libraries |
Bir kitaplık dizisi | İşi yürütecek kümeye yüklenecek kitaplıkların isteğe bağlı listesi. Varsayılan değer boş bir listedir. |
email_notifications |
İş E-posta Bildirimleri | Çalıştırmaları başladığında veya tamamlandığında ve bu iş silindiğinde bildirim alacak isteğe bağlı bir dizi e-posta adresi. Varsayılan davranış, herhangi bir e-posta göndermemektir. |
webhook_notifications |
Webhook Bildirimleri | Çalıştırmaları başladığında, tamamlandığında veya başarısız olduğunda bildirimde bulunmak için isteğe bağlı bir sistem varış noktaları kümesi. |
notification_settings |
İşBildirimAyarları | Bu iş için email_notifications ve webhook_notifications her birine bildirim gönderirken kullanılan isteğe bağlı bildirim ayarları. |
timeout_seconds |
INT32 |
Her çalıştırmada bu işe isteğe bağlı bir zaman aşımı uygulanır. Varsayılan davranış, zaman aşımı olmamasıdır. |
max_retries |
INT32 |
Başarısız bir çalıştırmayı yeniden denemek için maksimum isteğe bağlı deneme sayısı. Bir çalıştırmanın başarısız olduğu kabul edilir eğer FAILED veya result_state ile tamamlanırsa.INTERNAL_ERROR life_cycle_state . -1 değeri süresiz olarak yeniden deneme, 0 değeri ise hiçbir zaman yeniden deneme anlamına gelir. Varsayılan davranış, hiçbir zaman yeniden denememektir. |
min_retry_interval_millis |
INT32 |
Denemeler arasında milisaniye cinsinden isteğe bağlı en az aralık. Varsayılan davranış, başarısız girişimlerin hemen yeniden denenmesidir. |
retry_on_timeout |
BOOL |
Bir iş zaman aşımına uğradığında yeniden denenip denenmeyeceğini belirtmek için isteğe bağlı bir ilke. Varsayılan davranış, zaman aşımında yeniden denememektir. |
schedule |
CronSchedule | Bu iş için isteğe bağlı bir düzenli zamanlama. Varsayılan davranış, işin yalnızca İşler kullanıcı arabiriminde "Şimdi Çalıştır" seçeneğine tıklayarak veya bir API isteği göndererek tetiklendiğinde çalışmasıdırrunNow . |
max_concurrent_runs |
INT32 |
Opsiyonel olarak izin verilen maksimum eşzamanlı iş yürütme sayısı. Aynı işin birden çok çalıştırmasını eşzamanlı olarak yürütebilmek istiyorsanız bu değeri ayarlayın. Bu, örneğin işinizi sık sık tetikleyip ardışık çalıştırmaların birbiriyle çakışmasına izin vermek veya giriş parametrelerine göre farklı birden çok çalıştırma tetiklemeniz durumunda yararlı olur. Bu ayar yalnızca yeni çalıştırmaları etkiler. Örneğin, işin eşzamanlılığının 4 olduğunu ve 4 tane eşzamanlı etkin çalışma olduğunu varsayalım. Eşzamanlılık 3 olarak ayarlandığında, etkin çalıştırmaların hiçbiri sonlandırılamaz. Ancak, bundan sonra, 3'ten az etkin çalıştırma olmadığı sürece yeni çalıştırmalar atlanır. Bu değer 1000'i aşamaz. Bu değerin 0 olarak ayarlanması, tüm yeni çalıştırmaların atlanmasına sebep olur. Varsayılan davranış, yalnızca 1 eşzamanlı çalıştırmaya izin vermektir. |
health |
İşlerSağlıkKuralları | İş için tanımlanan isteğe bağlı bir sağlık kuralları kümesi. |
İş Görevi
Alan Adı | Type | Açıklama |
---|---|---|
notebook_task VEYA VEYA spark_jar_task spark_python_task VEYA VEYA spark_submit_task pipeline_task VEYA run_job_task |
NotebookTask VEYA SparkJarTask VEYA SparkPythonTask VEYA SparkSubmitTask VEYA PipelineTask VEYA RunJobTask | notebook_task, bu işin bir not defteri çalıştırması gerektiğini gösterir. Bu alan spark_jar_task ile birlikte belirtilmeyebilir. spark_jar_task, bu görevin bir JAR çalıştırması gerektiğini gösterir. spark_python_task, bu işin bir Python dosyası çalıştırması gerektiğini gösterir. spark_submit_task, bu işin Spark gönderme betiği tarafından başlatılması gerektiğini gösterir. pipeline_task, bu işin bir DLT işlem hattı çalıştırması gerektiğini gösterir. run_job_task işlevi, bu işin başka bir işi çalıştırması gerektiğini gösterir. |
İş Sağlığı Kuralı
Alan Adı | Type | Açıklama |
---|---|---|
metric |
STRING |
Belirli bir sağlık kuralı için değerlendirilen sağlık ölçümünü belirtir. Geçerli değerler şunlardır: RUN_DURATION_SECONDS . |
operator |
STRING |
Sistem durumu ölçüm değerini belirtilen eşikle karşılaştırmak için kullanılan işleci belirtir. Geçerli değerler şunlardır: GREATER_THAN . |
value |
INT32 |
Sağlık kuralına uymak için sağlık ölçütünün karşılaması gereken eşik değerini belirtir. |
İşSağlıkKuralları
Alan Adı | Type | Açıklama |
---|---|---|
rules |
JobsHealthRule dizisi | bir iş için tanımlanabilen isteğe bağlı bir sağlık kuralları kümesi. |
Kütüphane
Alan Adı | Type | Açıklama |
---|---|---|
jar VEYA egg VEYA whl pypi VEYA maven VEYA cran |
STRING OR STRING OR STRING OR PythonPyPiLibrary OR MavenLibrary OR RCranLibrary |
Eğer bir jar varsa, kurulacak olan JAR'ın URI'si. DBFS ve ADLS (abfss ) URI'leri desteklenir. Örneğin: { "jar": "dbfs:/mnt/databricks/library.jar" } veya{ "jar": "abfss://<container-path>/library.jar" } . ADLS kullanılıyorsa, kümenin kütüphaneye okuma erişimi olduğundan emin olun.Yumurta ise, yüklenecek yumurtanın URI'sini. DBFS ve ADLS URL'leri desteklenir. Örneğin: { "egg": "dbfs:/my/egg" } veya{ "egg": "abfss://<container-path>/egg" } .Whl ise, yüklenecek olan wheel veya sıkıştırılmış wheels URI'si. DBFS ve ADLS URL'leri desteklenir. Örneğin: { "whl": "dbfs:/my/whl" } veya{ "whl": "abfss://<container-path>/whl" } . ADLS kullanılıyorsa, kümenin kütüphaneye okuma erişimi olduğundan emin olun.
wheel Ayrıca dosya adının doğru kuralı kullanması gerekir. Sıkıştırılmış wheels dosyalarının yüklenmesi gerekiyorsa, dosya adı son eki .wheelhouse.zip olarak olmalıdır.Pypi ise, yüklenecek bir PyPI kitaplığının belirtimi. repo alanı belirtmek isteğe bağlıdır ve belirtilmediği takdirde varsayılan pip dizini kullanılır. Örneğin:{ "package": "simplejson", "repo": "https://my-repo.com" } Eğer Maven kullanılıyorsa, yüklenecek bir Maven kitaplığının belirtimi. Örneğin: { "coordinates": "org.jsoup:jsoup:1.7.2" } Eğer cran ise, yüklenecek CRAN kütüphanesinin belirtimi. |
MavenLibrary
Alan Adı | Tip | Açıklama |
---|---|---|
coordinates |
STRING |
Gradle stili Maven koordinatları. Örneğin: org.jsoup:jsoup:1.7.2 . Bu alan gereklidir. |
repo |
STRING |
Maven paketinin yükleneceği Maven deposu. Belirtilmezse, hem Maven Merkezi Deposu hem de Spark Paketleri aranır. |
exclusions |
Bir dizi STRING |
Dışlanması gereken bağımlılıkların listesi. Örneğin: ["slf4j:slf4j", "*:hadoop-client"] .Maven bağımlılık dışlama kuralları: https://maven.apache.org/guides/introduction/introduction-to-optional-and-excludes-dependencies.html. |
NewCluster
Alan Adı | Type | Açıklama |
---|---|---|
num_workers VEYA autoscale |
INT32 VEYA Otomatik Ölçeklendirme |
num_workers, bu kümeye atanması gereken çalışan düğümlerin sayısıdır. Kümede, toplamda num_workers + 1 Spark düğümü olacak şekilde bir Spark sürücüsü ve num_workers yürütücü bulunur. Not: Bir kümenin özelliklerini okurken, bu alan gerçek geçerli çalışan sayısı yerine istenen çalışan sayısını yansıtır. Örneğin, bir küme 5 ila 10 çalışana yeniden ölçeklendirilirse, bu alan, 10 çalışana hedef boyutu hemen yansıtacak şekilde güncellenir, fakat spark_info'da listelenen çalışanlar yeni düğümler sağlandıkça kademeli olarak 5'ten 10'a çıkar. Otomatik ölçeklendirme ise, yüke göre kümelerin ölçeğini otomatik olarak büyütmek ve küçültmek için gerekli parametreler. |
spark_version |
STRING |
Kümenin Spark sürümü. Kullanılabilir Spark sürümlerinin listesi GET 2.0/clusters/spark-versions çağrısı kullanılarak alınabilir. Bu alan gereklidir. |
spark_conf |
SparkConfPair | İsteğe bağlı, kullanıcı tarafından belirtilen Spark yapılandırma anahtarı-değer çiftleri kümesini içeren bir nesne. Ayrıca sürücüye ve yürütücülere ek JVM seçeneklerinden oluşan bir dize geçirebilirsiniz:spark.driver.extraJavaOptions ve spark.executor.extraJavaOptions sırasıyla.Örnek Spark ayarları: {"spark.speculation": true, "spark.streaming.ui.retainedBatches": 5} veya{"spark.driver.extraJavaOptions": "-verbose:gc -XX:+PrintGCDetails"} |
node_type_id |
STRING |
Bu alan, bu kümedeki Spark düğümlerinin her biri için kullanılabilen kaynakları tek bir değer aracılığıyla kodlar. Örneğin Spark düğümleri bellek veya işlem yoğunluklu iş yükleri için sağlanabilir ve iyileştirilebilir Kullanılabilir düğüm türlerinin listesi GET 2.0/clusters/list-node-types çağrısı kullanılarak alınabilir. Bu alan, instance_pool_id alan veya düğüm türü kimliğini veya örnek havuzu kimliğini belirten bir küme ilkesi gereklidir. |
driver_node_type_id |
STRING |
Spark sürücüsünün düğüm türü. Bu alan isteğe bağlıdır; ayarlanmamışsa, sürücü düğümü türü yukarıda tanımlanan değerle aynı şekilde node_type_id ayarlanır. |
custom_tags |
ClusterTag | Küme kaynakları için bir etiket kümesi içeren nesne. Databricks, default_tags ek olarak tüm küme kaynaklarını (VM'ler gibi) bu etiketlerle etiketler. Not:
|
cluster_log_conf |
ClusterLogConf | Spark günlüklerini uzun vadeli bir depolama hedefine teslim etme yapılandırması. Bir küme için yalnızca bir hedef belirtilebilir. Eğer yapılandırma verilirse, günlükler her 5 mins konumuna teslim edilir. Sürücü günlüklerinin hedefi <destination>/<cluster-id>/driver , yürütücü günlüklerinin hedefi ise <destination>/<cluster-id>/executor . |
init_scripts |
InitScriptInfo dizisi | Başlatma betiklerinin depolanması için yapılandırma. Herhangi bir sayıda betik belirtilebilir. Komut dosyaları, sağlanan sırayla yürütülür.
cluster_log_conf belirtilmişse, init betik günlükleri belirtilen adrese gönderilir.<destination>/<cluster-id>/init_scripts . |
spark_env_vars |
SparkEnvPair | İsteğe bağlı, kullanıcı tarafından belirtilen ortam değişkeni anahtar-değer çiftleri kümesini içeren bir nesne. Formun anahtar-değer çifti (X,Y) olduğu gibi dışarı aktarılır (örneğin,export X='Y' ) sürücü ve çalışanları başlatma işlemi sırasında.Ek bir kümesi SPARK_DAEMON_JAVA_OPTS belirtmek için, aşağıdaki örnekte gösterildiği gibi bu kümenin $SPARK_DAEMON_JAVA_OPTS sonuna eklenmesini öneririz. Bu, Databricks tarafından yönetilen tüm varsayılan ortam değişkenlerinin de eklenmesini sağlar.Örnek Spark ortam değişkenleri: {"SPARK_WORKER_MEMORY": "28000m", "SPARK_LOCAL_DIRS": "/local_disk0"} veya{"SPARK_DAEMON_JAVA_OPTS": "$SPARK_DAEMON_JAVA_OPTS -Dspark.shuffle.service.enabled=true"} |
enable_elastic_disk |
BOOL |
Yerel DepolamaYı Otomatik Ölçeklendirme: Etkinleştirildiğinde, Spark çalışanlarının disk alanı azaldığında bu küme dinamik olarak ek disk alanı alır. Ayrıntılar için Yerel depolamayı otomatik ölçeklendirmeyi etkinleştirme bölümüne bakın. |
driver_instance_pool_id |
STRING |
Sürücü düğümü için kullanılacak örnek havuzunun isteğe bağlı kimliği. Siz de instance_pool_id belirtmelisiniz. Ayrıntılar için Örnek Havuzları API'sine bakın. |
instance_pool_id |
STRING |
Küme düğümleri için kullanılacak örnek havuzunun isteğe bağlı kimliği.
driver_instance_pool_id varsaYalnızca instance_pool_id çalışan düğümler için kullanılır. Aksi takdirde, hem sürücü düğümü hem de çalışan düğümleri için kullanılır. Ayrıntılar için Örnek Havuzları API'sine bakın. |
NotebookOutput
Alan Adı | Tip | Açıklama |
---|---|---|
result |
STRING |
dbutils.notebook.exit() adresine geçirilen değer. Azure Databricks bu API'yi değerin ilk 1 MB'ını döndürecek şekilde kısıtlar. Daha büyük bir sonuç için işiniz sonuçları bir bulut depolama hizmetinde depolayabilir. Hiç çağrılmadıysa dbutils.notebook.exit() bu alan yok olur. |
truncated |
BOOLEAN |
Sonucun kesilip kesilmediği. |
NotebookTask
Tüm çıkış hücreleri 8 MB boyutuna tabidir. Bir hücrenin çıktısı daha büyük bir boyuta sahipse, çalıştırmanın geri kalanı iptal edilir ve çalıştırma başarısız olarak işaretlenir. Bu durumda, diğer hücrelerden gelen içerik çıktılarından bazıları da eksik olabilir.
Sınırı aşan hücreyi bulma konusunda yardıma ihtiyacınız varsa, not defterini çok amaçlı bir kümede çalıştırın ve bu not defteri otomatik kaydetme tekniğini kullanın.
Alan Adı | Type | Açıklama |
---|---|---|
notebook_path |
STRING |
Azure Databricks çalışma alanında çalıştırılacak not defterinin kesin yolu. Bu yol eğik çizgiyle başlamalıdır. Bu alan gereklidir. |
revision_timestamp |
LONG |
Not defterinin gözden geçirme zaman damgası. |
base_parameters |
ParamPair haritası | Bu görevin her yürütülmesi için kullanılacak temel parametreler. Belirtilen parametrelerle bir çağrı ile run-now çalıştırma başlatılırsa, iki parametre kümesi birleştirilir. Eğer base_parameters ve run-now içinde aynı anahtar belirtilirse, run-now içindeki değer kullanılır.İş çalıştırmaları hakkında bilgi içeren parametreleri ayarlamak için Dinamik değer başvurusu nedir? komutunu kullanın. Not defteri işin base_parameters veya run-now geçersiz kılma parametrelerinde belirtilmeyen bir parametre alırsa, not defterindeki varsayılan değer kullanılır.dbutils.widgets.get kullanarak bu parametreleri not defterinde alın. |
ParamPair
Not defteri görevlerini çalıştıran işler için ad tabanlı parametreler.
Önemli
Bu veri yapısındaki alanlar yalnızca Latin karakterleri (ASCII karakter kümesi) kabul edecektir. ASCII olmayan karakterler kullanıldığında hata döndürülecektir. Geçersiz, ASCII olmayan karakterlere örnek olarak Çince, Japonca kanjiler ve emojiler verilebilir.
Type | Açıklama |
---|---|
STRING |
Parametre adı. Değeri almak için dbutils.widgets.get adresine geçin. |
STRING |
Parametre değeri. |
PipelineTask
Alan Adı | Type | Açıklama |
---|---|---|
pipeline_id |
STRING |
Yürütülecek DLT işlem hattı görevinin tam adı. |
PythonPyPiLibrary
Alan Adı | Type | Açıklama |
---|---|---|
package |
STRING |
Yüklenecek PyPI paketinin adı. İsteğe bağlı tam sürüm belirtimi de desteklenir. Örnekler: simplejson ve simplejson==3.8.0 . Bu alan gereklidir. |
repo |
STRING |
Paketin bulunabileceği depo. Belirtilmezse, varsayılan pip dizini kullanılır. |
RCranLibrary
Alan Adı | Type | Açıklama |
---|---|---|
package |
STRING |
Yüklenecek CRAN paketinin adı. Bu alan gereklidir. |
repo |
STRING |
Paketin bulunabileceği depo. Belirtilmezse, varsayılan CRAN deposu kullanılır. |
Koş
Bir çalıştırmanın çıktısı dışındaki tüm bilgiler. Çıktı getRunOutput
yöntemiyle ayrı olarak alınabilir.
Alan Adı | Type | Açıklama |
---|---|---|
job_id |
INT64 |
Bu çalıştırmayı içeren işin standart tanımlayıcısı. |
run_id |
INT64 |
Çalıştırmanın kurallı tanımlayıcısı. Bu kimlik, tüm görevlerin tüm çalıştırma döngüleri arasında benzersizdir. |
creator_user_name |
STRING |
Oluşturucu kullanıcı adı. Kullanıcı zaten silinmişse bu alan yanıta dahil edilmeyecektir. |
number_in_job |
INT64 |
Bu işin tüm çalışmaları arasında bu çalışmanın sıra numarası. Bu değer 1'de başlar. |
original_attempt_run_id |
INT64 |
Eğer bu çalıştırma, önceki bir çalıştırma denemesinin yeniden denemesiyse, bu alan ilk denemenin run_id'sini içerir; aksi halde, run_id aynıdır. |
state |
RunState | Koşunun sonucu ve yaşam döngüsü durumları. |
schedule |
CronSchedule | Düzenli zamanlayıcı tarafından tetiklendiyse bu çalıştırmayı tetikleyen cron zamanlaması. |
task |
jobtask | Varsa, çalıştırma tarafından gerçekleştirilen görev. |
cluster_spec |
ClusterSpec | Bu çalışma oluşturulduğunda işin küme yapılandırmasının anlık görüntüsü. |
cluster_instance |
ClusterInstance | Çalıştırma için kullanılan küme bu. Çalıştırmanın yeni bir küme ile çalışması belirtilmişse, İşler hizmeti çalıştırma için bir küme talep edildikten sonra bu alan ayarlanacaktır. |
overriding_parameters |
RunParameters | Bu işlem için kullanılan parametreler. |
start_time |
INT64 |
Bu çalıştırmanın başlatıldığı zaman dilimi milisaniye cinsindendir (1/1/1970 UTC'den bu yana milisaniye). Bu, iş görevinin yürütülmeye başladığı zaman olmayabilir; örneğin, iş, yeni bir kümeye çalışacak şekilde ayarlanmışsa, bu, küme oluşturma çağrısının yapıldığı zamandır. |
setup_duration |
INT64 |
Kümeyi milisaniye cinsinden ayarlamak için geçen süre. Yeni kümelerde çalışan çalıştırmalar için bu, küme oluşturma zamanıdır; mevcut kümelerde çalışanlar için bu süre çok kısa olmalıdır. |
execution_duration |
INT64 |
Komutların JAR veya not defterinde yürütülmesi, tamamlanana, başarısız olana, zaman aşımına uğrayana, iptal edilene veya beklenmeyen bir hatayla karşılaşana kadar geçen süre milisaniye cinsindendir. |
cleanup_duration |
INT64 |
Kümeyi sonlandırmak ve ilişkili kalıntıları temizlemek için geçen süre milisaniye cinsinden ne kadar sürdü. Çalıştırmanın toplam süresi, kurulum süresi (setup_duration), yürütme süresi (execution_duration) ve temizlik süresi (cleanup_duration) sürelerinin toplamıdır. |
end_time |
INT64 |
Bu çalıştırmanın epok milisaniyesi cinsinden sona erdiği saat (1/1/1970 UTC'den bu yana geçen milisaniye). İş çalışmaya devam ediyorsa bu alan 0 olarak ayarlanır. |
trigger |
TriggerType | Bu çalıştırmayı başlatan tetik türü. |
run_name |
STRING |
Çalışma için isteğe bağlı bir ad. Varsayılan değer şudur: Untitled . UTF-8 kodlamasında izin verilen uzunluk üst sınırı 4096 bayttır. |
run_page_url |
STRING |
Çalışmanın ayrıntı sayfasının URL'si. |
run_type |
STRING |
Çalıştırmanın türü.
|
attempt_number |
INT32 |
Tetiklenen bir iş çalıştırması süreci için yapılan bu çalıştırma denemesinin sıra numarası. Çalıştırmanın ilk denemesinin deneme numarası 0'dır. İlk çalıştırma girişimi başarısız olursa ve işin yeniden deneme ilkesi varsa (max_retries > 0), sonraki çalıştırmalar özgün denemenin kimliği original_attempt_run_id ve artan attempt_number ile oluşturulur. Çalıştırmalar yalnızca başarılı olana kadar yeniden denenir ve maksimum attempt_number , iş için max_retries değeriyle aynıdır. |
RunJobTask
Alan Adı | Type | Açıklama |
---|---|---|
job_id |
INT32 |
Çalıştırılacak işin benzersiz tanımlayıcısı. Bu alan gereklidir. |
RunLifeCycleState
Çalıştırmanın yaşam döngüsü durumu. İzin verilen durum geçişleri şunlardır:
-
QUEUED
->PENDING
-
PENDING
- ->RUNNING
->TERMINATING
>TERMINATED
-
PENDING
->SKIPPED
-
PENDING
->INTERNAL_ERROR
-
RUNNING
->INTERNAL_ERROR
-
TERMINATING
->INTERNAL_ERROR
Devlet | Açıklama |
---|---|
QUEUED |
Çalıştırma tetiklendi ancak aşağıdaki sınırlardan birine ulaştığı için kuyruğa alındı:
İşin veya çalıştırmanın bu duruma ulaşabilmesi için kuyruğa alma özelliği etkinleştirilmiş olmalıdır. |
PENDING |
Çalıştırma başlatıldı. İşin maksimum eşzamanlı çalıştırma sayısına zaten ulaşıldıysa, çalıştırma, hiçbir kaynak hazırlamadan hemen SKIPPED durumuna geçer. Aksi takdirde, kümenin hazırlanması ve uygulama süreci devam ediyor. |
RUNNING |
Bu görevin yürütülmesi devam ediyor. |
TERMINATING |
Bu çalıştırma işleminin görevi tamamlandı ve küme ile yürütme bağlamı temizleniyor. |
TERMINATED |
Bu çalıştırma işlemi tamamlandı ve küme ve yürütme bağlamı temizlendi ve düzenlendi. Bu durum terminaldir. |
SKIPPED |
Aynı işlemin daha önceki bir çalışması zaten etkin olduğu için bu çalıştırma iptal edildi. Bu durum terminaldir. |
INTERNAL_ERROR |
Olağanüstü bir durum, İşler hizmetinde uzun bir süre boyunca süregelen bir ağ hatası gibi bir hatayı belirtir. Yeni bir kümedeki bir işlem INTERNAL_ERROR durumunda tamamlanırsa, İşler hizmeti kümeyi en kısa sürede kapatır. Bu durum terminaldir. |
Çalıştırma Parametreleri
Bu çalıştırma için parametreler. İş görevinin türüne bağlı olarak python_params
isteğinde yalnızca bir jar_params, run-now
veya notebook_params belirtilmelidir.
Spark JAR görevi ve Python görevi içeren işler konum tabanlı parametrelerin listesini alır ve not defteri görevlerini içeren işler bir anahtar değer eşlemesi alır.
Alan Adı | Type | Açıklama |
---|---|---|
jar_params |
Bir dizi STRING |
Spark JAR görevleri olan işler için parametrelerin listesi, örneğin. "jar_params": ["john doe", "35"] Parametreler, Spark JAR görevinde belirtilen ana sınıfın ana işlevini çağırmak için kullanılır. üzerinde run-now belirtilmezse, varsayılan olarak boş bir liste olur. jar_params notebook_params ile birlikte belirtilemez. Bu alanın JSON gösterimi (örneğin {"jar_params":["john doe","35"]} ) 10.000 baytı aşamaz.Dinamik değer referansı nedir? iş çalıştırmaları hakkında bilgi içeren parametreleri ayarlamak için kullanın. |
notebook_params |
ParamPair haritası | Not defteri görevi olan işler için anahtarların değerlerle eşlemesi, örneğin."notebook_params": {"name": "john doe", "age": "35"} . Harita not defterine geçirilir ve dbutils.widgets.get işlevi aracılığıyla erişilebilir.üzerinde run-now belirtilmezse, tetiklenen çalıştırma işin temel parametrelerini kullanır.notebook_params jar_params ile birlikte belirtilemez. İş çalıştırmaları hakkında bilgi içeren parametreleri ayarlamak için Dinamik değer başvurusu nedir? ifadesini kullanın. Bu alanın JSON gösterimi (örn. {"notebook_params":{"name":"john doe","age":"35"}} ) 10.000 baytı aşamaz. |
python_params |
Bir dizi STRING |
Python görevlerine sahip işler için parametrelerin listesi, örneğin. "python_params": ["john doe", "35"] Parametreler Python dosyasına komut satırı parametreleri olarak geçirilir. Eğer run-now üzerinde belirtilirse, iş ayarında belirtilen parametrelerin üzerine yazar. Bu alanın JSON gösterimi (örneğin {"python_params":["john doe","35"]} ) 10.000 baytı aşamaz.İş çalıştırmaları hakkında bilgi içeren parametreleri ayarlamak için Dinamik değer başvurusu nedir? komutunu kullanın. Bu parametreler yalnızca Latin karakterleri (ASCII karakter kümesi) kabul eder. ASCII olmayan karakterler kullanıldığında hata döndürülecektir. Geçersiz, ASCII olmayan karakterlere örnek olarak Çince, Japonca kanjiler ve emojiler verilebilir. |
spark_submit_params |
Bir dizi STRING |
Spark gönderme görevi olan işler için parametrelerin listesi, örneğin."spark_submit_params": ["--class", "org.apache.spark.examples.SparkPi"] . Parametreler spark-submit betiğine komut satırı parametreleri olarak geçirilir. Eğer run-now üzerinde belirtilirse, iş ayarında belirtilen parametrelerin üzerine yazar. Bu alanın JSON gösterimi (örneğin {"python_params":["john doe","35"]} ) 10.000 baytı aşamaz.What is a dynamic value reference? komutunu, iş çalıştırmaları hakkında bilgi içeren parametreleri ayarlamak için kullanın. Bu parametreler yalnızca Latin karakterleri (ASCII karakter kümesi) kabul eder. ASCII olmayan karakterler kullanıldığında hata döndürülecektir. Geçersiz, ASCII olmayan karakterlere örnek olarak Çince, Japonca kanjiler ve emojiler verilebilir. |
ÇalışmaSonucuDurumu
Çalıştırmanın son durumu.
- :
life_cycle_state
=TERMINATED
çalıştırmasının bir görevi varsa, sonucun kullanılabilir olması garanti edilir ve görevin sonucunu gösterir. - Eğer
life_cycle_state
, = ,PENDING
,RUNNING
, veyaSKIPPED
ise, sonuç durumu kullanılamaz. - Eğer
life_cycle_state
=TERMINATING
veya lifecyclestate =INTERNAL_ERROR
ise: Çalıştırma bir göreve sahipti ve onu başlatmayı başardıysa, sonuç durumu mevcuttur.
Kullanılabilir olduğunda sonuç durumu hiçbir zaman değişmez.
Devlet | Açıklama |
---|---|
SUCCESS |
Görev başarıyla tamamlandı. |
FAILED |
Görev bir hatayla tamamlandı. |
TIMEDOUT |
Çalıştırma, zaman aşımına ulaşıldıktan sonra sonlandırıldı. |
CANCELED |
Çalıştırma, kullanıcı isteği üzerine iptal edildi. |
RunState
Alan Adı | Type | Açıklama |
---|---|---|
life_cycle_state |
RunLifeCycleState | İşlem yaşam döngüsünde bir çalıştırmanın mevcut konumunun açıklaması. Bu alan yanıtta her zaman kullanılabilir. |
result_state |
RunResultState | Koşunun sonuç durumu. Kullanılamıyorsa, yanıt bu alanı içermez. result_state kullanılabilirliği hakkında ayrıntılı bilgi için bkz. RunResultState. |
user_cancelled_or_timedout |
BOOLEAN |
Çalıştırmanın, kullanıcı tarafından elle mi iptal edildiği yoksa zamanlayıcı tarafından süre aşımına uğradığı için mi iptal edildiği. |
state_message |
STRING |
Geçerli durum için açıklayıcı bir ileti. Bu alan yapılandırılmamış ve tam biçimi değiştirilebilir. |
SparkConfPair
Spark yapılandırma anahtar-değer çiftleri.
Type | Açıklama |
---|---|
STRING |
Yapılandırma özelliği adı. |
STRING |
Yapılandırma özelliği değeri. |
SparkEnvPair
Spark ortam değişkeni anahtar-değer çiftleri.
Önemli
Bir iş kümesinde ortam değişkenlerini belirtirken, bu veri yapısındaki alanlar yalnızca Latin karakterleri (ASCII karakter kümesi) kabul eder. ASCII olmayan karakterler kullanıldığında hata döndürülecektir. Geçersiz, ASCII olmayan karakterlere örnek olarak Çince, Japonca kanjiler ve emojiler verilebilir.
tür | Açıklama |
---|---|
STRING |
Ortam değişkeni adı. |
STRING |
Ortam değişkeni değeri. |
SparkJarTask
Alan Adı | Type | Açıklama |
---|---|---|
jar_uri |
STRING |
04/2016 tarihinden bu yana kullanım dışı bırakıldı. Bunun yerine jar alanı aracılığıyla libraries sağlayın. Bir örnek için bkz . Oluşturma. |
main_class_name |
STRING |
Yürütülecek ana yöntemi içeren sınıfın tam adı. Bu sınıf, kitaplık olarak sağlanan bir JAR içinde yer almalıdır. Kodun Spark bağlamı elde etmek için SparkContext.getOrCreate kullanması gerekir; aksi takdirde görev çalışmaları başarısız olur. |
parameters |
Bir dizi STRING |
Ana yönteme geçirilen parametreler. İş çalıştırmaları hakkında bilgi içeren parametreleri ayarlamak için Dinamik değer başvurusu nedir? komutunu kullanın. |
SparkPython Görevi
Alan Adı | Type | Açıklama |
---|---|---|
python_file |
STRING |
Yürütülecek Python dosyasının URI'sini. DBFS yolları desteklenir. Bu alan gereklidir. |
parameters |
Bir dizi STRING |
Komut satırı parametreleri Python dosyasına geçirildi. İş çalıştırmaları hakkında bilgi içeren parametreleri ayarlamak için Dinamik değer başvurusu nedir? komutunu kullanın. |
SparkSubmitTask
Önemli
- Spark gönderme görevlerini yalnızca yeni kümelerde çağırabilirsiniz.
- new_cluster belirtiminde
libraries
vespark_conf
desteklenmez. Bunun yerine Java ve Python kitaplıkları eklemek için--jars
ve--py-files
'i, Spark yapılandırmasını ayarlamak için--conf
'yi kullanın. -
master
,deploy-mode
ve Azure Databricks tarafından otomatik olarak yapılandırılır; bunları parametrelerde belirtemezsinizexecutor-cores
. - Spark gönderme işi varsayılan olarak tüm kullanılabilir belleği kullanır (Azure Databricks hizmetleri için ayrılmış bellek hariç). yığın dışı kullanım için biraz yer bırakmak amacıyla
--driver-memory
ve--executor-memory
değerlerini daha küçük bir değere ayarlayabilirsiniz. -
--jars
,--py-files
,--files
değişkenleri DBFS yollarını destekler.
Örneğin, JAR'ın DBFS'ye yüklendiğini varsayarsak, aşağıdaki parametreleri ayarlayarak komutunu çalıştırabilirsiniz SparkPi
.
{
"parameters": ["--class", "org.apache.spark.examples.SparkPi", "dbfs:/path/to/examples.jar", "10"]
}
Alan Adı | Type | Açıklama |
---|---|---|
parameters |
Bir dizi STRING |
Spark submit komutuna geçirilen komut satırı parametreleri. İş çalıştırmaları hakkında bilgi içeren parametreleri ayarlamak için Dinamik değer başvurusu nedir? komutunu kullanın. |
TetikleyiciTürü
Bunlar, bir çalıştırmayı başlatabilecek tetikleyici türleridir.
Type | Açıklama |
---|---|
PERIODIC |
Cron zamanlayıcı gibi çalıştırmaları düzenli aralıklarla tetikleyen zamanlamalar. |
ONE_TIME |
Tek seferlik tetikleyici tek bir çalıştırmayı başlatır. Bu durum, kullanıcı arabirimi veya API aracılığıyla talep üzerine tek bir çalıştırma tetiklediğinizde meydana gelir. |
RETRY |
Önceki başarısız bir çalıştırmanın yeniden denemesi olarak tetiklenen bir çalıştırmayı gösterir. Bu, hata durumunda işi yeniden çalıştırmayı istediğinizde oluşur. |
Öğeyi Görüntüle
Dışarı aktarılan içerik HTML biçimindedir. Örneğin, eğer dışa aktarılacak görünüm gösterge tablolarıysa, her gösterge tablosu için bir HTML dizesi döndürülür.
Alan Adı | Type | Açıklama |
---|---|---|
content |
STRING |
Görünümün içeriği. |
name |
STRING |
Görünüm öğesinin adı. Kod görünümü durumunda, not defterinin adı. Pano görünümü söz konusu olduğunda, panonun adı. |
type |
ViewType | Görünüm öğesinin türü. |
GörünümTipi
Tip | Açıklama |
---|---|
NOTEBOOK |
Not defteri görünüm öğesi. |
DASHBOARD |
Pano görünümü öğesi. |
Aktarılacak Görünümler
Dışarı aktarma seçenekleri: kod, tüm gösterge tabloları veya tamamı.
Type | Açıklama |
---|---|
CODE |
Not defterinin kod görünümü. |
DASHBOARDS |
Dizüstü bilgisayarın tüm kontrol paneli görünümleri. |
ALL |
Not defterinin tüm görünümleri. |
Webhook
Alan Adı | Type | Açıklama |
---|---|---|
id |
STRING |
Bir sistem bildirimi hedefini belirleyen tanımlayıcı. Bu alan gereklidir. |
Webhook Bildirimleri
Alan Adı | Type | Açıklama |
---|---|---|
on_start |
Bir Webhook dizisi | Çalıştırma başladığında bildirilecek sistem hedeflerinin isteğe bağlı listesi. İş oluşturma, sıfırlama veya güncelleştirme sırasında belirtilmezse liste boş olur ve bildirimler gönderilmez. Özellik için on_start en fazla 3 hedef belirtilebilir. |
on_success |
Bir Webhook dizisi | Bir çalıştırma başarıyla tamamlandığında bildirilecek isteğe bağlı sistem hedeflerinin listesi. Bir çalıştırma, TERMINATED life_cycle_state ve SUCCESSFUL result_state ile sona eriyorsa başarıyla tamamlanmış kabul edilir. İş oluşturma, sıfırlama veya güncelleştirme sırasında belirtilmezse liste boş olur ve bildirimler gönderilmez. Özellik için on_success en fazla 3 hedef belirtilebilir. |
on_failure |
Bir Webhook dizisi | Çalıştırma başarısız olduğunda bildirilecek isteğe bağlı sistem hedeflerinin bir listesi. Bir çalıştırma, INTERNAL_ERROR ile biterse başarısız tamamlanmış olarak kabul edilir.life_cycle_state veya bir SKIPPED , FAILED veya TIMED_OUT result_state . İş oluşturma, sıfırlama veya güncelleştirme sırasında bu belirtilmezse liste boş olur ve bildirimler gönderilmez. Özellik için on_failure en fazla 3 hedef belirtilebilir. |
on_duration_warning_threshold_exceeded |
Bir Webhook dizisi | Çalıştırmanın süresi, RUN_DURATION_SECONDS metriği için health alanında belirtilen eşiği aştığında bildirimde bulunulacak isteğe bağlı sistem hedeflerinin bir listesi. Özellik için on_duration_warning_threshold_exceeded en fazla 3 hedef belirtilebilir. |
Çalışma Alanı Depolama Bilgisi
Çalışma alanı depolama bilgileri.
Alan Adı | Type | Açıklama |
---|---|---|
destination |
STRING |
Dosya hedefi. Örnek: /Users/someone@domain.com/init_script.sh |