Aracılığıyla paylaş


İş API 2.0

Önemli

Bu makale, İşler API'sinin 2.0 sürümünü belgeler. Ancak Databricks, yeni ve mevcut istemciler ve betikler için Jobs API 2.2 kullanmanızı tavsiye eder. İşler API'sinin 2.2 sürümündeki değişiklikler hakkında ayrıntılı bilgi için bkz. jobs API 2.1'den 2.2'ye güncelleştirme.

İşler API'si işleri oluşturmanıza, düzenlemenize ve silmenize olanak tanır. İşler API'sine yönelik bir isteğin izin verilen en büyük boyutu 10 MB'tır.

İşler API'sinin daha yeni sürümlerindeki güncellenmiş işlevsellik hakkında bilgi edinmek için bkz. Jobs API 2.0 sürümünden 2.1 sürümüne güncelleştirme ve Jobs API 2.1 sürümünden 2.2 sürümüne güncelleştirme.

Uyarı

Gizli bilgileri asla sabit kodlamayın veya düz metin olarak depolamamalısınız. Secrets API'yi Databricks CLI'da gizli verileri yönetmek için kullanın. Defterlerde ve işlerdeki gizli bilgilere başvurmak için Gizli Bilgiler yardımcı programını (dbutils.secrets) kullanın.

Not

İşler API'si istekleri yaparken 500 düzeyinde bir hata alırsanız Databricks, isteklerin 10 dakika (yeniden denemeler arasında en az 30 saniyelik bir aralıkla) yeniden denemesini önerir.

Önemli

Databricks REST API’lerine erişmek için kimlik doğrulaması yapmanız gerekir.

Oluştur

Uç nokta HTTP Yöntemi
2.0/jobs/create POST

Yeni bir iş oluşturun.

Örnek

Bu örnek, her gece 22:15'te JAR görevi çalıştıran bir iş oluşturur.

İstek

curl --netrc --request POST \
https://<databricks-instance>/api/2.0/jobs/create \
--data @create-job.json \
| jq .

create-job.json:

{
  "name": "Nightly model training",
  "new_cluster": {
    "spark_version": "7.3.x-scala2.12",
    "node_type_id": "Standard_D3_v2",
    "num_workers": 10
  },
  "libraries": [
    {
      "jar": "dbfs:/my-jar.jar"
    },
    {
      "maven": {
        "coordinates": "org.jsoup:jsoup:1.7.2"
      }
    }
  ],
  "timeout_seconds": 3600,
  "max_retries": 1,
  "schedule": {
    "quartz_cron_expression": "0 15 22 * * ?",
    "timezone_id": "America/Los_Angeles"
  },
  "spark_jar_task": {
    "main_class_name": "com.databricks.ComputeModels"
  }
}

Değiştir:

  • <databricks-instance>Azure Databricks çalışma alanı örneği adını ile, adb-1234567890123456.7.azuredatabricks.net örneğin.
  • Çözümünüz için uygun alanları içeren create-job.json içeriği.

Bu örnekte bir .netrc dosyası ve jq kullanılır.

Yanıt

{
  "job_id": 1
}

İstek yapısı

Önemli

  • Yeni bir işler kümesinde bir iş çalıştırdığınızda, bu iş, Jobs Compute fiyatlandırmasına tabi bir otomatik iş yükü olarak değerlendirilir.
  • Var olan bir çok amaçlı kümede bir iş çalıştırdığınızda, bu iş, Tüm Amaçlı İşlem fiyatlandırmasına tabi olan Bir Çok Amaçlı İşlem (etkileşimli) iş yükü olarak değerlendirilir.
Alan Adı Type Açıklama
existing_cluster_id VEYA new_cluster STRING OR NewCluster Eğer existing_cluster_id varsa, bu işin tüm çalıştırmaları için kullanılacak mevcut kümenin kimliği. Mevcut bir kümede işleri çalıştırırken yanıt vermeyi durdurursa kümeyi el ile yeniden başlatmanız gerekebilir. Daha fazla güvenilirlik için yeni kümelerde iş çalıştırmanızı öneririz.
yeni_küme, her bir çalıştırma için oluşturulacak bir kümenin açıklaması.
PipelineTask belirtilmesi durumunda bu alan boş olabilir.
notebook_taskVEYA VEYA spark_jar_task
spark_python_taskVEYA VEYA spark_submit_task
pipeline_task VEYA run_job_task
NotebookTask VEYA SparkJarTask VEYA SparkPythonTask VEYA SparkSubmitTask VEYA PipelineTask VEYA RunJobTask notebook_task, bu işin bir not defteri çalıştırması gerektiğini gösterir. Bu alan spark_jar_task ile birlikte belirtilmeyebilir.
spark_jar_task, bu görevin bir JAR çalıştırması gerektiğini gösterir.
spark_python_task, bu işin bir Python dosyası çalıştırması gerektiğini gösterir.
spark_submit_task, bu işin Spark gönderme betiği tarafından başlatılması gerektiğini gösterir.
pipeline_task, bu işin bir DLT işlem hattı çalıştırması gerektiğini gösterir.
run_job_task işlevi, bu işin başka bir işi çalıştırması gerektiğini gösterir.
name STRING İş için isteğe bağlı bir ad. Varsayılan değer şudur: Untitled.
libraries Bir kitaplık dizisi İşi yürütecek kümeye yüklenecek kitaplıkların isteğe bağlı listesi. Varsayılan değer boş bir listedir.
email_notifications İş E-posta Bildirimleri Çalıştırmaları başladığında ve tamamlandığında ve iş silindiğinde bildirilecek isteğe bağlı bir e-posta adresleri kümesi. Varsayılan davranış, herhangi bir e-posta göndermemektir.
webhook_notifications Webhook Bildirimleri Çalıştırmaları başladığında, tamamlandığında veya başarısız olduğunda bildirimde bulunmak için isteğe bağlı bir sistem varış noktaları kümesi.
notification_settings İşBildirimAyarları Bu iş için email_notifications ve webhook_notifications her birine bildirim gönderirken kullanılan isteğe bağlı bildirim ayarları.
timeout_seconds INT32 Her çalıştırmada bu işe isteğe bağlı bir zaman aşımı uygulanır. Varsayılan davranış, zaman aşımı olmamasıdır.
max_retries INT32 Başarısız bir çalıştırmayı yeniden denemek için maksimum isteğe bağlı deneme sayısı. Bir çalıştırmanın başarısız olduğu kabul edilir eğer FAILED veya result_state ile tamamlanırsa.
INTERNAL_ERROR
life_cycle_state. -1 değeri süresiz olarak yeniden deneme, 0 değeri ise hiçbir zaman yeniden deneme anlamına gelir. Varsayılan davranış, hiçbir zaman yeniden denememektir.
min_retry_interval_millis INT32 Başarısız çalıştırmanın başlangıcı ile sonraki yeniden deneme çalıştırması arasında milisaniye cinsinden isteğe bağlı en düşük aralık. Varsayılan davranış, başarısız girişimlerin hemen yeniden denenmesidir.
retry_on_timeout BOOL Bir iş zaman aşımına uğradığında yeniden denenip denenmeyeceğini belirtmek için isteğe bağlı bir ilke. Varsayılan davranış, zaman aşımında yeniden denememektir.
schedule CronSchedule Bu iş için isteğe bağlı bir düzenli zamanlama. Varsayılan davranış, İşler kullanıcı arabiriminde Şimdi çalıştır seçeneğine tıklayarak veya runNow adresine bir API isteği göndererek tetiklendiğinde işin çalışmasıdır.
max_concurrent_runs INT32 Opsiyonel olarak izin verilen maksimum eşzamanlı iş yürütme sayısı.
Aynı işin birden çok çalıştırmasını eşzamanlı olarak yürütebilmek istiyorsanız bu değeri ayarlayın. Bu, örneğin işinizi sık sık tetikleyip ardışık çalıştırmaların birbiriyle çakışmasına izin vermek veya giriş parametrelerine göre farklı birden çok çalıştırma tetiklemeniz durumunda yararlı olur.
Bu ayar yalnızca yeni çalıştırmaları etkiler. Örneğin, işin eşzamanlılığının 4 olduğunu ve 4 tane eşzamanlı etkin çalışma olduğunu varsayalım. Eşzamanlılık 3 olarak ayarlandığında, etkin çalıştırmaların hiçbiri sonlandırılamaz. Ancak, bundan sonra, 3'ten az etkin çalıştırma olmadığı sürece yeni çalıştırmalar atlanır.
Bu değer 1000'i aşamaz. Bu değerin 0 olarak ayarlanması tüm yeni çalıştırmaların atlanmasına neden olur. Varsayılan davranış, yalnızca 1 eşzamanlı çalıştırmaya izin vermektir.

Yanıt yapısı

Alan Adı Type Açıklama
job_id INT64 Yeni oluşturulan işin kanonik tanımlayıcısı.

Listesi

Uç nokta HTTP Yöntemi
2.0/jobs/list GET

Tüm işleri listeleyin.

Örnek

İstek

curl --netrc --request GET \
https://<databricks-instance>/api/2.0/jobs/list \
| jq .

<databricks-instance> değerini Azure Databricks çalışma alanı örneği adı ile değiştirin, örneğin adb-1234567890123456.7.azuredatabricks.net.

Bu örnekte bir .netrc dosyası ve jq kullanılır.

Yanıt

{
  "jobs": [
    {
      "job_id": 1,
      "settings": {
        "name": "Nightly model training",
        "new_cluster": {
          "spark_version": "7.3.x-scala2.12",
          "node_type_id": "Standard_D3_v2",
          "num_workers": 10
        },
        "libraries": [
          {
            "jar": "dbfs:/my-jar.jar"
          },
          {
            "maven": {
              "coordinates": "org.jsoup:jsoup:1.7.2"
            }
          }
        ],
        "timeout_seconds": 100000000,
        "max_retries": 1,
        "schedule": {
          "quartz_cron_expression": "0 15 22 * * ?",
          "timezone_id": "America/Los_Angeles",
          "pause_status": "UNPAUSED"
        },
        "spark_jar_task": {
          "main_class_name": "com.databricks.ComputeModels"
        }
      },
      "created_time": 1457570074236
    }
  ]
}

Yanıt yapısı

Alan Adı Type Açıklama
jobs Bir İş dizisi İş listesi.

Silmek

Uç nokta HTTP Yöntemi
2.0/jobs/delete POST

bir işi silin ve içinde JobSettings.email_notificationsbelirtilen adreslere e-posta gönderin. İş zaten kaldırılmışsa hiçbir eylem gerçekleşmez. İş kaldırıldıktan sonra, ne ayrıntıları ne de çalıştırma geçmişi İşler kullanıcı arabiriminde veya API'de görünür. bu istek tamamlandıktan sonra işin kaldırılması garanti edilir. Ancak, bu isteğin alınmasından önce başlamış olan çalışmalar hala etkin olabilir. Bunlar eşzamanlı olmayan şekilde sonlandırılacaktır.

Örnek

curl --netrc --request POST \
https://<databricks-instance>/api/2.0/jobs/delete \
--data '{ "job_id": <job-id> }'

Değiştir:

  • <databricks-instance>Azure Databricks çalışma alanı örneği adını ile, adb-1234567890123456.7.azuredatabricks.net örneğin.
  • <job-id> işin kimliğiyle birlikte, örneğin 123.

Bu örnekte bir .netrc dosyası kullanılır.

İstek yapısı

Alan Adı Type Açıklama
job_id INT64 Silinecek işin standart tanımlayıcısı. Bu alan gereklidir.

İndir

Uç nokta HTTP Yöntemi
2.0/jobs/get GET

Tek bir iş hakkındaki bilgileri alın.

Örnek

İstek

curl --netrc --request GET \
'https://<databricks-instance>/api/2.0/jobs/get?job_id=<job-id>' \
| jq .

Veya:

curl --netrc --get \
https://<databricks-instance>/api/2.0/jobs/get \
--data job_id=<job-id> \
| jq .

Değiştir:

  • <databricks-instance>Azure Databricks çalışma alanı örneği adını ile, adb-1234567890123456.7.azuredatabricks.net örneğin.
  • <job-id> işin kimliğiyle birlikte, örneğin 123.

Bu örnekte bir .netrc dosyası ve jq kullanılır.

Yanıt

{
  "job_id": 1,
  "settings": {
    "name": "Nightly model training",
    "new_cluster": {
      "spark_version": "7.3.x-scala2.12",
      "node_type_id": "Standard_D3_v2",
      "num_workers": 10
    },
    "libraries": [
      {
        "jar": "dbfs:/my-jar.jar"
      },
      {
        "maven": {
          "coordinates": "org.jsoup:jsoup:1.7.2"
        }
      }
    ],
    "timeout_seconds": 100000000,
    "max_retries": 1,
    "schedule": {
      "quartz_cron_expression": "0 15 22 * * ?",
      "timezone_id": "America/Los_Angeles",
      "pause_status": "UNPAUSED"
    },
    "spark_jar_task": {
      "main_class_name": "com.databricks.ComputeModels"
    }
  },
  "created_time": 1457570074236
}

İstek yapısı

Alan Adı Type Açıklama
job_id INT64 Hakkında bilgi alınacak işin kurallı tanımlayıcısı. Bu alan gereklidir.

Yanıt yapısı

Alan Adı Type Açıklama
job_id INT64 Bu görevin standart tanımlayıcısı.
creator_user_name STRING Oluşturucu kullanıcı adı. Kullanıcı silinmişse bu alan yanıta dahil edilmeyecektir.
settings İşAyarları Bu işin ayarları ve tüm işlemeleri. Bu ayarlar, Sıfırlama veya Güncelleştirme uç noktaları kullanılarak güncelleştirilebilir.
created_time INT64 Bu işin dönem milisaniye cinsinden oluşturulduğu saat (1/1/1970 UTC'den bu yana milisaniye).

sıfırla

Uç nokta HTTP Yöntemi
2.0/jobs/reset POST

Belirli bir işin tüm ayarlarını değiştirin. İş ayarlarını kısmen güncelleştirmek için Güncelleştirme uç noktasını kullanın.

Örnek

Bu örnek istek, oluşturma örneğindeki 2. işi 1. işle aynı yapar.

curl --netrc --request POST \
https://<databricks-instance>/api/2.0/jobs/reset \
--data @reset-job.json \
| jq .

reset-job.json:

{
  "job_id": 2,
  "new_settings": {
    "name": "Nightly model training",
    "new_cluster": {
      "spark_version": "7.3.x-scala2.12",
      "node_type_id": "Standard_D3_v2",
      "num_workers": 10
    },
    "libraries": [
      {
        "jar": "dbfs:/my-jar.jar"
      },
      {
        "maven": {
          "coordinates": "org.jsoup:jsoup:1.7.2"
        }
      }
    ],
    "timeout_seconds": 100000000,
    "max_retries": 1,
    "schedule": {
      "quartz_cron_expression": "0 15 22 * * ?",
      "timezone_id": "America/Los_Angeles",
      "pause_status": "UNPAUSED"
    },
    "spark_jar_task": {
      "main_class_name": "com.databricks.ComputeModels"
    }
  }
}

Değiştir:

  • <databricks-instance>Azure Databricks çalışma alanı örneği adını ile, adb-1234567890123456.7.azuredatabricks.net örneğin.
  • Çözümünüz için uygun alanları içeren reset-job.json içeriği.

Bu örnekte bir .netrc dosyası ve jq kullanılır.

İstek yapısı

Alan Adı Type Açıklama
job_id INT64 Sıfırlanacak görevin standart tanımlayıcısı. Bu alan gereklidir.
new_settings İşAyarları Görevin yeni ayarları. Bu ayarlar tamamen eski ayarların yerini alır.
Etkin çalıştırmalara JobSettings.timeout_seconds alanındaki değişiklikler uygulanır. Diğer alanlarda yapılan değişiklikler yalnızca gelecekteki çalıştırmalarda uygulanır.

Güncelleştirmesi

Uç nokta HTTP Yöntemi
2.0/jobs/update POST

Var olan bir işin belirli ayarlarını ekleyin, değiştirin veya kaldırın. Sıfırla uç noktasını kullanarak tüm iş ayarlarını sıfırlayın.

Örnek

Bu örnek istek, oluşturma örneğinde tanımlanan 1. işe kütüphaneleri kaldırır ve e-posta bildirim ayarları ekler.

curl --netrc --request POST \
https://<databricks-instance>/api/2.0/jobs/update \
--data @update-job.json \
| jq .

update-job.json:

{
  "job_id": 1,
  "new_settings": {
    "existing_cluster_id": "1201-my-cluster",
    "email_notifications": {
      "on_start": ["someone@example.com"],
      "on_success": [],
      "on_failure": []
    }
  },
  "fields_to_remove": ["libraries"]
}

Değiştir:

  • <databricks-instance>Azure Databricks çalışma alanı örneği adını ile, adb-1234567890123456.7.azuredatabricks.net örneğin.
  • Çözümünüz için uygun alanları içeren update-job.json içeriği.

Bu örnekte bir .netrc dosyası ve jq kullanılır.

İstek yapısı

Alan Adı Type Açıklama
job_id INT64 Güncelleştirilecek işin kanonik tanımlayıcısı. Bu alan gereklidir.
new_settings İşAyarları Görevin yeni ayarları.
diziler dışında içinde new_settingsbelirtilen üst düzey alanlar tamamen değiştirilir. Diziler, task_key veya benzeri anahtar alanlara göre birleştirilir.
job_cluster_keyve aynı anahtara sahip dizi girişleri tamamen değiştirilir. Dizi birleştirme dışında, iç içe alanları kısmen güncelleştirme desteklenmez.
Etkin çalıştırmalara JobSettings.timeout_seconds alanındaki değişiklikler uygulanır. Diğer alanlarda yapılan değişiklikler yalnızca gelecekteki çalışmalara uygulanır.
fields_to_remove Bir dizi STRING İş ayarlarında en üst düzey alanları kaldırın. ve tasks dizilerindeki job_clusters girdiler dışında iç içe alanları kaldırma desteklenmez. Örneğin, aşağıda bu alan için uygun bir argüman verilmiştir.
["libraries", "schedule", "tasks/task_1", "job_clusters/Default"]
Bu alan isteğe bağlıdır.

Şimdi çalıştır

Önemli

  • Çalışma alanı 2000 eşzamanlı görev çalıştırması ile sınırlıdır. Hemen başlatılamayan bir çalıştırma istediğinizde 429 Too Many Requests yanıtı döndürülür.
  • Bir iş alanının bir saat içinde oluşturabileceği iş sayısı 10000 ile sınırlıdır (çalıştırmaların gönderilmesini içerir). Bu sınır REST API ve not defteri iş akışları tarafından oluşturulan işleri de etkiler.
  • Çalışma alanı en fazla 12000 kaydedilmiş iş içerebilir.
  • Bir iş en fazla 100 görev içerebilir.
Uç nokta HTTP Yöntemi
2.0/jobs/run-now POST

Şimdi bir iş çalıştırın ve tetiklenen çalıştırmanın run_id değerini döndürün.

İpucu

Eğer Oluştur ve Şimdi çalıştır'ı birlikte çağırırsanız, iş oluşturmak zorunda kalmadan iş yükünüzü doğrudan göndermenizi sağlayan Çalıştırmalar gönderme uç noktasını bunun yerine kullanabilirsiniz.

Örnek

curl --netrc --request POST \
https://<databricks-instance>/api/2.0/jobs/run-now \
--data @run-job.json \
| jq .

run-job.json:

Not defteri işi için örnek istek:

{
  "job_id": 1,
  "notebook_params": {
    "name": "john doe",
    "age": "35"
  }
}

JAR işi için örnek istek:

{
  "job_id": 2,
  "jar_params": ["john doe", "35"]
}

Değiştir:

  • <databricks-instance>Azure Databricks çalışma alanı örneği adını ile, adb-1234567890123456.7.azuredatabricks.net örneğin.
  • Çözümünüz için uygun alanları içeren run-job.json içeriği.

Bu örnekte bir .netrc dosyası ve jq kullanılır.

İstek yapısı

Alan Adı Type Açıklama
job_id INT64
jar_params Bir dizi STRING JAR görevleri olan işler için parametrelerin listesi, örneğin. "jar_params": ["john doe", "35"] Parametreler, Spark JAR görevinde belirtilen ana sınıfın ana işlevini çağırmak için kullanılır. üzerinde run-nowbelirtilmezse, varsayılan olarak boş bir liste olur. jar_params notebook_params ile birlikte belirtilemez. Bu alanın JSON gösterimi (örneğin {"jar_params":["john doe","35"]}) 10.000 baytı aşamaz.
notebook_params ParamPair haritası Not defteri görevi olan işler için anahtarların değerlerle eşlemesi, örneğin.
"notebook_params": {"name": "john doe", "age": "35"}. Harita not defterine geçirilir ve dbutils.widgets.get işlevi aracılığıyla erişilebilir.
üzerinde run-nowbelirtilmezse, tetiklenen çalıştırma işin temel parametrelerini kullanır.
notebook_params'i jar_params ile birlikte belirtemezsiniz.
Bu alanın JSON gösterimi (örn.
{"notebook_params":{"name":"john doe","age":"35"}}) 10.000 baytı aşamaz.
python_params Bir dizi STRING Python görevlerine sahip işler için parametrelerin listesi, örneğin. "python_params": ["john doe", "35"] Parametreler, komut satırı parametreleri olarak Python dosyasına geçirilir. Eğer run-now üzerinde belirtilirse, iş ayarında belirtilen parametrelerin üzerine yazar. Bu alanın JSON gösterimi (örneğin {"python_params":["john doe","35"]}) 10.000 baytı aşamaz.
spark_submit_params Bir dizi STRING Spark gönderme görevi olan işler için parametrelerin listesi, örneğin.
"spark_submit_params": ["--class", "org.apache.spark.examples.SparkPi"]. Parametreler spark-submit betiğine komut satırı parametreleri olarak geçirilir. Eğer run-now üzerinde belirtilirse, iş ayarında belirtilen parametrelerin üzerine yazar. Bu alanın JSON gösterimi 10.000 baytı aşamaz.
idempotency_token STRING İş çalıştırma isteklerinin eşzamanlılığını garanti etmek için isteğe bağlı bir belirteç. Sağlanan belirteçle bir çalıştırma zaten varsa, istek yeni bir çalıştırma oluşturmaz ancak bunun yerine var olan çalıştırmanın kimliğini döndürür. Sağlanan belirteçle bir işlem silinirse bir hata döndürülür.
Idempotency token'ı belirtirseniz, hata durumunda istek başarılı olana kadar yeniden deneyebilirsiniz. Azure Databricks, idempotens belirteciyle tam olarak bir işlemin başlatılacağını garanti eder.
Bu belirtecin en fazla 64 karakteri olmalıdır.
Daha fazla bilgi için bkz İşler için idemponans sağlama yöntemleri.

Yanıt yapısı

Alan Adı Type Açıklama
run_id INT64 Yeni tetiklenen çalıştırmanın küresel olarak benzersiz kimliği.
number_in_job INT64 Bu işin tüm çalışmaları arasında bu çalışmanın sıra numarası.

Gönderme çalıştırmaları

Önemli

  • Çalışma alanı 2000 eşzamanlı görev çalıştırması ile sınırlıdır. Hemen başlatılamayan bir çalıştırma istediğinizde 429 Too Many Requests yanıtı döndürülür.
  • Bir iş alanının bir saat içinde oluşturabileceği iş sayısı 10000 ile sınırlıdır (çalıştırmaların gönderilmesini içerir). Bu sınır REST API ve not defteri iş akışları tarafından oluşturulan işleri de etkiler.
  • Çalışma alanı en fazla 12000 kaydedilmiş iş içerebilir.
  • Bir iş en fazla 100 görev içerebilir.
Uç nokta HTTP Yöntemi
2.0/jobs/runs/submit POST

Tek seferlik çalıştırma gönderin. Bu uç nokta, iş oluşturmadan doğrudan iş yükü göndermenizi sağlar. jobs/runs/get İş gönderildikten sonra çalıştırma durumunu denetlemek için API'yi kullanın.

Örnek

İstek

curl --netrc --request POST \
https://<databricks-instance>/api/2.0/jobs/runs/submit \
--data @submit-job.json \
| jq .

submit-job.json:

{
  "run_name": "my spark task",
  "new_cluster": {
    "spark_version": "7.3.x-scala2.12",
    "node_type_id": "Standard_D3_v2",
    "num_workers": 10
  },
  "libraries": [
    {
      "jar": "dbfs:/my-jar.jar"
    },
    {
      "maven": {
        "coordinates": "org.jsoup:jsoup:1.7.2"
      }
    }
  ],
  "spark_jar_task": {
    "main_class_name": "com.databricks.ComputeModels"
  }
}

Değiştir:

  • <databricks-instance>Azure Databricks çalışma alanı örneği adını ile, adb-1234567890123456.7.azuredatabricks.net örneğin.
  • Çözümünüz için uygun alanları içeren submit-job.json içeriği.

Bu örnekte bir .netrc dosyası ve jq kullanılır.

Yanıt

{
  "run_id": 123
}

İstek yapısı

Önemli

  • Yeni bir işler kümesinde bir iş çalıştırdığınızda, bu iş, Jobs Compute fiyatlandırmasına tabi bir otomatik iş yükü olarak değerlendirilir.
  • Var olan bir çok amaçlı kümede bir iş çalıştırdığınızda, bu iş, Tüm Amaçlı İşlem fiyatlandırmasına tabi olan Bir Çok Amaçlı İşlem (etkileşimli) iş yükü olarak değerlendirilir.
Alan Adı Type Açıklama
existing_cluster_id VEYA new_cluster STRING OR NewCluster Eğer existing_cluster_id varsa, bu işin tüm çalıştırmaları için kullanılacak mevcut kümenin kimliği. Mevcut bir kümede işleri çalıştırırken yanıt vermeyi durdurursa kümeyi el ile yeniden başlatmanız gerekebilir. Daha fazla güvenilirlik için yeni kümelerde iş çalıştırmanızı öneririz.
yeni_küme, her bir çalıştırma için oluşturulacak bir kümenin açıklaması.
PipelineTask belirtilmesi durumunda bu alan boş olabilir.
notebook_taskVEYA VEYA spark_jar_task
spark_python_taskVEYA VEYA spark_submit_task
pipeline_task VEYA run_job_task
NotebookTask VEYA SparkJarTask VEYA SparkPythonTask VEYA SparkSubmitTask VEYA PipelineTask VEYA RunJobTask notebook_task, bu işin bir not defteri çalıştırması gerektiğini gösterir. Bu alan spark_jar_task ile birlikte belirtilmeyebilir.
spark_jar_task, bu görevin bir JAR çalıştırması gerektiğini gösterir.
spark_python_task, bu işin bir Python dosyası çalıştırması gerektiğini gösterir.
spark_submit_task, bu işin Spark gönderme betiği tarafından başlatılması gerektiğini gösterir.
pipeline_task, bu işin bir DLT işlem hattı çalıştırması gerektiğini gösterir.
run_job_task işlevi, bu işin başka bir işi çalıştırması gerektiğini gösterir.
run_name STRING Çalışma için isteğe bağlı bir ad. Varsayılan değer şudur: Untitled.
webhook_notifications Webhook Bildirimleri Çalıştırmaları başladığında, tamamlandığında veya başarısız olduğunda bildirimde bulunmak için isteğe bağlı bir sistem varış noktaları kümesi.
notification_settings İşBildirimAyarları Bu çalıştırma için webhook_notifications 'lerden her birine bildirim gönderirken kullanılan isteğe bağlı bildirim ayarları.
libraries Bir kitaplık dizisi İşi yürütecek kümeye yüklenecek kitaplıkların isteğe bağlı listesi. Varsayılan değer boş bir listedir.
timeout_seconds INT32 Her çalıştırmada bu işe isteğe bağlı bir zaman aşımı uygulanır. Varsayılan davranış, zaman aşımı olmamasıdır.
idempotency_token STRING İş çalıştırma isteklerinin eşzamanlılığını garanti etmek için isteğe bağlı bir belirteç. Sağlanan belirteçle bir çalıştırma zaten varsa, istek yeni bir çalıştırma oluşturmaz ancak bunun yerine var olan çalıştırmanın kimliğini döndürür. Sağlanan jetonla bir işlem silinirse, bir hata mesajı döndürülecektir.
Idempotency token'ı belirtirseniz, hata durumunda istek başarılı olana kadar yeniden deneyebilirsiniz. Azure Databricks, idempotens belirteciyle tam olarak bir işlemin başlatılacağını garanti eder.
Bu belirtecin en fazla 64 karakteri olmalıdır.
Daha fazla bilgi için bkz İşler için idemponans sağlama yöntemleri.

Yanıt yapısı

Alan Adı Type Açıklama
run_id INT64 Yeni gönderilen çalıştırmanın kurallı tanımlayıcısı.

Koşular listesi

Uç nokta HTTP Yöntemi
2.0/jobs/runs/list GET

Liste, başlangıç zamanına göre azalan sırada çalışır.

Not

Çalıştırmalar 60 gün sonra otomatik olarak kaldırılır. Onları 60 günden fazla referans almak istiyorsanız, süresi dolmadan önce eski çalışma sonuçlarını kaydetmeniz gerekir. Kullanıcı arabirimini kullanarak dışarı aktarmak için bkz İş çalıştırma sonuçlarını dışarı aktarma. İş API'sini kullanarak dışa aktarma yapmak için bkz İhracat çalışmaları.

Örnek

İstek

curl --netrc --request GET \
'https://<databricks-instance>/api/2.0/jobs/runs/list?job_id=<job-id>&active_only=<true-false>&offset=<offset>&limit=<limit>&run_type=<run-type>' \
| jq .

Veya:

curl --netrc --get \
https://<databricks-instance>/api/2.0/jobs/runs/list \
--data 'job_id=<job-id>&active_only=<true-false>&offset=<offset>&limit=<limit>&run_type=<run-type>' \
| jq .

Değiştir:

  • <databricks-instance>Azure Databricks çalışma alanı örneği adını ile, adb-1234567890123456.7.azuredatabricks.net örneğin.
  • <job-id> işin kimliğiyle birlikte, örneğin 123.
  • "<true-false> ile true veya false"
  • <offset> değeri ile offset.
  • <limit> değeri ile limit.
  • <run-type> değeri ile run_type.

Bu örnekte bir .netrc dosyası ve jq kullanılır.

Yanıt

{
  "runs": [
    {
      "job_id": 1,
      "run_id": 452,
      "number_in_job": 5,
      "state": {
        "life_cycle_state": "RUNNING",
        "state_message": "Performing action"
      },
      "task": {
        "notebook_task": {
          "notebook_path": "/Users/donald@duck.com/my-notebook"
        }
      },
      "cluster_spec": {
        "existing_cluster_id": "1201-my-cluster"
      },
      "cluster_instance": {
        "cluster_id": "1201-my-cluster",
        "spark_context_id": "1102398-spark-context-id"
      },
      "overriding_parameters": {
        "jar_params": ["param1", "param2"]
      },
      "start_time": 1457570074236,
      "end_time": 1457570075149,
      "setup_duration": 259754,
      "execution_duration": 3589020,
      "cleanup_duration": 31038,
      "run_duration": 3879812,
      "trigger": "PERIODIC"
    }
  ],
  "has_more": true
}

İstek yapısı

Alan Adı Type Açıklama
active_only VEYA completed_only BOOL VEYA BOOL active_only ise truesonuçlara yalnızca etkin çalıştırmalar eklenir; aksi takdirde hem etkin hem de tamamlanmış çalıştırmalar listelenir. Etkin çalıştırma, PENDING, RUNNING veya TERMINATINGRunLifecycleState içindeki bir çalıştırmadır. true alanı, completed_only true olduğunda bu şekilde olamaz.
completed_only ise truesonuçlara yalnızca tamamlanmış çalıştırmalar eklenir; aksi takdirde hem etkin hem de tamamlanmış çalıştırmalar listelenir. active_only true iken bu alan true olamaz.
job_id INT64 Çalıştırılmak üzere listelenecek iş. Eğer belirtilmezse, İşler hizmeti tüm işlerden çalıştırmaların listesini verir.
offset INT32 Döndürülecek ilk çalıştırmanın en son çalıştırmaya göre uzaklığı.
limit INT32 Döndürülecek koşu sayısı. Bu değer 0'dan büyük ve 1000'den küçük olmalıdır. Varsayılan değer 20'dir. İstek 0 sınırı belirtirse, hizmet bunun yerine üst sınırı kullanır.
run_type STRING Döndürülecek çalışma türü. Çalıştırma türlerinin açıklaması hakkında daha fazla bilgi için Çalıştırma bölümüne bakın.

Yanıt yapısı

Alan Adı Type Açıklama
runs Bir Çalıştır dizisi En son başlatılandan en erken başlatılana kadar sıralanmış çalıştırmaların listesi.
has_more BOOL Eğer doğruysa, sağlanan filtreyle eşleşen ek çalıştırmalar listelemeye sunulabilir.

Skorları al

Uç nokta HTTP Yöntemi
2.0/jobs/runs/get GET

Bir çalıştırmanın meta verilerini al.

Not

Çalıştırmalar 60 gün sonra otomatik olarak kaldırılır. Onları 60 günden fazla referans almak istiyorsanız, süresi dolmadan önce eski çalışma sonuçlarını kaydetmeniz gerekir. Kullanıcı arabirimini kullanarak dışarı aktarmak için bkz İş çalıştırma sonuçlarını dışarı aktarma. İş API'sini kullanarak dışa aktarma yapmak için bkz İhracat çalışmaları.

Örnek

İstek

curl --netrc --request GET \
'https://<databricks-instance>/api/2.0/jobs/runs/get?run_id=<run-id>' \
| jq .

Veya:

curl --netrc --get \
https://<databricks-instance>/api/2.0/jobs/runs/get \
--data run_id=<run-id> \
| jq .

Değiştir:

  • <databricks-instance>Azure Databricks çalışma alanı örneği adını ile, adb-1234567890123456.7.azuredatabricks.net örneğin.
  • <run-id> çalıştırma kimliğiyle, örneğin 123.

Bu örnekte bir .netrc dosyası ve jq kullanılır.

Yanıt

{
  "job_id": 1,
  "run_id": 452,
  "number_in_job": 5,
  "state": {
    "life_cycle_state": "RUNNING",
    "state_message": "Performing action"
  },
  "task": {
    "notebook_task": {
      "notebook_path": "/Users/someone@example.com/my-notebook"
    }
  },
  "cluster_spec": {
    "existing_cluster_id": "1201-my-cluster"
  },
  "cluster_instance": {
    "cluster_id": "1201-my-cluster",
    "spark_context_id": "1102398-spark-context-id"
  },
  "overriding_parameters": {
    "jar_params": ["param1", "param2"]
  },
  "start_time": 1457570074236,
  "end_time": 1457570075149,
  "setup_duration": 259754,
  "execution_duration": 3589020,
  "cleanup_duration": 31038,
  "run_duration": 3879812,
  "trigger": "PERIODIC"
}

İstek yapısı

Alan Adı Type Açıklama
run_id INT64 Meta verileri almak için çalıştırmanın özgün tanımlayıcısı. Bu alan gereklidir.

Yanıt yapısı

Alan Adı Type Açıklama
job_id INT64 Bu çalıştırmayı içeren işin standart tanımlayıcısı.
run_id INT64 Çalıştırmanın kurallı tanımlayıcısı. Bu kimlik, tüm görevlerin tüm çalıştırma döngüleri arasında benzersizdir.
number_in_job INT64 Bu işin tüm çalışmaları arasında bu çalışmanın sıra numarası. Bu değer 1'de başlar.
original_attempt_run_id INT64 Eğer bu çalıştırma, önceki bir çalıştırma denemesinin yeniden denemesiyse, bu alan ilk denemenin run_id'sini içerir; aksi halde, run_id aynıdır.
state RunState Koşunun sonucu ve yaşam döngüsü durumları.
schedule CronSchedule Düzenli zamanlayıcı tarafından tetiklendiyse bu çalıştırmayı tetikleyen cron zamanlaması.
task jobtask Varsa, çalıştırmanın gerçekleştirdiği görev.
cluster_spec ClusterSpec Bu çalışma oluşturulduğunda işin küme yapılandırmasının anlık görüntüsü.
cluster_instance ClusterInstance Çalıştırma için kullanılan küme bu. Çalıştırmanın yeni bir küme ile çalışması belirtilmişse, İşler hizmeti çalıştırma için bir küme talep edildikten sonra bu alan ayarlanacaktır.
overriding_parameters RunParameters Bu işlem için kullanılan parametreler.
start_time INT64 Bu çalıştırmanın dönem milisaniye cinsinden başlatıldığı saat (1/1/1970 UTC'den bu yana milisaniye). Bu, iş görevinin yürütülmeye başladığı zaman olmayabilir; örneğin, iş, yeni bir kümeye çalışacak şekilde ayarlanmışsa, bu, küme oluşturma çağrısının yapıldığı zamandır.
end_time INT64 Bu çalıştırmanın epok milisaniyesi cinsinden sona erdiği saat (1/1/1970 UTC'den bu yana geçen milisaniye). İş çalışmaya devam ediyorsa bu alan 0 olarak ayarlanır.
setup_duration INT64 Kümeyi ayarlamak için geçen milisaniye cinsinden süre. Yeni kümelerde çalışan çalıştırmalar için bu, küme oluşturma zamanıdır; mevcut kümelerde çalışanlar için bu süre çok kısa olmalıdır. Çalıştırmanın toplam süresi, setup_duration toplamıdır.
execution_duration ve cleanup_duration. setup_duration alanı, çoklu görev çalıştırmaları için 0 olarak ayarlanmıştır. Birden çok görevli bir iş çalıştırmasının toplam süresi, bu çalıştırmanın süresinin değeridir.
run_duration alanı.
execution_duration INT64 Komutların JAR veya not defterinde yürütülmesi, tamamlanana, başarısız olana, zaman aşımına uğrayana, iptal edilene veya beklenmeyen bir hatayla karşılaşana kadar geçen süre milisaniye cinsindendir. Çalıştırmanın toplam süresi, setup_duration, execution_duration ve toplamıdır.
cleanup_duration. execution_duration alanı, çoklu görev çalıştırmaları için 0 olarak ayarlanmıştır. Bir çoklu görevli iş çalıştırmasının toplam süresi run_duration alanının değeridir.
cleanup_duration INT64 Kümeyi sonlandırmak ve ilişkili kalıntıları temizlemek için geçen süre milisaniye cinsinden ne kadar sürdü. Çalıştırmanın toplam süresi, setup_duration, execution_duration ve cleanup_duration'nin toplamıdır. cleanup_duration alanı, çoklu görev çalıştırmaları için 0 olarak ayarlanmıştır. Bir çoklu görevli iş çalıştırmasının toplam süresi run_duration alanının değeridir.
run_duration INT64 İşin çalışması ve tüm onarımlarının tamamlanması için geçen süre, milisaniye cinsinden ölçülür. Bu alan yalnızca çok görevli işler için ayarlanır, tek görevli işler için ayarlanmaz. Görev çalıştırmasının süresi, toplamıdır.
setup_duration, execution_duration ve cleanup_duration.
trigger TriggerType Bu çalıştırmayı başlatan tetik türü.
creator_user_name STRING Oluşturucu kullanıcı adı. Kullanıcı silinmişse bu alan yanıta dahil edilmeyecektir
run_page_url STRING Çalışmanın ayrıntı sayfasının URL'si.

Dışarı aktarmayı çalıştırır

Uç nokta HTTP Yöntemi
2.0/jobs/runs/export GET

İş yürütme görevini dışa aktarın ve geri yükleyin.

Not

Yalnızca not defteri çalıştırmaları HTML biçiminde dışarı aktarılabilir. Diğer türlerdeki çalıştırmaları dışarı aktarma girişimleri başarısız olacaktır.

Örnek

İstek

curl --netrc --request GET \
'https://<databricks-instance>/api/2.0/jobs/runs/export?run_id=<run-id>' \
| jq .

Veya:

curl --netrc --get \
https://<databricks-instance>/api/2.0/jobs/runs/export \
--data run_id=<run-id> \
| jq .

Değiştir:

  • <databricks-instance>Azure Databricks çalışma alanı örneği adını ile, adb-1234567890123456.7.azuredatabricks.net örneğin.
  • <run-id> çalıştırma kimliğiyle, örneğin 123.

Bu örnekte bir .netrc dosyası ve jq kullanılır.

Yanıt

{
  "views": [
    {
      "content": "<!DOCTYPE html><html><head>Head</head><body>Body</body></html>",
      "name": "my-notebook",
      "type": "NOTEBOOK"
    }
  ]
}

JSON yanıtından HTML not defterini ayıklamak için bu Python betiğini indirip çalıştırın.

Not

__DATABRICKS_NOTEBOOK_MODEL nesnesindeki not defteri gövdesi kodlanmış.

İstek yapısı

Alan Adı Type Açıklama
run_id INT64 Çalıştırmanın kurallı tanımlayıcısı. Bu alan gereklidir.
views_to_export Dışa Aktarılacak Görünümler Hangi görünümler dışarı aktarılacak (KOD, PANOLAR veya TÜMÜ). Varsayılan olarak CODE şeklinde ayarlanır.

Yanıt yapısı

Alan Adı Type Açıklama
views ViewItem dizisi Dışarı aktarılan içerik HTML biçimindedir (her görünüm öğesi için bir tane).

Çalıştırmalar iptal olur

Uç nokta HTTP Yöntemi
2.0/jobs/runs/cancel POST

Bir iş çalışmasını iptal et. Çalıştırma zaman uyumsuz olarak iptal edildiğinden, bu istek tamamlandığında çalıştırma hala devam ediyor olabilir. Çalıştırma kısa süre sonra sonlandırılacaktır. Çalıştırma zaten bir terminaldeyse life_cycle_state, bu yöntem etkisizdir.

Bu uç nokta, parametrenin run_id geçerli olduğunu doğrular ve geçersiz parametreler için HTTP durum kodu 400 döndürür.

Örnek

curl --netrc --request POST \
https://<databricks-instance>/api/2.0/jobs/runs/cancel \
--data '{ "run_id": <run-id> }'

Değiştir:

  • <databricks-instance>Azure Databricks çalışma alanı örneği adını ile, adb-1234567890123456.7.azuredatabricks.net örneğin.
  • <run-id> çalıştırma kimliğiyle, örneğin 123.

Bu örnekte bir .netrc dosyası kullanılır.

İstek yapısı

Alan Adı Type Açıklama
run_id INT64 İptal edilecek işlemin standart tanımlayıcısı. Bu alan gereklidir.

Çalıştırmalar hepsini iptal eder

Uç nokta HTTP Yöntemi
2.0/jobs/runs/cancel-all POST

İşin tüm etkin çalıştırmalarını iptal edin. İşletim eşzamansız olarak iptal edildiğinden, yeni işletimlerin başlatılmasını engellemez.

Bu uç nokta, parametrenin job_id geçerli olduğunu doğrular ve geçersiz parametreler için HTTP durum kodu 400 döndürür.

Örnek

curl --netrc --request POST \
https://<databricks-instance>/api/2.0/jobs/runs/cancel-all \
--data '{ "job_id": <job-id> }'

Değiştir:

  • <databricks-instance>Azure Databricks çalışma alanı örneği adını ile, adb-1234567890123456.7.azuredatabricks.net örneğin.
  • <job-id> işin kimliğiyle birlikte, örneğin 123.

Bu örnekte bir .netrc dosyası kullanılır.

İstek yapısı

Alan Adı Type Açıklama
job_id INT64 Tüm çalıştırmalarını iptal etmek üzere işin standart tanımlayıcısı. Bu alan gereklidir.

Çalışmalar çıktı verir

Uç nokta HTTP Yöntemi
2.0/jobs/runs/get-output GET

Tek bir görev çalıştırmasının çıktısını ve meta verilerini alın. Bir not defteri görevi dbutils.notebook.exit() çağrısı aracılığıyla bir değer döndürdüğünde, bu değeri almak için bu uç noktayı kullanabilirsiniz. Azure Databricks bu API'yi çıkışın ilk 5 MB'ını döndürecek şekilde kısıtlar. Daha büyük bir sonuç döndürmek için iş sonuçlarını bir bulut depolama hizmetinde depolayabilirsiniz.

Bu uç nokta, parametrenin run_id geçerli olduğunu doğrular ve geçersiz parametreler için HTTP durum kodu 400 döndürür.

Çalıştırmalar 60 gün sonra otomatik olarak kaldırılır. Onları 60 günden fazla referans almak istiyorsanız, süresi dolmadan önce eski çalışma sonuçlarını kaydetmeniz gerekir. Kullanıcı arabirimini kullanarak dışarı aktarmak için bkz İş çalıştırma sonuçlarını dışarı aktarma. İş API'sini kullanarak dışa aktarma yapmak için bkz İhracat çalışmaları.

Örnek

İstek

curl --netrc --request GET \
'https://<databricks-instance>/api/2.0/jobs/runs/get-output?run_id=<run-id>' \
| jq .

Veya:

curl --netrc --get \
https://<databricks-instance>/api/2.0/jobs/runs/get-output \
--data run_id=<run-id> \
| jq .

Değiştir:

  • <databricks-instance>Azure Databricks çalışma alanı örneği adını ile, adb-1234567890123456.7.azuredatabricks.net örneğin.
  • <run-id> çalıştırma kimliğiyle, örneğin 123.

Bu örnekte bir .netrc dosyası ve jq kullanılır.

Yanıt

{
  "metadata": {
    "job_id": 1,
    "run_id": 452,
    "number_in_job": 5,
    "state": {
      "life_cycle_state": "TERMINATED",
      "result_state": "SUCCESS",
      "state_message": ""
    },
    "task": {
      "notebook_task": {
        "notebook_path": "/Users/someone@example.com/my-notebook"
      }
    },
    "cluster_spec": {
      "existing_cluster_id": "1201-my-cluster"
    },
    "cluster_instance": {
      "cluster_id": "1201-my-cluster",
      "spark_context_id": "1102398-spark-context-id"
    },
    "overriding_parameters": {
      "jar_params": ["param1", "param2"]
    },
    "start_time": 1457570074236,
    "setup_duration": 259754,
    "execution_duration": 3589020,
    "cleanup_duration": 31038,
    "run_duration": 3879812,
    "trigger": "PERIODIC"
  },
  "notebook_output": {
    "result": "the maybe truncated string passed to dbutils.notebook.exit()"
  }
}

İstek yapısı

Alan Adı Type Açıklama
run_id INT64 Çalıştırmanın kurallı tanımlayıcısı. Birden fazla görevi olan bir iş için bu, bir görevin yürütülme örneğidir run_id. Bkz . Çalıştırmalar çıktıyı alır. Bu alan gereklidir.

Yanıt yapısı

Alan Adı Type Açıklama
notebook_output VEYA error NotebookOutput OR STRING Eğer notebook_output varsa, not defteri görevinin çıktısı (mevcutsa). Çağrılmadan başarılı veya hatalı bir şekilde sonlanan bir not defteri görevi
dbutils.notebook.exit() boş bir çıkışa sahip olduğu kabul edilir. Bu alan ayarlanır, ancak sonuç değeri boş olur.
Hata oluşursa, çıktının neden mevcut olmadığını belirten bir hata iletisi. İleti yapılandırılmamış ve tam biçimi değiştirilebilir.
metadata Çalıştır Çıktısı hariç, çalıştırma işleminin tüm ayrıntıları.

Silme işlemini başlatır

Uç nokta HTTP Yöntemi
2.0/jobs/runs/delete POST

Etkin olmayan bir işlemi silin. Çalışma aktifse bir hata döndürür.

Örnek

curl --netrc --request POST \
https://<databricks-instance>/api/2.0/jobs/runs/delete \
--data '{ "run_id": <run-id> }'

Değiştir:

  • <databricks-instance>Azure Databricks çalışma alanı örneği adını ile, adb-1234567890123456.7.azuredatabricks.net örneğin.
  • <run-id> çalıştırma kimliğiyle, örneğin 123.

Bu örnekte bir .netrc dosyası kullanılır.

İstek yapısı

Alan Adı Tip Açıklama
run_id INT64 Meta verileri almak için çalıştırmanın özgün tanımlayıcısı.

Veri yapıları

Bu bölümde:

ABFSSStorageInfo

Azure Data Lake Storage (ADLS) depolama bilgileri.

Alan Adı Type Açıklama
destination STRING Dosya hedefi. Örnek: abfss://...

Otomatik Ölçeklendirme

Küme çalışanlarının en az ve en fazla sayısını tanımlayan aralık.

Alan Adı Type Açıklama
min_workers INT32 Az kullanıldığında kümenin küçülebileceği en az çalışan sayısı. Ayrıca, kümenin oluşturulduktan sonra sahip olacağı ilk çalışan sayısıdır.
max_workers INT32 Kümenin aşırı yüklendiğinde ölçeklenebileceği maksimum işçi sayısı. max_workers, min_workers'dan kesinlikle büyük olmalıdır.

AzureAttributes

Azure ile ilgili küme oluşturma sırasında ayarlanan öznitelikler.

Alan Adı Type Açıklama
first_on_demand INT32 Kümenin ilk first_on_demand düğümleri isteğe bağlı örneklere yerleştirilir. Bu değer 0'dan büyük olmalıdır, aksi halde küme oluşturma doğrulaması başarısız olur. Bu değer geçerli küme boyutundan büyük veya buna eşitse, tüm düğümler isteğe bağlı örneklere yerleştirilir. Bu değer geçerli küme boyutundan küçükse düğümler first_on_demand isteğe bağlı örneklere, kalanlar ise kullanılabilirlik örneklerine yerleştirilir. Bu değer küme boyutunu etkilemez ve kümenin ömrü boyunca değiştirilemez.
availability AzureAvailability first_on_demand düğümlerinden sonraki tüm düğümler için kullanılan kullanılabilirlik türü.
spot_bid_max_price DOUBLE Azure spot örnekleri için kullanılan maksimum teklif fiyatı. Bunu geçerli spot fiyattan büyük veya buna eşit olarak ayarlayabilirsiniz. Ayrıca, -1 (varsayılan) olarak da ayarlayabilirsiniz; bu, örneğin fiyat temelinde kaldırılamayacağını belirtir. Örneğin fiyatı, spot örneklerin geçerli fiyatı veya standart bir örneğin fiyatı olacaktır. Azure portalında geçmiş fiyatlandırma ve çıkarma oranlarını görüntüleyebilirsiniz.

AzureErişilebilirlik

Azure örneği kullanılabilirlik türü davranışı.

Type Açıklama
SPOT_AZURE Spot örnekleri kullanın.
ON_DEMAND_AZURE İsteğe bağlı örnekleri kullanın.
SPOT_WITH_FALLBACK_AZURE Tercihen spot örnekleri kullanın, ancak spot örnekler alınamazsa (örneğin, Azure spot fiyatları çok yüksekse veya kota dışındaysa) isteğe bağlı örneklere geri dönün. Havuz kullanılabilirliği için geçerli değildir.

ClusterInstance

Bir çalıştırma tarafından kullanılan küme ve Spark bağlamı için tanımlayıcılar. Bu iki değer birlikte tüm zaman boyunca bir yürütme bağlamı tanımlar.

Alan Adı Type Açıklama
cluster_id STRING Çalıştırmada kullanılan kümenin kurallı tanımlayıcısı. Bu alan, mevcut kümelerdeki çalıştırmalar için her zaman kullanılabilir. Yeni kümelerdeki çalıştırmalar için, küme oluşturulduktan sonra kullanılabilir duruma gelir. Bu değer, /#setting/sparkui/$cluster_id/driver-logs adresine göz atarak günlükleri görüntülemek için kullanılabilir. Çalıştırma tamamlandıktan sonra günlükler erişilebilir kalacak.
Tanımlayıcı henüz kullanılamıyorsa yanıt bu alanı içermez.
spark_context_id STRING Çalıştırma tarafından kullanılan Spark bağlamı için kurallı tanımlayıcı. Çalıştırma başladıktan sonra bu alan doldurulacaktır. Bu değer, /#setting/sparkui/$cluster_id/$spark_context_id adresine göz atıp Spark kullanıcı arabirimini görüntülemek için kullanılabilir. Spark kullanıcı arabirimi, çalıştırma tamamlandıktan sonra kullanılabilir olmaya devam edecektir.
Tanımlayıcı henüz kullanılamıyorsa yanıt bu alanı içermez.

ClusterLogConf

Küme günlük kaydının yolu.

Alan Adı Type Açıklama
dbfs Küme günlüğünün DBFS konumu. Hedef belirtilmelidir. Örneğin { "dbfs" : { "destination" : "dbfs:/home/cluster_log" } }

ClusterSpec

Önemli

  • Yeni bir işler kümesinde bir iş çalıştırdığınızda, bu iş, Jobs Compute fiyatlandırmasına tabi bir otomatik iş yükü olarak değerlendirilir.
  • Var olan bir çok amaçlı kümede bir iş çalıştırdığınızda, bu iş, Tüm Amaçlı İşlem fiyatlandırmasına tabi olan Bir Çok Amaçlı İşlem (etkileşimli) iş yükü olarak değerlendirilir.
Alan Adı Type Açıklama
existing_cluster_id VEYA new_cluster STRING OR NewCluster Eğer existing_cluster_id varsa, bu işin tüm çalıştırmaları için kullanılacak mevcut kümenin kimliği. Mevcut bir kümede işleri çalıştırırken yanıt vermeyi durdurursa kümeyi el ile yeniden başlatmanız gerekebilir. Daha fazla güvenilirlik için yeni kümelerde iş çalıştırmanızı öneririz.
yeni_küme, her bir çalıştırma için oluşturulacak bir kümenin açıklaması.
PipelineTask belirtilmesi durumunda bu alan boş olabilir.
libraries Bir kitaplık dizisi İşi yürütecek kümeye yüklenecek kitaplıkların isteğe bağlı listesi. Varsayılan değer boş bir listedir.

ClusterTag

Küme etiketi tanımı.

Type Açıklama
STRING Etiketin anahtarı. Anahtar şunları yapmalıdır:
  • 1 ile 512 karakter uzunluğunda olmalıdır
  • <>%*&+?\\/ karakterlerden hiçbirini içermez
  • azure, microsoftveya windows ile başlamayın
STRING Etiketin değeri. Değer uzunluğu 256 UTF-8 karakterden küçük veya buna eşit olmalıdır.

Cron Takvimi

Alan Adı Type Açıklama
quartz_cron_expression STRING Bir işin zamanlamasını açıklayan Quartz söz dizimini kullanan cron ifadesi. Ayrıntılar için bkz . Cron Tetikleyicisi . Bu alan gereklidir.
timezone_id STRING Java saat dilimi kimliği. Bir işin zamanlaması bu saat dilimine göre çözümlenecektir. Ayrıntılar için bkz . Java TimeZone . Bu alan gereklidir.
pause_status STRING Bu zamanlamanın duraklatılıp duraklatılmadığını belirtin. "DURAKLATILDI" veya "KULLANILAMADI".

DbfsStorageInfo

DBFS depolama bilgileri.

Alan Adı Type Açıklama
destination STRING DBFS hedefi. Örnek: dbfs:/my/path

DosyaDepolamaBilgisi

Dosya depolama bilgileri.

Not

Bu konum türü yalnızca Databricks Container Services kullanılarak ayarlanan kümeler için kullanılabilir.

Alan Adı Type Açıklama
destination STRING Dosya hedefi. Örnek: file:/my/file.sh

InitScriptInfo

Bir başlatma betiğinin yolu.

Databricks Container Services ile init betiklerini kullanma yönergeleri için bkz Init betiği kullanma.

Not

Dosya depolama türü (alan adı: file) yalnızca Databricks Container Services kullanılarak ayarlanan kümeler için kullanılabilir. Bkz. FileStorageInfo.

Alan Adı Type Açıklama
workspace VEYA dbfs (kullanım dışı)
VEYA abfss
WorkspaceStorageInfo
DbfsStorageInfo (kullanım dışı)
ABFSSStorageInfo
init betiğinin çalışma alanı konumu. Hedef belirtilmelidir. Örneğin,
{ "workspace" : { "destination" : "/Users/someone@domain.com/init_script.sh" } }
(Kullanım dışı) Init betiğinin DBFS konumu. Hedef belirtilmelidir. Örneğin,
{ "dbfs" : { "destination" : "dbfs:/home/init_script" } }
Init betiğinin Azure Data Lake Storage (ADLS) konumu. Hedef belirtilmelidir. Örneğin { "abfss": { "destination" : "abfss://..." } }

İş

Alan Adı Type Açıklama
job_id INT64 Bu görevin standart tanımlayıcısı.
creator_user_name STRING Oluşturucu kullanıcı adı. Kullanıcı zaten silinmişse bu alan yanıta dahil edilmeyecektir.
run_as STRING Görevin çalıştırılacağı kullanıcı adı. run_as mevcut iş ayarlarına dayanır ve iş erişim denetimi devre dışı bırakıldığında işin oluşturucusuna, iş erişim denetimi etkinleştirildiğinde ise is_owner iznine ayarlanır.
settings İşAyarları Bu işin ayarları ve tüm işlemeleri. Bu ayarlar yöntemi kullanılarak resetJob güncelleştirilebilir.
created_time INT64 Bu işin dönem milisaniye cinsinden oluşturulduğu saat (1/1/1970 UTC'den bu yana milisaniye).

İş E-posta Bildirimleri

Önemli

on_start, on_success ve on_failure alanları yalnızca Latin karakterleri (ASCII karakter kümesi) kabul edecektir. ASCII olmayan karakterler kullanıldığında hata döndürülecektir. Geçersiz, ASCII olmayan karakterlere örnek olarak Çince, Japonca kanjiler ve emojiler verilebilir.

Alan Adı Type Açıklama
on_start Bir dizi STRING Çalıştırma başladığında bildirilecek e-posta adreslerinin listesi. İş oluşturma, sıfırlama veya güncelleştirme sırasında belirtilmezse liste boş olur ve bildirimler gönderilmez.
on_success Bir dizi STRING Bir çalıştırma başarıyla tamamlandığında bildirilecek e-posta adreslerinin listesi. Bir çalıştırma, TERMINATEDlife_cycle_state ve SUCCESSFULresult_state ile sona eriyorsa başarıyla tamamlanmış kabul edilir. İş oluşturma, sıfırlama veya güncelleştirme sırasında belirtilmezse liste boş olur ve bildirimler gönderilmez.
on_failure Bir dizi STRING Bir çalıştırma başarısız tamamlandığında bildirim gönderilecek e-posta adreslerinin listesi. Bir çalıştırma, INTERNAL_ERROR ile biterse başarısız tamamlanmış olarak kabul edilir.
life_cycle_state veya bir SKIPPED, FAILED veya TIMED_OUT sonuç_durumu. İş oluşturma, sıfırlama veya güncelleştirme sırasında bu belirtilmezse liste boş olur ve bildirimler gönderilmez.
on_duration_warning_threshold_exceeded Bir dizi STRING Süre, RUN_DURATION_SECONDS alanındaki health metriği için belirtilen eşiği aştığında bildirim almak üzere e-posta gönderilecek adreslerin bir listesi. İş için RUN_DURATION_SECONDS alanında health metriğiyle ilgili bir kural belirtilmezse, bildirimler gönderilmez.
no_alert_for_skipped_runs BOOL Eğer doğruysa ve çalıştırma atlanırsa, on_failure içinde belirtilen alıcılara e-posta göndermeyin.
Alan Adı Type Açıklama
on_start Bir Webhook dizisi Çalıştırma başladığında bildirilecek sistem hedeflerinin isteğe bağlı listesi. İş oluşturma, sıfırlama veya güncelleştirme sırasında belirtilmezse liste boş olur ve bildirimler gönderilmez. Özellik için on_start en fazla 3 hedef belirtilebilir.
on_success Bir Webhook dizisi Bir çalıştırma başarıyla tamamlandığında bildirilecek isteğe bağlı sistem hedeflerinin listesi. Bir çalıştırma, TERMINATEDlife_cycle_state ve SUCCESSFULresult_state ile sona eriyorsa başarıyla tamamlanmış kabul edilir. İş oluşturma, sıfırlama veya güncelleştirme sırasında belirtilmezse liste boş olur ve bildirimler gönderilmez. Özellik için on_success en fazla 3 hedef belirtilebilir.
on_failure Bir Webhook dizisi Bir çalıştırma başarısız olduğunda bildirilecek isteğe bağlı sistem hedeflerinin listesi. Bir çalıştırma, INTERNAL_ERROR ile biterse başarısız tamamlanmış olarak kabul edilir.
life_cycle_state veya bir SKIPPED, FAILED veya TIMED_OUT sonuç_durumu. İş oluşturma, sıfırlama veya güncelleştirme sırasında bu belirtilmezse liste boş olur ve bildirimler gönderilmez. Özellik için on_failure en fazla 3 hedef belirtilebilir.
on_duration_warning_threshold_exceeded Bir Webhook dizisi Çalıştırmanın süresi, RUN_DURATION_SECONDS metriği için health alanında belirtilen eşiği aştığında bildirimde bulunulacak isteğe bağlı sistem hedeflerinin bir listesi. Özellik için on_duration_warning_threshold_exceeded en fazla 3 hedef belirtilebilir.

İş Bildirim Ayarları

Alan Adı Type Açıklama
no_alert_for_skipped_runs BOOL Eğer doğruysa, çalıştırma atlanırsa on_failure içinde belirtilen alıcılara bildirim göndermeyin.
no_alert_for_canceled_runs BOOL True ise, çalıştırma iptal edilirse içinde on_failure belirtilen alıcılara bildirim göndermeyin.
alert_on_last_attempt BOOL True ise, yeniden denenen çalıştırmalar için içinde on_start belirtilen alıcılara bildirim göndermeyin ve çalıştırmanın son yeniden denemesine kadar içinde on_failure belirtilen alıcılara bildirim göndermeyin.

İşAyarları

Önemli

  • Yeni bir işler kümesinde bir iş çalıştırdığınızda, bu iş, Jobs Compute fiyatlandırmasına tabi bir otomatik iş yükü olarak değerlendirilir.
  • Var olan bir çok amaçlı kümede bir iş çalıştırdığınızda, bu iş, Tüm Amaçlı İşlem fiyatlandırmasına tabi olan Bir Çok Amaçlı İşlem (etkileşimli) iş yükü olarak değerlendirilir.

Bir işin ayarları. Bu ayarlar yöntemi kullanılarak resetJob güncelleştirilebilir.

Alan Adı Tip Açıklama
existing_cluster_id VEYA new_cluster STRING OR NewCluster Eğer existing_cluster_id varsa, bu işin tüm çalıştırmaları için kullanılacak mevcut kümenin kimliği. Mevcut bir kümede işleri çalıştırırken yanıt vermeyi durdurursa kümeyi el ile yeniden başlatmanız gerekebilir. Daha fazla güvenilirlik için yeni kümelerde iş çalıştırmanızı öneririz.
yeni_küme, her bir çalıştırma için oluşturulacak bir kümenin açıklaması.
PipelineTask belirtilmesi durumunda bu alan boş olabilir.
notebook_taskVEYA VEYA spark_jar_task
spark_python_taskVEYA VEYA spark_submit_task
pipeline_task VEYA run_job_task
NotebookTask YADA SparkJarTask YADA SparkPythonTask YADA SparkSubmitTask YADA PipelineTask YADA RunJobTask notebook_task, bu işin bir not defteri çalıştırması gerektiğini gösterir. Bu alan spark_jar_task ile birlikte belirtilmeyebilir.
spark_jar_task, bu görevin bir JAR çalıştırması gerektiğini gösterir.
spark_python_task, bu işin bir Python dosyası çalıştırması gerektiğini gösterir.
spark_submit_task, bu işin Spark gönderme betiği tarafından başlatılması gerektiğini gösterir.
pipeline_task, bu işin bir DLT işlem hattı çalıştırması gerektiğini gösterir.
run_job_task işlevi, bu işin başka bir işi çalıştırması gerektiğini gösterir.
name STRING İş için isteğe bağlı bir ad. Varsayılan değer şudur: Untitled.
libraries Bir kitaplık dizisi İşi yürütecek kümeye yüklenecek kitaplıkların isteğe bağlı listesi. Varsayılan değer boş bir listedir.
email_notifications İş E-posta Bildirimleri Çalıştırmaları başladığında veya tamamlandığında ve bu iş silindiğinde bildirim alacak isteğe bağlı bir dizi e-posta adresi. Varsayılan davranış, herhangi bir e-posta göndermemektir.
webhook_notifications Webhook Bildirimleri Çalıştırmaları başladığında, tamamlandığında veya başarısız olduğunda bildirimde bulunmak için isteğe bağlı bir sistem varış noktaları kümesi.
notification_settings İşBildirimAyarları Bu iş için email_notifications ve webhook_notifications her birine bildirim gönderirken kullanılan isteğe bağlı bildirim ayarları.
timeout_seconds INT32 Her çalıştırmada bu işe isteğe bağlı bir zaman aşımı uygulanır. Varsayılan davranış, zaman aşımı olmamasıdır.
max_retries INT32 Başarısız bir çalıştırmayı yeniden denemek için maksimum isteğe bağlı deneme sayısı. Bir çalıştırmanın başarısız olduğu kabul edilir eğer FAILED veya result_state ile tamamlanırsa.
INTERNAL_ERROR
life_cycle_state. -1 değeri süresiz olarak yeniden deneme, 0 değeri ise hiçbir zaman yeniden deneme anlamına gelir. Varsayılan davranış, hiçbir zaman yeniden denememektir.
min_retry_interval_millis INT32 Denemeler arasında milisaniye cinsinden isteğe bağlı en az aralık. Varsayılan davranış, başarısız girişimlerin hemen yeniden denenmesidir.
retry_on_timeout BOOL Bir iş zaman aşımına uğradığında yeniden denenip denenmeyeceğini belirtmek için isteğe bağlı bir ilke. Varsayılan davranış, zaman aşımında yeniden denememektir.
schedule CronSchedule Bu iş için isteğe bağlı bir düzenli zamanlama. Varsayılan davranış, işin yalnızca İşler kullanıcı arabiriminde "Şimdi Çalıştır" seçeneğine tıklayarak veya bir API isteği göndererek tetiklendiğinde çalışmasıdır
runNow.
max_concurrent_runs INT32 Opsiyonel olarak izin verilen maksimum eşzamanlı iş yürütme sayısı.
Aynı işin birden çok çalıştırmasını eşzamanlı olarak yürütebilmek istiyorsanız bu değeri ayarlayın. Bu, örneğin işinizi sık sık tetikleyip ardışık çalıştırmaların birbiriyle çakışmasına izin vermek veya giriş parametrelerine göre farklı birden çok çalıştırma tetiklemeniz durumunda yararlı olur.
Bu ayar yalnızca yeni çalıştırmaları etkiler. Örneğin, işin eşzamanlılığının 4 olduğunu ve 4 tane eşzamanlı etkin çalışma olduğunu varsayalım. Eşzamanlılık 3 olarak ayarlandığında, etkin çalıştırmaların hiçbiri sonlandırılamaz. Ancak, bundan sonra, 3'ten az etkin çalıştırma olmadığı sürece yeni çalıştırmalar atlanır.
Bu değer 1000'i aşamaz. Bu değerin 0 olarak ayarlanması, tüm yeni çalıştırmaların atlanmasına sebep olur. Varsayılan davranış, yalnızca 1 eşzamanlı çalıştırmaya izin vermektir.
health İşlerSağlıkKuralları İş için tanımlanan isteğe bağlı bir sağlık kuralları kümesi.

İş Görevi

Alan Adı Type Açıklama
notebook_taskVEYA VEYA spark_jar_task
spark_python_taskVEYA VEYA spark_submit_task
pipeline_task VEYA run_job_task
NotebookTask VEYA SparkJarTask VEYA SparkPythonTask VEYA SparkSubmitTask VEYA PipelineTask VEYA RunJobTask notebook_task, bu işin bir not defteri çalıştırması gerektiğini gösterir. Bu alan spark_jar_task ile birlikte belirtilmeyebilir.
spark_jar_task, bu görevin bir JAR çalıştırması gerektiğini gösterir.
spark_python_task, bu işin bir Python dosyası çalıştırması gerektiğini gösterir.
spark_submit_task, bu işin Spark gönderme betiği tarafından başlatılması gerektiğini gösterir.
pipeline_task, bu işin bir DLT işlem hattı çalıştırması gerektiğini gösterir.
run_job_task işlevi, bu işin başka bir işi çalıştırması gerektiğini gösterir.

İş Sağlığı Kuralı

Alan Adı Type Açıklama
metric STRING Belirli bir sağlık kuralı için değerlendirilen sağlık ölçümünü belirtir. Geçerli değerler şunlardır: RUN_DURATION_SECONDS.
operator STRING Sistem durumu ölçüm değerini belirtilen eşikle karşılaştırmak için kullanılan işleci belirtir. Geçerli değerler şunlardır: GREATER_THAN.
value INT32 Sağlık kuralına uymak için sağlık ölçütünün karşılaması gereken eşik değerini belirtir.

İşSağlıkKuralları

Alan Adı Type Açıklama
rules JobsHealthRule dizisi bir iş için tanımlanabilen isteğe bağlı bir sağlık kuralları kümesi.

Kütüphane

Alan Adı Type Açıklama
jarVEYA egg VEYA whl
pypi VEYA maven VEYA cran
STRING OR STRING OR STRING OR PythonPyPiLibrary OR MavenLibrary OR RCranLibrary Eğer bir jar varsa, kurulacak olan JAR'ın URI'si. DBFS ve ADLS (abfss) URI'leri desteklenir. Örneğin: { "jar": "dbfs:/mnt/databricks/library.jar" } veya
{ "jar": "abfss://<container-path>/library.jar" }. ADLS kullanılıyorsa, kümenin kütüphaneye okuma erişimi olduğundan emin olun.
Yumurta ise, yüklenecek yumurtanın URI'sini. DBFS ve ADLS URL'leri desteklenir. Örneğin: { "egg": "dbfs:/my/egg" } veya
{ "egg": "abfss://<container-path>/egg" }.
Whl ise, yüklenecek olan wheel veya sıkıştırılmış wheels URI'si. DBFS ve ADLS URL'leri desteklenir. Örneğin: { "whl": "dbfs:/my/whl" } veya
{ "whl": "abfss://<container-path>/whl" }. ADLS kullanılıyorsa, kümenin kütüphaneye okuma erişimi olduğundan emin olun. wheel Ayrıca dosya adının doğru kuralı kullanması gerekir. Sıkıştırılmış wheels dosyalarının yüklenmesi gerekiyorsa, dosya adı son eki .wheelhouse.zip olarak olmalıdır.
Pypi ise, yüklenecek bir PyPI kitaplığının belirtimi. repo alanı belirtmek isteğe bağlıdır ve belirtilmediği takdirde varsayılan pip dizini kullanılır. Örneğin:
{ "package": "simplejson", "repo": "https://my-repo.com" }
Eğer Maven kullanılıyorsa, yüklenecek bir Maven kitaplığının belirtimi. Örneğin:
{ "coordinates": "org.jsoup:jsoup:1.7.2" }
Eğer cran ise, yüklenecek CRAN kütüphanesinin belirtimi.

MavenLibrary

Alan Adı Tip Açıklama
coordinates STRING Gradle stili Maven koordinatları. Örneğin: org.jsoup:jsoup:1.7.2. Bu alan gereklidir.
repo STRING Maven paketinin yükleneceği Maven deposu. Belirtilmezse, hem Maven Merkezi Deposu hem de Spark Paketleri aranır.
exclusions Bir dizi STRING Dışlanması gereken bağımlılıkların listesi. Örneğin: ["slf4j:slf4j", "*:hadoop-client"].
Maven bağımlılık dışlama kuralları: https://maven.apache.org/guides/introduction/introduction-to-optional-and-excludes-dependencies.html.

NewCluster

Alan Adı Type Açıklama
num_workers VEYA autoscale INT32 VEYA Otomatik Ölçeklendirme num_workers, bu kümeye atanması gereken çalışan düğümlerin sayısıdır. Kümede, toplamda num_workers + 1 Spark düğümü olacak şekilde bir Spark sürücüsü ve num_workers yürütücü bulunur.
Not: Bir kümenin özelliklerini okurken, bu alan gerçek geçerli çalışan sayısı yerine istenen çalışan sayısını yansıtır. Örneğin, bir küme 5 ila 10 çalışana yeniden ölçeklendirilirse, bu alan, 10 çalışana hedef boyutu hemen yansıtacak şekilde güncellenir, fakat spark_info'da listelenen çalışanlar yeni düğümler sağlandıkça kademeli olarak 5'ten 10'a çıkar.
Otomatik ölçeklendirme ise, yüke göre kümelerin ölçeğini otomatik olarak büyütmek ve küçültmek için gerekli parametreler.
spark_version STRING Kümenin Spark sürümü. Kullanılabilir Spark sürümlerinin listesi GET 2.0/clusters/spark-versions çağrısı kullanılarak alınabilir. Bu alan gereklidir.
spark_conf SparkConfPair İsteğe bağlı, kullanıcı tarafından belirtilen Spark yapılandırma anahtarı-değer çiftleri kümesini içeren bir nesne. Ayrıca sürücüye ve yürütücülere ek JVM seçeneklerinden oluşan bir dize geçirebilirsiniz:
spark.driver.extraJavaOptions ve spark.executor.extraJavaOptions sırasıyla.
Örnek Spark ayarları:
{"spark.speculation": true, "spark.streaming.ui.retainedBatches": 5} veya
{"spark.driver.extraJavaOptions": "-verbose:gc -XX:+PrintGCDetails"}
node_type_id STRING Bu alan, bu kümedeki Spark düğümlerinin her biri için kullanılabilen kaynakları tek bir değer aracılığıyla kodlar. Örneğin Spark düğümleri bellek veya işlem yoğunluklu iş yükleri için sağlanabilir ve iyileştirilebilir Kullanılabilir düğüm türlerinin listesi GET 2.0/clusters/list-node-types çağrısı kullanılarak alınabilir. Bu alan, instance_pool_id alan veya düğüm türü kimliğini veya örnek havuzu kimliğini belirten bir küme ilkesi gereklidir.
driver_node_type_id STRING Spark sürücüsünün düğüm türü. Bu alan isteğe bağlıdır; ayarlanmamışsa, sürücü düğümü türü yukarıda tanımlanan değerle aynı şekilde node_type_id ayarlanır.
custom_tags ClusterTag Küme kaynakları için bir etiket kümesi içeren nesne. Databricks, default_tags ek olarak tüm küme kaynaklarını (VM'ler gibi) bu etiketlerle etiketler.
Not:
  • Etiketler, işlem açısından optimize edilmiş ve bellek açısından optimize edilmiş gibi eski düğüm türlerinde desteklenmez.
  • Databricks en fazla 45 özel etikete izin verir
cluster_log_conf ClusterLogConf Spark günlüklerini uzun vadeli bir depolama hedefine teslim etme yapılandırması. Bir küme için yalnızca bir hedef belirtilebilir. Eğer yapılandırma verilirse, günlükler her 5 mins konumuna teslim edilir. Sürücü günlüklerinin hedefi <destination>/<cluster-id>/driver, yürütücü günlüklerinin hedefi ise <destination>/<cluster-id>/executor.
init_scripts InitScriptInfo dizisi Başlatma betiklerinin depolanması için yapılandırma. Herhangi bir sayıda betik belirtilebilir. Komut dosyaları, sağlanan sırayla yürütülür. cluster_log_conf belirtilmişse, init betik günlükleri belirtilen adrese gönderilir.
<destination>/<cluster-id>/init_scripts.
spark_env_vars SparkEnvPair İsteğe bağlı, kullanıcı tarafından belirtilen ortam değişkeni anahtar-değer çiftleri kümesini içeren bir nesne. Formun anahtar-değer çifti (X,Y) olduğu gibi dışarı aktarılır (örneğin,
export X='Y') sürücü ve çalışanları başlatma işlemi sırasında.
Ek bir kümesi SPARK_DAEMON_JAVA_OPTSbelirtmek için, aşağıdaki örnekte gösterildiği gibi bu kümenin $SPARK_DAEMON_JAVA_OPTS sonuna eklenmesini öneririz. Bu, Databricks tarafından yönetilen tüm varsayılan ortam değişkenlerinin de eklenmesini sağlar.
Örnek Spark ortam değişkenleri:
{"SPARK_WORKER_MEMORY": "28000m", "SPARK_LOCAL_DIRS": "/local_disk0"} veya
{"SPARK_DAEMON_JAVA_OPTS": "$SPARK_DAEMON_JAVA_OPTS -Dspark.shuffle.service.enabled=true"}
enable_elastic_disk BOOL Yerel DepolamaYı Otomatik Ölçeklendirme: Etkinleştirildiğinde, Spark çalışanlarının disk alanı azaldığında bu küme dinamik olarak ek disk alanı alır. Ayrıntılar için Yerel depolamayı otomatik ölçeklendirmeyi etkinleştirme bölümüne bakın.
driver_instance_pool_id STRING Sürücü düğümü için kullanılacak örnek havuzunun isteğe bağlı kimliği. Siz de instance_pool_id belirtmelisiniz. Ayrıntılar için Örnek Havuzları API'sine bakın.
instance_pool_id STRING Küme düğümleri için kullanılacak örnek havuzunun isteğe bağlı kimliği. driver_instance_pool_id varsa
Yalnızca instance_pool_id çalışan düğümler için kullanılır. Aksi takdirde, hem sürücü düğümü hem de çalışan düğümleri için kullanılır. Ayrıntılar için Örnek Havuzları API'sine bakın.

NotebookOutput

Alan Adı Tip Açıklama
result STRING dbutils.notebook.exit() adresine geçirilen değer. Azure Databricks bu API'yi değerin ilk 1 MB'ını döndürecek şekilde kısıtlar. Daha büyük bir sonuç için işiniz sonuçları bir bulut depolama hizmetinde depolayabilir. Hiç çağrılmadıysa dbutils.notebook.exit() bu alan yok olur.
truncated BOOLEAN Sonucun kesilip kesilmediği.

NotebookTask

Tüm çıkış hücreleri 8 MB boyutuna tabidir. Bir hücrenin çıktısı daha büyük bir boyuta sahipse, çalıştırmanın geri kalanı iptal edilir ve çalıştırma başarısız olarak işaretlenir. Bu durumda, diğer hücrelerden gelen içerik çıktılarından bazıları da eksik olabilir.

Sınırı aşan hücreyi bulma konusunda yardıma ihtiyacınız varsa, not defterini çok amaçlı bir kümede çalıştırın ve bu not defteri otomatik kaydetme tekniğini kullanın.

Alan Adı Type Açıklama
notebook_path STRING Azure Databricks çalışma alanında çalıştırılacak not defterinin kesin yolu. Bu yol eğik çizgiyle başlamalıdır. Bu alan gereklidir.
revision_timestamp LONG Not defterinin gözden geçirme zaman damgası.
base_parameters ParamPair haritası Bu görevin her yürütülmesi için kullanılacak temel parametreler. Belirtilen parametrelerle bir çağrı ile run-now çalıştırma başlatılırsa, iki parametre kümesi birleştirilir. Eğer base_parameters ve run-now içinde aynı anahtar belirtilirse, run-now içindeki değer kullanılır.
İş çalıştırmaları hakkında bilgi içeren parametreleri ayarlamak için Dinamik değer başvurusu nedir? komutunu kullanın.
Not defteri işin base_parameters veya run-now geçersiz kılma parametrelerinde belirtilmeyen bir parametre alırsa, not defterindeki varsayılan değer kullanılır.
dbutils.widgets.get kullanarak bu parametreleri not defterinde alın.

ParamPair

Not defteri görevlerini çalıştıran işler için ad tabanlı parametreler.

Önemli

Bu veri yapısındaki alanlar yalnızca Latin karakterleri (ASCII karakter kümesi) kabul edecektir. ASCII olmayan karakterler kullanıldığında hata döndürülecektir. Geçersiz, ASCII olmayan karakterlere örnek olarak Çince, Japonca kanjiler ve emojiler verilebilir.

Type Açıklama
STRING Parametre adı. Değeri almak için dbutils.widgets.get adresine geçin.
STRING Parametre değeri.

PipelineTask

Alan Adı Type Açıklama
pipeline_id STRING Yürütülecek DLT işlem hattı görevinin tam adı.

PythonPyPiLibrary

Alan Adı Type Açıklama
package STRING Yüklenecek PyPI paketinin adı. İsteğe bağlı tam sürüm belirtimi de desteklenir. Örnekler: simplejson ve simplejson==3.8.0. Bu alan gereklidir.
repo STRING Paketin bulunabileceği depo. Belirtilmezse, varsayılan pip dizini kullanılır.

RCranLibrary

Alan Adı Type Açıklama
package STRING Yüklenecek CRAN paketinin adı. Bu alan gereklidir.
repo STRING Paketin bulunabileceği depo. Belirtilmezse, varsayılan CRAN deposu kullanılır.

Koş

Bir çalıştırmanın çıktısı dışındaki tüm bilgiler. Çıktı getRunOutput yöntemiyle ayrı olarak alınabilir.

Alan Adı Type Açıklama
job_id INT64 Bu çalıştırmayı içeren işin standart tanımlayıcısı.
run_id INT64 Çalıştırmanın kurallı tanımlayıcısı. Bu kimlik, tüm görevlerin tüm çalıştırma döngüleri arasında benzersizdir.
creator_user_name STRING Oluşturucu kullanıcı adı. Kullanıcı zaten silinmişse bu alan yanıta dahil edilmeyecektir.
number_in_job INT64 Bu işin tüm çalışmaları arasında bu çalışmanın sıra numarası. Bu değer 1'de başlar.
original_attempt_run_id INT64 Eğer bu çalıştırma, önceki bir çalıştırma denemesinin yeniden denemesiyse, bu alan ilk denemenin run_id'sini içerir; aksi halde, run_id aynıdır.
state RunState Koşunun sonucu ve yaşam döngüsü durumları.
schedule CronSchedule Düzenli zamanlayıcı tarafından tetiklendiyse bu çalıştırmayı tetikleyen cron zamanlaması.
task jobtask Varsa, çalıştırma tarafından gerçekleştirilen görev.
cluster_spec ClusterSpec Bu çalışma oluşturulduğunda işin küme yapılandırmasının anlık görüntüsü.
cluster_instance ClusterInstance Çalıştırma için kullanılan küme bu. Çalıştırmanın yeni bir küme ile çalışması belirtilmişse, İşler hizmeti çalıştırma için bir küme talep edildikten sonra bu alan ayarlanacaktır.
overriding_parameters RunParameters Bu işlem için kullanılan parametreler.
start_time INT64 Bu çalıştırmanın başlatıldığı zaman dilimi milisaniye cinsindendir (1/1/1970 UTC'den bu yana milisaniye). Bu, iş görevinin yürütülmeye başladığı zaman olmayabilir; örneğin, iş, yeni bir kümeye çalışacak şekilde ayarlanmışsa, bu, küme oluşturma çağrısının yapıldığı zamandır.
setup_duration INT64 Kümeyi milisaniye cinsinden ayarlamak için geçen süre. Yeni kümelerde çalışan çalıştırmalar için bu, küme oluşturma zamanıdır; mevcut kümelerde çalışanlar için bu süre çok kısa olmalıdır.
execution_duration INT64 Komutların JAR veya not defterinde yürütülmesi, tamamlanana, başarısız olana, zaman aşımına uğrayana, iptal edilene veya beklenmeyen bir hatayla karşılaşana kadar geçen süre milisaniye cinsindendir.
cleanup_duration INT64 Kümeyi sonlandırmak ve ilişkili kalıntıları temizlemek için geçen süre milisaniye cinsinden ne kadar sürdü. Çalıştırmanın toplam süresi, kurulum süresi (setup_duration), yürütme süresi (execution_duration) ve temizlik süresi (cleanup_duration) sürelerinin toplamıdır.
end_time INT64 Bu çalıştırmanın epok milisaniyesi cinsinden sona erdiği saat (1/1/1970 UTC'den bu yana geçen milisaniye). İş çalışmaya devam ediyorsa bu alan 0 olarak ayarlanır.
trigger TriggerType Bu çalıştırmayı başlatan tetik türü.
run_name STRING Çalışma için isteğe bağlı bir ad. Varsayılan değer şudur: Untitled. UTF-8 kodlamasında izin verilen uzunluk üst sınırı 4096 bayttır.
run_page_url STRING Çalışmanın ayrıntı sayfasının URL'si.
run_type STRING Çalıştırmanın türü.
attempt_number INT32 Tetiklenen bir iş çalıştırması süreci için yapılan bu çalıştırma denemesinin sıra numarası. Çalıştırmanın ilk denemesinin deneme numarası 0'dır. İlk çalıştırma girişimi başarısız olursa ve işin yeniden deneme ilkesi varsa (max_retries> 0), sonraki çalıştırmalar özgün denemenin kimliği original_attempt_run_id ve artan attempt_number ile oluşturulur. Çalıştırmalar yalnızca başarılı olana kadar yeniden denenir ve maksimum attempt_number, iş için max_retries değeriyle aynıdır.

RunJobTask

Alan Adı Type Açıklama
job_id INT32 Çalıştırılacak işin benzersiz tanımlayıcısı. Bu alan gereklidir.

RunLifeCycleState

Çalıştırmanın yaşam döngüsü durumu. İzin verilen durum geçişleri şunlardır:

  • QUEUED ->PENDING
  • PENDING- ->RUNNING ->TERMINATING>TERMINATED
  • PENDING ->SKIPPED
  • PENDING ->INTERNAL_ERROR
  • RUNNING ->INTERNAL_ERROR
  • TERMINATING ->INTERNAL_ERROR
Devlet Açıklama
QUEUED Çalıştırma tetiklendi ancak aşağıdaki sınırlardan birine ulaştığı için kuyruğa alındı:
  • Çalışma alanında olabilecek en fazla eşzamanlı etkin çalıştırma sayısı.
  • Çalışma alanında en fazla eşzamanlı Run Job görev çalıştırılabilir.
  • İşin en fazla eş zamanlı çalışma sayısı.

İşin veya çalıştırmanın bu duruma ulaşabilmesi için kuyruğa alma özelliği etkinleştirilmiş olmalıdır.
PENDING Çalıştırma başlatıldı. İşin maksimum eşzamanlı çalıştırma sayısına zaten ulaşıldıysa, çalıştırma, hiçbir kaynak hazırlamadan hemen SKIPPED durumuna geçer. Aksi takdirde, kümenin hazırlanması ve uygulama süreci devam ediyor.
RUNNING Bu görevin yürütülmesi devam ediyor.
TERMINATING Bu çalıştırma işleminin görevi tamamlandı ve küme ile yürütme bağlamı temizleniyor.
TERMINATED Bu çalıştırma işlemi tamamlandı ve küme ve yürütme bağlamı temizlendi ve düzenlendi. Bu durum terminaldir.
SKIPPED Aynı işlemin daha önceki bir çalışması zaten etkin olduğu için bu çalıştırma iptal edildi. Bu durum terminaldir.
INTERNAL_ERROR Olağanüstü bir durum, İşler hizmetinde uzun bir süre boyunca süregelen bir ağ hatası gibi bir hatayı belirtir. Yeni bir kümedeki bir işlem INTERNAL_ERROR durumunda tamamlanırsa, İşler hizmeti kümeyi en kısa sürede kapatır. Bu durum terminaldir.

Çalıştırma Parametreleri

Bu çalıştırma için parametreler. İş görevinin türüne bağlı olarak python_params isteğinde yalnızca bir jar_params, run-now veya notebook_params belirtilmelidir. Spark JAR görevi ve Python görevi içeren işler konum tabanlı parametrelerin listesini alır ve not defteri görevlerini içeren işler bir anahtar değer eşlemesi alır.

Alan Adı Type Açıklama
jar_params Bir dizi STRING Spark JAR görevleri olan işler için parametrelerin listesi, örneğin. "jar_params": ["john doe", "35"] Parametreler, Spark JAR görevinde belirtilen ana sınıfın ana işlevini çağırmak için kullanılır. üzerinde run-nowbelirtilmezse, varsayılan olarak boş bir liste olur. jar_params notebook_params ile birlikte belirtilemez. Bu alanın JSON gösterimi (örneğin {"jar_params":["john doe","35"]}) 10.000 baytı aşamaz.
Dinamik değer referansı nedir? iş çalıştırmaları hakkında bilgi içeren parametreleri ayarlamak için kullanın.
notebook_params ParamPair haritası Not defteri görevi olan işler için anahtarların değerlerle eşlemesi, örneğin.
"notebook_params": {"name": "john doe", "age": "35"}. Harita not defterine geçirilir ve dbutils.widgets.get işlevi aracılığıyla erişilebilir.
üzerinde run-nowbelirtilmezse, tetiklenen çalıştırma işin temel parametrelerini kullanır.
notebook_params jar_params ile birlikte belirtilemez.
İş çalıştırmaları hakkında bilgi içeren parametreleri ayarlamak için Dinamik değer başvurusu nedir? ifadesini kullanın.
Bu alanın JSON gösterimi (örn.
{"notebook_params":{"name":"john doe","age":"35"}}) 10.000 baytı aşamaz.
python_params Bir dizi STRING Python görevlerine sahip işler için parametrelerin listesi, örneğin. "python_params": ["john doe", "35"] Parametreler Python dosyasına komut satırı parametreleri olarak geçirilir. Eğer run-now üzerinde belirtilirse, iş ayarında belirtilen parametrelerin üzerine yazar. Bu alanın JSON gösterimi (örneğin {"python_params":["john doe","35"]}) 10.000 baytı aşamaz.
İş çalıştırmaları hakkında bilgi içeren parametreleri ayarlamak için Dinamik değer başvurusu nedir? komutunu kullanın.
Bu parametreler yalnızca Latin karakterleri (ASCII karakter kümesi) kabul eder. ASCII olmayan karakterler kullanıldığında hata döndürülecektir. Geçersiz, ASCII olmayan karakterlere örnek olarak Çince, Japonca kanjiler ve emojiler verilebilir.
spark_submit_params Bir dizi STRING Spark gönderme görevi olan işler için parametrelerin listesi, örneğin.
"spark_submit_params": ["--class", "org.apache.spark.examples.SparkPi"]. Parametreler spark-submit betiğine komut satırı parametreleri olarak geçirilir. Eğer run-now üzerinde belirtilirse, iş ayarında belirtilen parametrelerin üzerine yazar. Bu alanın JSON gösterimi (örneğin {"python_params":["john doe","35"]}) 10.000 baytı aşamaz.
What is a dynamic value reference? komutunu, iş çalıştırmaları hakkında bilgi içeren parametreleri ayarlamak için kullanın.
Bu parametreler yalnızca Latin karakterleri (ASCII karakter kümesi) kabul eder. ASCII olmayan karakterler kullanıldığında hata döndürülecektir. Geçersiz, ASCII olmayan karakterlere örnek olarak Çince, Japonca kanjiler ve emojiler verilebilir.

ÇalışmaSonucuDurumu

Çalıştırmanın son durumu.

  • : life_cycle_state = TERMINATEDçalıştırmasının bir görevi varsa, sonucun kullanılabilir olması garanti edilir ve görevin sonucunu gösterir.
  • Eğer life_cycle_state, = , PENDING, RUNNING, veya SKIPPED ise, sonuç durumu kullanılamaz.
  • Eğer life_cycle_state = TERMINATING veya lifecyclestate = INTERNAL_ERROR ise: Çalıştırma bir göreve sahipti ve onu başlatmayı başardıysa, sonuç durumu mevcuttur.

Kullanılabilir olduğunda sonuç durumu hiçbir zaman değişmez.

Devlet Açıklama
SUCCESS Görev başarıyla tamamlandı.
FAILED Görev bir hatayla tamamlandı.
TIMEDOUT Çalıştırma, zaman aşımına ulaşıldıktan sonra sonlandırıldı.
CANCELED Çalıştırma, kullanıcı isteği üzerine iptal edildi.

RunState

Alan Adı Type Açıklama
life_cycle_state RunLifeCycleState İşlem yaşam döngüsünde bir çalıştırmanın mevcut konumunun açıklaması. Bu alan yanıtta her zaman kullanılabilir.
result_state RunResultState Koşunun sonuç durumu. Kullanılamıyorsa, yanıt bu alanı içermez. result_state kullanılabilirliği hakkında ayrıntılı bilgi için bkz. RunResultState.
user_cancelled_or_timedout BOOLEAN Çalıştırmanın, kullanıcı tarafından elle mi iptal edildiği yoksa zamanlayıcı tarafından süre aşımına uğradığı için mi iptal edildiği.
state_message STRING Geçerli durum için açıklayıcı bir ileti. Bu alan yapılandırılmamış ve tam biçimi değiştirilebilir.

SparkConfPair

Spark yapılandırma anahtar-değer çiftleri.

Type Açıklama
STRING Yapılandırma özelliği adı.
STRING Yapılandırma özelliği değeri.

SparkEnvPair

Spark ortam değişkeni anahtar-değer çiftleri.

Önemli

Bir iş kümesinde ortam değişkenlerini belirtirken, bu veri yapısındaki alanlar yalnızca Latin karakterleri (ASCII karakter kümesi) kabul eder. ASCII olmayan karakterler kullanıldığında hata döndürülecektir. Geçersiz, ASCII olmayan karakterlere örnek olarak Çince, Japonca kanjiler ve emojiler verilebilir.

tür Açıklama
STRING Ortam değişkeni adı.
STRING Ortam değişkeni değeri.

SparkJarTask

Alan Adı Type Açıklama
jar_uri STRING 04/2016 tarihinden bu yana kullanım dışı bırakıldı. Bunun yerine jar alanı aracılığıyla libraries sağlayın. Bir örnek için bkz . Oluşturma.
main_class_name STRING Yürütülecek ana yöntemi içeren sınıfın tam adı. Bu sınıf, kitaplık olarak sağlanan bir JAR içinde yer almalıdır.
Kodun Spark bağlamı elde etmek için SparkContext.getOrCreate kullanması gerekir; aksi takdirde görev çalışmaları başarısız olur.
parameters Bir dizi STRING Ana yönteme geçirilen parametreler.
İş çalıştırmaları hakkında bilgi içeren parametreleri ayarlamak için Dinamik değer başvurusu nedir? komutunu kullanın.

SparkPython Görevi

Alan Adı Type Açıklama
python_file STRING Yürütülecek Python dosyasının URI'sini. DBFS yolları desteklenir. Bu alan gereklidir.
parameters Bir dizi STRING Komut satırı parametreleri Python dosyasına geçirildi.
İş çalıştırmaları hakkında bilgi içeren parametreleri ayarlamak için Dinamik değer başvurusu nedir? komutunu kullanın.

SparkSubmitTask

Önemli

  • Spark gönderme görevlerini yalnızca yeni kümelerde çağırabilirsiniz.
  • new_cluster belirtiminde libraries ve spark_conf desteklenmez. Bunun yerine Java ve Python kitaplıkları eklemek için --jars ve --py-files'i, Spark yapılandırmasını ayarlamak için --conf'yi kullanın.
  • master, deploy-modeve Azure Databricks tarafından otomatik olarak yapılandırılır; bunları parametrelerde belirtemezsinizexecutor-cores.
  • Spark gönderme işi varsayılan olarak tüm kullanılabilir belleği kullanır (Azure Databricks hizmetleri için ayrılmış bellek hariç). yığın dışı kullanım için biraz yer bırakmak amacıyla --driver-memory ve --executor-memory değerlerini daha küçük bir değere ayarlayabilirsiniz.
  • --jars, --py-files, --files değişkenleri DBFS yollarını destekler.

Örneğin, JAR'ın DBFS'ye yüklendiğini varsayarsak, aşağıdaki parametreleri ayarlayarak komutunu çalıştırabilirsiniz SparkPi .

{
  "parameters": ["--class", "org.apache.spark.examples.SparkPi", "dbfs:/path/to/examples.jar", "10"]
}
Alan Adı Type Açıklama
parameters Bir dizi STRING Spark submit komutuna geçirilen komut satırı parametreleri.
İş çalıştırmaları hakkında bilgi içeren parametreleri ayarlamak için Dinamik değer başvurusu nedir? komutunu kullanın.

TetikleyiciTürü

Bunlar, bir çalıştırmayı başlatabilecek tetikleyici türleridir.

Type Açıklama
PERIODIC Cron zamanlayıcı gibi çalıştırmaları düzenli aralıklarla tetikleyen zamanlamalar.
ONE_TIME Tek seferlik tetikleyici tek bir çalıştırmayı başlatır. Bu durum, kullanıcı arabirimi veya API aracılığıyla talep üzerine tek bir çalıştırma tetiklediğinizde meydana gelir.
RETRY Önceki başarısız bir çalıştırmanın yeniden denemesi olarak tetiklenen bir çalıştırmayı gösterir. Bu, hata durumunda işi yeniden çalıştırmayı istediğinizde oluşur.

Öğeyi Görüntüle

Dışarı aktarılan içerik HTML biçimindedir. Örneğin, eğer dışa aktarılacak görünüm gösterge tablolarıysa, her gösterge tablosu için bir HTML dizesi döndürülür.

Alan Adı Type Açıklama
content STRING Görünümün içeriği.
name STRING Görünüm öğesinin adı. Kod görünümü durumunda, not defterinin adı. Pano görünümü söz konusu olduğunda, panonun adı.
type ViewType Görünüm öğesinin türü.

GörünümTipi

Tip Açıklama
NOTEBOOK Not defteri görünüm öğesi.
DASHBOARD Pano görünümü öğesi.

Aktarılacak Görünümler

Dışarı aktarma seçenekleri: kod, tüm gösterge tabloları veya tamamı.

Type Açıklama
CODE Not defterinin kod görünümü.
DASHBOARDS Dizüstü bilgisayarın tüm kontrol paneli görünümleri.
ALL Not defterinin tüm görünümleri.

Webhook

Alan Adı Type Açıklama
id STRING Bir sistem bildirimi hedefini belirleyen tanımlayıcı. Bu alan gereklidir.

Webhook Bildirimleri

Alan Adı Type Açıklama
on_start Bir Webhook dizisi Çalıştırma başladığında bildirilecek sistem hedeflerinin isteğe bağlı listesi. İş oluşturma, sıfırlama veya güncelleştirme sırasında belirtilmezse liste boş olur ve bildirimler gönderilmez. Özellik için on_start en fazla 3 hedef belirtilebilir.
on_success Bir Webhook dizisi Bir çalıştırma başarıyla tamamlandığında bildirilecek isteğe bağlı sistem hedeflerinin listesi. Bir çalıştırma, TERMINATEDlife_cycle_state ve SUCCESSFULresult_state ile sona eriyorsa başarıyla tamamlanmış kabul edilir. İş oluşturma, sıfırlama veya güncelleştirme sırasında belirtilmezse liste boş olur ve bildirimler gönderilmez. Özellik için on_success en fazla 3 hedef belirtilebilir.
on_failure Bir Webhook dizisi Çalıştırma başarısız olduğunda bildirilecek isteğe bağlı sistem hedeflerinin bir listesi. Bir çalıştırma, INTERNAL_ERROR ile biterse başarısız tamamlanmış olarak kabul edilir.
life_cycle_state veya bir SKIPPED, FAILEDveya TIMED_OUTresult_state. İş oluşturma, sıfırlama veya güncelleştirme sırasında bu belirtilmezse liste boş olur ve bildirimler gönderilmez. Özellik için on_failure en fazla 3 hedef belirtilebilir.
on_duration_warning_threshold_exceeded Bir Webhook dizisi Çalıştırmanın süresi, RUN_DURATION_SECONDS metriği için health alanında belirtilen eşiği aştığında bildirimde bulunulacak isteğe bağlı sistem hedeflerinin bir listesi. Özellik için on_duration_warning_threshold_exceeded en fazla 3 hedef belirtilebilir.

Çalışma Alanı Depolama Bilgisi

Çalışma alanı depolama bilgileri.

Alan Adı Type Açıklama
destination STRING Dosya hedefi. Örnek: /Users/someone@domain.com/init_script.sh