Dela via


Jobb-API 2.0

Viktigt!

Den här artikeln dokumenterar 2.0-versionen av Jobb-API:et. Databricks rekommenderar dock att du använder Jobs API 2.2 för nya och befintliga klienter och skript. Mer information om ändringarna i 2.2-versionen av jobb-API:et finns i Uppdatera från Jobb-API 2.1 till 2.2.

Med JOBB-API:et kan du skapa, redigera och ta bort jobb. Den maximala tillåtna storleken för en begäran till Jobb-API:et är 10 MB.

Mer information om de uppdaterade funktionerna i nyare versioner av Jobb-API:et finns i Uppdatera från Jobb API 2.0 till 2.1 och Uppdatera från Jobb-API 2.1 till 2.2.

Varning

Du bör aldrig hårdkoda hemligheter eller lagra dem i oformaterad text. Använd API:et Hemligheter för att hantera hemligheter i Databricks CLI. Använd verktyget Hemligheter (dbutils.secrets) för att referera till hemligheter i notebook-filer och jobb.

Kommentar

Om du får ett 500-nivåfel när du gör jobb-API-begäranden rekommenderar Databricks att du försöker igen i upp till 10 min (med minst 30 sekunders intervall mellan återförsök).

Viktigt!

För att få åtkomst till Databricks REST API:er måste du autentisera.

Skapa

Slutpunkt HTTP-metod
2.0/jobs/create POST

Skapa ett nytt projekt.

Exempel

Det här exemplet skapar ett jobb som kör en JAR-aktivitet klockan 22:15 varje kväll.

Förfrågan

curl --netrc --request POST \
https://<databricks-instance>/api/2.0/jobs/create \
--data @create-job.json \
| jq .

create-job.json:

{
  "name": "Nightly model training",
  "new_cluster": {
    "spark_version": "7.3.x-scala2.12",
    "node_type_id": "Standard_D3_v2",
    "num_workers": 10
  },
  "libraries": [
    {
      "jar": "dbfs:/my-jar.jar"
    },
    {
      "maven": {
        "coordinates": "org.jsoup:jsoup:1.7.2"
      }
    }
  ],
  "timeout_seconds": 3600,
  "max_retries": 1,
  "schedule": {
    "quartz_cron_expression": "0 15 22 * * ?",
    "timezone_id": "America/Los_Angeles"
  },
  "spark_jar_task": {
    "main_class_name": "com.databricks.ComputeModels"
  }
}

Ersätta:

  • med namnet på instansen för Azure Databricks-arbetsytan, till exempel .
  • Innehållet i create-job.json med fält som är lämpliga för din lösning.

I det här exemplet används en .netrc-fil och jq.

Svar

{
  "job_id": 1
}

Begärandestruktur

Viktigt!

  • När du kör ett jobb på ett nytt jobbkluster behandlas jobbet som en Jobs Compute-arbetsbelastning (automatiserad) och omfattas av Jobs Compute-prissättning.
  • När du kör ett jobb i ett befintligt allfunktionskluster behandlas det som en arbetsbelastning för All-Purpose Compute (interaktiv) som omfattas av prissättningen för All-Purpose Compute.
Fältnamn Typ Beskrivning
existing_cluster_id ELLER new_cluster STRING OR NewCluster Om existing_cluster_id används ID:t för ett befintligt kluster för alla körningar av det här jobbet. När du kör jobb i ett befintligt kluster kan du behöva starta om klustret manuellt om det slutar svara. Vi föreslår att du kör jobb på nya kluster för bättre tillförlitlighet.
Om new_cluster, en beskrivning av ett kluster som kommer att skapas för varje körning.
Om du anger en PipelineTask kan det här fältet vara tomt.
notebook_taskELLER spark_jar_task
spark_python_taskELLER spark_submit_task
pipeline_task ELLER run_job_task
NotebookTask ELLER SparkJarTask ELLER SparkPythonTask ELLER SparkSubmitTask ELLER PipelineTask ELLER RunJobTask Om notebook_task anger att det här jobbet ska köra en notebook-fil. Det här fältet kanske inte anges tillsammans med spark_jar_task.
Om spark_jar_task anger att det här jobbet ska köra en JAR-fil.
Om spark_python_task anger att det här jobbet ska köra en Python-fil.
Om spark_submit_task visar att detta jobb ska startas av spark submit-skriptet.
Om pipeline_task anger att det här jobbet ska köra en DLT-pipeline.
Om run_job_task betyder att det här jobbet ska köra ett annat jobb.
name STRING Ett valfritt namn för jobbet. Standardvärdet är Untitled.
libraries En matris med bibliotek En valfri lista över bibliotek som ska installeras i klustret som ska köra jobbet. Standardvärdet är en tom lista.
email_notifications JobbEpostAviseringar En valfri uppsättning e-postadresser som meddelas när det här jobbet börjar, slutförs eller tas bort. Standardbeteendet är att inte skicka några e-postmeddelanden.
webhook_notifications WebhookNotifications En valfri uppsättning systemdestinationer som ska meddelas när detta jobb startar, slutförs eller misslyckas.
notification_settings Jobbnotifikationsinställningar Valfria meddelandeinställningar som används när meddelanden skickas till var och en av email_notifications och webhook_notifications för det här jobbet.
timeout_seconds INT32 En valfri tidsgräns som tillämpas för varje körning av den här uppgiften. Standardbeteendet är att inte ha någon tidsgräns.
max_retries INT32 Ett valfritt maximalt antal gånger för att försöka igen efter en misslyckad körning. En körning anses vara misslyckad om den slutförs med FAILED result_state eller
INTERNAL_ERROR
life_cycle_state. Värdet -1 innebär att försöka igen på obestämd tid och värdet 0 innebär att aldrig försöka igen. Standardbeteendet är att aldrig försöka igen.
min_retry_interval_millis INT32 Ett valfritt minimalt intervall i millisekunder mellan starten av den misslyckade körningen och den efterföljande återförsökskörningen. Standardbeteendet är att misslyckade körningar omedelbart görs om.
retry_on_timeout BOOL En valfri princip för att ange om ett jobb ska försöka igen när tidsgränsen uppnås. Standardbeteendet är att inte försöka igen vid tidsgränsen.
schedule CronSchedule Ett valfritt periodiskt schema för det här jobbet. Standardbeteendet är att jobbet körs när det utlöses genom att klicka på Kör nu i jobbgränssnittet eller skicka en API-begäran till runNow.
max_concurrent_runs INT32 Ett valfritt högsta tillåtna antal samtidiga körningar av jobbet.
Ange det här värdet om du vill kunna köra samma jobb parallellt. Det här är till exempel användbart om du utlöser jobbet enligt ett vanligt schema och vill tillåta att efterföljande körningar går omlott, eller om du vill utlösa flera körningar med olika indataparametrar.
Den här inställningen påverkar endast nya körningar. Anta till exempel att jobbets parallellitet är 4 och att det finns 4 parallella aktiva körningar. Genom att ställa in samtidigheten på 3 kommer ingen av de aktiva körningarna att avslutas. Men från och med då hoppas nya körningar över om det inte finns färre än 3 aktiva körningar.
Det här värdet får inte överstiga 1 000. Om det här värdet sätts till 0 utesluts alla nya körningar. Standardbeteendet är att endast tillåta 1 samtidig körning.

Svarsstruktur

Fältnamn Typ Beskrivning
job_id INT64 Den kanoniska identifieraren för det nyligen skapade jobbet.

Lista

Slutpunkt HTTP-metod
2.0/jobs/list GET

Visa en lista över alla jobb.

Exempel

Förfrågan

curl --netrc --request GET \
https://<databricks-instance>/api/2.0/jobs/list \
| jq .

Ersätt <databricks-instance> med instansnamnet för Azure Databricks-arbetsytan, till exempel adb-1234567890123456.7.azuredatabricks.net.

I det här exemplet används en .netrc-fil och jq.

Svar

{
  "jobs": [
    {
      "job_id": 1,
      "settings": {
        "name": "Nightly model training",
        "new_cluster": {
          "spark_version": "7.3.x-scala2.12",
          "node_type_id": "Standard_D3_v2",
          "num_workers": 10
        },
        "libraries": [
          {
            "jar": "dbfs:/my-jar.jar"
          },
          {
            "maven": {
              "coordinates": "org.jsoup:jsoup:1.7.2"
            }
          }
        ],
        "timeout_seconds": 100000000,
        "max_retries": 1,
        "schedule": {
          "quartz_cron_expression": "0 15 22 * * ?",
          "timezone_id": "America/Los_Angeles",
          "pause_status": "UNPAUSED"
        },
        "spark_jar_task": {
          "main_class_name": "com.databricks.ComputeModels"
        }
      },
      "created_time": 1457570074236
    }
  ]
}

Svarsstruktur

Fältnamn Typ Beskrivning
jobs Ett fält av Job Listan över jobb.

Ta bort

Slutpunkt HTTP-metod
2.0/jobs/delete POST

Ta bort ett jobb och skicka ett e-postmeddelande till de adresser som anges i JobSettings.email_notifications. Ingen åtgärd inträffar om jobbet redan har tagits bort. När jobbet har tagits bort visas varken dess information eller dess körhistorik i användargränssnittet eller API:et. Jobbet kommer garanterat att tas bort när den här begäran har slutförts. Dock kan körningar som var aktiva innan den här begäran togs emot fortfarande vara aktiva. De avslutas asynkront.

Exempel

curl --netrc --request POST \
https://<databricks-instance>/api/2.0/jobs/delete \
--data '{ "job_id": <job-id> }'

Ersätta:

  • med Azure Databricks arbetsyta med instansnamnet , till exempel .
  • <job-id> med jobbets ID, till exempel 123.

I det här exemplet används en .netrc-fil .

Begärandestruktur

Fältnamn Typ Beskrivning
job_id INT64 Den kanoniska identifieraren för jobbet som ska tas bort. Fältet är obligatoriskt.

Hämta

Slutpunkt HTTP-metod
2.0/jobs/get GET

Hämta information om ett enskilt jobb.

Exempel

Förfrågan

curl --netrc --request GET \
'https://<databricks-instance>/api/2.0/jobs/get?job_id=<job-id>' \
| jq .

Eller:

curl --netrc --get \
https://<databricks-instance>/api/2.0/jobs/get \
--data job_id=<job-id> \
| jq .

Ersätta:

  • med namnet på instansen för Azure Databricks-arbetsytan, till exempel .
  • <job-id> med jobbets ID, till exempel 123.

I det här exemplet används en .netrc-fil och jq.

Svar

{
  "job_id": 1,
  "settings": {
    "name": "Nightly model training",
    "new_cluster": {
      "spark_version": "7.3.x-scala2.12",
      "node_type_id": "Standard_D3_v2",
      "num_workers": 10
    },
    "libraries": [
      {
        "jar": "dbfs:/my-jar.jar"
      },
      {
        "maven": {
          "coordinates": "org.jsoup:jsoup:1.7.2"
        }
      }
    ],
    "timeout_seconds": 100000000,
    "max_retries": 1,
    "schedule": {
      "quartz_cron_expression": "0 15 22 * * ?",
      "timezone_id": "America/Los_Angeles",
      "pause_status": "UNPAUSED"
    },
    "spark_jar_task": {
      "main_class_name": "com.databricks.ComputeModels"
    }
  },
  "created_time": 1457570074236
}

Begärandestruktur

Fältnamn Typ Beskrivning
job_id INT64 Den kanoniska identifieraren för jobbet som du vill hämta information om. Fältet är obligatoriskt.

Svarsstruktur

Fältnamn Typ Beskrivning
job_id INT64 Den kanoniska identifieraren för det här arbetet.
creator_user_name STRING Skaparens användarnamn. Det här fältet tas inte med i svaret om användaren har tagits bort.
settings JobSettings Inställningar för det här jobbet och alla dess körningar. De här inställningarna kan uppdateras med hjälp av Återställ eller Uppdatera slutpunkter.
created_time INT64 Den tidpunkt då det här arbetet skapades i epokens millisekunder (millisekunder sedan den 1/1/1970 UTC).

Återställ

Slutpunkt HTTP-metod
2.0/jobs/reset POST

Skriv över alla inställningar för ett visst jobb. Använd Uppdatera-slutpunkten för att uppdatera jobbinställningarna delvis.

Exempel

Den här exempelbegäran gör jobb 2 identiskt med jobb 1 i exemplet skapa.

curl --netrc --request POST \
https://<databricks-instance>/api/2.0/jobs/reset \
--data @reset-job.json \
| jq .

reset-job.json:

{
  "job_id": 2,
  "new_settings": {
    "name": "Nightly model training",
    "new_cluster": {
      "spark_version": "7.3.x-scala2.12",
      "node_type_id": "Standard_D3_v2",
      "num_workers": 10
    },
    "libraries": [
      {
        "jar": "dbfs:/my-jar.jar"
      },
      {
        "maven": {
          "coordinates": "org.jsoup:jsoup:1.7.2"
        }
      }
    ],
    "timeout_seconds": 100000000,
    "max_retries": 1,
    "schedule": {
      "quartz_cron_expression": "0 15 22 * * ?",
      "timezone_id": "America/Los_Angeles",
      "pause_status": "UNPAUSED"
    },
    "spark_jar_task": {
      "main_class_name": "com.databricks.ComputeModels"
    }
  }
}

Ersätta:

  • med namnet på instansen för Azure Databricks-arbetsytan, till exempel .
  • Innehållet i reset-job.json med fält som är lämpliga för din lösning.

I det här exemplet används en .netrc-fil och jq.

Begärandestruktur

Fältnamn Typ Beskrivning
job_id INT64 Den kanoniska identifieraren för jobbet som ska återställas. Fältet är obligatoriskt.
new_settings JobSettings De nya inställningarna för jobbet. De här inställningarna ersätter helt de gamla inställningarna.
Ändringar i fältet JobSettings.timeout_seconds tillämpas på aktiva körningar. Ändringar i andra fält tillämpas endast på framtida körningar.

Uppdatering

Slutpunkt HTTP-metod
2.0/jobs/update POST

Lägg till, ändra eller ta bort specifika inställningar för ett befintligt jobb. Använd Återställ ändpunkt för att skriva över alla jobbinställningar.

Exempel

Den här exempelbegäran tar bort bibliotek och lägger till e-postaviseringsinställningar i jobb 1 som definierats i skapa-exemplet.

curl --netrc --request POST \
https://<databricks-instance>/api/2.0/jobs/update \
--data @update-job.json \
| jq .

update-job.json:

{
  "job_id": 1,
  "new_settings": {
    "existing_cluster_id": "1201-my-cluster",
    "email_notifications": {
      "on_start": ["someone@example.com"],
      "on_success": [],
      "on_failure": []
    }
  },
  "fields_to_remove": ["libraries"]
}

Ersätta:

  • använd Azure Databricks-arbetsytans instansnamn, till exempel .
  • Innehållet i update-job.json med fält som är lämpliga för din lösning.

I det här exemplet används en .netrc-fil och jq.

Begärandestruktur

Fältnamn Typ Beskrivning
job_id INT64 Den kanoniska identifieraren för jobbet som ska uppdateras. Fältet är obligatoriskt.
new_settings JobSettings De nya inställningarna för jobbet.
Fält på den översta nivån som anges i new_settings, förutom matriser, ersätts helt. Matriser sammanfogas baserat på respektive nyckelfält, till exempel task_key eller
job_cluster_key, och matrisinträden med samma nyckel ersätts helt. Förutom matrissammanslagningen stöds inte delvis uppdatering av kapslade fält.
Ändringar i fältet JobSettings.timeout_seconds tillämpas på aktiva körningar. Ändringar i andra fält tillämpas endast på framtida körningar.
fields_to_remove En matris med STRING Ta bort fält på den översta nivån i jobbinställningarna. Det är inte möjligt att ta bort kapslade fält, utom för poster från tasks- och job_clusters-matriserna. Följande är till exempel ett giltigt argument för det här fältet:
["libraries", "schedule", "tasks/task_1", "job_clusters/Default"]
Det här fältet är valfritt.

Kör nu

Viktigt!

  • En arbetsyta är begränsad till 1 000 samtidigt körande uppgifter. Ett 429 Too Many Requests-svar returneras när du begär en körning som inte kan starta direkt.
  • Antalet jobb som en arbetsyta kan skapa på en timme är begränsat till 1 0000 (inklusive "kör skicka"). Den här gränsen påverkar även jobb som skapats av REST API och notebook-arbetsflöden.
  • En arbetsyta kan innehålla upp till 12 000 sparade jobb.
  • Ett jobb kan innehålla upp till 100 aktiviteter.
Slutpunkt HTTP-metod
2.0/jobs/run-now POST

Kör ett jobb nu och returnera run_id för den utlösta körningen.

Tips

Om du anropar Skapa tillsammans med Kör nu, kan du i stället använda Runs submit-slutpunkten, vilket gör att du kan skicka din arbetsbelastning direkt utan att behöva skapa ett jobb.

Exempel

curl --netrc --request POST \
https://<databricks-instance>/api/2.0/jobs/run-now \
--data @run-job.json \
| jq .

run-job.json:

Ett exempel på en förfrågan om ett anteckningsjobb:

{
  "job_id": 1,
  "notebook_params": {
    "name": "john doe",
    "age": "35"
  }
}

Ett exempel på en begäran för ett JAR-jobb:

{
  "job_id": 2,
  "jar_params": ["john doe", "35"]
}

Ersätta:

  • med Azure Databricks-arbetsytans instansnamn , till exempel .
  • Innehållet i run-job.json med fält som är lämpliga för din lösning.

I det här exemplet används en .netrc-fil och jq.

Begärandestruktur

Fältnamn Typ Beskrivning
job_id INT64
jar_params En matris med STRING En lista över parametrar för jobb med JAR-uppgifter, t.ex. "jar_params": ["john doe", "35"]. Parametrarna används för att anropa huvudfunktionen för huvudklassen som anges i Spark JAR-aktiviteten. Om det inte anges vid run-nowkommer den som standard att vara en tom lista. jar_params kan inte anges tillsammans med notebook_params. JSON-representationen av det här fältet (dvs. {"jar_params":["john doe","35"]}) får inte överstiga 10 000 byte.
notebook_params En karta över ParamPair En karta från nycklar till värden för jobb med anteckningsboksuppgifter, t.ex.
"notebook_params": {"name": "john doe", "age": "35"}. Kartan skickas till anteckningsboken och är tillgänglig via funktionen dbutils.widgets.get.
Om det inte anges i samband med run-now, använder den utlösta processen jobbets standardparametrar.
Du kan inte ange notebook_params tillsammans med jar_params.
JSON-representationen av det här fältet (dvs.
{"notebook_params":{"name":"john doe","age":"35"}}) får inte överstiga 10 000 byte.
python_params En matris med STRING En lista över parametrar för jobb med Python-uppgifter, t.ex. "python_params": ["john doe", "35"]. Parametrarna skickas till Python-filen som kommandoradsparametrar. Om det anges vid run-now skrivs de angivna parametrarna i jobbinställningen över. JSON-representationen av det här fältet (dvs. {"python_params":["john doe","35"]}) får inte överstiga 10 000 byte.
spark_submit_params En matris med STRING En lista med parametrar för jobb med spark submit-uppgift, t.ex.
"spark_submit_params": ["--class", "org.apache.spark.examples.SparkPi"]. Parametrarna skickas till spark-submit-skriptet som kommandoradsparametrar. Om det anges vid run-now skrivs de angivna parametrarna i jobbinställningen över. JSON-representationen av det här fältet får inte överstiga 10 000 byte.
idempotency_token STRING En valfri token för att garantera idempotens vid förfrågningar om att köra jobb. Om det redan finns en körning med den angivna token skapar begäran inte en ny körning, utan returnerar ID:t för den befintliga körningen i stället. Om en körning med den angivna token tas bort returneras ett fel.
Om du anger idempotenstoken kan du vid ett fel försöka igen tills begäran lyckas. Azure Databricks garanterar att exakt en körning startas med den idempotenstoken.
Den här token måste innehålla högst 64 tecken.
För mer information, se Så säkerställer du idempotens för arbeten.

Svarsstruktur

Fältnamn Typ Beskrivning
run_id INT64 Det globalt unika ID:t för den nyligen utlösta körningen.
number_in_job INT64 Sekvensnumret för den här körningen bland alla körningar av jobbet.

Körningar skickas in

Viktigt!

  • En arbetsyta är begränsad till 1 000 samtidigt körande uppgifter. Ett 429 Too Many Requests-svar returneras när du begär en körning som inte kan starta direkt.
  • Antalet jobb som en arbetsyta kan skapa på en timme är begränsat till 1 0000 (inklusive "kör skicka"). Den här gränsen påverkar även jobb som skapats av REST API och notebook-arbetsflöden.
  • En arbetsyta kan innehålla upp till 12 000 sparade jobb.
  • Ett jobb kan innehålla upp till 100 aktiviteter.
Slutpunkt HTTP-metod
2.0/jobs/runs/submit POST

Skicka in en engångskörning. Med den här slutpunkten kan du skicka ett arbete direkt utan att skapa ett jobb. Använd API:et jobs/runs/get för att kontrollera körstatusen efter att jobbet har skickats in.

Exempel

Förfrågan

curl --netrc --request POST \
https://<databricks-instance>/api/2.0/jobs/runs/submit \
--data @submit-job.json \
| jq .

submit-job.json:

{
  "run_name": "my spark task",
  "new_cluster": {
    "spark_version": "7.3.x-scala2.12",
    "node_type_id": "Standard_D3_v2",
    "num_workers": 10
  },
  "libraries": [
    {
      "jar": "dbfs:/my-jar.jar"
    },
    {
      "maven": {
        "coordinates": "org.jsoup:jsoup:1.7.2"
      }
    }
  ],
  "spark_jar_task": {
    "main_class_name": "com.databricks.ComputeModels"
  }
}

Ersätta:

  • med Azure Databricks-arbetsytans instansnamn, till exempel .
  • Innehållet i submit-job.json med fält som är lämpliga för din lösning.

I det här exemplet används en .netrc-fil och jq.

Svar

{
  "run_id": 123
}

Begärandestruktur

Viktigt!

  • När du kör ett jobb på ett nytt jobbkluster behandlas jobbet som en Jobs Compute-arbetsbelastning (automatiserad) och omfattas av Jobs Compute-prissättning.
  • När du kör ett jobb på ett befintligt all-purpose-kluster, behandlas det som en interaktiv arbetsbelastning för All-Purpose Compute och omfattas av prissättningen för All-Purpose Compute.
Fältnamn Typ Beskrivning
existing_cluster_id ELLER new_cluster STRING OR NewCluster Om existing_cluster_id används ID:t för ett befintligt kluster för alla körningar av det här jobbet. När du kör jobb i ett befintligt kluster kan du behöva starta om klustret manuellt om det slutar svara. Vi föreslår att du kör jobb på nya kluster för bättre tillförlitlighet.
Om new_cluster, en beskrivning av ett kluster som kommer att skapas för varje körning.
Om du anger en PipelineTask kan det här fältet vara tomt.
notebook_taskELLER spark_jar_task
spark_python_taskELLER spark_submit_task
pipeline_task ELLER run_job_task
NotebookTask ELLER SparkJarTask ELLER SparkPythonTask ELLER SparkSubmitTask ELLER PipelineTask ELLER RunJobTask Om notebook_task anger att det här jobbet ska köra en notebook-fil. Det här fältet kanske inte anges tillsammans med spark_jar_task.
Om spark_jar_task anger att det här jobbet ska köra en JAR-fil.
Om spark_python_task anger att det här jobbet ska köra en Python-fil.
Om spark_submit_task visar att detta jobb ska startas av spark submit-skriptet.
Om pipeline_task anger att det här jobbet ska köra en DLT-pipeline.
Om run_job_task är satt, innebär det att det här jobbet ska köra ett annat jobb.
run_name STRING Ett valfritt namn för körningen. Standardvärdet är Untitled.
webhook_notifications WebhookNotifications En valfri uppsättning systemdestinationer som ska meddelas när exekveringar av detta jobb påbörjas, avslutas eller misslyckas.
notification_settings Jobbnotifikationsinställningar Valfria meddelandeinställningar som används när du skickar meddelanden till var och en av webhook_notifications för den här körningen.
libraries En samling av bibliotek En valfri lista över bibliotek som ska installeras i klustret som ska köra jobbet. Standardvärdet är en tom lista.
timeout_seconds INT32 En valfri tidsgräns som tillämpas för varje körning av den här uppgiften. Standardbeteendet är att inte ha någon tidsgräns.
idempotency_token STRING En valfri token för att garantera idempontens vid förfrågningar om jobbexekveringar. Om det redan finns en körning med den angivna token skapar begäran inte en ny körning, utan returnerar ID:t för den befintliga körningen i stället. Om en körning med den angivna token tas bort returneras ett fel.
Om du anger idempotenstoken kan du vid ett fel försöka igen tills begäran lyckas. Azure Databricks garanterar att exakt en körning startas med den idempotenstoken.
Den här token måste innehålla högst 64 tecken.
För mer information, se Så säkerställer du idempotens för arbeten.

Svarsstruktur

Fältnamn Typ Beskrivning
run_id INT64 Den kanoniska identifieraren för nyligen inskickade kör.

Körningslista

Slutpunkt HTTP-metod
2.0/jobs/runs/list GET

Listan är ordnad i fallande ordning efter starttid.

Anmärkning

Körningar tas bort automatiskt efter 60 dagar. Om du vill referera till dem längre än 60 dagar bör du spara gamla körningsresultat innan de upphör att gälla. Information om hur du exporterar med hjälp av användargränssnittet finns i Exportera jobbkörningsresultat. Information om hur du exporterar med hjälp av jobb-API:et finns i Körningar exportera.

Exempel

Förfrågan

curl --netrc --request GET \
'https://<databricks-instance>/api/2.0/jobs/runs/list?job_id=<job-id>&active_only=<true-false>&offset=<offset>&limit=<limit>&run_type=<run-type>' \
| jq .

Eller:

curl --netrc --get \
https://<databricks-instance>/api/2.0/jobs/runs/list \
--data 'job_id=<job-id>&active_only=<true-false>&offset=<offset>&limit=<limit>&run_type=<run-type>' \
| jq .

Ersätta:

  • med instansnamnet för Azure Databricks-arbetsytan , till exempel .
  • <job-id> med jobbets ID, till exempel 123.
  • "<true-false> med true eller false".
  • <offset> med offset-värdet.
  • <limit> med limit-värdet.
  • <run-type> med run_type-värdet.

I det här exemplet används en .netrc-fil och jq.

Svar

{
  "runs": [
    {
      "job_id": 1,
      "run_id": 452,
      "number_in_job": 5,
      "state": {
        "life_cycle_state": "RUNNING",
        "state_message": "Performing action"
      },
      "task": {
        "notebook_task": {
          "notebook_path": "/Users/donald@duck.com/my-notebook"
        }
      },
      "cluster_spec": {
        "existing_cluster_id": "1201-my-cluster"
      },
      "cluster_instance": {
        "cluster_id": "1201-my-cluster",
        "spark_context_id": "1102398-spark-context-id"
      },
      "overriding_parameters": {
        "jar_params": ["param1", "param2"]
      },
      "start_time": 1457570074236,
      "end_time": 1457570075149,
      "setup_duration": 259754,
      "execution_duration": 3589020,
      "cleanup_duration": 31038,
      "run_duration": 3879812,
      "trigger": "PERIODIC"
    }
  ],
  "has_more": true
}

Begärandestruktur

Fältnamn Typ Beskrivning
active_only ELLER completed_only BOOL ELLER BOOL Om active_only är trueinkluderas endast aktiva körningar i resultatet. Annars visas både aktiva och slutförda körningar. En aktiv körning är en körning i PENDING, RUNNING eller TERMINATINGRunLifecycleState. Det här fältet får inte vara true när completed_only är true.
Om completed_only är trueinkluderas endast slutförda körningar i resultatet. Annars visas både aktiva och slutförda körningar. Det här fältet får inte vara true när active_only är true.
job_id INT64 Det jobb för vilket listan körs. Om den utelämnas, kommer Jobbtjänsten att lista körningar från alla jobb.
offset INT32 Förskjutningen av den första körningen som ska returneras i förhållande till den senaste körningen.
limit INT32 Antalet körningar som ska returneras. Det här värdet bör vara större än 0 och mindre än 1 000. Standardvärdet är 20. Om en begäran anger en gräns på 0 använder tjänsten i stället den maximala gränsen.
run_type STRING Vilken typ av körningar som ska returneras. En beskrivning av körningstyper finns i Kör.

Svarsstruktur

Fältnamn Typ Beskrivning
runs En matris av Kör En lista över körningar, från senast startad till minst.
has_more BOOL Om det är sant är ytterligare körningar som matchar det angivna filtret tillgängliga för att listas.

Körningar hämta

Slutpunkt HTTP-metod
2.0/jobs/runs/get GET

Hämta metadata för en körning.

Kommentar

Körningar tas bort automatiskt efter 60 dagar. Om du vill referera till dem längre än 60 dagar bör du spara gamla körningsresultat innan de upphör att gälla. Information om hur du exporterar med hjälp av användargränssnittet finns i Exportera jobbkörningsresultat. Information om hur du exporterar med hjälp av jobb-API:et finns i Körningar exportera.

Exempel

Förfrågan

curl --netrc --request GET \
'https://<databricks-instance>/api/2.0/jobs/runs/get?run_id=<run-id>' \
| jq .

Eller:

curl --netrc --get \
https://<databricks-instance>/api/2.0/jobs/runs/get \
--data run_id=<run-id> \
| jq .

Ersätta:

  • med Azure Databricks arbetsyteinstansens namn , till exempel .
  • <run-id> med ID:t för körningen, till exempel 123.

I det här exemplet används en .netrc-fil och jq.

Svar

{
  "job_id": 1,
  "run_id": 452,
  "number_in_job": 5,
  "state": {
    "life_cycle_state": "RUNNING",
    "state_message": "Performing action"
  },
  "task": {
    "notebook_task": {
      "notebook_path": "/Users/someone@example.com/my-notebook"
    }
  },
  "cluster_spec": {
    "existing_cluster_id": "1201-my-cluster"
  },
  "cluster_instance": {
    "cluster_id": "1201-my-cluster",
    "spark_context_id": "1102398-spark-context-id"
  },
  "overriding_parameters": {
    "jar_params": ["param1", "param2"]
  },
  "start_time": 1457570074236,
  "end_time": 1457570075149,
  "setup_duration": 259754,
  "execution_duration": 3589020,
  "cleanup_duration": 31038,
  "run_duration": 3879812,
  "trigger": "PERIODIC"
}

Begärandestruktur

Fältnamn Typ Beskrivning
run_id INT64 Den kanoniska identifieraren för körningen som metadata ska hämtas för. Fältet är obligatoriskt.

Svarsstruktur

Fältnamn Typ Beskrivning
job_id INT64 Den kanoniska identifieraren för det jobb som inkluderar denna körning.
run_id INT64 Den kanoniska identifieraren för körningen. Det här ID:t är unikt för alla körningar av alla jobb.
number_in_job INT64 Sekvensnumret för den här körningen bland alla körningar av jobbet. Det här värdet börjar vid 1.
original_attempt_run_id INT64 Om den här körningen är ett försök att köra igen ett tidigare försök, innehåller det här fältet run_id för det ursprungliga försöket; Annars är det samma som run_id.
state RunState Resultatet och livscykeltillstånden för körningen.
schedule CronSchedule Cron-schemat som utlöst den här körningen om den utlöstes av den periodiska schemaläggaren.
task JobTask Det uppdrag som utförs av körningen, om något.
cluster_spec ClusterSpec En ögonblicksbild av klusterspecifikationen för jobbet när den här körningen skapades.
cluster_instance ClusterInstance Klustret som används för den här körningen. Om körningen har angetts för att använda ett nytt kluster anges det här fältet när jobbtjänsten har begärt ett kluster för körningen.
overriding_parameters RunParameters De parametrarna som används för den här körningen.
start_time INT64 Den tid då den här körningen startades i millisekunder i epoktid (millisekunder från och med 1/1/1970 UTC). Det här kanske inte är den tidpunkt då jobbaktiviteten börjar köras, till exempel om jobbet är schemalagt att köras i ett nytt kluster, det är den tidpunkt då anropet för att skapa klustret utfärdas.
end_time INT64 Den tid då denna körning slutade i epok-millisekunder (millisekunder sedan 1/1/1970 UTC). Detta fält kommer att anges till 0 om jobbet fortfarande är igång.
setup_duration INT64 Tiden i millisekunder det tog att konfigurera klustret. För körningar på nya kluster är detta tiden för klusterets skapande, medan för körningar på befintliga kluster bör tiden vara mycket kort. Den totala varaktigheten för körningen är summan av setup_duration,
execution_duration, och cleanup_duration. Fältet setup_duration är inställt på 0 för multitaskjobb. Den totala varaktigheten för en multitask-jobbkörning är värdet för
run_duration fält.
execution_duration INT64 Den tid i millisekunder det tog att köra kommandona i JAR-filen eller notebook-filen tills de slutfördes, misslyckades, gick ut på tid, blev avbrutna eller påträffade ett oväntat fel. Den totala varaktigheten för körningen är summan av setup_duration, execution_duration och
cleanup_duration. Fältet execution_duration är inställt på 0 för multitaskjobb. Den totala varaktigheten för en multitask-jobbkörning är värdet för fältet run_duration .
cleanup_duration INT64 Den tid i millisekunder det tog att avsluta klustret och rensa eventuella associerade artefakter. Den totala varaktigheten för körningen är summan av setup_duration, execution_duration och cleanup_duration. Fältet cleanup_duration är inställt på 0 för multitaskjobb. Den totala varaktigheten för en multitask-jobbkörning är värdet för fältet run_duration .
run_duration INT64 Tiden i millisekunder som det tog för jobbkörningen och alla dess reparationer att slutföras. Det här fältet anges endast för multitask-jobbkörningar och inte för uppgiftskörningar. Varaktigheten för en aktivitetskörning är summan av
setup_duration, execution_durationoch cleanup_duration.
trigger TriggerType Typen av utlösare som utlöste den här körningen.
creator_user_name STRING Skaparens användarnamn. Det här fältet tas inte med i svaret om användaren har tagits bort
run_page_url STRING URL till detaljsidan för processen.

Kör export

Slutpunkt HTTP-metod
2.0/jobs/runs/export GET

Exportera och hämta arbetsuppgiften för jobbet.

Kommentar

Endast notebook-körningar kan exporteras i HTML-format. Det kommer att misslyckas att exportera körningar av andra slags typer.

Exempel

Förfrågan

curl --netrc --request GET \
'https://<databricks-instance>/api/2.0/jobs/runs/export?run_id=<run-id>' \
| jq .

Eller:

curl --netrc --get \
https://<databricks-instance>/api/2.0/jobs/runs/export \
--data run_id=<run-id> \
| jq .

Ersätta:

  • med Azure Databricks-arbetsytans instansnamn , till exempel .
  • <run-id> med ID för körningen, till exempel 123.

I det här exemplet används en .netrc-fil och jq.

Svar

{
  "views": [
    {
      "content": "<!DOCTYPE html><html><head>Head</head><body>Body</body></html>",
      "name": "my-notebook",
      "type": "NOTEBOOK"
    }
  ]
}

Om du vill extrahera HTML-anteckningsboken från JSON-svaret laddar du ned och kör det här Python-skriptet.

Kommentar

Notebook-kroppen i __DATABRICKS_NOTEBOOK_MODEL objektet är kodad.

Begärandestruktur

Fältnamn Typ Beskrivning
run_id INT64 Den kanoniska identifieraren för körningen. Fältet är obligatoriskt.
views_to_export Visningar att exportera Vilka vyer som ska exporteras (KOD, INSTRUMENTPANELER eller ALLA). Standardläget är CODE.

Svarsstruktur

Fältnamn Typ Beskrivning
views En matris med ViewItem Det exporterade innehållet i HTML-format (ett för varje visningsobjekt).

Körningar avbryts

Slutpunkt HTTP-metod
2.0/jobs/runs/cancel POST

Avbryt en jobbkörning. Eftersom processen avbryts asynkront kan den fortfarande vara igång när den här begäran har slutförts. Körningen avslutas inom kort. Om körningen redan finns i en terminal life_cycle_state, är den här metoden en no-op.

Den här slutpunkten verifierar att parametern run_id är giltig och för ogiltiga parametrar returneras HTTP-statuskod 400.

Exempel

curl --netrc --request POST \
https://<databricks-instance>/api/2.0/jobs/runs/cancel \
--data '{ "run_id": <run-id> }'

Ersätta:

  • med namnet på instansen för arbetsytan för Azure Databricks , till exempel .
  • <run-id> med ID:t för körningen, till exempel 123.

I det här exemplet används en .netrc-fil .

Begärandestruktur

Fältnamn Typ Beskrivning
run_id INT64 Den kanoniska identifieraren för körningen som ska avbrytas. Fältet är obligatoriskt.

Körningar avbryter allt

Slutpunkt HTTP-metod
2.0/jobs/runs/cancel-all POST

Avbryt alla aktiva körningar av ett jobb. Eftersom körningen avbryts asynkront förhindrar den inte att nya körningar startas.

Den här slutpunkten verifierar att parametern job_id är giltig och för ogiltiga parametrar returneras HTTP-statuskod 400.

Exempel

curl --netrc --request POST \
https://<databricks-instance>/api/2.0/jobs/runs/cancel-all \
--data '{ "job_id": <job-id> }'

Ersätta:

  • med namnet på Azure Databricks-arbetsytans instans , Till exempel .
  • <job-id> med jobbets ID, till exempel 123.

I det här exemplet används en .netrc-fil .

Begärandestruktur

Fältnamn Typ Beskrivning
job_id INT64 Den kanoniska identifieraren för jobbet som ska avbryta alla körningar. Fältet är obligatoriskt.

Körningar genererar utdata

Slutpunkt HTTP-metod
2.0/jobs/runs/get-output GET

Hämta utdata och metadata för en enskild aktivitetskörning. När en notebook-uppgift returnerar ett värde via anropet dbutils.notebook.exit() kan du använda den här slutpunkten för att hämta det värdet. Azure Databricks begränsar det här API:et till att returnera de första 5 MB av utdata. Om du vill returnera ett större resultat kan du lagra jobbresultat i en molnlagringstjänst.

Den här slutpunkten verifierar att parametern run_id är giltig och för ogiltiga parametrar returneras HTTP-statuskod 400.

Körningar tas bort automatiskt efter 60 dagar. Om du vill referera till dem längre än 60 dagar bör du spara gamla körningsresultat innan de upphör att gälla. Information om hur du exporterar med hjälp av användargränssnittet finns i Exportera jobbkörningsresultat. Information om hur du exporterar med hjälp av jobb-API:et finns i Körningar exportera.

Exempel

Förfrågan

curl --netrc --request GET \
'https://<databricks-instance>/api/2.0/jobs/runs/get-output?run_id=<run-id>' \
| jq .

Eller:

curl --netrc --get \
https://<databricks-instance>/api/2.0/jobs/runs/get-output \
--data run_id=<run-id> \
| jq .

Ersätta:

  • med namnet på instansen för Azure Databricks-arbetsytan, till exempel .
  • <run-id> med ID för körningen, till exempel 123.

I det här exemplet används en .netrc-fil och jq.

Svar

{
  "metadata": {
    "job_id": 1,
    "run_id": 452,
    "number_in_job": 5,
    "state": {
      "life_cycle_state": "TERMINATED",
      "result_state": "SUCCESS",
      "state_message": ""
    },
    "task": {
      "notebook_task": {
        "notebook_path": "/Users/someone@example.com/my-notebook"
      }
    },
    "cluster_spec": {
      "existing_cluster_id": "1201-my-cluster"
    },
    "cluster_instance": {
      "cluster_id": "1201-my-cluster",
      "spark_context_id": "1102398-spark-context-id"
    },
    "overriding_parameters": {
      "jar_params": ["param1", "param2"]
    },
    "start_time": 1457570074236,
    "setup_duration": 259754,
    "execution_duration": 3589020,
    "cleanup_duration": 31038,
    "run_duration": 3879812,
    "trigger": "PERIODIC"
  },
  "notebook_output": {
    "result": "the maybe truncated string passed to dbutils.notebook.exit()"
  }
}

Begärandestruktur

Fältnamn Typ Beskrivning
run_id INT64 Den kanoniska identifieraren för körningen. För ett jobb med flera uppgifter är detta run_id en exekvering av en uppgift. Se Körningar genererar utdata. Fältet är obligatoriskt.

Svarsstruktur

Fältnamn Typ Beskrivning
notebook_output ELLER error NotebookOutput ELLER STRING Om notebook_output, utdata för en notebook-uppgift, om det är tillgängligt. En anteckningsboksuppgift som avslutas (antingen framgångsrikt eller med ett fel) utan att anropa
dbutils.notebook.exit() anses ha tomma utdata. Det här fältet anges men dess resultatvärde är tomt.
Om felet uppstår visas ett felmeddelande som anger varför utdata inte är tillgängliga. Meddelandet är ostrukturerat och dess exakta format kan komma att ändras.
metadata Springa Alla detaljer om körningen förutom dess resultat.

Kör borttagning

Slutpunkt HTTP-metod
2.0/jobs/runs/delete POST

Ta bort en icke-aktiv körning. Returnerar ett fel om processen är aktiv.

Exempel

curl --netrc --request POST \
https://<databricks-instance>/api/2.0/jobs/runs/delete \
--data '{ "run_id": <run-id> }'

Ersätta:

  • med instansnamnet för Azure Databricks-arbetsytan, till exempel .
  • <run-id> med ID för körningen, till exempel 123.

I det här exemplet används en .netrc-fil .

Begärandestruktur

Fältnamn Typ Beskrivning
run_id INT64 Den kanoniska identifieraren för körningen som metadata ska hämtas för.

Datastrukturer

I detta avsnitt:

ABFSSStorageInfo

Lagringsinformation för Azure Data Lake Storage (ADLS).

Fältnamn Typ Beskrivning
destination STRING Fildestination. Exempel: abfss://...

Automatisk skalning

Intervall som definierar minsta och högsta antal klusterarbetare.

Fältnamn Typ Beskrivning
min_workers INT32 Det minsta antalet arbetare som klustret kan skalas ned till när det är underutnyttrat. Det är också det första antalet arbetare som klustret kommer att ha när det har skapats.
max_workers INT32 Det maximala antalet arbetare som klustret kan skalas upp till när det är överbelastat. max_workers måste vara strikt större än min_workers.

AzureAttributes

Attribut som anges när klustret skapas som är relaterade till Azure.

Fältnamn Typ Beskrivning
first_on_demand INT32 De första first_on_demand noderna i klustret kommer att placeras på on-demand-instanser. Det här värdet måste vara större än 0, annars misslyckas verifieringen av klusterskapandet. Om det här värdet är större än eller lika med den aktuella klusterstorleken placeras alla noder på begäran-instanser. Om det här värdet är mindre än den aktuella klusterstorleken first_on_demand placeras noder på begäran-instanser och resten placeras på tillgänglighetsinstanser. Det här värdet påverkar inte klusterstorleken och kan inte muteras under ett klusters livslängd.
availability AzureAvailability Tillgänglighetstyp som används för alla noder efter de som är markerade med first_on_demand.
spot_bid_max_price DOUBLE Det högsta budpriset som används för Azure Spot-instanser. Du kan ange detta till större än eller lika med det aktuella spotpriset. Du kan också ställa in detta på -1 (standardvärdet), som anger att instansen inte kan avlägsnas baserat på pris. Priset för instansen är det aktuella priset för spotinstanser eller priset för en standardinstans. Du kan visa historiska priser och borttagningsfrekvenser i Azure Portal.

AzureAvailability

Tillgänglighetstypens beteende för Azure-instansen.

Typ Beskrivning
SPOT_AZURE Använd spot-instanser.
ON_DEMAND_AZURE Använd instanser på begäran.
SPOT_WITH_FALLBACK_AZURE Använd helst spot-instanser, men återgå till instanser på begäran om spot-instanser inte kan förvärvas (till exempel om Azure spot-priser är för höga eller kvoten har uppnåtts). Gäller inte för pooltillgänglighet.

ClusterInstance

ID för klustret och Spark-kontexten som används i en körning. Dessa två värden identifierar tillsammans en körningskontext genom tiderna.

Fältnamn Typ Beskrivning
cluster_id STRING Den kanoniska identifieraren för klustret som används för en körning. Det här fältet är alltid tillgängligt för programkörningar i befintliga kluster. För körningar på nya kluster blir det tillgängligt när klustret har skapats. Det här värdet kan användas för att visa loggar genom att bläddra till /#setting/sparkui/$cluster_id/driver-logs. Loggarna kommer att vara tillgängliga när körningen är avslutad.
Svaret inkluderar inte det här fältet om identifieraren inte är tillgänglig ännu.
spark_context_id STRING Den kanoniska identifieraren för Spark-kontexten som används av en körning. Det här fältet fylls i när körningen påbörjas. Det här värdet kan användas för att visa Spark-användargränssnittet genom att bläddra till /#setting/sparkui/$cluster_id/$spark_context_id. Spark-användargränssnittet fortsätter att vara tillgängligt när körningen har slutförts.
Svaret inkluderar inte det här fältet om identifieraren inte är tillgänglig ännu.

ClusterLogConf

Sökväg till klusterloggen.

Fältnamn Typ Beskrivning
dbfs DBFS-plats för klusterloggen. Målet måste anges. Till exempel: { "dbfs" : { "destination" : "dbfs:/home/cluster_log" } }

ClusterSpec

Viktigt!

  • När du kör ett jobb på ett nytt jobbkluster behandlas jobbet som en Jobs Compute-arbetsbelastning (automatiserad) och omfattas av Jobs Compute-prissättning.
  • När du kör ett jobb i ett befintligt allfunktionskluster behandlas det som en arbetsbelastning för All-Purpose Compute (interaktiv) som omfattas av prissättningen för All-Purpose Compute.
Fältnamn Typ Beskrivning
existing_cluster_id ELLER new_cluster STRING OR NewCluster Om existing_cluster_id används ID:t för ett befintligt kluster för alla körningar av det här jobbet. När du kör jobb i ett befintligt kluster kan du behöva starta om klustret manuellt om det slutar svara. Vi föreslår att du kör uppgifter på nya kluster för bättre tillförlitlighet.
Om new_cluster gäller, en beskrivning av ett kluster som kommer att skapas för varje körning.
Om du anger en PipelineTask kan det här fältet vara tomt.
libraries En matris med bibliotek En valfri lista över bibliotek som ska installeras i klustret som ska köra jobbet. Standardvärdet är en tom lista.

Klustertagg

Definition av klustertagg.

Typ Beskrivning
STRING Nyckeln till taggen. Nyckeln måste:
  • Vara mellan 1 och 512 tecken långt
  • Innehåller inte något av tecknen <>%*&+?\\/
  • Börja inte med azure, microsofteller windows
STRING Taggens värde. Värdelängden måste vara mindre än eller lika med 256 UTF-8 tecken.

CronSchedule

Fältnamn Typ Beskrivning
quartz_cron_expression STRING Ett Cron-uttryck med Quartz-syntax som beskriver schemat för ett jobb. Mer information finns i Cron-utlösare . Fältet är obligatoriskt.
timezone_id STRING Ett Java-tidszons-ID. Schemat för ett jobb kommer att fastställas utifrån den här tidszonen. Mer information finns i Java TimeZone. Fältet är obligatoriskt.
pause_status STRING Ange om schemat är pausat eller inte. Antingen "PAUSAD" eller "UNPAUSED".

DbfsStorageInfo

DBFS-lagringsinformation.

Fältnamn Typ Beskrivning
destination STRING DBFS-mål. Exempel: dbfs:/my/path

FileStorageInfo

Fillagringsinformation.

Kommentar

Den här platstypen är endast tillgänglig för kluster som konfigurerats med Databricks Container Services.

Fältnamn Typ Beskrivning
destination STRING Fildestination. Exempel: file:/my/file.sh

InitScriptInfo

Sökväg till ett init-skript.

Anvisningar om hur du använder init-skript med Databricks Container Services finns i Använda ett init-skript.

Kommentar

Fillagringstypen (fältnamn: file) är endast tillgänglig för kluster som konfigurerats med Databricks Container Services. Se FileStorageInfo.

Fältnamn Typ Beskrivning
workspace ELLER dbfs (inaktuell)
ELLER abfss
ArbetsytaLagringsinformation
DbfsStorageInfo (inaktuell)
ABFSSStorageInfo
Arbetsytans plats för init-skriptet. Målet måste anges. Ett exempel:
{ "workspace" : { "destination" : "/Users/someone@domain.com/init_script.sh" } }
(Inaktuell) DBFS-platsen för init-skriptet. Målet måste anges. Ett exempel:
{ "dbfs" : { "destination" : "dbfs:/home/init_script" } }
Azure Data Lake Storage (ADLS) plats för init-skript. Målet måste anges. Till exempel: { "abfss": { "destination" : "abfss://..." } }

Jobb

Fältnamn Typ Beskrivning
job_id INT64 Den kanoniska identifieraren för det här arbetet.
creator_user_name STRING Skaparens användarnamn. Det här fältet tas inte med i svaret om användaren redan har tagits bort.
run_as STRING Användarnamnet som jobbet ska köras som. run_as baseras på de aktuella jobbinställningarna och blir tilldelad jobbets skapare om åtkomstkontroll för jobb är inaktiverad eller is_owner tillstånd om åtkomstkontroll för jobb är aktiverad.
settings JobSettings Inställningar för det här jobbet och alla dess utföranden. De här inställningarna kan uppdateras med hjälp av resetJob metoden .
created_time INT64 Den tidpunkt då det här arbetet skapades i epokens millisekunder (millisekunder sedan den 1/1/1970 UTC).

JobbEpostMeddelanden

Viktigt!

Fälten on_start, on_success och on_failure accepterar endast latinska tecken (ASCII-teckenuppsättning). Om du använder icke-ASCII-tecken returneras ett fel. Exempel på ogiltiga, icke-ASCII-tecken är kinesiska, japanska kanjis och emojis.

Fältnamn Typ Beskrivning
on_start En matris med STRING En lista över e-postadresser som ska meddelas när en process börjar. Om det inte anges när jobb skapas, återställs eller uppdateras är listan tom och meddelanden skickas inte.
on_success En matris med STRING En lista över e-postadresser som ska meddelas när en körning har slutförts framgångsrikt. En körning anses ha slutförts framgångsrikt om den slutar med en TERMINATEDlife_cycle_state och en SUCCESSFULresult_state. Om det inte anges när jobb skapas, återställs eller uppdateras är listan tom och meddelanden skickas inte.
on_failure En matris med STRING En lista över e-postadresser som ska meddelas när en process avslutas utan framgång. En körning anses ha slutförts utan framgång om den slutar med en INTERNAL_ERROR
life_cycle_state eller en SKIPPED, FAILED, eller TIMED_OUT result_state. Om detta inte anges när jobbet skapas, återställs eller uppdateras är listan tom och meddelanden skickas inte.
on_duration_warning_threshold_exceeded En matris med STRING En lista över e-postadresser som ska meddelas när varaktigheten för en körning överskrider det tröskelvärde som angetts för mätvärdet RUN_DURATION_SECONDS i fältet health. Om ingen regel för måttet RUN_DURATION_SECONDS anges i health fältet för jobbet skickas inte meddelanden.
no_alert_for_skipped_runs BOOL Om sant, skicka inte e-post till mottagare som anges i on_failure om körningen uteblir.
Fältnamn Typ Beskrivning
on_start En matris med Webhook En valfri lista över systemmål som ska meddelas när en körning påbörjas. Om det inte anges när jobb skapas, återställs eller uppdateras är listan tom och meddelanden skickas inte. Högst 3 mål kan anges för egenskapen on_start .
on_success En matris med Webhook En valfri lista över systemdestinationer som ska meddelas när en körning har slutförts framgångsrikt. En körning anses vara framgångsrikt avslutad om den slutar med en TERMINATEDlife_cycle_state och en SUCCESSFULresult_state. Om det inte anges när jobb skapas, återställs eller uppdateras är listan tom och meddelanden skickas inte. Högst 3 mål kan anges för egenskapen on_success .
on_failure En matris med Webhook En valfri lista över systemmål som ska meddelas när en körning slutförs utan framgång. En körning anses ha slutförts utan framgång om den slutar med en INTERNAL_ERROR
life_cycle_state eller en SKIPPED, FAILED, eller TIMED_OUT result_state. Om detta inte anges när jobbet skapas, återställs eller uppdateras är listan tom och meddelanden skickas inte. Högst 3 mål kan anges för egenskapen on_failure .
on_duration_warning_threshold_exceeded En matris med Webhook En valfri lista över systemmål som ska meddelas när varaktigheten för en körning överskrider det tröskelvärde som angetts för måttet RUN_DURATION_SECONDS i fältet health. Högst 3 mål kan anges för egenskapen on_duration_warning_threshold_exceeded .

Jobbmeddelandeinställningar

Fältnamn Typ Beskrivning
no_alert_for_skipped_runs BOOL Om det är sant, bör du inte skicka meddelanden till mottagare som anges i on_failure om körningen utelämnas.
no_alert_for_canceled_runs BOOL Om det är sant ska du inte skicka meddelanden till mottagare som anges i on_failure om körningen avbryts.
alert_on_last_attempt BOOL Om sant, skicka inte meddelanden till mottagare som anges i on_start för de nya körningarna och skicka inte meddelanden till mottagare som anges i on_failure förrän det sista återförsöket av körningen.

Jobbinställningar

Viktigt!

  • När du kör ett jobb på ett nytt jobbkluster behandlas jobbet som en Jobs Compute-arbetsbelastning (automatiserad) och omfattas av Jobs Compute-prissättning.
  • När du kör ett jobb i ett befintligt allfunktionskluster behandlas det som en arbetsbelastning för All-Purpose Compute (interaktiv) som omfattas av prissättningen för All-Purpose Compute.

Inställningar för ett jobb. De här inställningarna kan uppdateras med hjälp av resetJob metoden .

Fältnamn Typ Beskrivning
existing_cluster_id ELLER new_cluster STRING OR NewCluster Om existing_cluster_id finns, kommer ID:t för ett befintligt kluster att användas för alla körningar av detta jobb. När du kör jobb i ett befintligt kluster kan du behöva starta om klustret manuellt om det slutar svara. Vi föreslår att du kör jobb på nya kluster för bättre tillförlitlighet.
Om new_cluster, en beskrivning av ett kluster som ska skapas för varje körning.
Om du anger en PipelineTask kan det här fältet vara tomt.
notebook_taskELLER spark_jar_task
spark_python_taskELLER spark_submit_task
pipeline_task ELLER run_job_task
NotebookTask ELLER SparkJarTask ELLER SparkPythonTask ELLER SparkSubmitTask ELLER PipelineTask ELLER RunJobTask Om det finns en notebook_task, anger det att det här jobbet ska köra en notebook-fil. Det här fältet kanske inte anges tillsammans med spark_jar_task.
Om spark_jar_task anger att det här jobbet ska köra en JAR-fil.
Om spark_python_task anger att det här jobbet ska köra en Python-fil.
Om spark_submit_task visar att detta jobb ska startas av spark submit-skriptet.
Om pipeline_task anger att det här jobbet ska köra en DLT-pipeline.
Om run_job_task betyder att det här jobbet ska köra ett annat jobb.
name STRING Ett valfritt namn för jobbet. Standardvärdet är Untitled.
libraries En matris med bibliotek En valfri lista över bibliotek som ska installeras i klustret som ska köra jobbet. Standardvärdet är en tom lista.
email_notifications JobbEpostAviseringar En valfri lista med e-postadresser som meddelas när körningar av jobbet påbörjas eller slutförs samt när jobbet raderas. Standardbeteendet är att inte skicka några e-postmeddelanden.
webhook_notifications WebhookNotifications En valfri uppsättning systemdestinationer som ska meddelas när detta jobb startar, slutförs eller misslyckas.
notification_settings Jobbnotifikationsinställningar Valfria meddelandeinställningar som används när meddelanden skickas till var och en av email_notifications och webhook_notifications för det här jobbet.
timeout_seconds INT32 En valfri tidsgräns som tillämpas för varje körning av den här uppgiften. Standardbeteendet är att inte ha någon tidsgräns.
max_retries INT32 Ett valfritt maximalt antal gånger för att försöka igen efter en misslyckad körning. En körning anses misslyckad om den slutförs med FAILED result_state eller
INTERNAL_ERROR
life_cycle_state. Värdet -1 innebär att försöka igen på obestämd tid och värdet 0 innebär att aldrig försöka igen. Standardbeteendet är att aldrig försöka igen.
min_retry_interval_millis INT32 Ett valfritt minimalt intervall i millisekunder mellan försök. Standardinställningen är att misslyckade försök omedelbart görs om.
retry_on_timeout BOOL En valfri princip för att ange om ett jobb ska försöka igen när tidsgränsen uppnås. Standardbeteendet är att inte försöka igen vid tidsgränsen.
schedule CronSchedule Ett valfritt periodiskt schema för det här jobbet. Standardbeteendet är att jobbet bara körs när det utlöses genom att klicka på "Kör nu" i jobbgränssnittet eller skicka en API-begäran till
runNow.
max_concurrent_runs INT32 Ett valfritt högsta tillåtna antal samtidiga körningar av jobbet.
Ange det här värdet om du vill kunna köra samma jobb parallellt. Det här är till exempel användbart om du utlöser jobbet enligt ett vanligt schema och vill tillåta att efterföljande körningar går omlott, eller om du vill utlösa flera körningar med olika indataparametrar.
Den här inställningen påverkar endast nya körningar. Anta till exempel att jobbets parallellitet är 4 och att det finns 4 parallella aktiva körningar. Genom att ställa in samtidigheten på 3 kommer ingen av de aktiva körningarna att avslutas. Dock kommer nya körningar att hoppas över såvida det inte finns färre än 3 aktiva körningar.
Det här värdet får inte överstiga 1 000. Om det här värdet sätts till 0 utesluts alla nya körningar. Standardbeteendet är att endast tillåta 1 samtidig körning.
health Jobbhälsoregler En valfri uppsättning hälsoregler som definierats för jobbet.

Arbetsuppgift

Fältnamn Typ Beskrivning
notebook_taskELLER spark_jar_task
spark_python_taskELLER spark_submit_task
pipeline_task ELLER run_job_task
NotebookTask ELLER SparkJarTask ELLER SparkPythonTask ELLER SparkSubmitTask ELLER PipelineTask ELLER RunJobTask Om det är notebook_task anger det att det här jobbet ska köra en anteckningsbok. Det här fältet kanske inte anges tillsammans med spark_jar_task.
Om spark_jar_task anger att det här jobbet ska köra en JAR-fil.
Om spark_python_task anger att det här jobbet ska köra en Python-fil.
Om spark_submit_task visar att detta jobb ska startas av spark submit-skriptet.
Om pipeline_task anger att det här jobbet ska köra en DLT-pipeline.
Om run_job_task innebär att det här jobbet ska köra ett annat jobb.

JobbsHälsoregler

Fältnamn Typ Beskrivning
metric STRING Anger det hälsomått som utvärderas för en viss hälsoregel. Giltiga värden är RUN_DURATION_SECONDS.
operator STRING Anger operatorn som används för att jämföra hälsomåttvärdet med det angivna tröskelvärdet. Giltiga värden är GREATER_THAN.
value INT32 Anger tröskelvärdet som hälsomåttet ska uppfylla för att följa hälsoregeln.

Arbetshälsoregler

Fältnamn Typ Beskrivning
rules En matris med JobsHealthRule En valfri uppsättning hälsoregler som kan definieras för ett jobb.

Bibliotek

Fältnamn Typ Beskrivning
jar ELLER egg ELLER whl
pypiELLERmavenELLERcran
STRING OR STRING OR STRING OR PythonPyPiLibrary OR MavenLibrary OR RCranLibrary Om det är en jar-fil, URI för JAR som ska installeras. DBFS- och ADLS-URI:er (abfss) stöds. Till exempel: { "jar": "dbfs:/mnt/databricks/library.jar" } eller
{ "jar": "abfss://<container-path>/library.jar" }. Om ADLS används kontrollerar du att klustret har läsbehörighet i biblioteket.
Om det är ett ägg, URI av ägget som ska installeras. DBFS- och ADLS-URI:er stöds. Till exempel: { "egg": "dbfs:/my/egg" } eller
{ "egg": "abfss://<container-path>/egg" }.
Om det är en whl, URI för wheel eller komprimerad wheels som ska installeras. DBFS- och ADLS-URI:er stöds. Till exempel: { "whl": "dbfs:/my/whl" } eller
{ "whl": "abfss://<container-path>/whl" }. Om ADLS används kontrollerar du att klustret har läsbehörighet i biblioteket. wheel Även filnamnet måste använda rätt konvention. Om zippade wheels ska installeras ska filnamnssuffixet vara .wheelhouse.zip.
Om pypi, specifikation av ett PyPI-bibliotek som ska installeras. Det är valfritt att ange fältet repo och om det inte anges används standard-pip-indexet. Till exempel:
{ "package": "simplejson", "repo": "https://my-repo.com" }
Om maven, specifikation av ett Maven-bibliotek som ska installeras. Till exempel:
{ "coordinates": "org.jsoup:jsoup:1.7.2" }
Om cran, specifikation av ett CRAN-bibliotek som ska installeras.

MavenLibrary

Fältnamn Typ Beskrivning
coordinates STRING Maven-koordinater i Gradle-stil. Exempel: org.jsoup:jsoup:1.7.2. Fältet är obligatoriskt.
repo STRING Maven-lagringsplats för att installera Maven-paketet från. Om det utelämnas genomsöks både Maven Central Repository och Spark Packages.
exclusions En matris med STRING Lista över beroenden som ska undantas. Exempel: ["slf4j:slf4j", "*:hadoop-client"].
Maven-beroendeuteslutningar: https://maven.apache.org/guides/introduction/introduction-to-optional-and-excludes-dependencies.html.

NewCluster

Fältnamn Typ Beskrivning
num_workers ELLER autoscale INT32 ELLER AutoScale Om num_workers, antalet arbetsnoder som detta kluster ska ha. Ett kluster har en Spark-drivrutin och num_workers exekutorer, vilket ger totalt num_workers + 1 Sparknoder.
Obs! När du läser egenskaperna för ett kluster återspeglar det här fältet önskat antal arbetare i stället för det faktiska aktuella antalet arbetare. Om ett kluster till exempel ändras från 5 till 10 arbeten uppdateras det här fältet omedelbart för att återspegla målstorleken på 10 arbeten, medan de arbeten som anges i spark_info gradvis ökar från 5 till 10 när de nya noderna provisioneras.
Om autoskalning krävs parametrar för att automatiskt skala upp och ned kluster baserat på belastning.
spark_version STRING Spark-versionen av klustret. En lista över tillgängliga Spark-versioner kan hämtas med hjälp av anropet GET 2.0/clusters/spark-versions. Fältet är obligatoriskt.
spark_conf SparkConfPair Ett objekt som innehåller en uppsättning valfria, användardefinierade Nyckel/värde-par för Spark-konfiguration. Du kan också skicka in en sträng med extra JVM-inställningar till drivrutinen och exekverarna via
spark.driver.extraJavaOptions respektive spark.executor.extraJavaOptions .
Exempel på Spark-konfigurationer:
{"spark.speculation": true, "spark.streaming.ui.retainedBatches": 5} eller
{"spark.driver.extraJavaOptions": "-verbose:gc -XX:+PrintGCDetails"}
node_type_id STRING Det här fältet kodar, via ett enda värde, de resurser som är tillgängliga för var och en av Spark-noderna i det här klustret. Spark-noderna kan till exempel etableras och optimeras för minnes- eller beräkningsintensiva arbetsbelastningar En lista över tillgängliga nodtyper kan hämtas med hjälp av GET 2.0/clusters/list-node-types anrop. Det här fältet, fältet instance_pool_id eller en klusterprincip som anger ett nodtyp-ID eller instanspools-ID krävs.
driver_node_type_id STRING Nodtypen för Spark-drivrutinen. Det här fältet är valfritt. Om det inte anges anges drivrutinsnodtypen som samma värde som node_type_id som definierats ovan.
custom_tags Klustertagg Ett objekt som innehåller en uppsättning taggar för klusterresurser. Databricks taggar alla klusterresurser (till exempel virtuella datorer) med dessa taggar utöver default_tags.
Obs!
  • Taggar stöds inte på äldre nodtyper som beräkningsoptimerade och minnesoptimerade
  • Databricks tillåter högst 45 anpassade taggar
cluster_log_conf ClusterLogConf Konfigurationen för att leverera Spark-loggar till ett långsiktigt lagringsmål. Endast ett mål kan anges för ett kluster. Om konf anges kommer loggarna att levereras till destinationen varje 5 mins. Målet för drivrutinsloggarna är <destination>/<cluster-id>/driver, medan målet för körloggarna är <destination>/<cluster-id>/executor.
init_scripts En matris med InitScriptInfo Konfigurationen för lagring av init-skript. Valfritt antal skript kan anges. Skripten körs sekventiellt i den angivna ordningen. Om cluster_log_conf anges skickas init-skriptloggar till
<destination>/<cluster-id>/init_scripts.
spark_env_vars SparkEnvPair Ett objekt som innehåller en uppsättning valfria, användardefinierade nyckelvärdepar för miljövariabler. Nyckel/värde-paret i formuläret (X,Y) exporteras som det är (dvs.
export X='Y') samtidigt som drivrutinen och arbetstagarna startas.
För att ange ytterligare en uppsättning SPARK_DAEMON_JAVA_OPTSrekommenderar vi att du lägger till dem i $SPARK_DAEMON_JAVA_OPTS enligt följande exempel. Detta säkerställer att även alla standarddatabricks-hanterade miljövariabler ingår.
Exempel på Spark-miljövariabler:
{"SPARK_WORKER_MEMORY": "28000m", "SPARK_LOCAL_DIRS": "/local_disk0"} eller
{"SPARK_DAEMON_JAVA_OPTS": "$SPARK_DAEMON_JAVA_OPTS -Dspark.shuffle.service.enabled=true"}
enable_elastic_disk BOOL Lokal lagring med automatisk skalning: när det här klustret är aktiverat hämtar det dynamiskt ytterligare diskutrymme när Spark-arbetarna får ont om diskutrymme. Mer information finns i Aktivera lokal lagring med automatisk skalning.
driver_instance_pool_id STRING Det valfria ID för instanspoolen som ska användas för drivrutinsnoden. Du måste också ange instance_pool_id. Mer information finns i API:et för instanspooler.
instance_pool_id STRING Det valfria ID för instanspoolen som ska användas för klusternoder. Om driver_instance_pool_id finns,
instance_pool_id används endast för arbetsnoder. Annars används den för både drivrutinsnoden och arbetsnoderna. Mer information finns i API:et för instanspooler.

Anteckningsboksutdata

Fältnamn Typ Beskrivning
result STRING Värdet som skickades till dbutils.notebook.exit(). Azure Databricks begränsar det här API:et till att returnera de första 1 MB av värdet. För ett större resultat kan ditt jobb lagra resultaten i en molnlagringstjänst. Det här fältet saknas om dbutils.notebook.exit() aldrig har anropats.
truncated BOOLEAN Huruvida resultatet avkortades eller inte.

NotebookTask

Alla utdataceller har en gräns på 8 MB. Om utdata från en cell har en större storlek avbryts resten av körningen och körningen markeras som misslyckad. I så fall kan en del av innehållets utdata från andra celler också saknas.

Om du behöver hjälp med att hitta cellen som ligger utanför gränsen kör du notebook-filen mot ett kluster för alla syften och använder den här tekniken för automatisk lagring av notebook-filer.

Fältnamn Typ Beskrivning
notebook_path STRING Den absoluta sökvägen för anteckningsboken som ska köras på Azure Databricks-arbetsytan. Den här sökvägen måste börja med ett skråstreck. Fältet är obligatoriskt.
revision_timestamp LONG Tidsstämpeln för revideringen av anteckningsboken.
base_parameters En karta över ParamPair Basparametrar som ska användas för varje körning av den här uppgiften. Om körningen initieras av ett anrop till run-now med angivna parametrar, kommer de två parametermapparna att sammanfogas. Om samma nyckel anges i base_parameters och i run-nowanvänds värdet från run-now .
Använd Vad är en referens för dynamiskt värde? för att ange parametrar som innehåller information om jobbkörningar.
Om notebook-filen tar en parameter som inte anges i jobbets base_parameters eller run-now åsidosättningsparametrar används standardvärdet från notebook-filen.
Hämta dessa parametrar i en anteckningsbok med hjälp av dbutils.widgets.get.

ParamPair

Namnbaserade parametrar för jobb som kör notebook-uppgifter.

Viktigt!

Fälten i den här datastrukturen accepterar endast latinska tecken (ASCII-teckenuppsättning). Om du använder icke-ASCII-tecken returneras ett fel. Exempel på ogiltiga, icke-ASCII-tecken är kinesiska, japanska kanjis och emojis.

Typ Beskrivning
STRING Parameternamn. Överför till dbutils.widgets.get för att hämta värdet.
STRING Parametervärde.

PipelineTask

Fältnamn Typ Beskrivning
pipeline_id STRING Det fullständiga namnet på DLT-pipelineaktiviteten som ska köras.

PythonPyPiLibrary

Fältnamn Typ Beskrivning
package STRING Namnet på PyPI-paketet som ska installeras. En valfri exakt versionsspecifikation stöds också. Exempel: simplejson och simplejson==3.8.0. Fältet är obligatoriskt.
repo STRING Lagringsplatsen där paketet finns. Om det inte anges används standard-pip-indexet.

RCranLibrary

Fältnamn Typ Beskrivning
package STRING Namnet på CRAN-paketet som ska installeras. Fältet är obligatoriskt.
repo STRING Lagringsplatsen där paketet finns. Om det inte anges används cran-standardlagringsplatsen.

Springa

All information om en körning förutom dess utdata. Utdata kan hämtas separat med getRunOutput metoden .

Fältnamn Typ Beskrivning
job_id INT64 Den kanoniska identifieraren för det jobb som inkluderar denna körning.
run_id INT64 Den kanoniska identifieraren för körningen. Det här ID:t är unikt för alla körningar av alla jobb.
creator_user_name STRING Skaparens användarnamn. Det här fältet tas inte med i svaret om användaren redan har tagits bort.
number_in_job INT64 Sekvensnumret för den här körningen bland alla körningar i jobbet. Det här värdet börjar vid 1.
original_attempt_run_id INT64 Om den här körningen är ett nytt försök för ett tidigare körningsförsök innehåller det här fältet run_id för det ursprungliga försöket. annars är det samma som run_id.
state RunState Resultatet och livscykeltillstånden för körningen.
schedule CronSchedule Cron-schemat som utlöste den här körningen om det utlöstes av den periodiska schemaläggaren.
task JobTask Det uppdrag som utförs av en körning, om det finns något.
cluster_spec ClusterSpec En ögonblicksbild av klusterspecifikationen för jobbet när denna körning skapades.
cluster_instance ClusterInstance Klustret som användes för den här körningen. Om körningen är inställd på att använda ett nytt kluster kommer det här fältet att anges när jobbtjänsten har begärt ett kluster för körningen.
overriding_parameters RunParameters De parametrarna som används för den här körningen.
start_time INT64 Den tiden då den här körningen startades uttryckt i epochmillisekunder (millisekunder sedan 1/1/1970 UTC). Det här kanske inte är den tidpunkt då jobbaktiviteten börjar köras, till exempel om jobbet är schemalagt att köras i ett nytt kluster, det är den tidpunkt då anropet för att skapa klustret utfärdas.
setup_duration INT64 Den tid det tog att konfigurera klustret i millisekunder. För körningar på nya kluster är detta tiden för klusterets skapande, medan för körningar på befintliga kluster bör tiden vara mycket kort.
execution_duration INT64 Den tid i millisekunder det tog att köra kommandona i JAR eller notebook tills de slutfördes, misslyckades, gick ut på tid, avbröts eller påträffade ett oväntat fel.
cleanup_duration INT64 Den tid i millisekunder det tog att avsluta klustret och rensa eventuella associerade artefakter. Den totala varaktigheten för körningen är summan av inställningstiden, exekveringstiden och rengöringstiden.
end_time INT64 Den tid då denna körning slutade i epokmillisekunder (millisekunder sedan 1/1/1970 UTC). Om jobbet fortfarande körs kommer det här fältet att ställas in på 0.
trigger TriggerType Typen av utlösare som utlöste den här körningen.
run_name STRING Ett valfritt namn för körningen. Standardvärdet är Untitled. Den maximala tillåtna längden är 4 096 byte i UTF-8-kodning.
run_page_url STRING URL till detaljsidan för körningen.
run_type STRING Körningstypen.
  • JOB_RUN – Normal jobbkörning. En körning skapad med Kör nu.
  • WORKFLOW_RUN – Arbetsflödeskörning. En körning som skapats med dbutils.notebook.run.
  • SUBMIT_RUN – Skicka in körning. En körning som skapats med Kör nu.
attempt_number INT32 Sekvensnumret för det här körningsförsöket för en utlöst jobbkörning. Det första försöket i en körning har ett försöksnummer på 0. Om det första körningsförsöket misslyckas och jobbet har en återförsökspolicy (max_retries> 0) skapas efterföljande körningar med original_attempt_run_id som det ursprungliga försökets ID och ett inkrementerat attempt_number. Körningar görs bara på nytt tills de lyckas, och det maximala värdet attempt_number är detsamma som max_retries för uppgiften.

RunJobTask

Fältnamn Typ Beskrivning
job_id INT32 Unik identifierare för jobbet som ska utföras. Fältet är obligatoriskt.

RunLifeCycleState

Livscykeltillståndet för en process. Tillåtna tillståndsövergångar är:

  • QUEUED ->PENDING
  • PENDING- -->RUNNING>TERMINATING>TERMINATED
  • PENDING ->SKIPPED
  • PENDING ->INTERNAL_ERROR
  • RUNNING ->INTERNAL_ERROR
  • TERMINATING ->INTERNAL_ERROR
Stat/län Beskrivning
QUEUED Körningen har startats men har placerats i kö eftersom den har nått någon av följande begränsningar.
  • Maximalt antal samtidiga aktiva körningar i arbetsområdet.
  • Den maximala samtidiga Run Job aktiviteten körs på arbetsytan.
  • Maximalt antal samtidiga körningar av jobbet.

Jobbet eller körningen måste ha köfunktion aktiverad innan det kan nå det här tillståndet.
PENDING Körningen har startats. Om det konfigurerade maximala antalet samtidiga körningar redan har nåtts, övergår körningen omedelbart till SKIPPED läge utan att förbereda några resurser. För övrigt pågår förberedelsen av klustret och utförandet.
RUNNING Uppgiften håller på att genomföras.
TERMINATING Uppgiften för den här körningen har slutförts och kluster- och utförandekontexten rensas.
TERMINATED Uppgiften för den här körningen har slutförts och både kluster och körningskontext har rensats. Det här tillståndet är terminal.
SKIPPED Denna körning avbröts eftersom en tidigare körning av samma jobb redan var aktiv. Det här tillståndet är terminal.
INTERNAL_ERROR Ett exceptionellt tillstånd som indikerar ett fel i jobbtjänsten, till exempel nätverksfel under en lång period. Om en körning på ett nytt kluster slutar i INTERNAL_ERROR-tillståndet avslutar Jobs-tjänsten klustret så snart som möjligt. Det här tillståndet är terminal.

Körparametrar

Parametrar för den här körningen. Endast en av jar_params, python_params, eller notebook_params ska anges i run-now begäran, beroende på typen av jobbaktivitet. Jobb med Spark JAR-uppdrag eller Python-uppdrag tar en lista över positionsbaserade parametrar, och jobb med notebook-uppdrag tar en nyckelvärdeskarta.

Fältnamn Typ Beskrivning
jar_params En matris med STRING En lista över parametrar för jobb med Spark JAR-uppgifter, t.ex. "jar_params": ["john doe", "35"]. Parametrarna används för att anropa huvudfunktionen för huvudklassen som anges i Spark JAR-aktiviteten. Om det inte anges vid run-nowkommer den som standard att vara en tom lista. jar_params kan inte anges tillsammans med notebook_params. JSON-representationen av det här fältet (dvs. {"jar_params":["john doe","35"]}) får inte överstiga 10 000 byte.
Använd Vad är en referens för dynamiskt värde? för att ange parametrar som innehåller information om jobbkörningar.
notebook_params En karta över ParamPair En karta från nycklar till värden för jobb med anteckningsboksuppgifter, t.ex.
"notebook_params": {"name": "john doe", "age": "35"}. Kartan skickas till anteckningsboken och är tillgänglig via funktionen dbutils.widgets.get.
Om det inte anges i samband med run-now, använder den utlösta processen jobbets standardparametrar.
notebook_params kan inte anges tillsammans med jar_params.
Använd Vad är en referens för dynamiskt värde? för att ange parametrar som innehåller information om jobbkörningar.
JSON-representationen av det här fältet (dvs.
{"notebook_params":{"name":"john doe","age":"35"}}) får inte överstiga 10 000 byte.
python_params En matris med STRING En lista över parametrar för jobb med Python-uppgifter, t.ex. "python_params": ["john doe", "35"]. Parametrarna skickas till Python-filen som kommandoradsparametrar. Om det anges vid run-now skrivs de angivna parametrarna i jobbinställningen över. JSON-representationen av det här fältet (dvs. {"python_params":["john doe","35"]}) får inte överstiga 10 000 byte.
Använd Vad är en referens för dynamiskt värde? för att ange parametrar som innehåller information om jobbkörningar.
Dessa parametrar accepterar endast latinska tecken (ASCII-teckenuppsättning). Om du använder icke-ASCII-tecken returneras ett fel. Exempel på ogiltiga, icke-ASCII-tecken är kinesiska, japanska kanjis och emojis.
spark_submit_params En matris med STRING En lista med parametrar för jobb med spark submit-uppgift, t.ex.
"spark_submit_params": ["--class", "org.apache.spark.examples.SparkPi"]. Parametrarna skickas till spark-submit-skriptet som kommandoradsparametrar. Om det anges vid run-now skrivs de angivna parametrarna i jobbinställningen över. JSON-representationen av det här fältet (dvs. {"python_params":["john doe","35"]}) får inte överstiga 10 000 byte.
Använd Vad är en referens för dynamiskt värde? för att ange parametrar som innehåller information om jobbkörningar.
Dessa parametrar accepterar endast latinska tecken (ASCII-teckenuppsättning). Om du använder icke-ASCII-tecken returneras ett fel. Exempel på ogiltiga, icke-ASCII-tecken är kinesiska, japanska kanjis och emojis.

Körresultatstatus

Körningens resultatstatus.

  • Om life_cycle_state = TERMINATED: om körningen hade ett uppdrag är resultatet garanterat tillgängligt och så visar det uppdragets resultat.
  • Om life_cycle_state = PENDING, RUNNING, eller SKIPPED, är resultattillståndet inte tillgängligt.
  • If life_cycle_state = TERMINATING eller lifecyclestate = INTERNAL_ERROR: resultattillståndet är tillgängligt om körningen hade en uppgift och lyckades starta den.

När det är tillgängligt ändras aldrig resultattillståndet.

Stat/län Beskrivning
SUCCESS Uppgiften har slutförts.
FAILED Uppgiften slutfördes med ett fel.
TIMEDOUT Körningen stoppades efter att tidsgränsen nåtts.
CANCELED Körningen avbröts på användarbegäran.

RunState

Fältnamn Typ Beskrivning
life_cycle_state RunLifeCycleState En beskrivning av den aktuella platsen för en körning i körningslivscykeln. Det här fältet är alltid tillgängligt i svaret.
result_state RunResultState Resultattillståndet för en körning. Om det inte är tillgängligt inkluderar svaret inte det här fältet. Mer information om tillgängligheten för result_state finns i RunResultState .
user_cancelled_or_timedout BOOLEAN Om en körning avbröts manuellt av en användare eller av schemaläggaren på grund av tidsgränsen för körningen.
state_message STRING Ett beskrivande meddelande för det aktuella tillståndet. Det här fältet är ostrukturerat och det exakta formatet kan komma att ändras.

SparkConfPair

Nyckel/värde-par för Spark-konfiguration.

Typ Beskrivning
STRING Ett namn på konfigurationsegenskapen.
STRING Värdet för konfigurationsegenskapen.

SparkEnvPair

Nyckel/värde-par för Spark-miljövariabel.

Viktigt!

När du anger miljövariabler i ett jobbkluster accepterar fälten i den här datastrukturen endast latinska tecken (ASCII-teckenuppsättning). Om du använder icke-ASCII-tecken returneras ett fel. Exempel på ogiltiga, icke-ASCII-tecken är kinesiska, japanska kanjis och emojis.

Typ Beskrivning
STRING Ett miljövariabelnamn.
STRING Miljövariabelvärdet.

SparkJarTask

Fältnamn Typ Beskrivning
jar_uri STRING Inaktuell sedan 04/2016. Ange ett jar via fältet libraries i stället. Ett exempel finns i Skapa.
main_class_name STRING Det fullständiga namnet på klassen som innehåller huvudmetoden som ska köras. Den här klassen måste finnas i en JAR som tillhandahålls som ett bibliotek.
Koden ska använda SparkContext.getOrCreate för att hämta en Spark-kontext. Annars misslyckas körningen av jobbet.
parameters En matris med STRING Parametrar som skickas till huvudmetoden.
Använd Vad är en referens för dynamiskt värde? för att ange parametrar som innehåller information om jobbkörningar.

SparkPythonTask

Fältnamn Typ Beskrivning
python_file STRING URI:n för Python-filen som ska köras. DBFS-sökvägar stöds. Fältet är obligatoriskt.
parameters En matris med STRING Kommandoradsparametrar som skickas till Python-filen.
Använd Vad är en referens för dynamiskt värde? för att ange parametrar som innehåller information om jobbkörningar.

Uppgiftsinlämning med Spark

Viktigt!

  • Du kan bara anropa Spark-submit-uppgifter på nya kluster.
  • I specifikationen för new_cluster stöds inte libraries och spark_conf. Använd i stället --jars och --py-files för att lägga till Java- och Python-bibliotek och --conf för att ange Spark-konfigurationen.
  • master, deploy-modeoch executor-cores konfigureras automatiskt av Azure Databricks; du kan inte ange dem i parametrar.
  • Som standard använder Spark-sändningsjobbet allt tillgängligt minne (exklusive reserverat minne för Azure Databricks-tjänster). Du kan ange --driver-memoryoch --executor-memory till ett mindre värde för att lämna utrymme för användning utanför heap.
  • Argumenten --jars, --py-files, --files stöder DBFS-sökvägar.

Om jar-filen till exempel laddas upp till DBFS kan du köra SparkPi genom att ange följande parametrar.

{
  "parameters": ["--class", "org.apache.spark.examples.SparkPi", "dbfs:/path/to/examples.jar", "10"]
}
Fältnamn Typ Beskrivning
parameters En matris med STRING Kommandoradsparametrar som används med spark submit.
Använd Vad är en referens för dynamiskt värde? för att ange parametrar som innehåller information om jobbkörningar.

Utlösartyp

Det här är den typ av utlösare som kan starta en körning.

Typ Beskrivning
PERIODIC Scheman som regelbundet utlöser körningar, till exempel en cron-schemaläggare.
ONE_TIME Engångsutlösare som startar en enda körning. Detta inträffar när du initierade en enskild körning på begäran via användargränssnittet eller API:et.
RETRY Anger en körning som utlöses för att försöka igen efter en tidigare misslyckad körning. Detta inträffar när du begär att köra jobbet igen om det uppstår fel.

VisaArtikel

Det exporterade innehållet är i HTML-format. Om vyn som ska exporteras till exempel är instrumentpaneler returneras en HTML-sträng för varje instrumentpanel.

Fältnamn Typ Beskrivning
content STRING Innehållet i vyn.
name STRING Namnet på visningsobjektet. I kodvyn är det anteckningsbokens namn. För instrumentpanelvy, instrumentpanelens namn.
type ViewType Typ av visningsobjekt.

ViewType

Typ Beskrivning
NOTEBOOK Objekt för anteckningsboksvy.
DASHBOARD Visningsobjekt för instrumentpanel.

Vyert att exportera

Vy för export: antingen kod, alla instrumentpaneler eller allt.

Typ Beskrivning
CODE Kodvyn för anteckningsboken.
DASHBOARDS Alla instrumentpanelsvyer för bärbara datorn.
ALL Alla vyer av anteckningsboken.

Webhook

Fältnamn Typ Beskrivning
id STRING Identifier som refererar till en systemaviseringsdestination. Fältet är obligatoriskt.

WebhookMeddelanden

Fältnamn Typ Beskrivning
on_start En matris med Webhook En valfri lista över systemmål som ska meddelas när en körning påbörjas. Om det inte anges när jobb skapas, återställs eller uppdateras är listan tom och meddelanden skickas inte. Högst 3 mål kan anges för egenskapen on_start .
on_success En matris med Webhook En valfri lista över systemdestinationer som ska meddelas när en körning har slutförts framgångsrikt. En körning anses ha slutförts framgångsrikt om den avslutas med en TERMINATEDlife_cycle_state och en SUCCESSFULresult_state. Om det inte anges när jobb skapas, återställs eller uppdateras är listan tom och meddelanden skickas inte. Högst 3 mål kan anges för egenskapen on_success .
on_failure En matris med Webhook En valfri lista över systemmål som ska meddelas när en körning slutförs utan framgång. En körning anses ha slutförts utan framgång om den slutar med en INTERNAL_ERROR
life_cycle_state eller en SKIPPED, FAILED, eller TIMED_OUTresult_state. Om detta inte anges när jobbet skapas, återställs eller uppdateras är listan tom och meddelanden skickas inte. Högst 3 mål kan anges för egenskapen on_failure .
on_duration_warning_threshold_exceeded En matris med Webhook En valfri lista över systemmål som ska meddelas när varaktigheten för en körning överskrider det tröskelvärde som angetts för måttet RUN_DURATION_SECONDS i fältet health. Högst 3 mål kan anges för egenskapen on_duration_warning_threshold_exceeded .

ArbetsytaLagringsinfo

Lagringsinformation för arbetsyta.

Fältnamn Typ Beskrivning
destination STRING Fildestination. Exempel: /Users/someone@domain.com/init_script.sh