Dela via


Kör en fil på ett kluster eller kör en fil eller en notebook som ett jobb i Azure Databricks med hjälp av Databricks-tillägget för Visual Studio Code

Med Databricks-tillägget för Visual Studio Code kan du köra Din Python-kod på ett kluster eller din Python-, R-, Scala- eller SQL-kod eller en notebook-fil som ett jobb i Azure Databricks.

Den här informationen förutsätter att du redan har installerat och konfigurerat Databricks-tillägget för Visual Studio Code. Se Installera Databricks-tillägget för Visual Studio Code.

Köra en Python-fil i ett kluster

Anteckning

Den här funktionen är inte tillgänglig när du använder serverlös beräkning.

Så här kör du en Python-fil i ett Azure Databricks-kluster med hjälp av Databricks-tillägget för Visual Studio Code med tillägget och projektet öppnat:

  1. Öppna Den Python-fil som du vill köra i klustret.

  2. Gör något av följande:

    • I filredigerarens namnlist klickar du på ikonen Kör på Databricks och klickar sedan på Ladda upp och kör fil.

      Ladda upp och köra filen från från-ikonen

    • I Utforskare-vyn (Visa > Utforskare) högerklickar du på filen och väljer sedan Kör på Databricks>Ladda upp och kör fil från snabbmenyn.

      Ladda upp och köra filen från snabbmenyn

Filen körs i klustret och utdata är tillgängliga i felsökningskonsolen (Visa > felsökningskonsol).

Köra en Python-fil som ett jobb

Så här kör du en Python-fil som ett Azure Databricks-jobb med hjälp av Databricks-tillägget för Visual Studio Code med tillägget och projektet öppnat:

  1. Öppna Den Python-fil som du vill köra som ett jobb.

  2. Gör något av följande:

    • I filredigerarens namnlist klickar du på ikonen Kör på Databricks och klickar sedan på Kör fil som arbetsflöde.

      Kör filen som arbetsflöde från ikonen

    • I Explorer-vyn (Visa > Utforskaren), högerklicka på filen, och välj sedan Kör på Databricks>Kör fil som arbetsflöde från snabbmenyn.

      Kör filen som arbetsflöde från snabbmenyn

En ny redigeringsflik visas med titeln Databricks Job Run. Filen körs som ett jobb på arbetsytan och eventuella utdata skrivs ut till den nya redigerarflikens utdataområde .

Om du vill visa information om jobbkörningen, klicka på länken Aktivitetskörnings-ID i den nya fliken Databricks Jobbkörningsredigerare. Arbetsytan öppnas då och visar detaljer om jobbkörningen.

Kör en Python-, R-, Scala- eller SQL-notebook-fil som ett jobb

Så här kör du en notebook-fil som ett Azure Databricks-jobb med hjälp av Databricks-tillägget för Visual Studio Code med tillägget och projektet öppnat:

  1. Öppna anteckningsboken som du vill köra som ett jobb.

    Dricks

    Om du vill omvandla en Python-, R-, Scala- eller SQL-fil till en Azure Databricks-notebook-fil lägger du till kommentaren # Databricks notebook source i början av filen och lägger till kommentaren # COMMAND ---------- före varje cell. Mer information finns i Importera en fil och konvertera den till en notebook-fil.

    En Python-kodfil formaterad som en Databricks-notebook1

  2. Gör något av följande:

    • I namnlisten för anteckningsboksfilen klickar du på ikonen Kör på Databricks och klickar sedan på Kör fil som arbetsflöde.

    Kommentar

    Om Kör som arbetsflöde på Databricks inte är tillgängligt, se Skapa en anpassad körningskonfiguration.

    • I Utforskarvyn (Visa Utforskare), högerklicka på anteckningsfilen och välj sedan Kör på DatabricksKör fil som arbetsflöde från snabbmenyn.

En ny redigeringsflik visas med titeln Databricks Job Run. Anteckningsboken körs som en process på arbetsytan. Anteckningsboken och dess utdata visas i den nya redigerarflikens utdataområde .

Om du vill visa information om jobbkörningen, klicka på länken Aktivitetskörnings-ID i fliken Databricks-jobbkörningsredigeraren. Arbetsytan öppnas och jobbkörningens detaljer visas på arbetsytan.

Skapa en anpassad körningskonfiguration

Med en anpassad körningskonfiguration för Databricks-tillägget för Visual Studio Code kan du skicka anpassade argument till ett jobb eller en notebook-fil eller skapa olika körningsinställningar för olika filer.

Om du vill skapa en anpassad körningskonfiguration klickar du på Kör > Lägg till konfiguration från huvudmenyn i Visual Studio Code. Välj sedan Antingen Databricks för en klusterbaserad körningskonfiguration eller Databricks: Arbetsflöde för en jobbbaserad körningskonfiguration.

Följande anpassade körningskonfiguration ändrar till exempel kommandot Kör fil som arbetsflödesstart för att skicka --prod argumentet till jobbet:

{
  "version": "0.2.0",
  "configurations": [
    {
      "type": "databricks-workflow",
      "request": "launch",
      "name": "Run on Databricks as Workflow",
      "program": "${file}",
      "parameters": {},
      "args": ["--prod"]
    }
  ]
}

Tips

Lägg till "databricks": true i konfigurationen "type": "python" om du vill använda Python-konfiguration men dra nytta av Den Databricks Connect-autentisering som ingår i tilläggskonfigurationen.

Med hjälp av anpassade körningskonfigurationer kan du även skicka in kommandoradsargument och köra koden bara genom att trycka på F5. Mer information finns i Starta konfigurationer i Visual Studio Code-dokumentationen.