共用方式為


Databricks Asset Bundles 擴充功能

適用於 Visual Studio Code 的 Databricks 延伸模組提供 Visual Studio Code 中的其他功能,可讓您輕鬆地定義、部署和執行 Databricks 資產組合,以將 CI/CD 最佳做法套用至 Azure Databricks 作業、DLT 管線和 MLOps Stack。 請參閱什麼是 Databricks Asset Bundles?

若要安裝適用於 Visual Studio Code 的 Databricks 擴充功能,請參閱 安裝適用於 Visual Studio Code 的 Databricks 擴充功能。

專案中的 Databricks 資產包支援功能

適用於 Visual Studio Code 的 Databricks 延伸模組會為您的 Databricks 資產套件組合專案新增下列功能:

  • 在 Visual Studio Code UI 中輕鬆認證和配置 Databricks 資產組合,包括 AuthType 設定檔的選取。 請參閱 為 Visual Studio Code設定 Databricks 擴充套件的授權。
  • Databricks 擴充面板中的目標選取器,可快速切換至不同的目標環境。 請參閱 變更目標部署工作區
  • 在延伸模組面板中選擇 [ 覆寫作業叢集 ] 選項,以便輕鬆啟用叢集覆寫。
  • 使用 Visual Studio Code UI 的 套件資源瀏覽器 檢視,讓您瀏覽套件資源,以單鍵將本機 Databricks 資產套件的資源部署至遠端 Azure Databricks 工作區,並直接從 Visual Studio Code 前往工作區中已部署的資源。 請參閱 套件組合資源總管
  • 套件 組合變數檢視,可讓您使用 Visual Studio Code UI 來瀏覽和編輯套件組合變數。 請參閱 套件組合變數檢視

套件組合資源總管

適用於 Visual Studio Code 的 Databricks 延伸模組中的 套件組合資源總管 檢視會使用專案套件組合組態中的資源定義來顯示資源,包括管線數據集及其架構。 它也可讓您部署和執行資源、驗證和執行管線的部分更新、檢視管線執行事件和診斷,以及瀏覽至遠端 Azure Databricks 工作區中的資源。 如需套件組合組態資源的相關信息,請參閱 資源

例如,假設有簡單的作業定義:

resources:
  jobs:
    my-notebook-job:
      name: 'My Notebook Job'
      tasks:
        - task_key: notebook-task
          existing_cluster_id: 1234-567890-abcde123
          notebook_task:
            notebook_path: notebooks/my-notebook.py

延伸模組中的 捆綁資源瀏覽器 檢視會顯示筆記本作業資源:

組合資源瀏覽器

部署和執行作業

若要部署套件組合,請按兩下雲端 (部署套件組合) 圖示。

部署工作包

若要執行作業,請在 [套件組合資源總 管] 檢視中,選取作業的名稱,在此範例中為 [我的筆記本作業 ]。 接下來,點擊播放圖示 (部署套件組合並執行資源)。

部署套件組合並執行資源

若要檢視執行中的作業,請在 [套件組合資源 總管] 檢視中,展開作業名稱,按兩下 [執行狀態],然後按兩下連結 (外部開啟連結) 圖示。

在外部開啟作業連結

驗證和診斷管線問題

要對管線進行驗證和部分更新,您可以先選取該管線,然後點擊 [部署套件組合並驗證管線] 的圖示。 執行過程中的事件會顯示出來,並且可以在 Visual Studio Code PROBLEMS 面板中診斷任何失敗。

部署套件組合並驗證管線

管道運行事件

套件變數檢視

在 Visual Studio Code 的 Databricks 擴充功能中,套件變數視圖 顯示在您的套件組態中定義的任何自訂變數和相關設定。 您也可以使用 套件組合變數檢視直接定義變數。 這些值會覆寫套件組合組態檔中設定的值。 如需自定義變數的相關信息,請參閱 自定義變數

例如,延伸模組中的 [ 組合變數檢視 ] 檢視會顯示下列內容:

組合變數檢視

針對此套件組合元件中定義的變數 my_custom_var

variables:
  my_custom_var:
    description: 'Max workers'
    default: '4'

resources:
  jobs:
    my_job:
      name: my_job

      tasks:
        - task_key: notebook_task
          job_cluster_key: job_cluster
          notebook_task:
            notebook_path: ../src/notebook.ipynb

      job_clusters:
        - job_cluster_key: job_cluster
          new_cluster:
            spark_version: 13.3.x-scala2.12
            node_type_id: i3.xlarge
            autoscale:
              min_workers: 1
              max_workers: ${var.my_custom_var}