Databricks Varlık Paketleri uzantısı özellikleri
Visual Studio Code için Databricks uzantısı, Visual Studio Code içinde Azure Databricks işlerinize, DLT işlem hatlarınıza ve MLOps Yığınlarınıza CI/CD en iyi yöntemlerini uygulamak için Databricks Varlık Paketlerini kolayca tanımlamanıza, dağıtmanıza ve çalıştırmanıza olanak sağlayan ek özellikler sağlar. Bkz . Databricks Varlık Paketleri nedir?.
Visual Studio Code için Databricks uzantısını yüklemek için bkz . Visual Studio Code için Databricks uzantısını yükleme.
Projelerde Databricks Varlık Paketleri desteği
Visual Studio Code için Databricks uzantısı, Databricks Varlık Paketleri projeleriniz için aşağıdaki özellikleri ekler:
- Visual Studio Code kullanıcı arabirimini kullanarak, AuthType profil seçimi dahil olmak üzere, Databricks Varlık Paketlerinizin kolay kimlik doğrulaması ve yapılandırması. Bkz. Visual Studio Codeiçin Databricks uzantısı için yetkilendirmeyi ayarlama.
- Paket hedef ortamları arasında hızla geçiş yapmak için Databricks eklentisi panelinde bir Hedef seçim aracı. Bkz. Hedef dağıtım çalışma alanını değiştirme.
- Uzantı panelindeki Paketteki İşleri Geçersiz Kıl kümesi seçeneği, kolay küme geçersiz kılmayı etkinleştirmek için.
- Visual Studio Code kullanıcı arabirimini kullanarak paket kaynaklarınıza göz atmanıza, yerel Databricks Varlık Paketinizin kaynaklarını tek bir tıklamayla uzak Azure Databricks çalışma alanınıza dağıtmanıza ve Visual Studio Code'dan doğrudan çalışma alanınızda dağıtılan kaynaklarınıza gitmenize olanak tanıyan Bir Paket Kaynak Gezgini görünümü. Bkz. Paket Kaynak Gezgini.
- Visual Studio Code kullanıcı arabirimini kullanarak paket değişkenlerinize göz atmanızı ve bunları düzenlemenizi sağlayan Paket Değişkenleri Görünümü. Bkz. Paket Değişkenleri Görünümü.
Paket Kaynak Gezgini
Visual Studio Code için Databricks uzantısındaki Paket Kaynak Gezgini görünümü, işlem hattı veri kümeleri ve şemaları dahil olmak üzere kaynakları görüntülemek için projenin paket yapılandırmasındaki kaynak tanımlarını kullanır. Ayrıca kaynakları dağıtmanıza ve çalıştırmanıza, işlem hatlarının kısmi güncelleştirmelerini doğrulamanıza ve gerçekleştirmenize, işlem hattı çalıştırma olaylarını ve tanılamalarını görüntülemenize ve uzak Azure Databricks çalışma alanınızdaki kaynaklara gitmenize olanak tanır. Grup yapılandırma kaynakları hakkında bilgi için bkz . kaynaklar.
Örneğin, basit bir iş tanımı verilmiştir:
resources:
jobs:
my-notebook-job:
name: 'My Notebook Job'
tasks:
- task_key: notebook-task
existing_cluster_id: 1234-567890-abcde123
notebook_task:
notebook_path: notebooks/my-notebook.py
Uzantıdaki Paket Kaynak Gezgini görünümünde notebook görev kaynağı görüntülenir.
Bir görevi dağıt ve çalıştır
Paketi dağıtmak için bulut (Paketi dağıt) simgesine tıklayın.
İşi çalıştırmak için, Paket Kaynak Gezgini görünümünde, bu örnekte My Notebook Job olan işin adını seçin. Ardından yürüt (Paketi dağıtın ve kaynağı çalıştırın) simgesine tıklayın.
Çalışan işi görüntülemek için, Paket Kaynak Gezgini görünümünde iş adını genişletin, Çalıştırma Durumu'na tıklayın ve ardından bağlantıya (Bağlantıyı harici olarak aç) tıklayın.
İşlem hattı sorunlarını doğrulama ve tanılama
İşlem hattı için, işlem hattını seçip ardından denetim (Paketi dağıt ve işlem hattını doğrula) simgesine tıklayarak doğrulamayı ve kısmi güncellemeyi tetikleyebilirsiniz. Çalıştırma olayları görüntülenir ve tüm hatalar Visual Studio Code PROBLEMS panelinde tanılanabilir.
Paket Değişkenleri Görünümü
Visual Studio Code için Databricks uzantısındaki Paket Değişkenleri Görünümü görünümü, paket yapılandırmanızda tanımlanan tüm özel değişkenleri ve ilişkili ayarları görüntüler. Ayrıca, Paket Değişkenleri Görünümü'nü kullanarak değişkenleri doğrudan tanımlayabilirsiniz. Bu değerler, paket yapılandırma dosyalarında ayarlananları geçersiz kılar. Özel değişkenler hakkında bilgi için bkz . Özel değişkenler.
Örneğin, uzantıdaki Paket Değişkenleri Görünümü görünümü aşağıdakileri görüntüler:
Bu paket yapılandırmasında tanımlanan değişken my_custom_var
için:
variables:
my_custom_var:
description: 'Max workers'
default: '4'
resources:
jobs:
my_job:
name: my_job
tasks:
- task_key: notebook_task
job_cluster_key: job_cluster
notebook_task:
notebook_path: ../src/notebook.ipynb
job_clusters:
- job_cluster_key: job_cluster
new_cluster:
spark_version: 13.3.x-scala2.12
node_type_id: i3.xlarge
autoscale:
min_workers: 1
max_workers: ${var.my_custom_var}