Bagikan melalui


Mengubah data dengan menjalankan aktivitas Definisi Pekerjaan Spark

Aktivitas Definisi Pekerjaan Spark di Data Factory untuk Microsoft Fabric memungkinkan Anda membuat koneksi ke Definisi Pekerjaan Spark Anda dan menjalankannya dari alur data.

Prasyarat

Untuk memulai, Anda harus menyelesaikan prasyarat berikut:

Menambahkan aktivitas Definisi Pekerjaan Spark ke alur dengan UI

  1. Buat alur data baru di ruang kerja Anda.

  2. Cari Definisi Job Spark dari kartu layar beranda, lalu pilih atau pilih aktivitas dari bilah Aktivitas untuk menambahkannya ke kanvas pipeline.

    • Membuat aktivitas dari kartu layar beranda:

      Cuplikan layar memperlihatkan tempat untuk membuat aktivitas Definisi Kerja Spark baru.

    • Membuat aktivitas dari bilah Aktivitas:

      Cuplikan layar memperlihatkan tempat membuat aktivitas Definisi Kerja Spark baru dari bilah Aktivitas di jendela editor alur.

  3. Pilih aktivitas Definisi Pekerjaan Spark baru di kanvas editor alur jika belum dipilih.

    Cuplikan layar memperlihatkan aktivitas Definisi Tugas Spark di kanvas editor pipeline.

    Lihat panduan pengaturan Umum untuk mengonfigurasi opsi yang ditemukan di tab pengaturan Umum.

Pengaturan aktivitas Definisi Pekerjaan Spark

Pilih tab Pengaturan di panel properti aktivitas, lalu pilih Ruang Kerja Fabric yang berisi Definisi Pekerjaan Spark yang ingin Anda jalankan.

Cuplikan layar memperlihatkan tab Pengaturan dari halaman sifat Definisi Tugas Spark di jendela editor pipeline.

Batasan yang diketahui

Batasan saat ini dalam aktivitas Definisi Pekerjaan Spark untuk Fabric Data Factory tercantum di sini. Bagian ini dapat berubah.

  • Saat ini kami tidak mendukung pembuatan aktivitas Definisi Pekerjaan Spark baru dalam aktivitas (di bawah Pengaturan)
  • Dukungan parameterisasi tidak tersedia.
  • Meskipun kami mendukung pemantauan aktivitas melalui tab output, Anda belum dapat memantau Definisi Pekerjaan Spark pada tingkat yang lebih terperinci. Misalnya, tautan ke halaman pemantauan, status, durasi, dan eksekusi Definisi Kerja Spark sebelumnya tidak tersedia langsung di Data Factory. Namun, Anda dapat melihat detail yang lebih terperinci di halaman pemantauan Definisi Pekerjaan Spark .

Menyimpan dan menjalankan atau menjadwalkan alur

Setelah Anda mengonfigurasi aktivitas lain yang diperlukan untuk alur Anda, beralihlah ke tab Beranda di bagian atas editor alur, dan pilih tombol simpan untuk menyimpan alur Anda. Pilih Jalankan untuk menjalankannya secara langsung, atau Jadwalkan untuk menjadwalkannya. Anda juga dapat melihat riwayat eksekusi di sini atau mengonfigurasi pengaturan lain.

Cuplikan layar memperlihatkan tab Beranda editor alur, menyoroti tombol Simpan, Jalankan, dan Jadwalkan.

Cara memantau pelaksanaan pipeline