Microsoft Fabric'te çalışma alanı yönetimi ayarlarını Veri Madenciliği
Şunlar için geçerlidir:✅ Microsoft Fabric'te Veri Madenciliği ve Veri Bilimi
Microsoft Fabric'te bir çalışma alanı oluşturduğunuzda, bu çalışma alanıyla ilişkili bir başlangıç havuzu otomatik olarak oluşturulur. Microsoft Fabric'teki basitleştirilmiş kurulumla, bu seçenekler arka planda sizin için ele alındığından düğüm veya makine boyutlarını seçmenize gerek yoktur. Bu yapılandırma, kullanıcıların işlem ayarlama konusunda endişelenmenize gerek kalmadan birçok yaygın senaryoda Apache Spark işlerinizi kullanmaya başlamaları ve çalıştırmaları için daha hızlı (5-10 saniye) bir Apache Spark oturumu başlatma deneyimi sağlar. Belirli işlem gereksinimleri olan gelişmiş senaryolar için kullanıcılar özel bir Apache Spark havuzu oluşturabilir ve düğümleri performans gereksinimlerine göre boyutlandırabilir.
Çalışma alanında Apache Spark ayarlarında değişiklik yapmak için bu çalışma alanının yönetici rolüne sahip olmanız gerekir. Daha fazla bilgi edinmek için bkz . Çalışma alanlarındaki roller.
Çalışma alanınızla ilişkili havuzun Spark ayarlarını yönetmek için:
Çalışma alanınızdaki Çalışma Alanı ayarlarına gidin ve menüyü genişletmek için Veri Madenciliği/Bilim seçeneğini belirleyin:
Sol taraftaki menüde Spark İşlem seçeneğini görürsünüz:
Not
Varsayılan havuzu Başlangıç Havuzu'ndan Özel Spark havuzuna değiştirirseniz daha uzun oturum başlangıcı (yaklaşık 3 dakika) görebilirsiniz.
Havuz
Çalışma alanı için varsayılan havuz
Otomatik olarak oluşturulan başlangıç havuzunu kullanabilir veya çalışma alanı için özel havuzlar oluşturabilirsiniz.
Başlangıç Havuzu: Daha hızlı bir deneyim için önceden doldurulan canlı havuzlar otomatik olarak oluşturulur. Bu kümeler orta büyüklüktedir. Başlangıç havuzu, satın alınan Doku kapasitesi SKU'su temelinde varsayılan bir yapılandırmaya ayarlanır. Yöneticiler, Spark iş yükü ölçek gereksinimlerine göre maksimum düğümleri ve yürütücüleri özelleştirebilir. Daha fazla bilgi edinmek için bkz . Başlangıç Havuzlarını Yapılandırma
Özel Spark Havuzu: Spark iş gereksinimlerinize göre düğümleri boyutlandırabilir, otomatik ölçekleyebilir ve yürütücüleri dinamik olarak ayırabilirsiniz. Özel spark havuzu oluşturmak için kapasite yöneticisinin Kapasite Yöneticisi ayarlarının Spark İşlem bölümünde Özelleştirilmiş çalışma alanı havuzları seçeneğini etkinleştirmesi gerekir.
Not
Özelleştirilmiş çalışma alanı havuzları için kapasite düzeyi denetimi varsayılan olarak etkindir. Daha fazla bilgi edinmek için bkz . Doku kapasiteleri için veri mühendisliği ve veri bilimi ayarlarını yapılandırma ve yönetme.
Yöneticiler, Yeni Havuz seçeneğini belirleyerek işlem gereksinimlerine göre özel Spark havuzları oluşturabilir.
Microsoft Fabric için Apache Spark, kullanıcıların en az 1 düğüm yapılandırmasını seçmesine olanak tanıyan tek düğümlü kümeleri destekler. Bu durumda sürücü ve yürütücü tek bir düğümde çalışır. Bu tek düğümlü kümeler, düğüm hataları sırasında geri yüklenebilen yüksek kullanılabilirlik ve daha küçük işlem gereksinimleri olan iş yükleri için daha iyi iş güvenilirliği sunar. Ayrıca, özel Spark havuzlarınız için otomatik ölçeklendirme seçeneğini etkinleştirebilir veya devre dışı bırakabilirsiniz. Otomatik ölçeklendirme ile etkinleştirildiğinde, havuz kullanıcı tarafından belirtilen en yüksek düğüm sınırı içinde yeni düğümler alır ve daha iyi performans için iş yürütmeden sonra bunları devre dışı bırakabilirsiniz.
Ayrıca, daha iyi performans için veri hacmine göre belirtilen maksimum sınır içinde otomatik olarak en uygun sayıda yürütücü için yürütücüleri havuza dinamik olarak ayırma seçeneğini belirleyebilirsiniz.
Doku için Apache Spark işlem hakkında daha fazla bilgi edinin.
- Öğeler için işlem yapılandırmasını özelleştirme: Çalışma alanı yöneticisi olarak, kullanıcıların ortam kullanarak not defterleri, Spark iş tanımları gibi tek tek öğeler için işlem yapılandırmalarını (Sürücü/Yürütücü Çekirdeği, Sürücü/Yürütücü Belleği içeren oturum düzeyi özellikleri) ayarlamasına izin vekleyebilirsiniz.
Ayar çalışma alanı yöneticisi tarafından kapalıysa, çalışma alanı içindeki tüm ortamlar için Varsayılan havuz ve işlem yapılandırmaları kullanılır.
Ortam
Ortam, Spark işlerinizi (not defterleri, Spark iş tanımları) çalıştırmak için esnek yapılandırmalar sağlar. Bir Ortamda işlem özelliklerini yapılandırabilir, farklı çalışma zamanı seçebilir, iş yükü gereksinimlerinize göre kitaplık paketi bağımlılıklarını ayarlayabilirsiniz.
Ortam sekmesinde, varsayılan ortamı ayarlama seçeneğiniz vardır. Çalışma alanı için hangi Spark sürümünü kullanmak istediğinizi seçebilirsiniz.
Doku çalışma alanı yöneticisi olarak, çalışma alanı varsayılan Ortamı olarak bir Ortam seçebilirsiniz.
Ortam açılan listesinden de yeni bir tane oluşturabilirsiniz.
Varsayılan bir ortama sahip seçeneğini devre dışı bırakırsanız, açılan listede listelenen kullanılabilir çalışma zamanı sürümlerinden Doku çalışma zamanı sürümünü seçme seçeneğiniz vardır.
Apache Spark çalışma zamanları hakkında daha fazla bilgi edinin.
İşler
İşler ayarları, yöneticilerin çalışma alanı içindeki tüm Spark işleri için iş kabul mantığını denetlemesine olanak tanır.
Varsayılan olarak tüm çalışma alanları İyimser İş Kabulü ile etkinleştirilir. Microsoft Fabric'te Spark için işe giriş hakkında daha fazla bilgi edinin.
etkin Spark işleri için maksimum çekirdek ayır seçeneğini etkinleştirerek İyimser iş kabulü tabanlı yaklaşımı etkinleştirebilir ve Spark işleri için maksimum çekirdek ayırabilirsiniz.
Tüm not defteri etkileşimli oturumları için oturum süre sonunu özelleştirmek için Spark oturumu zaman aşımını da ayarlayabilirsiniz.
Not
Etkileşimli Spark oturumları için varsayılan oturum süre sonu 20 dakika olarak ayarlanır.
Yüksek eşzamanlılık
Yüksek eşzamanlılık modu, kullanıcıların Apache Spark for Fabric veri mühendisliği ve veri bilimi iş yüklerinde aynı Spark oturumlarını paylaşmasına olanak tanır. Not defteri gibi bir öğe, yürütülmesi için bir Spark oturumu kullanır ve etkinleştirildiğinde kullanıcıların tek bir Spark oturumunu birden çok not defteri arasında paylaşmasına izin verir.
Doku için Apache Spark'ta Yüksek eşzamanlılık hakkında daha fazla bilgi edinin.
Machine Learning modelleri ve denemeleri için otomatik günlük kaydı
Yöneticiler artık makine öğrenmesi modelleri ve denemeleri için otomatik kaydetmeyi etkinleştirebilir. Bu seçenek, eğitilirken bir makine öğrenmesi modelinin giriş parametrelerinin, çıkış ölçümlerinin ve çıkış öğelerinin değerlerini otomatik olarak yakalar. Otomatik kaydetme hakkında daha fazla bilgi edinin.
İlgili içerik
- Dokuda Apache Spark Çalışma Zamanları - Genel Bakış, Sürüm Oluşturma, Birden Çok Çalışma Zamanı Desteği ve Delta Lake Protokolü Yükseltme hakkında bilgi edinin.
- Apache Spark genel belgelerinden daha fazla bilgi edinin.
- Sık sorulan soruların yanıtlarını bulun: Apache Spark çalışma alanı yönetimi ayarları hakkında SSS.