Desteklenen bağlantı özellikleri
Bu makalede, Databricks JDBC Sürücüsü (OSS)tarafından desteklenen bağlantı özellikleri açıklanmaktadır.
Kimlik Doğrulama ve Ara Sunucu Özellikleri
Aşağıdaki bağlantı özellikleri, Databricks JDBC Sürücüsü (OSS)tarafından desteklenir. Özellikler büyük/küçük harfe duyarlı değildir.
SQL yapılandırma özellikleri
Aşağıdaki SQL yapılandırma özellikleri, Databricks JDBC Sürücüsü (OSS)tarafından desteklenir. Bunlar, Yapılandırma parametreleri bölümünde de açıklanmıştır. Özellikler büyük/küçük harfe duyarlı değildir.
Mülk | Varsayılan değer | Açıklama |
---|---|---|
ansi_mode |
TRUE |
Belirli işlevler ve atama kuralları için katı ANSI SQL davranışının etkinleştirilip etkinleştirilmeyileceği. |
enable_photon |
TRUE |
Photon vektörleştirilmiş sorgu altyapısının etkinleştirilip etkinleştirilmeyileceği. |
legacy_time_parser_policy |
EXCEPTION |
Tarihleri ve zaman damgalarını ayrıştırmak ve biçimlendirmek için kullanılan yöntemler. Geçerli değerler EXCEPTION , LEGACY ve CORRECTED . |
max_file_partition_bytes |
128m |
Dosya tabanlı kaynaklardan okurken tek bir bölüme paketlenmesi gereken bayt sayısı üst sınırı. Bu ayar herhangi bir pozitif tamsayı olabilir ve isteğe bağlı olarak b (bayt), k veya kb (1024 bayt) gibi bir ölçü içerebilir. |
read_only_external_metastore |
false |
Dış meta veri deposunun salt okunur olarak ayarlanıp ayarlanmadığını kontrol eder. |
statement_timeout |
172800 |
0 ile 172800 saniye arasında bir SQL deyimi için zaman aşımı ayarlar. |
timezone |
UTC |
Yerel saat dilimini ayarlayın. Bölge Kimlikleri, area/city biçiminde, Amerika/Los_Angeles gibi veya bölge uzaklıkları +|-)HH, (+|-)HH:mm veya (+|-)HH:mm:ss formatlarında, örneğin -08, +01:00 veya -13:33:33. Ayrıca, UTC +00:00 için diğer ad olarak desteklenir |
use_cached_result |
true |
Databricks SQL'in mümkün olduğunca sonuçları önbelleğe alıp almadığı ve yeniden kullanıp kullanmadığı. |
Günlük özellikleri
Aşağıdaki günlük özellikleri, Databricks JDBC Sürücüsü (OSS) tarafından desteklenir. Özellikler büyük/küçük harfe duyarsızdır.
Mülk | Varsayılan değer | Açıklama |
---|---|---|
LogLevel |
OFF |
0'dan 6'ya kadar bir değer olan günlük düzeyi:
Bağlayıcıda günlüğe kaydetmeyi etkinleştirmek veya devre dışı bırakmak ve günlük dosyalarına dahil edilen ayrıntı miktarını belirtmek için bu özelliği kullanın. |
LogPath |
Sürücü, günlüklerin varsayılan yolunu belirlemek için bu sistem özellikleri için ayarlanan değeri şu öncelik sırasına göre kullanır:
|
Günlük kaydı etkinleştirildiğinde, bağlayıcının günlük dosyalarını kaydettiği klasörün tam yolu bir dize olarak verilmiştir. Bağlantı URL'sinin tüm JDBC uygulamalarıyla uyumlu olduğundan emin olmak için, başka bir ters eğik çizgi yazarak dosya yolunuzda ters eğik çizgilerden (\ ) çıkın.LogPath değeri geçersizse, bağlayıcı günlüğe kaydedilen bilgileri standart çıkış akışına (System.out) gönderir. |
LogFileSize |
Maksimum değer yok | MB cinsinden belirtilen izin verilen maksimum günlük dosyası boyutu |
LogFileCount |
Maksimum değer yok | İzin verilen log dosyalarının en fazla sayısı |
Kayıt tutmayı etkinleştirme ve yapılandırma
JDBC sürücüsü Java için Basit Günlüğe Kaydetme Cephesi (SLF4J) ve java.util.logging (JUL) çerçevelerini destekler. Sürücü varsayılan olarak JUL günlük çerçevesini kullanır.
JDBC sürücüsü için günlük kaydını etkinleştirmek ve yapılandırmak için:
Kullanmak istediğiniz kayıt framework'ünü etkinleştirin.
- SLF4J günlüğü için sistem özelliğini
-Dcom.databricks.jdbc.loggerImpl=SLF4JLOGGER
ayarlayın ve sınıf yolu içinde SLF4J bağlama uygulamasını (SLF4J sürüm 2.0.13 ve üzeri ile uyumlu) ve ilgili yapılandırma dosyasını sağlayın. - JUL günlüğü için sistem özelliğini
-Dcom.databricks.jdbc.loggerImpl=JDKLOGGER
ayarlayın. Varsayılan değer budur.
- SLF4J günlüğü için sistem özelliğini
Bağlantı dizesindeki
LogLevel
özelliğini günlük dosyalarına eklenecek istenen bilgi düzeyine ayarlayın.Bağlantı dizesinde
LogPath
özelliğini günlük dosyalarını kaydetmek istediğiniz klasörün tam yoluna ayarlayın.Örneğin, aşağıdaki bağlantı URL'si günlük düzeyi 6'yı etkinleştirir ve günlük dosyalarını C:\temp klasörüne kaydeder:
jdbc: databricks://localhost:11000;LogLevel=6;LogPath=C:\\temp
JDBC uygulamanızı yeniden başlatın ve ayarları uygulamak için sunucuya yeniden bağlanın.
Birim işlemleri özellikleri
Aşağıdaki Unity Kataloğu birim işlemleri özellikleri, Databricks JDBC Sürücüsü (OSS)tarafından desteklenir. Özellikler büyük/küçük harfe duyarlı değildir.
Mülk | Varsayılan değer | Açıklama |
---|---|---|
VolumeOperationAllowedLocalPaths |
`` | UC Volume Ingestion dosyalarını indirmek ve karşıya yüklemek için izin verilen yerel yolların virgülle ayrılmış listesi. Yollar alt dizinleri de içerir. |
Birimleri kullanarak dosyaları yönetme
Databricks, Unity Kataloğu birimlerini kullanarak toplu veri aktarma yetenekleri (karşıya yükleme/indirme/kaldırma) sunarak kullanıcıların veri kümelerini yerel dosyalar, örneğin CSV dosyaları, ile değiş tokuş etmesine olanak tanır. Bkz. Unity Catalog birimleri nelerdir?. Unity Kataloğu birim işlemlerini etkinleştirmek için, VolumeOperationAllowedLocalPaths
bağlantı özelliğini birim işlemleri için izin verilen yerel yolların virgülle ayrılmış bir listesine ayarlayın.
Bu özelliği kullanmak için Unity Kataloğu etkinleştirilmelidir. Benzer işlevler Databricks kullanıcı arabirimi kullanılarak da kullanılabilir. Bkz. Unity Kataloğu birimine dosya yükleme.
Unity Kataloğu alma komutları SQL ifadeleridir. Aşağıdaki örneklerde PUT, GETve REMOVE işlemleri gösterilmektedir.
Yerel bir dosyayı karşıya yükleyin
/Volumes/main/default/e2etests/file1.csv
olarak bir Unity Kataloğu birim yoluna /tmp/test.csv
yerel bir dosya yüklemek için PUT işlemini kullanın:
PUT '/tmp/test.csv' INTO '/Volumes/main/default/e2etests/file1.csv' OVERWRITE
Dosya indirme
Yerel dosya /tmp/test.csv
'e indirmek için Unity Kataloğu birim yolundan /Volumes/main/default/e2etests/file1.csv
dosyasını GET işlemini kullanarak indirin.
GET '/Volumes/main/default/e2etests/file1.csv' TO '/tmp/test.csv'
Dosya silme
/Volumes/main/default/e2etests/file1.csv
Unity Kataloğu birim yolu olan bir dosyayı silmek için REMOVE işlemini kullanın:
REMOVE '/Volumes/main/default/e2etests/file1.csv'