Sunucusuz bilgi işlem sürüm notları
Bu makalede, not defterleri ve işler için sunucusuz işlemde şu anda kullanılabilen ve yaklaşan özellikler ve davranışlar açıklanmaktadır.
Sunucusuz işlem hakkında daha fazla bilgi için bkz . Sunucusuz işlemle bağlantı kurma.
Azure Databricks düzenli aralıklarla sunucusuz işlem güncelleştirmeleri yayınlar ve platforma yapılan iyileştirmeleri ve yükseltmeleri desteklemek için sunucusuz işlem çalışma zamanını otomatik olarak yükselter. Tüm kullanıcılar kısa bir süre içinde dağıtılan aynı güncelleştirmeleri alır.
Sunucusuz ortam sürümleri
Not defterleri ve işler için Databricks sunucusuz işlem Spark Connect tabanlı bir mimariye sahiptir ve uygulamayı etkilemeden bağımsız altyapı yükseltmelerine olanak tanır. Uygulama uyumluluğunu sağlamak için sunucusuz iş yükleri, ortam sürümü veya istemci olarak bilinen ve daha yeni sunucu sürümleriyle uyumlu kalan bir sürüme sahip API kullanır.
En son ortam sürümü, yeni bir sürüm yayınlanana kadar güncelleştirmeleri almaya devam eder. Kullanıcılar aşağıdaki desteklenen ortam sürümlerinden herhangi birini seçebilir:
Sürüm notları
Bu bölüm sunucusuz işlem için sürüm notlarını içerir. Sürüm notları yıla ve yılın haftasına göre düzenlenir. Sunucusuz işlem her zaman burada listelenen en son yayınlanan sürümü kullanarak çalışır.
- Sunucusuz not defterlerinde yüksek bellek ayarı (Genel Önizleme)
- Sürüm 16.1
- Sürüm 15.4
- JDK, JDK 8'den JDK 17'ye yükseltilir
- Sürüm 15.1
- Sürüm 14.3
Sunucusuz not defterlerinde yüksek bellek ayarı kullanılabilir (Genel Önizleme)
7 Şubat 2025
Artık sunucusuz işlem not defteri iş yükleriniz için daha yüksek bir bellek boyutu yapılandırabilirsiniz. Bu ayar hem etkileşimli hem de zamanlanmış not defteri iş yüklerine uygulanabilir.
Yüksek bellekli sunucusuz kullanım, standart bellekten daha yüksek bir DBU emisyon oranına sahiptir.
Daha fazla bilgi için sunucusuz iş yükleriniz için yüksek bellek yapılandırma bölümüne bakın.
Sürüm 16.1
5 Şubat 2025
Bu sunucusuz işlem sürümü kabaca Databricks Runtime 16.0 ve Databricks Runtime 16.1 karşılık gelir.
Yeni özellikler
Özyinelemeli şema için avro desteği : Artık
recursiveFieldMaxDepth
işlevi vefrom_avro
veri kaynağı ileavro
seçeneğini kullanabilirsiniz. Bu seçenek Avro veri kaynağında şema özyinelemesi için en yüksek derinliği ayarlar. Bkz . Akış Avro verilerini okuma ve yazma.Avro ile ilgili Confluent Schema Registry desteği genişletildi: Sunucusuz artık Confluent Schema Registry ile Avro şema referanslarını destekliyor. Bkz . Dış Confluent Schema Registry'de kimlik doğrulaması.
Sıvı kümelemesi olan tablolarda yeniden kümelemeye zorla:
OPTIMIZE FULL
söz dizimini kullanarak sıvı kümelemesi etkin bir tablodaki tüm kayıtların yeniden kümelemeye zorlanmasını sağlayabilirsiniz. Zorla kümelemeye tüm kayıtlar içinbakın.Python için Delta API'leri artık kimlik sütunlarını destekliyor: Artık Kimlik sütunları içeren tablolar oluşturmak için Python için Delta API'lerini kullanabilirsiniz. Bkz. Delta Lake'te kimlik sütunlarını kullanma.
Akış yazma işlemleri sırasında sıvı kümelenmiş tablolar oluşturma: Yapılandırılmış Akış yazmaları ile yeni tablolar oluştururken sıvı kümelemeye olanak tanımak için artık
clusterBy
kullanabilirsiniz. Bkz . Sıvı kümelemasını etkinleştirme.OPTIMIZE FULL yan tümcesi için Desteği: Sunucusuz işlem artık OPTIMIZE FULL yan tümcesini destekliyor. Bu yan tümce, daha önce kümelenmiş olabilecek veriler de dahil olmak üzere sıvı kümeleme kullanan bir tablodaki tüm kayıtları iyileştirir.
INSERT ve tablo başvurusunda WITH seçenekleri belirtimi desteği: Sunucusuz işlem artık veri kaynaklarının davranışını denetlemek için kullanılabilecek bir deyiminin tablo başvuruları ve tablo adları için
INSERT
destekliyor.Yeni SQL işlevleri: Sunucusuz işlemde şu SQL işlevleri kullanılabilir:
- try_url_decode, url_decode'nin hataya dayanıklı bir sürümüdür.
-
zeroifnull,
zeroifnull()
işlevine giriş ifadesiNULL
ise, 0 döndürür. -
nullifzero, giriş 0 ise
NULL
veya 0 değilse girişi döndürür. - dayname(expr) verilen tarih için haftanın günü için üç harfli İngilizce kısaltmasını döndürür.
- uniform(expr1, expr2 [,seed]) belirtilen sayı aralığında bağımsız ve aynı şekilde dağıtılmış değerlerle rastgele bir değer döndürür.
-
randstr(uzunluk)
length
alfasayısal karakterden oluşan rastgele bir dize döndürür.
Desteği eklendi. İşlemler sırasında
withSchemaEvolution()
otomatik şema evrimi etkinleştirmek için kullanınMERGE
. Örneğin,mergeBuilder.whenMatched(...).withSchemaEvolution().execute()}}
.Apache Spark'ta harmanlamalar için Desteği Genel Önizleme aşamasındadır: Artık
STRING
sütun ve ifadelere dil kullanan, büyük/küçük harfe duyarlı olmayan ve erişime duyarsız harmanlamalar atayabilirsiniz. Bu harmanlamalar dize karşılaştırmalarında, sıralama, gruplandırma işlemlerinde ve birçok dize işlevinde kullanılır. Bkz. harmanlama.Delta Lake'teki harmanlamalar için Desteği Genel Önizleme aşamasındadır: Artık Delta tablosu oluştururken veya değiştirirken sütunlar için harmanlamalar tanımlayabilirsiniz. Delta Lakeiçin
Sıralama desteğine bakın. Vakum için
LITE
modu Genel Önizleme aşamasındadır: Delta işlem günlüğündeki meta verilerden yararlanan daha hafif bir vakum işlemi gerçekleştirmek için artıkVACUUM table_name LITE
kullanabilirsiniz. Bkz. Tam ve lite modu ve VACUUM.USE CATALOG with IDENTIFIER
yan tümcesini parametreleştirmek için Desteği:IDENTIFIER yan tümcesi artık USE CATALOG deyimi için desteklenmektedir. Bu destekle, geçerli kataloğu bir dize değişkenine veya parametre işaretçisine göre parametreleştirebilirsiniz.Tablolar ve görünümler için COMMENT ONCOLUMN desteği:COMMENT ON deyimi artık görünüm ve tablo sütunları için açıklamaları değiştirmeyi destekliyor.
Daha fazla işlev için Adlandırılmış parametre çağırma: Aşağıdaki işlevler adlandırılmış parametre çağırma destekler:
SYNC METADATA
komutuna REPAIR TABLE parametresi Hive meta veri deposuyla desteklenir: ArtıkSYNC METADATA
komutuylaREPAIR TABLE
parametresini kullanarak Hive meta veri deposu yönetilen tablosunun meta verilerini güncelleştirebilirsiniz. Bkz. REPAIR TABLE.Sıkıştırılmış Apache Arrow toplu işlemleri için gelişmiş veri bütünlüğü: Veri bozulmasına karşı daha fazla koruma sağlamak amacıyla artık her
LZ4
sıkıştırılmış Arrow toplu işlemi,LZ4
içerik ve blok sağlama toplamlarını içerir. bkz. LZ4 Çerçeve Biçimi Açıklaması.Yerleşik Oracle JDBC Sürücüsü: Sunucusuz işlemde artık Oracle JDBC Sürücüsü yerleşik olarak bulunur.
DriverManager
aracılığıyla müşteri tarafından yüklenen bir JDBC sürücüsü JAR kullanıyorsanız, özel JAR'yi açıkça kullanmak için betikleri yeniden yazmanız gerekir. Aksi takdirde, yerleşik sürücü kullanılır. Bu sürücü yalnızca Lakehouse Federasyonu'nü destekler. Diğer kullanım örnekleri için kendi sürücünüzü sağlamanız gerekir.Yollarla erişilen Delta tabloları için daha ayrıntılı hatalar: Yollar kullanılarak erişilen Delta tabloları için yeni bir hata iletisi deneyimi kullanıma sunuldu. Tüm özel durumlar artık kullanıcıya iletilir. Özel durum
DELTA_MISSING_DELTA_TABLE
artık temel alınan dosyaların Delta tablosu olarak okunamadığı durumlar için ayrılmıştır.
Davranış değişiklikleri
Kırıcı Değişiklik: Barındırılan RStudio'nun Kullanım Ömrünün Sonu: Bu sürümle birlikte, Databricks tarafından barındırılan RStudio Server, sunucusuz işlem üzerinde çalışan Azure Databricks çalışma alanlarında kullanım dışıdır. Daha fazla bilgi edinmek ve RStudio'nun alternatiflerinin listesini görmek için bkz. Barındırılan RStudio Server kullanımdan kaldırma.
Hataya neden olan değişiklik:
byte
,short
,int
velong
türlerini daha geniş türlerle değiştirme desteğinin kaldırılması: Delta ve Iceberg tablolarında tutarlı davranış sağlamak için, türü genişletme özelliği etkin olan tablolara artık aşağıdaki veri türü değişiklikleri uygulanamıyor:-
byte
,short
int
velong
içindecimal
. -
byte
,short
veint
içindouble
.
-
İç içe karakter gruplandırmasında olumsuzlama ile regex desenlerinin doğru ayrıştırılması: Bu sürüm, iç içe karakter gruplandırmasında olumsuzlama ile regex desenlerinin doğru ayrıştırılmasını destekleyen bir değişiklik içerir. Örneğin,
[^[abc]]
"'abc'lerden biri olmayan herhangi bir karakter" olarak ayrıştırılır.Buna ek olarak, iç içe karakter sınıfları için Foton davranışı Spark ile tutarsızdı. İç içe karakter sınıfları içeren regex desenleri artık Photon kullanmaz ve spark kullanır. İç içe yerleştirilmiş karakter sınıfı, gibi
[[a-c][1-3]]
köşeli ayraçlar içinde köşeli ayraç içeren herhangi bir desendir.Delta Lake
MERGE
'de yinelenen eşleşme algılamasını geliştirme:MERGE
artıkWHEN MATCHED
yan tümcesinde belirtilen koşulları dikkate alır. Birleştirmeyi kullanarak bkz . Delta Lake tablosuna upsert ekleme.addArtifact()
işlevi artık işlem türleri arasında tutarlıdır: Sunucusuz işlemde bağımlılık eklemek içinaddArtifact(archive = True)
kullandığınızda arşiv otomatik olarak açılır. Bu değişiklik,addArtifact(archive = True)
davranışını arşivleri otomatik olarak açmayı zaten destekleyen tek kullanıcılı hesaplamayla tutarlı hale getirir.VARIANT
veri türü artık karşılaştırma gerektiren işlemlerle kullanılamaz:VARIANT
veri türü içeren sorgularda aşağıdaki yan tümceleri veya işleçleri kullanamazsınız:DISTINCT
INTERSECT
EXCEPT
UNION
DISTRIBUTE BY
Ayrıca, şu DataFrame işlevlerini kullanamazsınız:
df.dropDuplicates()
df.repartition()
Bu işlemler karşılaştırmalar gerçekleştirir ve
VARIANT
veri türünü kullanan karşılaştırmalar tanımsız sonuçlar üretir ve Databricks'te desteklenmez. Azure Databricks iş yüklerinizde veya tablolarınızdaVARIANT
türünü kullanırsanız, Databricks aşağıdaki değişiklikleri önerir:-
VARIANT
değerleriVARIANT
olmayan veri türlerine açıkça aktarmak için sorguları veya ifadeleri güncelleştirin. - Yukarıdaki işlemlerden herhangi biriyle kullanılması gereken alanlarınız varsa, bu alanları
VARIANT
veri türünden ayıklayın veVARIANT
olmayan veri türlerini kullanarak depolayın.
Bkz. Varyant veri sorgula.
Hata düzeltmeleri
- Saat dilimi farkları artık CSV, JSON ve XML formatında seri hale getirildiğinde saniyeleri içeriyor. Saniyeleri içeren saat dilimi farklarına sahip zaman damgaları (1900'den önceki zaman damgaları için yaygındır) CSV, JSON ve XML olarak seri hale getirildiğinde saniyeleri içermezdi. Varsayılan zaman damgası biçimlendiricisi düzeltildi ve şimdi bu zaman damgaları için doğru uzaklık değerlerini döndürür.
Diğer değişiklikler
-
cloudFiles
Yapılandırılmış Akış kaynağı için Yeniden Adlandırılmış hata kodları: Aşağıdaki hata kodları yeniden adlandırıldı:-
_LEGACY_ERROR_TEMP_DBR_0143
CF_INCORRECT_STREAM_USAGE
olarak yeniden adlandırılır. -
_LEGACY_ERROR_TEMP_DBR_0260
CF_INCORRECT_BATCH_USAGE
olarak yeniden adlandırılır.
-
Sürüm 15.4
28 Ekim 2024, Cumartesi
Bu sunucusuz işlem sürümü kabaca Databricks Runtime 15.4'e karşılık gelir
Yeni özellikler
-
UTF-8 doğrulama işlevleri: Bu sürüm, UTF-8 dizelerini doğrulamak için aşağıdaki işlevleri tanıtır:
- is_valid_utf8 bir dizenin geçerli bir UTF-8 dizesi olup olmadığını doğruladı.
- make_valid_utf8, değiştirme karakterlerini kullanarak geçersiz olabilecek bir UTF-8 dizesini geçerli bir UTF-8 dizesine dönüştürür.
- giriş geçerli bir UTF-8 dizesi değilse validate_utf8 bir hata oluşturur.
-
try_validate_utf8, giriş geçerli bir UTF-8 dizesi değilse döndürür
NULL
.
- ALTER TABLEkullanarak UniForm Iceberg'i etkinleştirme: Artık veri dosyalarını yeniden yazmadan mevcut tablolarda UniForm Buzdağı'nı etkinleştirebilirsiniz. Bkz. mevcut bir tabloda Iceberg okumalarını etkinleştirme.
-
try_url_decode işlevi: Bu sürüm, URL ile kodlanmış bir dizenin kodunu çözen try_url_decode işlevini tanıtır. Dize doğru biçimde değilse, işlev hata oluşturmak yerine döndürür
NULL
. İsteğe bağlı olarak iyileştiricinin zorunlu olmayan yabancı anahtar kısıtlamalarına güvenmesine izin verin: Sorgu performansını artırmak için artık create veyaALTER tablokısıtlamaları üzerinde anahtar sözcüğünü belirtebilirsiniz. -
Seçmeli üzerine yazmalar için paralel iş yürütme: Seçmeli üzerine yazmalar kullanan
replaceWhere
, artık verileri silip yeni verileri paralel olarak ekleyen işleri çalıştırarak sorgu performansını ve küme kullanımını iyileştirir. -
Seçmeli üzerine yazmalarla değişiklik veri akışı için geliştirilmiş performans: Değişiklik veri akışı olan tablolarda
replaceWhere
kullanan seçmeli üzerine yazmalar artık eklenen veriler için ayrı değişiklik veri dosyaları yazmaz. Bu işlemler, değişiklikleri yazma amplifikasyonu olmadan kaydetmek için temel Parquet veri dosyalarında bulunan gizli bir_change_type
sütunu kullanır. -
Komut için
COPY INTO
sorgu gecikme süresi geliştirildi: Bu sürüm, komutun sorgu gecikme süresiniCOPY INTO
geliştiren bir değişiklik içerir. Bu geliştirme, RocksDB durum deposu tarafından durum yüklemesini zaman uyumsuz hale getirerek uygulanır. Bu değişiklikle, zaten alınmış çok sayıda dosya içeren sorgular gibi büyük durumlara sahip sorguların başlangıç zamanlarında bir gelişme görmeniz gerekir. -
Denetim kısıtlamaları tablosu özelliğini bırakma desteği: Artık
checkConstraints
kullanarakALTER TABLE table_name DROP FEATURE checkConstraints
tablo özelliğini delta tablosundan bırakabilirsiniz. Bkz. Denetim kısıtlamalarını devre dışı bırakma.
Davranış değişiklikleri
görünümler için şema bağlama değişikliği : Görünümün temel sorgularındaki veri türleri, görünüm ilk oluşturulduğunda kullanılanlardan değiştiğinde Databricks artık güvenli bir atama gerçekleştirilemiyorsa görünüme başvurular için hata oluşturmaz.
Bunun yerine, görünüm , mümkün olduğunca normal dönüştürme kurallarını kullanarak telafi eder. Bu değişiklik, Databricks'in tablo şeması değişikliklerini daha hazır bir şekilde tolere etmesine olanak tanır.
!
Databricks artık boole mantığının dışında bir eş anlamlıNOT
olarak kullanılmasını tolere etmeyecektir.!
Bu değişiklik karışıklığı azaltır, SQL standardıyla uyumludur ve SQL'i daha taşınabilir hale getirir. Örneğin:CREATE ... IF ! EXISTS
, IS ! NULL,! NULL
sütun veya alan özelliği,! IN
ve ! BETWEEN ile değiştirilmelidir.CREATE ... IF NOT EXISTS
,IS NOT NULL
,NOT NULL
sütun veya alan özelliği,NOT IN
veNOT BETWEEN
.Boole ön ek işleci
!
(ör.!is_mgr
veya!(true AND false)
) bu değişiklikten etkilenmez.Görünümlerde sütun tanımı söz diziminin belgelenmemiş ve işlenmemiş bölümlerine izin verilmemelidir: Databricks, adlandırılmış sütunlar ve sütun açıklamalarıyla CREATE VIEW destekler.
Sütun türlerinin,
NOT NULL
kısıtlamaların veyaDEFAULT
belirtimi söz diziminde herhangi bir etkisi olmadan tolere edilmiştir. Databricks bu söz dizimi toleranslarını kaldırır. Bunun yapılması karışıklığı azaltır, SQL standardıyla uyumludur ve gelecekteki iyileştirmelere olanak tanır.Spark ve Photon'da Base64 kod çözme için tutarlı hata işleme: Bu sürüm, Photon'un Base64 kod çözme hatalarını işleme biçimini bu hataların Spark işlemesi ile eşleşecek şekilde değiştirir. Bu değişikliklerden önce, Photon ve Spark kod oluşturma yolu bazen ayrıştırma özel durumlarını tetiklemezken Spark yürütmeyi doğru veya olarak yorumladı
IllegalArgumentException
ConversionInvalidInputError
. Bu güncelleştirme, Photon'un Base64 kod çözme hataları sırasında Spark ile tutarlı bir şekilde aynı özel durumları oluşturmasını sağlayarak daha öngörülebilir ve güvenilir hata işleme sağlar.Geçersiz bir sütuna
CHECK
kısıtlaması eklemek artık UNRESOLVED_COLUMN.WITH_SUGGESTION hata sınıfını döndürüyor: Daha faydalı hata mesajları sağlamak için, Databricks Runtime 15.3 ve üzeri sürümlerde, geçersiz sütun adına başvuran birALTER TABLE ADD CONSTRAINT
deyimi içerenCHECK
kısıtlaması UNRESOLVED_COLUMN.WITH_SUGGESTION hata sınıfını döndürüyor. Daha önce birINTERNAL_ERROR
döndürüldü.
JDK, JDK 8'den JDK 17'ye yükseltilir
15 Ağustos 2024, Ağustos 2024, Saat 20:00
Not defterleri ve iş akışları için sunucusuz işlem, sunucu tarafında Java Development Kit (JDK) 8'den JDK 17'ye geçirildi. Bu yükseltme aşağıdaki davranış değişikliklerini içerir:
İç içe karakter gruplandırmasında olumsuzlama ile regex desenlerinin doğru ayrıştırılması: Bu yükseltmeyle Azure Databricks artık iç içe karakter gruplandırmasında olumsuzlama ile regex desenlerinin doğru ayrıştırma işlemini destekliyor. Örneğin,
[^[abc]]
"'abc'lerden biri olmayan herhangi bir karakter" olarak ayrıştırılır.Buna ek olarak, iç içe karakter sınıfları için Foton davranışı Spark ile tutarsızdı. İç içe karakter sınıfları içeren regex desenleri artık Photon kullanmaz ve spark kullanır. İç içe yerleştirilmiş karakter sınıfı, gibi
[[a-c][1-3]]
köşeli ayraçlar içinde köşeli ayraç içeren herhangi bir desendir.
Sürüm 15.1
23 Temmuz 2024, Saat 2024, Temmuz 2024, Saat 20:00
Bu sunucusuz işlem sürümü kabaca Databricks Runtime 15.1'e karşılık gelir
Yeni özellikler
Örneğin, SELECT * FROM VALUES(1, 2) AS T(a1, a2) WHERE 1 IN(T.*)
.
Değişiklikler
JSON ayrıştırma için geliştirilmiş hata kurtarma: ve JSON yol ifadeleri için from_json()
kullanılan JSON ayrıştırıcısı artık yanlış biçimlendirilmiş söz diziminden daha hızlı kurtarılarak daha az veri kaybına neden olur.
Yapı alanında, dizi değerinde, eşleme anahtarında veya eşleme değerinde hatalı biçimlendirilmiş JSON söz dizimi ile karşılaşıldığında, JSON ayrıştırıcısı artık yalnızca okunamayan alan, anahtar veya öğe için döndürülecektir NULL
. Sonraki alanlar, anahtarlar veya öğeler düzgün şekilde ayrıştırılır. Bu değişiklik öncesinde JSON ayrıştırıcısı dizi, yapı veya eşleme ayrıştırma işlemini bıraktı ve kalan içerik için döndürüldü NULL
.
Sürüm 14.3
15 Nisan 2024, Saat 2024, Temmuz 2024, Saat 20:00
Bu, ilk sunucusuz işlem sürümüdür. Bu sürüm kabaca Databricks Runtime 14.3 bazı sunucusuz ve eski özelliklerin desteğini kaldıran bazı değişikliklere karşılık gelir.
Desteklenen Spark yapılandırma parametreleri
Sunucusuz işlemde Spark yapılandırmasını otomatikleştirmek için, Azure Databricks çoğu Spark yapılandırmasının el ile ayarlanması desteğini kaldırmıştır. Yalnızca aşağıdaki Spark yapılandırma parametrelerini el ile ayarlayabilirsiniz:
-
spark.sql.legacy.timeParserPolicy
(Varsayılan değerCORRECTED
) -
spark.sql.session.timeZone
(Varsayılan değerEtc/UTC
) -
spark.sql.shuffle.partitions
(Varsayılan değerauto
) -
spark.sql.ansi.enabled
(Varsayılan değertrue
)
Bu listede olmayan bir Spark yapılandırması ayarlarsanız sunucusuz işlem üzerinde çalışan iş başarısız olur.
Spark özelliklerini yapılandırma hakkında daha fazla bilgi için bkz. Azure DatabricksSpark yapılandırma özelliklerini ayarlama.
input_file işlevleri kullanım dışı bırakıldı
input_file_name(), input_file_block_length() ve input_file_block_start() işlevleri kullanım dışı bırakıldı. Bu işlevlerin kullanılması önerilmez.
Bunun yerine, dosya meta verileri bilgilerini almak için
Davranış değişiklikleri
Sunucusuz işlem sürümü 2024.15 aşağıdaki davranış değişikliklerini içerir:
-
unhex(hexStr) hata düzeltmesi: İşlev kullanılırken
unhex(hexStr)
, hexStr her zaman bir baytta sola doldurulur. Daha önce unhex işlevi ilk yarım baytı yoksaymıştı. Örneğin:unhex('ABC')
artık yerinex'0ABC'
üretirx'BC'
. - Otomatik oluşturulan sütun takma adları artık kararlıdır: Bir ifadenin sonucuna kullanıcı tarafından belirtilen bir sütun takma adı olmadan başvurulduğunda, otomatik oluşturulan bu takma ad artık kararlı olacaktır. Yeni algoritma, gerçekleştirilmiş görünümler gibi özelliklerde kullanılan önceden otomatik olarak oluşturulan adlarda değişiklik olmasına neden olabilir.
-
CHAR
tür alanlarıyla Tablo taramaları artık her zaman doldurulmuş durumdadır: Delta tabloları, belirli JDBC tabloları ve dış veri kaynakları CHAR verilerini doldurulmamış biçimde depolar. Okurken Azure Databricks artık doğru semantiği sağlamak için verileri belirtilen uzunlukta boşluklarla doldurmaya devam edecektir. -
Atamaları BIGINT/DECIMAL'den TIMESTAMP'ye taşan değerler için bir özel durum oluşturur: Azure Databricks, değeri Unix döneminin saniye sayısı olarak kabul ederek BIGINT ve DECIMAL'den TIMESTAMP'ye dönüştürmeye izin verir. Daha önce Azure Databricks aşım değerler döndürüyordu, ancak artık aşım durumlarında istisna fırlatıyor. Özel durum yerine NULL döndürmek için kullanın
try_cast
. -
PySpark UDF yürütmesi, tek kullanıcı işlemlerinde UDF yürütmesinin tam davranışıyla eşleşecek şekilde geliştirilmiştir: Aşağıdaki değişiklikler yapılmıştır:
- Dize dönüş türüne sahip UDF'ler artık dize olmayan değerleri örtük olarak dizelere dönüştürmez. Daha önce, dönüş türüne
str
sahip UDF'ler, döndürülen değerin gerçek veri türünden bağımsız olarak sonuda birstr(..)
sarmalayıcı uygulardı. -
timestamp
dönüş türlerine sahip UDF'ler tarih damgalarına artık örtülü olarak saat dilimi dönüştürmesi uygulamaz.
- Dize dönüş türüne sahip UDF'ler artık dize olmayan değerleri örtük olarak dizelere dönüştürmez. Daha önce, dönüş türüne