PostgreSQL'de federasyon sorguları çalıştırma
Bu makalede, Azure Databricks tarafından yönetilmeyen PostgreSQL verilerinde federasyon sorguları çalıştırmak için Lakehouse Federasyonu'nun nasıl ayarlanacağı açıklanır. Lakehouse Federasyonu hakkında daha fazla bilgi edinmek için bkz . Lakehouse Federasyonu nedir?.
Lakehouse Federation kullanarak PostgreSQL veritabanındaki Çalıştırma sorgularınıza bağlanmak için Azure Databricks Unity Kataloğu meta veri deponuzda aşağıdakileri oluşturmanız gerekir:
- PostgreSQL veritabanında sorgu çalıştırma bağlantınız.
- PostgreSQL veritabanında çalıştırdığınız sorguları Unity Kataloğu'nda yansıtan bir yabancı katalog, böylece veritabanına Azure Databricks kullanıcı erişimini yönetebilmeniz için Unity Kataloğu sorgu söz dizimini ve veri idare araçlarını kullanabilirsiniz.
Başlamadan önce
Çalışma alanı gereksinimleri:
- Unity Kataloğu için etkinleştirilen çalışma alanı.
İşlem gereksinimleri:
- İşlem kaynağınızdan hedef veritabanı sistemlerine ağ bağlantısı. Bkz . Lakehouse Federasyonu için ağ önerileri.
- Azure Databricks hesaplamasının, Databricks Runtime 13.3 LTS veya üzerini ve Paylaşılan veya Tek kullanıcı erişim modunu kullanması gerekir.
- SQL ambarları profesyonel veya sunucusuz olmalı ve 2023.40 veya üzerini kullanmalıdır.
Gerekli izinler:
- Bağlantı oluşturmak için meta veri deposu yöneticisi veya çalışma alanına bağlı Unity Kataloğu meta veri deposunda
CREATE CONNECTION
ayrıcalığına sahip bir kullanıcı olmanız gerekir. - Yabancı katalog oluşturmak için meta veri deposunda
CREATE CATALOG
iznine sahip olmanız ve bağlantının sahibi olmanız veya bağlantıdaCREATE FOREIGN CATALOG
ayrıcalığına sahip olmanız gerekir.
Aşağıdaki her görev tabanlı bölümde ek izin gereksinimleri belirtilir.
Bağlantı oluşturma
Bağlantı, bir dış veritabanı sistemine erişmek için bir yol ve kimlik bilgileri belirtir. Bağlantı oluşturmak için, Bir Azure Databricks not defterinde veya Databricks SQL sorgu düzenleyicisinde Katalog Gezgini'ni veya CREATE CONNECTION
SQL komutunu kullanabilirsiniz.
Not
Bağlantı oluşturmak için Databricks REST API'sini veya Databricks CLI'yi de kullanabilirsiniz. bkz. POST /api/2.1/unity-catalog/connections ve Unity Catalog komutları.
Gerekli izinler: Meta veri deposu yöneticisi veya ayrıcalığına CREATE CONNECTION
sahip kullanıcı.
Katalog Tarayıcı
Azure Databricks çalışma alanınızda
tıklayın.
Kataloğu bölmesinin üst kısmında Ekle veya artı simgesine tıklayınekle simgesine tıklayın ve menüden Bağlantı ekle seçin. Alternatif olarak,
Hızlı erişim sayfasında Dış veridüğmesine tıklayın, Bağlantılar sekmesine gidin veBağlantı oluştur öğesine tıklayın.Bağlantı temel bilgileri sayfasında, Bağlantı ayarlama sihirbazı için kullanıcı dostu bir Bağlantı adıgirin.
Bağlantı türüPostgreSQLseçin.
(İsteğe bağlı) Açıklama ekleyin.
İleridüğmesine tıklayın.
Kimlik Doğrulaması sayfasında PostgreSQL örneğinin aşağıdaki bağlantı özelliklerini girin.
-
Konak: Örneğin,
postgres-demo.lb123.us-west-2.rds.amazonaws.com
-
Bağlantı noktası: Örneğin,
5432
-
Kullanıcı: Örneğin,
postgres_user
-
Parola: Örneğin,
password123
-
Konak: Örneğin,
Bağlantıoluştur'a tıklayın.
Katalog Temelleri sayfasında, yabancı katalog için bir ad girin. Veritabanındaki verileri Azure Databricks ve Unity Kataloğu'nu kullanarak sorgulayıp yönetebilmeniz için yabancı katalog, bir dış veri sistemindeki veritabanını yansıtır.
(İsteğe bağlı) Çalıştığını onaylamak için Bağlantıyı test et'e tıklayın.
Tıklayın Katalog oluştur.
Access sayfasında, kullanıcıların oluşturduğunuz kataloğa erişebileceği çalışma alanlarını seçin. Tüm çalışma alanları erişilebilirseçebilir veya Çalışma alanına ata'ya tıklayın, çalışma alanlarını seçin ve ardından Atatıklayın.
Katalogdaki tüm nesnelere erişimi yönetebilecek Sahibi değiştirin. Metin kutusuna bir sorumlu yazmaya başlayın ve döndürülen sonuçlarda sorumluya tıklayın.
Katalog üzerinde ayrıcalıklar verme yetkisi tanıyın. ver'
tıklayın: - Katalogdaki nesnelere erişimi olacak
Sorumlularını belirtin. Metin kutusuna bir sorumlu yazmaya başlayın ve döndürülen sonuçlarda sorumluya tıklayın. -
İmtiyaz ön ayarlarını her bir sorumluya vermek için seçin. Tüm hesap kullanıcılarına varsayılan olarak
BROWSE
verilir.- Katalogdaki nesnelerde
ayrıcalıkları vermek için açılan menüden veri okuyucu seçin. - Katalogdaki nesnelerde ve
read
ayrıcalıkları vermek için açılan menüdenmodify
seçin. - Vermek istediğiniz ayrıcalıkları el ile seçin.
- Katalogdaki nesnelerde
- ver'e tıklayın.
- Katalogdaki nesnelere erişimi olacak
İleridüğmesine tıklayın.
Meta Veri sayfasında etiketlerin anahtar-değer çiftlerini belirtin. Daha fazla bilgi için bkz. Unity Kataloğu güvenli hale getirilebilir nesnelere etiket uygulama.
(İsteğe bağlı) Açıklama ekleyin.
Tıklayın Kaydet.
SQL
Aşağıdaki komutu bir not defterinde veya Databricks SQL sorgu düzenleyicisinde çalıştırın.
CREATE CONNECTION <connection-name> TYPE postgresql
OPTIONS (
host '<hostname>',
port '<port>',
user '<user>',
password '<password>'
);
Kimlik bilgileri gibi hassas değerler için düz metin dizeleri yerine Azure Databricks gizli dizileri kullanmanızı öneririz. Örneğin:
CREATE CONNECTION <connection-name> TYPE postgresql
OPTIONS (
host '<hostname>',
port '<port>',
user secret ('<secret-scope>','<secret-key-user>'),
password secret ('<secret-scope>','<secret-key-password>')
)
Gizli dizileri ayarlama hakkında bilgi için bkz . Gizli dizi yönetimi.
Yabancı katalog oluşturma
Not
Kullanıcı arabirimini veri kaynağına bağlantı oluşturmak için kullanırsanız, yabancı katalog oluşturma dahil edilir ve bu adımı atlayabilirsiniz.
Veritabanındaki verileri Azure Databricks ve Unity Kataloğu'nu kullanarak sorgulayıp yönetebilmeniz için yabancı katalog, bir dış veri sistemindeki veritabanını yansıtır. Yabancı katalog oluşturmak için, önceden tanımlanmış olan veri kaynağına bir bağlantı kullanırsınız.
Yabancı katalog oluşturmak için, Bir Azure Databricks not defterinde veya SQL sorgu düzenleyicisinde Katalog Gezgini'ni veya CREATE FOREIGN CATALOG
SQL komutunu kullanabilirsiniz.
Katalog oluşturmak için Databricks REST API'sini veya Databricks CLI'yi de kullanabilirsiniz. bkz. POST /api/2.1/unity-catalog/catalogs ve Unity Catalog komutları.
gerekli izinler:CREATE CATALOG
meta veri deposu üzerindeki izin ve bağlantının sahipliği veya CREATE FOREIGN CATALOG
bağlantı üzerindeki ayrıcalık.
Katalog Tarayıcı
Azure Databricks çalışma alanınızda, Katalog Gezgini'ni açmak için "
Katalog" tıklayın.
Kataloğu bölmesinin üst kısmında Ekle veya artısimgesine tıklayın ekle simgesine tıklayın ve menüden Katalog ekle seçin. Alternatif olarak,
Hızlı erişim sayfasında Kataloglardüğmesine tıklayın ve ardından Katalog oluştur düğmesine tıklayın. katalog oluşturma bölümünde yabancı katalog oluşturma yönergelerini izleyin.
SQL
Aşağıdaki SQL komutunu bir not defterinde veya SQL sorgu düzenleyicisinde çalıştırın. Köşeli ayraç içindeki öğeler isteğe bağlıdır. Yer tutucu değerlerini değiştirin:
-
<catalog-name>
: Azure Databricks'teki kataloğun adı. -
<connection-name>
: Veri kaynağını, yolu ve erişim kimlik bilgilerini belirten bağlantı nesnesi. -
<database-name>
: Azure Databricks'te katalog olarak yansıtmak istediğiniz veritabanının adı.
CREATE FOREIGN CATALOG [IF NOT EXISTS] <catalog-name> USING CONNECTION <connection-name>
OPTIONS (database '<database-name>');
Desteklenen gönderimler
Aşağıdaki gönderimler tüm işlemlerde desteklenir:
- Filtreler
- Projeksiyonlar
- Sınır
- İşlevler: kısmi, yalnızca filtre ifadeleri için. (Dize işlevleri, Matematiksel işlevler ve Alias, Cast, SortOrder gibi diğer çeşitli işlevler)
Aşağıdaki gönderimler Databricks Runtime 13.3 LTS ve üzeri ile SQL ambarlarında desteklenir:
- Aşağıdaki toplama işlevleri: MIN, MAX, COUNT, SUM, AVG, VAR_POP, VAR_SAMP, STDDEV_POP, STDDEV_SAMP, GREATEST, LEAST, COVAR_POP, COVAR_SAMP, CORR, REGR_INTERCEPT, REGR_R2, REGR_SLOPE, REGR_SXY
- Aşağıdaki Boole işlevleri: =, <, <, =>, >=, <=>
- Aşağıdaki matematiksel işlevler (ANSI devre dışı bırakıldıysa desteklenmez): +, -, *, %, /
- Çeşitli işleçler | ve~
- Sıralama, sınır ile kullanıldığında
Aşağıdaki gönderimler desteklenmez:
- Birleştirmeler
- Windows işlevleri
Veri türü eşlemeleri
PostgreSQL'den Spark'a okuma yaptığınızda veri türleri aşağıdaki gibi eşlenir:
PostgreSQL türü | Spark türü |
---|---|
sayısal | Ondalık Türü |
int2 | ShortType |
int4 (imzalı değilse) | IntegerType |
int8, oid, xid, int4 (imzalıysa) | LongType |
float4 | FloatType |
çift duyarlık, float8 | DoubleType |
char | CharType |
ad, varchar, tid | VarcharType |
bpchar, karakter değişen, json, para, nokta, süper, metin | StringType |
bayt, geometri, varbayt | BinaryType |
bit, bool | BooleanType |
tarih | DateType |
tabstime, time, time, time zone ile saat, saat dilimi olmayan saat, saat dilimi ile zaman damgası, zaman damgası, zaman damgası, saat dilimi olmadan zaman damgası* | TimestampType/TimestampNTZType |
Postgresql dizi türü** | ArrayType |
*Postgresql'den okuduğunuzda PostgresqlTimestamp
, (varsayılan) ise TimestampType
Spark'a preferTimestampNTZ = false
eşlenir. PostgresqlTimestamp
, ise TimestampNTZType
ile preferTimestampNTZ = true
eşlenir.
**Sınırlı dizi türleri desteklenir.