Kelas kesalahan di Azure Databricks
Berlaku untuk: Databricks SQL
Databricks Runtime versi 12.2 ke atas
Kelas kesalahan bersifat deskriptif, dapat dibaca manusia, string yang unik untuk kondisi kesalahan.
Anda dapat menggunakan kelas kesalahan untuk menangani kesalahan secara terprogram di aplikasi Anda tanpa perlu mengurai pesan kesalahan.
Ini adalah daftar kondisi kesalahan yang umum terjadi dan memiliki nama dari Azure Databricks.
Databricks Runtime dan Databricks SQL
TAMBAH_DEFAULT_TIDAK_DIDUKUNG
Gagal menjalankan perintah <statementType>
karena nilai DEFAULT
tidak didukung saat menambahkan kolom baru ke sumber data target yang sudah ada sebelumnya dengan penyedia tabel: "<dataSource>
".
FUNGSI_AGREGAT_DENGAN_EKSPRESI_TIDAK_DETERMINISTIK
Ekspresi non-deterministik <sqlExpr>
tidak boleh muncul dalam argumen fungsi agregat.
Kesalahan parsing tipe data pada fungsi HTTP AI
Gagal mengurai output model saat mentransmisikan ke returnType yang ditentukan: "<dataType>
", respons JSON adalah: "<responseString>
". Harap perbarui returnType agar sesuai dengan konten jenis yang diwakili oleh JSON respons lalu coba lagi kuerinya.
AI_FUNCTION_HTTP_PARSE_COLUMNS_ERROR
Output model yang sebenarnya memiliki lebih dari satu kolom "<responseString>
". Namun, jenis pengembalian yang ditentukan["<dataType>
"] hanya memiliki satu kolom. Harap perbarui returnType untuk berisi jumlah kolom yang sama dengan output model lalu coba lagi kueri.
Kesalahan Permintaan HTTP AI_FUNCTION
Terjadi kesalahan saat membuat permintaan HTTP untuk fungsi <funcName>
: <errorMessage>
AI_FUNCTION_INVALID_HTTP_RESPONSE
Respons HTTP tidak valid untuk fungsi <funcName>
: <errorMessage>
AI_FUNCTION_INVALID_MAX_WORDS
Jumlah kata maksimum harus bilangan bulat non-negatif, namun yang diperoleh <maxWords>
.
FUNGSI_AI_PARAMETER_MODEL_TIDAK_VALID
Parameter model yang disediakan (<modelParameters>
) tidak valid dalam fungsi AI_QUERY
untuk melayani titik akhir "<endpointName>
".
Untuk detail selengkapnya, lihat AI_FUNCTION_INVALID_MODEL_PARAMETERS
FUNGSI_AI_FORMAT_RESPON_TIDAK_VALID
Fungsi AI: "<functionName>
" memerlukan string <format>
yang valid untuk parameter responseFormat
, tetapi menemukan format respons berikut: "<invalidResponseFormat>
". Pengecualian: <errorMessage>
AI_FUNCTION_JSON_PARSE_ERROR
Terjadi kesalahan saat mengurai respons JSON untuk fungsi <funcName>
: <errorMessage>
Kesalahan Memahami Skema Model Fungsi AI
Gagal mengurai skema untuk titik akhir penyajian "<endpointName>
": <errorMessage>
, respons JSON adalah: "<responseJson>
".
Atur parameter returnType
secara manual dalam fungsi AI_QUERY
untuk mengambil alih resolusi skema.
KESALAHAN_FUNGSI_AI_TIDAK_DIDUKUNG
Fungsi <funcName>
tidak didukung di lingkungan saat ini. Ini hanya tersedia di Databricks SQL Pro dan Tanpa Server.
Fungsi AI: Permintaan Tidak Didukung
Gagal mengevaluasi fungsi SQL "<functionName>
" karena argumen yang disediakan dari <invalidValue>
memiliki "<invalidDataType>
", tetapi hanya jenis berikut yang didukung: <supportedDataTypes>
. Harap perbarui panggilan fungsi untuk memberikan argumen jenis string dan coba lagi kueri.
AI_FUNCTION_UNSUPPORTED_RESPONSE_FORMAT
Ditemukan format respons yang tidak didukung.
Untuk informasi lebih lanjut, lihat AI_FUNCTION_UNSUPPORTED_RESPONSE_FORMAT
TIPE_PENGEMBALIAN_FUNGSI_AI_TIDAK_DIDUKUNG
Fungsi AI: "<functionName>
" tidak mendukung jenis berikut sebagai jenis pengembalian: "<typeName>
". Jenis pengembalian harus merupakan jenis SQL yang valid yang dipahami oleh Katalis dan didukung oleh fungsi AI. Jenis yang didukung saat ini meliputi: <supportedValues>
Kesalahan_Nilai_Argumen_Tidak_Sah_AI
Nilai yang disediakan "<argValue>
" tidak didukung oleh argumen "<argName>
". Nilai yang didukung adalah: <supportedValues>
AI_QUERY_ENDPOINT_TIDAK_MENDUKUNG_OUTPUT_TERSTRUKTUR
Diharapkan jenis tugas titik akhir penyajian menjadi "Obrolan" untuk dukungan output terstruktur, tetapi ditemukan "<taskType>
" untuk titik akhir "<endpointName>
".
MISMATCH TIPE KOLOM PADA TIPE PENGEMBALIAN KUERI AI
Jika "<sqlExpr>
" tidak didukung oleh argumen returnType.
KESALAHAN_PASOKAN_PARAMETRI_KONFLIK_PENCARIAN_AI
Parameter yang bertentangan terdeteksi untuk fungsi SQL vector_search
: <conflictParamNames>
.<hint>
Kesalahan_Tipe_Kolom_Pencarian_AI_Tidak_Didukung
vector_search
fungsi SQL dengan jenis kolom penyematan <embeddingColumnType>
tidak didukung.
AI_SEARCH_EMPTY_QUERY_PARAM_ERROR
vector_search
fungsi SQL tidak memiliki parameter input kueri, harap tentukan minimal satu dari: <parameterNames>
.
AI_SEARCH_HYBRID_QUERY_PARAM_DEPRECATION_ERROR
Parameter query
dari fungsi SQL vector_search
tidak didukung untuk pencarian vektor hybrid
. Silakan gunakan query_text
sebagai gantinya.
KESALAHAN_TIDAK_DITEMUKAN_TEKS_HIBRIDA_AI_PENCARIAN
Teks kueri tidak ditemukan dalam fungsi SQL vector_search
untuk pencarian vektor hybrid
. Harap sediakan query_text
.
Jenis Indeks Penelusuran AI Tidak Didukung
vector_search
fungsi SQL dengan jenis indeks <indexType>
tidak didukung.
ERROR_INPUT_PENYEMATAN_AI_YANG_HILANG
query_vector
harus ditentukan untuk indeks <indexName>
karena tidak terkait dengan endpoint model penyematan.
AI_SEARCH_QUERY_TYPE_CONVERT_ENCODE_ERROR
Kegagalan menyusun kueri fungsi SQL vector_search
dari tipe spark <dataType>
ke objek scala-native ketika mengode permintaan karena kesalahan: <errorMessage>
.
KESALAHAN_TIPE_PERTANYAAN_PENCARIAN_TIDAK_DIDUKUNG
vector_search
fungsi SQL dengan jenis kueri <unexpectedQueryType>
tidak didukung. Tentukan satu dari: <supportedQueryTypes>
.
Kesalahan_Jumlah_Hasil_Tidak_Didukung_AI_PENCARIAN
vector_search
fungsi SQL dengan num_results lebih besar dari <maxLimit>
tidak didukung. Batas yang ditentukan adalah <requestedLimit>
. Silakan coba lagi dengan num_results <= <maxLimit>
ALL_PARAMETERS_MUST_BE_NAMED
Menggunakan kueri berparameter nama mengharuskan semua parameter diberi nama. Nama parameter yang hilang: <exprs>
.
SEMUA_KOLOM_PARTISI_TIDAK_DIPERBOLEHKAN
Tidak dapat menggunakan semua kolom untuk kolom partisi.
JADWAL_ALTER_TIDAK_ADA
Tidak dapat memodifikasi <scheduleType>
pada tabel tanpa jadwal atau pemicu yang ada. Tambahkan jadwal atau pemicu ke tabel sebelum mencoba mengubahnya.
PENGUBAHAN_DUPLIKAT_KOLOM_DESKRIPTOR_TABEL
ALTER TABLE <type>
kolom <columnName>
menentukan deskriptor "<optionName>
" lebih dari sekali, yang tidak valid.
Alias_Tidak_Jelas_Dalam_CTE_Tertanam
Nama <name>
ambigu dalam CTE berlapis.
Atur <config>
ke "CORRECTED
" sehingga nama yang ditentukan dalam CTE bagian dalam mendapat prioritas. Jika diatur ke "LEGACY
", definisi CTE luar akan memiliki prioritas utama.
Lihat https://spark.apache.org/docs/latest/sql-migration-guide.html#query-engine'.
KOLOM_OR_BIDANG_TIDAK_JELAS
Kolom atau bidang <name>
bersifat ambigu dan memiliki <n>
kecocokan.
REFERENSI_KOLOM_AMBIGU
Kolom <name>
ambigu. Ini karena Anda menggabungkan beberapa DataFrame bersama-sama, dan beberapa DataFrame ini sama.
Kolom ini menunjuk ke salah satu DataFrames tetapi Spark tidak dapat mencari tahu yang mana.
Silakan membuat alias untuk DataFrames dengan nama yang berbeda dengan menggunakan DataFrame.alias
sebelum menggabungkannya.
dan tentukan kolom menggunakan nama yang memenuhi syarat, misalnya df.alias("a").join(df.alias("b"), col("a.id") > col("b.id"))
.
KETIDAKJELASAN_PERSYARATAN
Referensi ambigu ke batasan <constraint>
.
ALIAS_KOLOM_LATERAL_AMBIGU
Alias kolom lateral <name>
ambigu dan memiliki kecocokan <n>
.
REFERENSI_TIDAK_JELAS
Referensi <name>
ambigu, bisa jadi: <referenceNames>
.
REFERENSI_YANG_TIDAK_JELAS_PADA_FIELD
Referensi ambigu ke bidang <field>
. Muncul <count>
kali dalam skema.
ANALISIS_KETERBATASAN_TIDAK_DIDUKUNG
ANALYZE CONSTRAINTS
tidak didukung.
Konfigurasi ANSI tidak dapat dinonaktifkan
Konfigurasi ANSI SQL <config>
tidak dapat dinonaktifkan dalam produk ini.
AQE_THREAD_INTERRUPTED
Proses AQE terganggu, mungkin karena kueri dibatalkan oleh pengguna.
ARGUMEN_TIDAK_KONSTAN
Fungsi <functionName>
menyertakan parameter <parameterName>
pada posisi <pos>
yang memerlukan argumen konstanta. Silakan komputasi argumen <sqlExpr>
secara terpisah dan berikan hasilnya sebagai konstanta.
ARITHMETIC_OVERFLOW
<message>
.
<alternative>
Jika perlu setel <config>
menjadi "false" untuk melewati kesalahan ini.
Untuk detail selengkapnya, lihat ARITHMETIC_OVERFLOW
KETIDAKCOCOKAN_ARITAS_PENUGASAN
Jumlah kolom atau variabel yang ditetapkan atau alias: <numTarget>
tidak cocok dengan jumlah ekspresi sumber: <numExpr>
.
AS_OF_JOIN
Gabungan as-of tidak valid.
Untuk informasi lebih lanjut, lihat AS_OF_JOIN
Nilai Default AVRO Tidak Didukung
Penggunaan nilai default tidak didukung saatrescuedDataColumn
diaktifkan. Anda mungkin dapat menghapus pemeriksaan ini dengan mengatur spark.databricks.sql.avro.rescuedDataBlockUserDefinedSchemaDefaultValue
ke false, tetapi nilai default tidak akan berlaku dan nilai null masih akan digunakan.
Reading Type yang Tidak Kompatibel di AVRO
Tidak dapat mengonversi Avro <avroPath>
ke SQL <sqlPath>
karena tipe data asli yang dikodekan adalah <avroType>
, namun Anda mencoba membaca kolom sebagai <sqlType>
, yang dapat menyebabkan jawaban salah.
Untuk mengizinkan membaca bidang ini, aktifkan konfigurasi SQL: "spark.sql.legacy.avro.allowIncompatibleSchema".
AVRO_POSISIONAL_PENCOCOKAN_BIDANG_TIDAK_DIDUKUNG
Penggunaan pencocokan bidang posisi tidak didukung saat rescuedDataColumn
atau failOnUnknownFields
diaktifkan. Hapus opsi ini untuk melanjutkan.
METADATA_BATCH_TIDAK_DITEMUKAN
Tidak dapat menemukan batch <batchMetadataFile>
.
Opsi BIGQUERY adalah saling eksklusif
Kredensial koneksi BigQuery harus ditentukan dengan parameter 'GoogleServiceAccountKeyJson' atau semua 'projectId', 'OAuthServiceAcctEmail', 'OAuthPvtKey'
Luapan Aritmatika Biner
<value1> <symbol> <value2>
menyebabkan luapan. Gunakan <functionName>
untuk mengabaikan masalah luapan dan mengembalikan NULL
.
PERNYATAAN_BOOLEAN_DENGAN_BARIS_KOSONG
Pernyataan Boolean <invalidStatement>
tidak valid. Diharapkan satu baris dengan nilai jenis BOOLEAN
, tetapi mendapatkan baris kosong.
KATALOG_BUILT_IN
<operation>
tidak mendukung katalog bawaan.
PANGGIL_PADA_SET_DATA_STREAMING_TIDAK_DIDUKUNG
Metode <methodName>
tidak dapat dipanggil pada streaming Himpunan Data/DataFrame.
TIDAK_DAPAT_MENGUBAH_KOLOM_BUCKET_KOLASI
ALTER TABLE (ALTER|CHANGE) COLUMN
tidak dapat mengubah pengaturan urutan tipe/subtipe kolom penampung, tetapi kolom penampung <columnName>
ditemukan dalam tabel <tableName>
.
TIDAK_DAPAT_MENGUBAH_KOLOM_PARTISI
ALTER TABLE (ALTER|CHANGE) COLUMN
tidak didukung untuk kolom partisi, tetapi menemukan kolom partisi <columnName>
dalam tabel <tableName>
.
TIDAK_BISA_MENGATUR_KOLOM_WAKTU_ACARA_TANPA_TANDA_AIR
Penanda waktu perlu didefinisikan untuk menetapkan ulang kolom waktu kejadian. Gagal menemukan definisi watermark dalam kueri streaming.
TIDAK DAPAT MENGUBAH JENIS DATA
Tidak dapat melemparkan <sourceType>
ke <targetType>
.
CANNOT_CONVERT_PROTOBUF_FIELD_TYPE_TO_SQL_TYPE
Tidak dapat mengonversi Protobuf <protobufColumn>
ke SQL <sqlColumn>
karena skema tidak kompatibel (protobufType = <protobufType>
, sqlType = <sqlType>
).
CANNOT_CONVERT_PROTOBUF_MESSAGE_TYPE_TO_SQL_TYPE
Tidak dapat mengonversi <protobufType>
Protobuf ke jenis SQL <toType>
.
Tidak dapat mengonversi tipe SQL ke tipe bidang Protobuf
Tidak dapat mengonversi <sqlColumn>
SQL ke Protobuf <protobufColumn>
karena skema tidak kompatibel (protobufType = <protobufType>
, sqlType = <sqlType>
).
Tidak dapat mengonversi nilai SQL ke jenis enum Protobuf (CANNOT_CONVERT_SQL_VALUE_TO_PROTOBUF_ENUM_TYPE)
Tidak dapat mengonversi <sqlColumn>
SQL ke protobuf <protobufColumn>
karena <data>
tidak dalam nilai yang ditentukan untuk enum: <enumString>
.
TIDAK_BISA_MENYALIN_STATUS
Tidak dapat menyalin status katalog seperti database saat ini dan tampilan sementara dari Katalog Unity ke katalog warisan.
TIDAK_BISA_MEMBUAT_TABEL_SUMBER_DATA
Gagal membuat tabel sumber data <tableName>
:
Untuk informasi lebih lanjut, lihat CANNOT_CREATE_DATA_SOURCE_TABLE
TIDAK_BISA_MENDEKODE_URL
URL yang disediakan tidak dapat didekodekan: <url>
. Pastikan URL diformat dengan benar dan coba lagi.
TIDAK DAPAT MENGHAPUS MILIK SISTEM
Sistem yang memiliki <resourceType>
tidak dapat dihapus.
Tidak Dapat Menghapus Kendala yang Ambigu
Tidak dapat menghapus batasan dengan nama <constraintName>
yang berbagi dengan batasan CHECK
dan batasan PRIMARY KEY
atau FOREIGN KEY
. Anda dapat menghilangkan PRIMARY KEY
atau
FOREIGN KEY
batasan berdasarkan kueri:
ALTER TABLE
..
DROP PRIMARY KEY
atau
ALTER TABLE
..
DROP FOREIGN KEY
..
TIDAK_BISA_MENGHUBUNGKAN
Tidak dapat membuat koneksi ke database <jdbcDialectName>
jarak jauh. Silakan periksa informasi koneksi dan kredensial misalnya opsi host, port, pengguna, kata sandi, dan database. ** Jika Anda yakin informasi tersebut benar, silakan periksa penyiapan jaringan ruang kerja Anda dan pastikan bahwa tidak ada batasan keluar ke host. Harap periksa juga bahwa host tidak memblokir koneksi masuk dari jaringan tempat kluster Spark ruang kerja disebarkan. ** Pesan kesalahan terperinci: <causeErrorMessage>
.
TIDAK_BISA_MENGHUBUNGKAN_SERVERLESS
Tidak dapat membuat koneksi ke database <jdbcDialectName>
jarak jauh. Silakan periksa informasi koneksi dan kredensial misalnya opsi host, port, pengguna, kata sandi, dan database. ** Jika Anda yakin informasi tersebut benar, izinkan lalu lintas masuk dari Internet ke host Anda, karena Anda menggunakan Komputasi Tanpa Server. Jika kebijakan jaringan Anda tidak mengizinkan lalu lintas Internet masuk, silakan gunakan Komputasi Tanpa Server, atau Anda dapat menghubungi perwakilan Databricks Anda untuk mempelajari tentang Jaringan Privat Tanpa Server. ** Pesan kesalahan terperinci: <causeErrorMessage>
.
TIDAK_BISA_MENJALANKAN_DALAM_TRANSFORMASI
Transformasi dan tindakan himpunan data hanya dapat dipanggil oleh driver, bukan di dalam transformasi Himpunan Data lainnya; misalnya, dataset1.map(x => dataset2.values.count() * x) tidak valid karena transformasi nilai dan tindakan hitungan tidak dapat dilakukan di dalam transformasi dataset1.map. Untuk informasi selengkapnya, lihat SPARK
-28702.
TIDAK DAPAT MEMUAT KELAS FUNGSI
Tidak dapat memuat kelas <className>
pada saat mendaftarkan fungsi <functionName>
, pastikan ada di classpath.
TIDAK_DAPAT_MEMUAT_KELAS_PROTOBUF
Tidak dapat memuat kelas Protobuf dengan nama <protobufClassName>
.
<explanation>
.
TIDAK_DAPAT_MEMUAT_PENYIMPANAN_STATUS
Terjadi kesalahan selama status pemuatan.
Untuk informasi lebih lanjut, lihat CANNOT_LOAD_STATE_STORE
TIDAK_BISA_MENGGABUNGKAN_TIPE_DATA_YANG_TIDAK_KOMPATIBEL
Gagal menggabungkan jenis data yang tidak kompatibel <left>
dan <right>
. Silakan periksa jenis data kolom yang digabungkan dan pastikan bahwa kolom tersebut kompatibel. Jika perlu, pertimbangkan untuk mengonversi kolom ke jenis data yang kompatibel sebelum mencoba penggabungan.
TIDAK_BISA_MENGGABUNGKAN_SKEMA
Gagal menggabungkan skema:
Skema awal:
<left>
Skema yang tidak dapat digabungkan dengan skema awal:
<right>
.
TIDAK DAPAT MENGUBAH KONFIGURASI
Tidak dapat mengubah nilai konfigurasi Spark: <key>
.
Lihat juga https://spark.apache.org/docs/latest/sql-migration-guide.html#ddl-statements'.
TIDAK_DAPAT_MENGURAI_DESIMAL
Tidak dapat memproses desimal. Pastikan bahwa input adalah angka yang valid dengan titik desimal opsional atau pemisah koma.
Tidak Dapat Memproses Interval
Tidak dapat mengurai <intervalString>
. Pastikan bahwa nilai yang disediakan dalam format yang valid untuk menentukan interval. Anda dapat merujuk pada dokumentasi untuk format yang benar. Jika masalah berlanjut, silakan periksa kembali apakah nilai input tidak null atau kosong dan coba lagi.
TIDAK_DAPAT_MEMPARSE_BIDANG_JSON
Tidak dapat mengurai nama bidang <fieldName>
dan nilai <fieldValue>
dari jenis token JSON <jsonType>
ke jenis data Spark <dataType>
.
CANNOT_PARSE_PROTOBUF_DESCRIPTOR
Kesalahan dalam memparsing byte deskriptor ke dalam FileDescriptorSet Protobuf.
TIDAK_DAPAT_MEMAHAMI_WAKTU
<message>
. Gunakan <func>
untuk mentolerir string input yang tidak valid dan mengembalikan NULL
sebagai gantinya.
TIDAK_BISA_MENANYAKAN_TABEL_SAAT_INISIALISASI
Tidak dapat meminta MV/ST selama inisialisasi.
Untuk detail selengkapnya, lihat CANNOT_QUERY_TABLE_DURING_INITIALIZATION
TIDAK_DAPAT_MEMBACA_BERKAS_YANG_DIARSIPKAN
Tidak dapat membaca file di jalur <path>
karena telah diarsipkan. Sesuaikan filter kueri Anda untuk mengecualikan file yang diarsipkan.
TIDAK_DAPAT_MEMBACA_BERKAS
Tidak dapat membaca file <format>
di jalur: <path>
.
Untuk detail selengkapnya, lihat CANNOT_READ_FILE
TIDAK DAPAT MEMBACA KUNCI SENSITIF DARI PENYEDIA AMAN
Tidak dapat membaca kunci sensitif '<key>
' dari penyedia aman.
TIDAK_DAPAT_MENGENALI_JENIS_SARANG
Tidak dapat mengenali string jenis hive: <fieldType>
, kolom: <fieldName>
. Jenis data yang ditentukan untuk bidang tidak dapat dikenali oleh Spark SQL. Silakan periksa jenis data bidang yang ditentukan dan pastikan bahwa itu adalah jenis data Spark SQL yang valid. Lihat dokumentasi Spark SQL untuk daftar jenis data yang valid dan formatnya. Jika jenis data sudah benar, pastikan Anda menggunakan versi Spark SQL yang didukung.
TIDAK_BISA_MEREFERENSIKAN_UC_DI_HMS
Tidak dapat mereferensikan <objType>
Katalog Unity di objek Apache Hive Metastore.
TIDAK_BISA_MENGHAPUS_PROPERTI_CADANGAN
Tidak dapat menghapus properti yang telah dipesan: <property>
.
TIDAK_DAPAT_MENGGANTI_NAMA_DI_SELURUH_KATALOG
Mengganti nama <type>
di seluruh katalog tidak diperbolehkan.
TIDAK_DAPAT_MENGGANTI_NAMA_DI_SELURUH_SKEMA
Mengganti nama <type>
di seluruh skema tidak diperbolehkan.
TIDAK_DAPAT_MENYELESAIKAN_KOLOM_DATAFRAME
Tidak dapat menyelesaikan kolom dataframe <name>
. Ini mungkin karena referensi ilegal seperti df1.select(df2.col("a"))
.
TIDAK_BISA_MENYELESAIKAN_PENGEMBANGAN_BINTANG
Tidak dapat menyelesaikan <targetString>
.* untuk kolom input yang diberikan <columns>
. Silakan periksa apakah tabel atau struktur yang ditentukan ada dan dapat diakses di kolom input.
TIDAK DAPAT MEMULIHKAN PERMISSIONS UNTUK PATH
Gagal mengatur izin pada jalur yang sudah dibuat <path>
kembali ke <permission>
.
CANNOT_SHALLOW_CLONE_ACROSS_UC_AND_HMS
Tidak dapat melakukan penggandaan tabel secara dangkal antara Unity Catalog dan Apache Hive Metastore.
TIDAK_BISA_MENGGANDALAHKAN_SEDANG_NESTED
Tidak dapat membuat klon dangkal dari tabel <table>
yang sudah merupakan klon dangkal.
TIDAK_BISA_MENCADANGI_TABEL_TIDAK_KELOLA_UC_SEBAGAI_SUMBER_ATAU_TARGET
Klon dangkal hanya didukung untuk tipe tabel MANAGED
. Tabel <table>
bukan tabel MANAGED
.
TIDAK_BISA_MENGUBAH_BIDANG
Tidak dapat memperbarui bidang <table>
tipe <fieldName>
:
Untuk detail selengkapnya, lihat CANNOT_UPDATE_FIELD
Tidak Dapat Mengubah Tipe Data ke Tingkatan Lebih Tinggi
Tidak dapat meningkatkan <expression>
cast dari <sourceType>
ke <targetType>
.
<details>
TIDAK_BISA_MENGGUNAKAN_KRYO
Tidak dapat memuat codec serialisasi Kryo. Serialisasi Kryo tidak dapat digunakan di klien Spark Connect. Gunakan serialisasi Java, berikan Codec kustom, atau gunakan Spark Classic sebagai gantinya.
TIDAK DAPAT MEMVALIDASI KONEKSI
Validasi koneksi <jdbcDialectName>
tidak didukung. Silakan hubungi dukungan Databricks untuk solusi alternatif, atau atur "spark.databricks.testConnectionBeforeCreation" ke "false" untuk melewati pengujian koneksi sebelum membuat objek koneksi.
TIDAK_BISA_MENULIS_STATE_STORE
Kesalahan saat menulis file penyimpanan status untuk penyedia <providerClass>
.
Untuk detail selengkapnya, lihat CANNOT_WRITE_STATE_STORE
MASUKAN_TIDAK_VALID
Nilai <expression>
dari tipe <sourceType>
tidak dapat diubah menjadi <targetType>
karena salah format. Koreksi nilai sesuai sintaks, atau ubah jenis targetnya. Gunakan try_cast
untuk mentolerir input yang salah bentuk dan mengembalikan NULL
sebagai gantinya.
Untuk informasi lebih lanjut, lihat CAST_INVALID_INPUT
CAST_OVERFLOW
Nilai <value>
jenis <sourceType>
tidak dapat dikonversi ke <targetType>
karena overflow. Gunakan try_cast
untuk mentolerir luapan dan mengembalikan NULL
sebagai gantinya.
KELEBIHAN_PENUANGAN_PADA_INSERT_TABEL
Gagal menetapkan nilai jenis <sourceType>
ke sebuah kolom jenis <targetType>
atau variabel <columnName>
karena kelebihan. Gunakan try_cast
pada nilai input untuk mentolerir luapan dan mengembalikan NULL
sebagai gantinya.
KATALOG_TIDAK_DITEMUKAN
Katalog <catalogName>
tidak ditemukan. Pertimbangkan untuk mengatur konfigurasi SQL <config>
ke plugin katalog.
CHECKPOINT_RDD_BLOCK_ID_TIDAK_DITEMUKAN
Blok titik pemeriksaan <rddBlockId>
tidak ditemukan!
Baik eksekutor yang awalnya melakukan checkpoint pada partisi ini sudah tidak aktif, atau RDD asli telah dihapus dari cache.
Jika masalah ini berlanjut, Anda dapat mempertimbangkan untuk menggunakan rdd.checkpoint()
sebagai gantinya, yang lebih lambat daripada titik pemeriksaan lokal tetapi lebih toleran terhadap kesalahan.
Referensi Kelas Melingkar
Tidak boleh ada referensi melingkar dalam kelas, namun ditemukan referensi melingkar milik kelas <t>
.
KELAS_TIDAK_MENGGANTI_METODE_YANG_DIHARAPKAN
<className>
harus mengambil alih <method1>
atau <method2>
.
kelas tidak didukung oleh objek peta
MapObjects
tidak mendukung kelas <cls>
sebagai koleksi hasil.
PERINTAH_CLEANROOM_TIDAK_DIDUKUNG
Perintah Clean Room tidak didukung
CLEANROOM_NAMA_OBJEK_DATA_BERSAMA_TIDAK_VALID
Nama tidak valid untuk mereferensikan <type>
di dalam Ruang Bersih. Gunakan nama <type>
di dalam ruang bersih dengan mengikuti format [katalog]. [skema]. [<type>
] .
Jika Anda tidak yakin tentang nama apa yang akan digunakan, Anda dapat menjalankan "SHOW ALL IN CLEANROOM
[clean_room]" dan menggunakan nilai di kolom "nama".
CLOUD_FILE_SOURCE_FILE_NOT_FOUND
Pemberitahuan file diterima untuk file: <filePath>
tetapi tidak lagi ada. Pastikan file tidak dihapus sebelum diproses. Untuk melanjutkan streaming, Anda dapat mengatur konfigurasi Spark SQL <config>
ke true.
KESALAHAN_PENYEDIA_AWAN
Kesalahan penyedia cloud: <message>
KETIDAKCOCOKAN_KOLOM_CLUSTERING
Pengklusteran yang ditentukan tidak cocok dengan tabel yang ada <tableName>
.
Kolom pengklusteran yang ditentukan: [<specifiedClusteringString>
].
Kolom pengklusteran yang ada: [<existingClusteringString>
].
Pengelompokan tidak didukung (CLUSTERING_NOT_SUPPORTED)
'<operation>
' tidak mendukung pengklusteran.
FITUR_CLUSTER_OTOMATIS_TIDAK_DIAKTIFKAN
Silakan hubungi perwakilan Databricks Anda untuk mengaktifkan fitur cluster-by-auto.
Klasterisasi otomatis memerlukan fitur klasterisasi diaktifkan
Harap aktifkan pengklusteranTable.enableClusteringTableFeature untuk menggunakan CLUSTER BY
AUTO.
KLASTER_OTOMATIS_MEMBUTUHKAN_OPTIMISASI_PREDIKTIF
CLUSTER BY
AUTO mengharuskan Pengoptimalan Prediktif diaktifkan.
CLUSTER_BY_AUTO_TIPE_TABEL_TIDAK_DIDUKUNG_OTOMATIS_ERROR
CLUSTER BY
AUTO hanya didukung pada tabel Terkelola UC.
CODEC_NOT_AVAILABLE
<codecName>
codec tidak tersedia.
Untuk detail lebih lanjut, lihat CODEC_NOT_AVAILABLE
NAMA_PENDEK_CODEC_TIDAK_DITEMUKAN
Tidak dapat menemukan nama pendek untuk codec <codecName>
.
Nama Pengurutan Tidak Valid
Nilai <collationName>
tidak mewakili nama pengurutan yang benar. Nama pengurutan valid yang disarankan: [<proposals>
].
KOLOKASI_PENYEDIA_TIDAK_VALID
Nilai <provider>
tidak mewakili penyedia pengurutan yang benar. Penyedia yang didukung adalah: [<supportedProviders>
].
KETIDAKSESUAIAN_PENYUSUNAN
Tidak dapat menentukan kolatasi mana yang akan digunakan untuk fungsi dan operator string.
Untuk detail selengkapnya, lihat COLLATION_MISMATCH
BATAS UKURAN KOLEKSI TERLEBIH
Tidak dapat membuat array dengan elemen <numberOfElements>
yang melebihi batas ukuran array <maxRoundedArrayLength>
,
Untuk informasi lebih lanjut, lihat COLLECTION_SIZE_LIMIT_EXCEEDED
ALIAS_KOLOM_TIDAK_DIPERBOLEHKAN
Alias kolom tidak diperbolehkan dalam <op>
.
KOLOM_SUDAH_ADA
Kolom <columnName>
sudah ada. Pilih nama lain atau ganti nama kolom yang sudah ada.
COLUMN_ARRAY_ELEMENT_TYPE_MISMATCH
Beberapa nilai di bidang <pos>
tidak kompatibel dengan jenis array kolom. Tipe yang diharapkan <type>
.
COLUMN_MASKS_ABAC_MISMATCH
Masker kolom tidak dapat diselesaikan pada <tableName>
karena ada ketidakcocokan antara masker kolom yang diwarisi dari kebijakan dan masker kolom yang ditentukan secara eksplisit. Untuk melanjutkan, nonaktifkan Kontrol Akses Berbasis Atribut (ABAC) dan hubungi dukungan Databricks.
COLUMN_MASKS_CHECK_CONSTRAINT_UNSUPPORTED
Pembuatan batasan CHECK
pada tabel <tableName>
dengan kebijakan kolom masker tidak didukung.
COLUMN_MASKS_DUPLICATE_USING_COLUMN_NAME
Pernyataan <statementType>
mencoba menetapkan kebijakan masker kolom ke kolom yang menyertakan dua atau beberapa kolom referensi lainnya dalam daftar USING COLUMNS
dengan nama yang sama <columnName>
, yang tidak valid.
COLUMN_MASKS_FITUR_TIDAK_DIDUKUNG
Kebijakan masker kolom untuk <tableName>
tidak didukung:
Untuk informasi selengkapnya, lihat COLUMN_MASKS_FEATURE_NOT_SUPPORTED
COLUMN_MASKS_PERUBAHAN_SKEMA_TIDAK_KOMPATIBEL
Tidak dapat <statementType> <columnName>
dari <tableName>
tabel karena dirujuk dalam kebijakan masker kolom untuk kolom <maskedColumn>
. Pemilik tabel harus menghapus atau mengubah kebijakan ini sebelum melanjutkan.
COLUMN_MASKS_MERGE_UNSUPPORTED_SOURCE
operasi MERGE INTO
tidak mendukung kebijakan masker kolom dalam tabel sumber <tableName>
.
COLUMN_MASKS_MERGE_UNSUPPORTED_TARGET
operasi MERGE INTO
tidak mendukung penulisan ke dalam tabel <tableName>
dengan kebijakan masker kolom.
COLUMN_MASKS_MULTI_PART_TARGET_COLUMN_NAME
Pernyataan ini mencoba menetapkan kebijakan masker kolom ke kolom <columnName>
yang memiliki beberapa komponen nama, yang tidak valid.
COLUMN_MASKS_MULTI_PART_USING_COLUMN_NAME
Pernyataan ini mencoba menetapkan kebijakan masker kolom ke kolom dan daftar USING COLUMNS
menyertakan nama <columnName>
dengan beberapa bagian nama, yang tidak valid.
COLUMN_MASKS_TIDAK_DIAKTIFKAN
Dukungan untuk menentukan masker kolom tidak diaktifkan
COLUMN_MASKS_REQUIRE_UNITY_CATALOG
Kebijakan masker kolom hanya didukung di Katalog Unity.
COLUMN_MASKS_TAMPILKAN_PARTISI_TIDAK_DIDUKUNG
perintah SHOW PARTITIONS
tidak didukung untuk tabel<format>
dengan masker kolom.
COLUMN_MASKS_SUMBER_DUPLIKAT_TABEL_TIDAK_DIDUKUNG
<mode>
mengkloning tabel <tableName>
dengan kebijakan pemadaman kolom tidak didukung.
COLUMN_MASKS_TABLE_CLONE_TARGET_NOT_SUPPORTED (Target Kloning Tabel Tidak Didukung)
<mode>
mengkloning tabel ke <tableName>
dengan kebijakan masker kolom tidak didukung.
COLUMN_MASKS_UNSUPPORTED_CONSTANT_AS_PARAMETER
Menggunakan konstanta sebagai parameter dalam kebijakan masker kolom tidak didukung. Perbarui perintah SQL Anda untuk menghapus konstanta dari definisi masker kolom lalu coba lagi perintah tersebut.
COLUMN_MASKS_PENYEDIA_TIDAK_DIDUKUNG
Gagal menjalankan perintah <statementType>
karena menetapkan kebijakan masker kolom tidak didukung untuk sumber data target dengan penyedia tabel: "<provider>
".
COLUMN_MASKS_SUBQUERY_TIDAK_DIDUKUNG
Tidak dapat melakukan <operation>
untuk <tableName>
tabel karena berisi satu atau beberapa kebijakan masker kolom dengan ekspresi subkueri, yang belum didukung. Silakan hubungi pemilik tabel untuk memperbarui kebijakan pembatasan kolom agar dapat melanjutkan.
COLUMN_MASKS_USING_COLUMN_NAME_SAME_AS_TARGET_COLUMN
Kolom <columnName>
memiliki nama yang sama dengan kolom target, yang tidak valid; silakan hapus kolom dari daftar USING COLUMNS
dan coba lagi perintah .
KOLOM_TIDAK_DIDEFINISIKAN_DI_TABEL
<colType>
kolom <colName>
tidak ditentukan dalam tabel <tableName>
, kolom tabel yang ditentukan adalah: <tableCols>
.
KOLOM_TIDAK_DITEMUKAN
Kolom <colName>
tidak dapat ditemukan. Verifikasi ejaan dan kebenaran nama kolom sesuai dengan konfigurasi SQL <caseSensitiveConfig>
.
KOLOM_ORDINAL_DI_LUAR_BATAS
Urutan kolom di luar batas. Jumlah kolom dalam tabel <attributesLength>
, tetapi ordinal kolom <ordinal>
.
Atributnya adalah sebagai berikut: <attributes>
.
KESALAHAN_KONSTRAIN_SEBELUM_KOMA
Tanda ',' yang tidak terduga sebelum definisi batasan. Pastikan bahwa klausa batasan tidak dimulai dengan koma saat kolom (dan ekspektasi) tidak ditentukan.
KOMENTAR_PADA_KONEKSI_BELUM_DILAKSANAKAN
Perintah COMMENT ON CONNECTION
belum diimplementasikan
KOMPARATOR_MENGEMBALIKAN_NILAI_NULL
Komparator telah mengembalikan NULL
untuk perbandingan antara <firstValue>
dan <secondValue>
.
Ini harus mengembalikan bilangan bulat positif untuk "lebih besar dari", 0 untuk "sama" dan bilangan bulat negatif untuk "kurang dari".
Untuk kembali ke perilaku yang tidak digunakan lagi di mana NULL
diperlakukan sebagai 0 (sama dengan), Anda harus mengatur "spark.sql.legacy.allowNullComparisonResultInArraySort" ke "true".
EKSPRESI_KOMPLEKS_INPUT_TIDAK_DIDUKUNG
Tidak dapat memproses jenis data input untuk ekspresi: <expression>
.
Untuk informasi lebih lanjut, lihat COMPLEX_EXPRESSION_UNSUPPORTED_INPUT
CONCURRENT_QUERY
Satu instance lain dari kueri ini [id: <queryId>
] baru saja dijalankan oleh sesi yang bersamaan [runId yang ada: <existingQueryRunId>
runId baru: <newQueryRunId>
].
PENJADWAL_BERSAMAAN_SLOT_TIDAK_CUKUP
Jumlah minimum slot gratis yang diperlukan dalam kluster adalah <numTasks>
, namun, kluster hanya memiliki slot <numSlots>
gratis. Kueri akan terhenti atau gagal. Tingkatkan ukuran kluster untuk melanjutkan.
Konsistenkan_Log_Arus_Pembaruan
Pembaruan yang terjadi secara bersamaan pada log. Beberapa tugas streaming terdeteksi untuk <batchId>
.
Pastikan hanya satu pekerjaan streaming yang berjalan pada lokasi titik pemeriksaan tertentu pada satu waktu.
KONFIGURASI_TIDAK_TERSEDIA
Konfigurasi <config>
tidak tersedia.
STRUKTUR DIREKTORI YANG BERTENTANGAN
Struktur direktori yang bertentangan terdeteksi.
Jalur mencurigakan:
<discoveredBasePaths>
Jika jalur yang disediakan adalah direktori partisi, atur "basePath" dalam opsi sumber data untuk menentukan direktori akar tabel.
Jika ada beberapa direktori akar, muat secara terpisah lalu satukan.
Nama Kolom Partisi yang Bertentangan
Nama kolom partisi yang berkonflik terdeteksi:
<distinctPartColLists>
Untuk direktori tabel yang dipartisi, file data hanya boleh hidup di direktori daun.
Dan direktori pada tingkat yang sama harus memiliki nama kolom partisi yang sama.
Silakan periksa direktori berikut untuk file tak terduga atau nama kolom partisi yang tidak konsisten:
<suspiciousPaths>
Penyedia Bertentangan
Penyedia yang ditentukan <provider>
tidak konsisten dengan penyedia katalog yang ada <expectedProvider>
. Silakan gunakan 'USING <expectedProvider>
' dan coba lagi perintah .
CONNECT
Kesalahan Umum Spark Connect.
Untuk detail selengkapnya, lihat CONNECT
KONEKSI_SUDAH_ADA
Tidak dapat membuat koneksi <connectionName>
karena sudah ada.
Pilih nama lain, lepaskan atau ganti koneksi yang ada, atau tambahkan klausa IF NOT EXISTS
untuk mentolerir koneksi yang sudah ada sebelumnya.
NAMA_KONEKSI_TIDAK_BOLEH_KOSONG
Tidak dapat menjalankan perintah ini karena nama koneksi harus tidak kosong.
SAMBUNGAN_TIDAK_DITEMUKAN
Tidak dapat menjalankan perintah ini karena nama koneksi <connectionName>
tidak ditemukan.
Pilihan Koneksi Tidak Didukung
Koneksi jenis '<connectionType>
' tidak mendukung opsi berikut: <optionsNotSupported>
. Opsi yang didukung: <allowedOptions>
.
JENIS_KONEKSI_TIDAK_DIDUKUNG
Tidak dapat membuat koneksi tipe '<connectionType>
. Jenis koneksi yang didukung: <allowedTypes>
.
CONNECT_SESSION_MIGRATION
Kesalahan Migrasi Sesi Generik (userId: <userId>
, sessionId: <sessionId>
, serverSessionId: <serverSessionId>
).
Untuk detail selengkapnya, lihat CONNECT_SESSION_MIGRATION
KENDALA_MEMBUTUHKAN_KATALOG_UNITY
Batasan tabel hanya didukung di Katalog Unity.
KONVERSI_MASUKAN_TIDAK_VALID
Nilai <str> (<fmt>
) tidak dapat dikonversi ke <targetType>
karena salah bentuk. Koreksi nilai sesuai sintaks, atau ubah formatnya. Gunakan <suggestion>
untuk mentolerir input yang salah bentuk dan mengembalikan NULL
sebagai gantinya.
SALIN_KE_KETIDAKCOCOKAN_ARITI_KOLOM
Tidak dapat menulis ke <tableName>
, alasannya adalah
Untuk informasi lebih lanjut, lihat COPY_INTO_COLUMN_ARITY_MISMATCH
SALIN_KE_TERAKREDITASI_TIDAK_DIIZINKAN
Skema tidak valid <scheme>
.
COPY INTO
kredensial sumber saat ini hanya mendukung s3/s3n/s3a/wasbs/abfss.
DUPLIKASI_MEMBUTUHKAN_KREDENSIAL
COPY INTO
kredensial sumber harus menentukan <keyList>
.
Penyalinan ke Berkas Tergandakan Tidak Diizinkan
File duplikat dimasukkan dalam operasi bersamaan COPY INTO
. Silakan coba lagi nanti.
PENYALINAN_KE_DALAM_PENGENKRIPSIAN_TIDAK_DIPERBOLEHKAN_ADA
Skema tidak valid <scheme>
.
COPY INTO
enkripsi sumber saat ini hanya mendukung s3/s3n/s3a/abfss.
PENYALINAN_KE_ENKRIPSI_TIDAK_DIDUKUNG_UNTUK_AZURE
enkripsi COPY INTO
hanya mendukung Skema file ADLS Gen2, atau abfss://
SALIN_KE_ENKRIPSI_DIBUTUHKAN
COPY INTO
enkripsi sumber harus menentukan '<key>
'.
Penyalinan ke enkripsi diperlukan dengan harapan
Opsi enkripsi tidak valid <requiredKey>
.
COPY INTO
enkripsi sumber harus menentukan '<requiredKey>
' = '<keyValue>
'.
FITUR_SALIN_TIDAK_KOMPATIBEL_DENGAN_PENGATURAN
Fitur COPY INTO
'<feature>
' tidak kompatibel dengan '<incompatibleSetting>
'.
Salin ke Sisipan Non-Buta Tidak Diizinkan
COPY INTO
selain menambahkan data tidak diizinkan untuk berjalan bersamaan dengan transaksi lain. Silakan coba lagi nanti.
KOPI_KE_ROCKSDB_BATAS_ULANGI_MAKSIMUM_TERLEWATI
COPY INTO
gagal memuat kondisinya, batas maksimum percobaan ulang terlampaui.
SALIN_KE_SKEMA_TIDAK_SESUAI_DENGAN_TABEL_TARGET
Ketidakcocokan skema terdeteksi saat menyalin ke tabel Delta (Tabel: <table>
).
Ini mungkin menunjukkan masalah dengan data masuk, atau skema tabel Delta dapat berevolusi secara otomatis sesuai dengan data masuk dengan mengatur:
COPY_OPTIONS
('mergeSchema' = 'true')
Perbedaan skema:
<schemaDiff>
FORMAT_BERKAS_SUMBER_TIDAK_DIDUKUNG_UNTUK_SALINAN
Format file sumber harus salah satu CSV, JSON, AVRO, ORC, PARQUET
, TEXT, atau BINARYFILE
. Menggunakan COPY INTO
pada tabel Delta karena sumber tidak didukung karena data duplikat dapat diserap setelah operasi OPTIMIZE
. Pemeriksaan ini dapat dinonaktifkan dengan menjalankan perintah SQL set spark.databricks.delta.copyInto.formatCheck.enabled = false
.
PENYALINAN_KE_SKEMA_SUMBER_INFERENSI_GAGAL
Direktori sumber tidak berisi file jenis yang dapat diurai <format>
. Silakan periksa isi '<source>
'.
Kesalahan dapat didiamkan dengan mengatur '<config>
' ke 'false'.
KESALAHAN_INTERNAL_COPY_KE_STATUS
Terjadi kesalahan internal saat memproses status COPY INTO
.
Untuk detail selengkapnya, lihat COPY_INTO_STATE_INTERNAL_ERROR
COPY_INTO_SYNTAX_ERROR
Gagal mengurai perintah COPY INTO
.
Untuk informasi lebih lanjut, lihat COPY_INTO_SYNTAX_ERROR
SALIN_KE_FITUR_TIDAK_DIDUKUNG
Fitur COPY INTO
'<feature>
' tidak didukung.
Format Tipe Copy Unload Tidak Didukung
Tidak dapat memuat keluar data dengan format '<formatType>
'. Format yang didukung untuk <connectionType>
adalah: <allowedFormats>
.
SKEMA_ASING_BUATAN_BELUM_DIIMPLEMENTASIKAN_PATI
Perintah CREATE FOREIGN SCHEMA
belum diimplementasikan
BUAT_TABEL_ASING_BELUM_DIPERLUKAN
Perintah CREATE FOREIGN TABLE
belum diimplementasikan
BUAT_DAN_SEGARKAN_MV_ST_ASINKRON
Tidak dapat CREATE
ATAU REFRESH
tampilan terwujud atau tabel streaming dengan ASYNC
yang ditentukan. Hapus ASYNC
dari pernyataan CREATE
ATAU REFRESH
atau gunakan REFRESH ASYNC
untuk me-refresh tampilan materialisasi atau tabel streaming yang ada secara asinkron.
BUAT_VUE_PERMANEN_TANPA_ALIAS
Tidak diizinkan untuk membuat tampilan permanen <name>
tanpa secara eksplisit menetapkan alias untuk ekspresi <attr>
.
DUKUNGAN_DUPLIKAT_KOLOM_TABEL_BUATAN
CREATE TABLE
kolom <columnName>
menentukan deskriptor "<optionName>
" lebih dari sekali, yang tidak valid.
CREATE_VIEW_COLUMN_ARITY_MISMATCH
Tidak dapat membuat tampilan <viewName>
, alasannya adalah
Untuk informasi lebih lanjut, lihat CREATE_VIEW_COLUMN_ARITY_MISMATCH
KREDENSIAL_HILANG
Harap berikan kredensial saat membuat atau memperbarui lokasi eksternal.
CSV_ENFORCE_SCHEMA_NOT_SUPPORTED
Opsi CSV enforceSchema
tidak dapat diatur saat menggunakan rescuedDataColumn
atau failOnUnknownFields
, karena kolom dibaca berdasarkan nama, bukan ordinal.
REFERENSI_FUNGSI_SIKLIS
Referensi fungsi siklus terdeteksi: <path>
.
DATABRICKS_DELTA_TIDAK_DIAKTIFKAN
Databricks Delta tidak diaktifkan di akun Anda.<hints>
DATATYPE_MISMATCH
Tidak dapat mengatasi <sqlExpr>
karena ketidakcocokan tipe data:
Untuk detail selengkapnya, lihat DATATYPE_MISMATCH
UKURAN_DATATIPE_HILANG
DataType <type>
memerlukan parameter panjang, misalnya <type>
(10). Tentukan panjangnya.
Data_Lineage_Secure_View_Daun_Nod_Tidak_Memiliki_Hubungan
Penulisan silsilah gagal: tidak ditemukan hubungan yang sesuai dengan kebijakan untuk CLM/RLS.
SUMBER_DATA_SUDAH_ADA
Sumber data '<provider>
' sudah ada. Pilih nama yang berbeda untuk sumber data baru.
KESALAHAN_SUMBER_DATA_EKSTERNAL
Terjadi kesalahan saat menyimpan ke sumber data eksternal.
SUMBER_DATA_TIDAK_ADA
Sumber data '<provider>
' tidak ditemukan. Pastikan sumber data terdaftar.
Sumber Data Tidak Ditemukan
Gagal menemukan sumber data: <provider>
. Pastikan nama penyedia sudah benar dan paket terdaftar dengan benar dan kompatibel dengan versi Spark Anda.
PILIHAN_SUMBER_DATA_MENGANDUNG_KARAKTER_TIDAK_VALID
Opsi <option>
tidak boleh kosong dan tidak boleh berisi karakter, string kueri, atau parameter yang tidak valid.
Opsi Sumber Data Diperlukan
Opsi <option>
diperlukan.
DATA_SOURCE_TABLE_SCHEMA_MISMATCH
Skema tabel sumber data tidak cocok dengan skema yang diharapkan. Jika Anda menggunakan API DataFrameReader.schema atau membuat tabel, hindari menentukan skema.
Skema Sumber Data: <dsSchema>
Skema yang diharapkan: <expectedSchema>
URL SUMBER DATA TIDAK DIIZINKAN
URL JDBC tidak diizinkan dalam opsi sumber data, tentukan opsi 'host', 'port', dan 'database'.
BIDANG_TANGGAL_WAKTU_DI_LUAR_BATAS
<rangeMessage>
. Jika perlu atur <ansiConfig>
ke "false" untuk melewati kesalahan ini.
DATETIME_OVERFLOW
Luapan operasi tanggalwaktu: <operation>
.
Kuota API DC Terlampaui
Anda telah melebihi kuota API untuk sumber data <sourceName>
.
Untuk detail selengkapnya, silakan lihat DC_API_QUOTA_EXCEEDED
Kesalahan Koneksi (DC_CONNECTION_ERROR)
Gagal membuat koneksi ke sumber <sourceName>
. Kode kesalahan: <errorCode>
.
Untuk detail selengkapnya, lihat DC_CONNECTION_ERROR
DC_DYNAMICS_API_ERROR
Kesalahan terjadi dalam panggilan Dynamics API, errorCode: <errorCode>
.
Untuk detail selengkapnya, lihat DC_DYNAMICS_API_ERROR
DC_NETSUITE_ERROR
Kesalahan terjadi dalam panggilan Netsuite JDBC, errorCode: <errorCode>
.
Untuk detail selengkapnya, lihat DC_NETSUITE_ERROR
DC_SCHEMA_CHANGE_ERROR
SQLSTATE: tidak ada yang ditetapkan
Perubahan skema telah terjadi dalam tabel <tableName>
sumber <sourceName>
.
Untuk informasi lebih lanjut, lihat DC_SCHEMA_CHANGE_ERROR
DC_SERVICENOW_API_ERROR
Kesalahan terjadi dalam panggilan SERVICENow API, errorCode: <errorCode>
.
Untuk detail selengkapnya, lihat DC_SERVICENOW_API_ERROR
Pekerjaan Kuery Massal SFDC di DC Belum Selesai
Penyerapan untuk objek <objName>
tidak lengkap karena pekerjaan kueri Salesforce API memakan waktu terlalu lama, gagal, atau dibatalkan secara manual.
Untuk mencoba lagi, Anda dapat menjalankan kembali seluruh alur atau menyegarkan tabel tujuan tertentu ini. Jika kesalahan berlanjut, ajukan tiket. ID Pekerjaan: <jobId>
. Status pekerjaan: <jobStatus>
.
DC_SHAREPOINT_API_ERROR
Kesalahan terjadi dalam panggilan API Sharepoint, errorCode: <errorCode>
.
Untuk detail selengkapnya, lihat DC_SHAREPOINT_API_ERROR
Kesalahan Sumber DC_API (DC_SOURCE_API_ERROR)
Terjadi kesalahan dalam panggilan API <sourceName>
. Jenis API sumber: <apiType>
. Kode kesalahan: <errorCode>
.
Ini kadang-kadang dapat terjadi ketika Anda telah mencapai batas API <sourceName>
. Jika Anda belum melebihi batas API, coba jalankan kembali konektor. Jika masalah berlanjut, silakan ajukan tiket.
KESALAHAN_TIDAK_DIDUKUNG_DC
Kesalahan yang tidak didukung terjadi di sumber data <sourceName>
.
Untuk detail selengkapnya, lihat DC_UNSUPPORTED_ERROR
DC_WORKDAY_RAAS_API_ERROR
Kesalahan terjadi dalam panggilan API RAAS Workday, errorCode: <errorCode>
.
Untuk lebih jelasnya, lihat DC_WORKDAY_RAAS_API_ERROR
PRESISI_DESIMAL_MELEBIHI_PRESISI_MAKSIMUM
Presisi desimal <precision>
melebihi presisi maksimum <maxPrecision>
.
PANGKALAN_DATA_DEFAULT_TIDAK_ADA
Database default <defaultDatabase>
tidak ada, silakan buat terlebih dahulu atau ubah database default ke <defaultDatabase>
.
FILE_DEFAULT_TIDAK_DITEMUKAN
Ada kemungkinan file yang mendasar telah diperbarui. Anda dapat secara eksplisit membatalkan cache di Spark dengan menjalankan perintah 'REFRESH TABLE
tableName' di SQL atau dengan membuat ulang Himpunan Data/DataFrame yang terlibat. Jika cache disk basi atau file yang mendasar telah dihapus, Anda dapat membatalkan cache disk secara manual dengan memulai ulang kluster.
Penempatan Default Tidak Valid
Kata kunci DEFAULT
dalam perintah MERGE
, INSERT
, UPDATE
, atau SET VARIABLE
tidak dapat langsung ditetapkan ke kolom target karena merupakan bagian dari ekspresi.
Misalnya: UPDATE
SET c1 = DEFAULT
diizinkan, tetapi UPDATE T
SET c1 = ``DEFAULT`` + 1
tidak diizinkan.
DEFAULT_TIDAK_DIDUKUNG
Gagal menjalankan perintah <statementType>
karena nilai DEFAULT
tidak didukung untuk sumber data target dengan penyedia tabel: "<dataSource>
".
Jelaskan_JSON_Tidak_Diperpanjang
DESCRIBE TABLE
... AS JSON hanya didukung ketika [EXTENDED|FORMATTED
] ditentukan.
Misalnya: DESCRIBE EXTENDED <tableName>
AS JSON didukung tetapi DESCRIBE <tableName>
AS JSON tidak.
TABEL_DELTA_BERBEDA_YANG_DIBACA_OLEH_SUMBER_STREAMING
Kueri streaming dibaca dari tabel Delta yang tidak terduga (id = '<newTableId>
').
Ini digunakan untuk membaca dari tabel Delta lain (id = '<oldTableId>
') menurut titik pemeriksaan.
Ini mungkin terjadi ketika Anda mengubah kode untuk membaca dari tabel baru atau Anda menghapus dan
membuat ulang tabel. Harap kembalikan perubahan Anda atau hapus titik pemeriksaan kueri streaming Anda
untuk memulai ulang dari awal.
DISTINCT_FUNGSI_JENDELA_TIDAK_DIDUKUNG
Fungsi jendela yang berbeda tidak didukung: <windowExpr>
.
BAGI_DENGAN_NOL
Pembagian dengan nol. Gunakan try_divide
untuk mentolerir pembagi yang bernilai 0 dan mengembalikan NULL
. Jika perlu atur <config>
ke "false" untuk melewati kesalahan ini.
Untuk detail selengkapnya, lihat DIVIDE_BY_ZERO
EKSPETASI_DLT_TIDAK_DIDUKUNG
Fitur ekspektasi hanya didukung dalam sebuah alur kerja Delta Live Tables.
DLT_VIEW_CLUSTER_BY_NOT_SUPPORTED
MATERIALIZED
VIEW dengan klausul CLUSTER BY
hanya didukung dalam alur Delta Live Tables.
LOKASI_TAMPILAN_DLT_TIDAK_DIDUKUNG
Hanya dalam pipa data Delta Live Tables lokasi <mv>
didukung.
Skema Tampilan DLT dengan Tipe Tidak Didukung
<mv>
skema dengan jenis tertentu hanya didukung dalam alur Delta Live Tables.
DLT_VIEW_TABLE_CONSTRAINTS_NOT_SUPPORTED
CONSTRAINT
klausa dalam tampilan hanya didukung dalam alur Delta Live Tables.
JADWAL_PENGHAPUSAN_TIDAK_ADA
Tidak dapat menghapus SCHEDULE
pada tabel tanpa jadwal atau pemicu yang telah ada.
NAMA_CTE_DUPLIKAT
Definisi CTE tidak dapat memiliki nama duplikat: <duplicateNames>
.
DUPLIKASI_NAMA_BIDANG_DALAM_STRUKTUR_ARROW
Nama bidang yang duplikat dalam Arrow Struct tidak diizinkan, terdeteksi <fieldNames>
.
KUNCI_PETA_DIGANDAKAN
Kunci duplikat pada peta <key>
ditemukan, mohon periksa data masukan.
Jika Anda ingin menghapus kunci duplikat, Anda dapat mengatur <mapKeyDedupPolicy>
ke "LAST_WIN
" sehingga kunci yang dimasukkan pada akhirnya lebih diutamakan.
Nama Metrik Duplikat
Nama metrik tidak unik: <metricName>
. Nama yang sama tidak dapat digunakan untuk metrik dengan hasil yang berbeda.
Namun, beberapa instans metrik dengan hasil dan nama yang sama diperbolehkan (misalnya, penggabungan mandiri).
PENUGASAN_DUPLIKAT
Kolom atau variabel <nameList>
muncul lebih dari sekali sebagai target penugasan.
KLAUSUL_DUPLIKAT
Ditemukan klausa duplikat: <clauseName>
. Tolong, hapus salah satunya.
KUNCI_DUPLIKAT
Ditemukan kunci duplikat <keyColumn>
.
DUPLIKASI_PENUGASAN_PARAMETER_RUTIN
Panggilan ke rutin <routineName>
tidak valid karena menyertakan beberapa penetapan argumen ke nama parameter yang sama <parameterName>
.
Untuk informasi lebih lanjut, lihat DUPLICATE_ROUTINE_PARAMETER_ASSIGNMENT
DUPLICATE_ROUTINE_PARAMETER_NAMES
Ditemukan nama duplikat dalam daftar parameter rutinitas yang ditentukan pengguna <routineName>
: <names>
.
DUPLIKASI_RUTIN_MENGEMBALIKAN_KOLOM
Ditemukan kolom duplikat dalam daftar kolom klausa RETURNS
dari rutin yang ditentukan pengguna <routineName>
: <columns>
.
MENGELUARKAN_BARIS_YANG_LEBIH_LAMA_DARI_TANDA_AIR_TIDAK_DIPERBOLEHKAN
Simpul sebelumnya memancarkan baris dengan eventTime=<emittedRowEventTime>
yang lebih lama dari current_watermark_value=<currentWatermark>
Ini dapat menyebabkan masalah akurasi pada operator stateful di bagian hilir dalam pipeline eksekusi.
Silakan koreksi logika pengoperasian untuk mengeluarkan baris setelah nilai penanda batas air global saat ini.
NILAI_KOSONG_PADAILAP_JSON
Gagal mengurai string kosong untuk jenis data <dataType>
.
FILE_LOKAL_KOSONG_DALAM_ AKSES_PENCARIAN_PENTAS
Mengosongkan file lokal dalam pemanggungan kueri <operation>
SKEMA_KOSONG_TIDAK_DIDUKUNG_UNTUK_SUMBER_DATA
Sumber data <format>
tidak mendukung penulisan skema kosong atau berlapis kosong. Pastikan skema data memiliki setidaknya satu atau beberapa kolom.
ENCODER_TIDAK_DITEMUKAN
Tidak ditemukan encoder jenis <typeName>
ke representasi internal Spark SQL.
Pertimbangkan untuk mengubah jenis input menjadi salah satu yang didukung di '<docroot>
/sql-ref-datatypes.html'.
AKHIR_LABEL_TANPA_AWAL_LABEL
Label akhir <endLabel>
tidak dapat ada tanpa label mulai.
END_OFFSET_MEMILIKI_OFFSET_LEBIH_BESAR_UNTUK_PARTISI_TOPIK_DARIPADA_TERBARU_DENGAN_TRIGGER_AVAILABLENOW
Beberapa partisi dalam topik Kafka melaporkan offset yang tersedia kurang dari end offset selama menjalankan kueri dengan Trigger.AvailableNow. Kesalahan bisa bersifat sementara - mulai ulang kueri Anda, dan laporkan jika Anda masih melihat masalah yang sama.
offset terbaru: <latestOffset>
, offset akhir: <endOffset>
OFFSET_AKHIR_MEMILIKI_OFFSET_YANG_LEBIH_BESAR_UNTUK_PARTISI_TOPIK_DARI_PADA_YANG_DIPRAKIRAKAN
Untuk sumber data Kafka dengan Trigger.AvailableNow, offset akhir harus memiliki offset yang lebih rendah atau sama untuk setiap topik partisi daripada offset yang diambil terlebih dahulu. Kesalahan bisa bersifat sementara - mulai ulang kueri Anda, dan laporkan jika Anda masih melihat masalah yang sama.
offset yang diambil sebelumnya: <prefetchedOffset>
, offset akhir: <endOffset>
.
KESALAHAN_MEMBACA_AVRO_SIDIK_JARI_TIDAK_DIKENAL
Kesalahan saat membaca data avro – mengalami sidik jari yang tidak diketahui: <fingerprint>
, tidak yakin skema apa yang akan digunakan.
Ini bisa terjadi jika Anda mendaftarkan skema tambahan setelah memulai konteks spark Anda.
CATATAN_ACARA_MEMERLUKAN_KOMPUTASI_BERSAMA
Tidak dapat mendapatkan log peristiwa dari kluster Bersama yang Ditetapkan atau Tanpa Isolasi, silakan gunakan kluster Bersama atau gudang Databricks SQL sebagai gantinya.
LOG_ACARA_TIDAK_TERSEDIA
Tidak ada log peristiwa yang tersedia untuk <tableOrPipeline>
. Silakan coba lagi nanti setelah event selesai dibuat
CATATAN_ACARA_JENIS_TABEL_TIDAK_DIDUKUNG
Jenis tabel <tableIdentifier>
adalah <tableType>
.
Mengkueri log peristiwa hanya mendukung tampilan materialisasi, tabel streaming, atau alur Tabel Langsung Delta
WAKTU_ACARA_TIDAK_PADA_JENIS_TIMESTAMP
Waktu peristiwa <eventName>
memiliki jenis <eventType>
yang tidak valid, tetapi diharapkan "TIMESTAMP
".
BATAS_PANJANG_MELEBIHI
Melebihi batasan panjang jenis char/varchar: <limit>
.
KESALAHAN_KOLOM_SARANG_TIPE_TIDAK_VALID
EXCEPT
kolom <columnName>
telah diidentifikasi dan seharusnya adalah StructType, tetapi ditemukan <dataType>
.
EXCEPT_OVERLAPPING_COLUMNS
Kolom dalam daftar EXCEPT
harus berbeda dan tidak tumpang tindih, tetapi mendapatkan (<columns>
).
KECUALI_KOLOM_TERPECAHKAN_TANPA_KECOCOKAN
EXCEPT
kolom [<exceptColumns>
] diselesaikan, tetapi tidak cocok dengan salah satu kolom [<expandedColumns>
] dari ekspansi bintang.
EXCEPT_UNRESOLVED_COLUMN_IN_STRUCT_EXPANSION
Nama kolom/bidang <objectName>
dalam klausa EXCEPT
tidak dapat diselesaikan. Apakah Anda maksud salah satu dari yang berikut ini: [<objectList>
]?
Catatan: kolom bersarang dalam klausul EXCEPT
tidak boleh menyertakan penentu (nama tabel, nama kolom struct induk, dll.) selama ekspansi struct; coba hapus penentu jika digunakan dengan kolom bersarang.
Pelaksana_Siarkan_Gabung_OOM
Tidak ada cukup memori untuk membangun relasi broadcast <relationClassName>
. Ukuran Relasi = <relationSize>
. Total memori yang digunakan oleh tugas ini = <taskMemoryUsage>
. Metrik Pengelola Memori Eksekutor: onHeapExecutionMemoryUsed = <onHeapExecutionMemoryUsed>
, offHeapExecutionMemoryUsed = <offHeapExecutionMemoryUsed>
, onHeapStorageMemoryUsed = <onHeapStorageMemoryUsed>
, offHeapStorageMemoryUsed = <offHeapStorageMemoryUsed>
. [sparkPlanId: <sparkPlanId>
] Nonaktifkan penyiaran untuk kueri ini dengan menggunakan 'set spark.sql.autoBroadcastJoinThreshold=-1' atau gunakan petunjuk gabung untuk memaksa gabungan campuran.
PENYIMPANAN_JOIN_SIARAN_EKSEKUTOR_MELEBIHI_MEMORI
Tidak ada cukup memori untuk menyimpan relasi siaran <relationClassName>
. Ukuran Relasi = <relationSize>
. TingkatPenyimpanan = <storageLevel>
. [sparkPlanId: <sparkPlanId>
] Nonaktifkan penyiaran untuk kueri ini dengan menggunakan 'set spark.sql.autoBroadcastJoinThreshold=-1' atau gunakan petunjuk gabung untuk memaksa gabungan campuran.
EKSEKUSI_LANGSUNG_DUPLIKAT_ALIAS_ARGUMEN
Klausa USING
perintah EXECUTE IMMEDIATE
ini berisi beberapa argumen dengan alias yang sama (<aliases>
), yang tidak valid; harap perbarui perintah untuk menentukan alias unik lalu coba lagi.
HARAP_TAMPILAN_PERMANEN_BUKAN_SEMENTARA
'<operation>
' mengharapkan tampilan permanen tetapi <viewName>
adalah tampilan sementara.
EXPECT_TABLE_NOT_VIEW
'<operation>
' mengharapkan tabel tetapi <viewName>
adalah tampilan.
Untuk detail selengkapnya, lihat EXPECT_TABLE_NOT_VIEW
HARAPKAN_TAMPILAN_BUKAN_TABEL
Tabel <tableName>
tidak mendukung <operation>
.
Untuk informasi lebih lanjut, lihat EXPECT_VIEW_NOT_TABLE
PEMBERIAN ARTI EKSPRESI GAGAL
Gagal mendekode baris ke nilai ekspresi: <expressions>
.
Ekspresi_Pengkodingan_Gagal
Gagal mengodekan nilai ekspresi: <expressions>
ke baris.
JENIS_EKSPRESI_TIDAK_DAPAT_DIURUTKAN
Ekspresi kolom <expr>
tidak dapat diurutkan karena jenisnya <exprType>
tidak dapat diurutkan.
SKEMA_TABEL_EKSTERNAL_TIDAK_VALID
Tabel eksternal tidak mendukung skema <scheme>
.
FABRIC_REFRESH_CAKUPAN_TIDAK_VALID
Kesalahan menjalankan 'REFRESH FOREIGN <scope> <name>
'. Tidak dapat memperbarui Fabric <scope>
secara langsung, silakan gunakan 'REFRESH FOREIGN CATALOG <catalogName>
' untuk memperbarui Katalog Fabric sebagai gantinya.
GAGAL_MENJALANKAN_UDF
Fungsi yang ditentukan pengguna (<functionName>
: (<signature>
) =><result>
) gagal karena: <reason>
.
PANGGILAN_FUNGSI_GAGAL
Gagal menyiapkan fungsi <funcName>
untuk panggilan. Silakan, periksa kembali argumen fungsi.
FAILED_JDBC
Operasi JDBC <url>
gagal.
Untuk detail selengkapnya, lihat FAILED_JDBC
FAILED_PARSE_STRUCT_TYPE
Gagal menguraikan struktur: <raw>
.
GAGAL_MEMBACA_FILE
Kesalahan saat membaca file <path>
.
Untuk detail selengkapnya, lihat FAILED_READ_FILE
GAGAL_MENDAFTARKAN_KELAS_DENGAN_KRYO
Gagal mendaftarkan kelas dengan Kryo.
GAGAL_MENGUBAH_NAMA_JALUR
Gagal mengganti nama <sourcePath>
menjadi <targetPath>
karena tujuan sudah ada.
GAGAL_MENGUBAH_NAMA_FILE_SEMENTARA
Gagal mengganti nama file sementara <srcPath>
menjadi <dstPath>
karena FileSystem.rename mengembalikan nilai salah.
BARIS_GAGAL_KE_JSON
Gagal mengonversi nilai baris <value>
kelas <class>
ke jenis SQL target <sqlType>
dalam format JSON.
GAGAL_MEMUAT_RUTIN
Gagal memuat rutin <routineName>
.
GAGAL_MENGURAI_TERLALU_KOMPLEKS
Pernyataan, termasuk fungsi SQL potensial dan tampilan yang dirujuk, terlalu kompleks untuk diurai.
Untuk mengurangi kesalahan ini, bagi pernyataan menjadi beberapa gugus yang kurang kompleks.
FITUR_TIDAK_DIAKTIFKAN
Fitur <featureName>
tidak diaktifkan. Pertimbangkan untuk mengatur konfigurasi <configKey>
ke <configValue>
untuk mengaktifkan kemampuan ini.
FITUR_TIDAK_ADA_DI_GUDANG_KLASIK
<feature>
tidak didukung di gudang SQL Klasik. Untuk menggunakan fitur ini, gunakan gudang SQL Pro atau Tanpa Server.
FEATURE_REQUIRES_UC
<feature>
tidak didukung tanpa Katalog Unity. Untuk menggunakan fitur ini, aktifkan Katalog Unity.
FITUR_TIDAK TERSEDIA
<feature>
tidak didukung di lingkungan Anda. Untuk menggunakan fitur ini, silakan hubungi Dukungan Databricks.
Bidang_sudah_ada
Tidak dapat membuat kolom <op>
, karena <fieldNames>
sudah ada di dalam <struct>
.
FIELD_TIDAK_DITEMUKAN
Tidak ada bidang struktur seperti <fieldName>
di <fields>
.
FILE DI JALUR STAGING SUDAH ADA
File di jalur sementara <path>
sudah ada tetapi OVERWRITE
belum disetel
Kesalahan Fungsi Pengguna FLATMAPGROUPSWITHSTATE
Kesalahan terjadi pada fungsi yang disediakan pengguna di flatMapGroupsWithState. Alasan: <reason>
DATASOURCE_TERLARANG_DALAM_SERVERLESS
Mengkueri sumber data <source>
dalam komputasi tanpa server tidak diperbolehkan. Hanya sumber data tipe <allowlist>
yang didukung dalam komputasi serverless.
OPERASI_DILARANG
Operasi <statement>
tidak diizinkan pada <objectType>
: <objectName>
.
KESALAHAN_FUNGSI_PENGGUNA_BATCH_FOREACH
Terjadi kesalahan pada fungsi yang disediakan oleh pengguna dalam foreach batch sink. Alasan: <reason>
FOREACH_USER_FUNCTION_ERROR
Terjadi kesalahan pada fungsi yang disediakan pengguna di sink foreach. Alasan: <reason>
KETIDAKCOCOKAN_KUNCI_ASING
Kolom induk kunci asing <parentColumns>
tidak cocok dengan kolom anak kunci utama <childColumns>
.
NAMA_OBJEK_ASING_TIDAK_BOLEH_KOSONG
Tidak dapat menjalankan perintah ini karena nama <objectType>
asing tidak boleh kosong.
FOUND_MULTIPLE_DATA_SOURCES
Mendeteksi beberapa sumber data dengan nama '<provider>
'. Silakan periksa bahwa sumber data tidak terdaftar dan tidak terletak secara bersamaan di classpath.
DARI_JSON_PEMBARUAN_SKEMA_BERTENTANGAN
inferensi from_json mengalami pembaruan skema yang bertentangan di: <location>
DARI_JSON_KOLOM_CATATAN_RUSAK_DALAM_SKEMA
from_json ditemukan columnNameOfCorruptRecord (<columnNameOfCorruptRecord>
) ada
dalam objek JSON dan tidak dapat lagi melanjutkan. Harap konfigurasikan nilai yang berbeda untuk
opsi 'columnNameOfCorruptRecord'.
FROM_JSON_CORRUPT_SCHEMA
inferensi from_json tidak dapat membaca skema yang disimpan di: <location>
FROM_JSON_INFERENCE_FAILED
from_json tidak dapat menyimpulkan skema. Tolong berikan satu sebagai gantinya.
INFERENSI_DARI_JSON_TIDAK_DIDUKUNG
inferensi from_json hanya didukung saat menentukan tabel streaming
FROM_JSON_INVALID_CONFIGURATION
Konfigurasi from_json tidak valid.
Untuk informasi lebih lanjut, lihat FROM_JSON_INVALID_CONFIGURATION
DARI_JSON_SKEMA_EVOLUSI_GAGAL
from_json tidak dapat berkembang dari <old>
ke <new>
PARAMETER_FUNGSI_HARUS_DIPERIKSA_NAMA
Fungsi <function>
memerlukan parameter bernama. Nama parameter yang hilang: <exprs>
. Harap perbarui panggilan fungsi untuk menambahkan nama untuk semua parameter, misalnya, <function>
(param_name => ...).
KOLOM_TERGENERASI_DENGAN_NILAI_DEFAULT
Kolom tidak dapat memiliki nilai default dan ekspresi pembuatan tetapi kolom <colName>
memiliki nilai default: (<defaultValue>
) dan ekspresi pembuatan: (<genExpr>
).
TIDAK_DIDUKUNG_VERSI_HIVE_GET_TABEL_MENURUT_TIPE
Apache Hive 2.2 dan versi yang lebih rendah tidak mendukung getTablesByType. Silakan gunakan Apache Hive 2.3 atau versi yang lebih tinggi.
GAGAL_MENDAPATKAN_PELACAKAN_PEMANASAN
Gagal mendapatkan jejak pemanasan. Penyebab: <cause>
.
FUNGSI_PEMANASAN_TRACING_TIDAK_DIPERBOLEHKAN
Fungsi get_warmup_tracing() tidak diizinkan.
GRAPHITE_SINK_PROTOCOL_TIDAK_VALID
Protokol Graphite tidak valid: <protocol>
.
PROPERTI_GRAFIT_SINK_HILANG
Sink Graphite memerlukan properti '<property>
'.
KETIDAKCOCOKAN_KOLOM_PENGELOMPOKAN
Kolom pengelompokan (<grouping>
) tidak dapat ditemukan di kolom pengelompokan <groupingColumns>
.
GROUPING_ID_COLUMN_MISMATCH
Kolom grouping_id (<groupingIdColumn>
) tidak cocok dengan kolom pengelompokan (<groupByColumns>
).
BATAS_UKURAN_KELOMPOK_TERLEWATI
Ukuran pengelompokan set tidak boleh lebih besar dari <maxSize>
.
GROUP_BY_AGGREGATE
Fungsi agregat tidak diizinkan dalam GROUP BY
, tetapi ditemukan <sqlExpr>
.
Untuk detail selengkapnya, lihat GROUP_BY_AGGREGATE
Kelompokkan_Berdasarkan_Pos_Aggregat
GROUP BY <index>
mengacu pada ekspresi <aggExpr>
yang berisi fungsi agregat. Fungsi agregat tidak diperbolehkan dalam GROUP BY
.
KELOMPOK_BERDASARKAN_POS_DILUAR_RENTANG
GROUP BY
posisi <index>
tidak ada dalam daftar pilih (rentang yang valid adalah [1, <size>
]).
JENIS_EKSPRESI_GRUP_TIDAK_DAPAT_DIPESAN
Ekspresi <sqlExpr>
tidak dapat digunakan sebagai ekspresi pengelompokan karena jenis datanya <dataType>
bukan tipe data yang dapat diurutkan.
HDFS_HTTP_ERROR
Saat mencoba membaca dari HDFS, permintaan HTTP gagal.
Untuk detail selengkapnya, lihat HDFS_HTTP_ERROR
HLL_INPUT_SKETSA_TIDAK_VALID
Panggilan ke <function>
tidak valid; hanya buffer sketsa HLL yang valid yang didukung sebagai input (seperti yang dihasilkan oleh fungsi hll_sketch_agg
).
HLL_INVALID_LG_K
Panggilan ke <function>
tidak valid; nilai lgConfigK
harus antara <min>
dan <max>
, inklusif: <value>
.
HLL_UNION_DIFFERENT_LG_K
Sketsa memiliki nilai lgConfigK
yang berbeda: <left>
dan <right>
. Atur parameter allowDifferentLgConfigK
ke true untuk memanggil <function>
dengan nilai lgConfigK
yang berbeda.
PENGECUALIAN_ANALIS_GABUNGAN
Kesalahan terjadi saat mencoba menyelesaikan kueri atau perintah dengan penganalisis titik tetap tradisional serta pemecah satu langkah.
Untuk informasi lebih lanjut, lihat HYBRID_ANALYZER_EXCEPTION
IDENTIFIER_TERLALU_BANYAK_BAGIAN_NAMA
<identifier>
bukan pengidentifikasi yang valid karena memiliki lebih dari 2 bagian nama.
KOLOM_IDENTITAS_TERDUPLIKASI_PENGHASIL_SEKUENSI_OPSI
Opsi generator urutan kolom duplikat IDENTITY
: <sequenceGeneratorOption>
.
LANGKAH_TIDAK_SAH_KOLOM_IDENTITAS
IDENTITY
langkah kolom tidak boleh bernilai 0.
KOLOM_IDENTITAS_TIPE_DATA_TIDAK_DIDUKUNG
DataType <dataType>
tidak didukung untuk kolom IDENTITY
.
HARI_TIDAK_SAH
Input tidak sah untuk hari dalam seminggu: <string>
.
NILAI_PENYIMPANAN_KEADAAN_TIDAK_SAHAH
Nilai ilegal yang diberikan ke Toko Status
Untuk informasi lebih lanjut, lihat ILLEGAL_STATE_STORE_VALUE
Skema URI Tidak Sesuai dari Opsi Koneksi
Koneksi tidak dapat dibuat karena skema URI yang tidak pantas <uri>
disediakan untuk opsi koneksi '<option>
'.
Skema yang diizinkan: <allowedSchemes>
.
Tambahkan skema jika tidak ada di URI, atau tentukan skema dari nilai yang diizinkan.
KOLOM_POROS_TIDAK_TERBANDINGKAN
Kolom pivot tidak valid <columnName>
. Kolom pivot harus dapat diperbandingkan.
Jenis Kolom Tidak Sesuai
<operator>
hanya dapat dilakukan pada tabel dengan jenis kolom yang kompatibel. Kolom <columnOrdinalNumber>
dari tabel <tableOrdinalNumber>
adalah tipe <dataType1>
yang tidak kompatibel dengan <dataType2>
pada kolom yang sama dari tabel pertama.<hint>
.
INCOMPATIBLE_DATASOURCE_REGISTER
Mendeteksi DataSourceRegister yang tidak kompatibel. Silakan hapus pustaka yang tidak kompatibel dari classpath atau tingkatkan pustaka tersebut. Kesalahan: <message>
INCOMPATIBLE_DATA_FOR_TABLE
Tidak dapat menulis data yang tidak kompatibel untuk tabel <tableName>
:
Untuk informasi lebih lanjut, lihat INCOMPATIBLE_DATA_FOR_TABLE
TIPE_JOIN_TIDAK_KOMPATIBEL
Jenis gabungan <joinType1>
dan <joinType2>
tidak kompatibel.
PERUBAHAN_SKEMA_TAMPILAN_TIDAK_KOMPATIBEL
Kueri tampilan SQL <viewName>
mengalami perubahan skema yang tidak kompatibel dan kolom <colName>
tidak dapat diselesaikan. Kolom <expectedNum>
yang diharapkan memiliki nama <colName>
tetapi mendapatkan <actualCols>
.
Silakan coba buat ulang tampilan dengan menjalankan: <suggestion>
.
INCOMPLETE_TYPE_DEFINITION
Jenis kompleks yang tidak lengkap:
Untuk detail selengkapnya, lihat INCOMPLETE_TYPE_DEFINITION
PERILAKU_TIDAK_KONSISTEN_VERSI_SILANG
Anda mungkin mendapatkan hasil yang berbeda karena peningkatan ke
Untuk informasi lebih lanjut, lihat INCONSISTENT_BEHAVIOR_CROSS_VERSION
JUMLAH_ARGUMEN_TIDAK_BENAR
<failure>
, <functionName>
memerlukan setidaknya argumen <minArgs>
dan paling banyak argumen <maxArgs>
.
Tingkat Peningkatan yang Salah
Offset maksimum dengan barisPerDetik <rowsPerSecond>
adalah <maxSeconds>
, tetapi ‘rampUpTimeSeconds’ adalah <rampUpTimeSeconds>
.
KOLOASI TAK TERDEFINISI
Tidak dapat menentukan kolatasi mana yang akan digunakan untuk operasi string. Gunakan klausa COLLATE
untuk mengatur kolase secara eksplisit.
KOLEKSI_TIDAK_TENTU_DALAM_EKSPRESI
Jenis data <expr>
memiliki kolaterasi yang tidak ditentukan. Gunakan klausa COLLATE
untuk mengatur kolase secara eksplisit.
INDETERMINATE_COLLATION_IN_SCHEMA
Skema berisi kolaterasi yang tidak ditentukan di: [<columnPaths>
]. Gunakan klausa COLLATE
untuk mengatur kolase secara eksplisit.
INDEKS_SUDAH_ADA
Tidak dapat membuat indeks <indexName>
pada tabel <tableName>
karena sudah ada.
INDEX_NOT_FOUND (Indeks Tidak Ditemukan)
Tidak dapat menemukan indeks <indexName>
pada tabel <tableName>
.
Pemicu Penyiaran Tak Berujung Tidak Didukung
Jenis pemicu <trigger>
tidak didukung untuk jenis kluster ini.
Gunakan jenis pemicu yang berbeda misalnya AvailableNow, Once.
INSERT_COLUMN_ARITY_MISMATCH
Tidak dapat menulis ke <tableName>
, alasannya adalah
Untuk informasi lebih lanjut, lihat INSERT_COLUMN_ARITY_MISMATCH
No changes are needed if this is a direct system-generated code that must be presented as is for functionality or compatibility reasons. If it was not a strict technical term and needed comprehensibility, possible translation might include: "KESALAHAN_KEBERAGAMAN_KOLOM_PARTISI" (if it's flexible to add translations for user clarity).
Tidak bisa menulis ke ‘<tableName>
’, <reason>
:
Kolom tabel: <tableColumns>
.
Kolom partisi dengan nilai statis: <staticPartCols>
.
Kolom data: <dataColumns>
.
IZIN_TIDAK_MEMADAI
Hak istimewa tidak memadai:
<report>
Izin_Tidak_Memadai_EXT_LOC
Pengguna <user>
memiliki hak istimewa yang tidak memadai untuk lokasi eksternal <location>
.
PERIZINAN_TIDAK_MEMADAI_TIDAK_ADA_PEMILIK
Tidak ada pemilik untuk <securableName>
. Minta administrator Anda untuk menetapkan pemilik.
TIDAK_CUKUP_IZIN_KEPEMILIKAN_TERJAMIN
Pengguna tidak memiliki <securableName>
.
IZIN_TIDAK_MEMADAI_BISA_DIAMANKAN
Pengguna tidak memiliki izin <action>
pada <securableName>
.
IZIN_TIDAK_MEMADAI_PEMILIK_INDUK_DAPAT_DIAMANKAN
Pemilik <securableName>
berbeda dari pemilik <parentSecurableName>
.
Izin Penyimpanan Tidak Memadai
Kredensial penyimpanan <credentialName>
memiliki hak istimewa yang tidak memadai.
PERIZINAN_TIDAK_MEMADAI_UNDERLYING_SECURABLES
Pengguna tidak dapat <action>
pada <securableName>
karena izin pada objek keamanan.
Izin_Tidak_Memadai_Pada_Keamanan_Dasar_Verbose
Pengguna tidak dapat <action>
pada <securableName>
karena izin pada elemen keamanan yang mendasar:
<underlyingReport>
KESALAHAN_ARITMATIKA_INTERVAL
Pelebaran bilangan bulat ketika bekerja dengan interval.
Untuk detail lebih lanjut, lihat INTERVAL_ARITHMETIC_OVERFLOW
INTERVAL_DIVIDED_BY_ZERO
Pembagian dengan nol. Gunakan try_divide
untuk mentolerir pembagi yang bernilai 0 dan mengembalikan NULL
.
INVALID_AGGREGATE_FILTER
Ekspresi FILTER
<filterExpr>
dalam fungsi agregat tidak valid.
Untuk informasi lebih lanjut, lihat INVALID_AGGREGATE_FILTER
INDEKS_ARRAY_TIDAK_VALID
Indeks <indexValue>
berada di luar batasan. Array memiliki elemen <arraySize>
. Gunakan fungsi SQL get()
untuk mentolerir akses elemen pada indeks yang tidak valid dan mengembalikan NULL
sebagai gantinya.
Untuk detail selengkapnya, lihat INVALID_ARRAY_INDEX
INDEKS_ARRAY_TIDAK_VALID_DALAM_ELEMEN_DI
Indeks <indexValue>
berada di luar batasan. Array memiliki elemen <arraySize>
. Gunakan try_element_at
untuk mentolerir akses elemen pada indeks yang tidak valid dan mengembalikan NULL
sebagai gantinya.
Untuk detail selengkapnya, lihat INVALID_ARRAY_INDEX_IN_ELEMENT_AT
INVALID_ATTRIBUTE_NAME_SYNTAX
Kesalahan sintaks dalam nama atribut: <name>
. Periksa apakah backtick muncul berpasangan, string yang dikutip adalah bagian nama lengkap dan gunakan backtick hanya di dalam bagian nama yang dikutip.
INVALID_AWS_AUTHENTICATION
Silakan pilih salah satu metode autentikasi berikut:
- Berikan nama kredensial layanan Databricks Anda (
<serviceCredential>
) (sebagai opsi aliran spark atau sebagai variabel lingkungan kluster). - Berikan AWS AccessKey (
<awsAccessKey>
) dan SecretAccessKey (<awsSecretKey>
) untuk menggunakan kunci AWS. - Jangan berikan kunci AWS maupun kredensial layanan Databricks untuk menggunakan rantai penyedia kredensial AWS default untuk autentikasi Kinesis.
INVALID_AWS_AUTHENTICATION_EXPLICIT_OPTIONS
Harap berikan nama kredensial layanan Databricks Anda (<serviceCredential>
)
ATAU baik <awsAccessKey>
maupun <awsSecretKey>
POSISI_BITMAP_TIDAK_VALID
Posisi bitmap dengan indeks 0 di <bitPosition>
berada di luar batas. Bitmap mengandung <bitmapNumBits>
bit (<bitmapNumBytes>
byte).
PERNYATAAN_BOOLEAN_TIDAK_VALID
Pernyataan Boolean diharapkan dalam kondisi tersebut, tetapi <invalidStatement>
ditemukan.
INVALID_BOUNDARY
<boundary>
batas tidak valid: <invalidValue>
.
Untuk informasi lebih lanjut, lihat INVALID_BOUNDARY
INVALID_BUCKET_COLUMN_DATA_TYPE
Tidak dapat menggunakan <type>
untuk kolom bucket. Jenis data yang disusun tidak didukung untuk pengelompokan.
INVALID_BUCKET_FILE
File wadah tidak valid: <path>
.
INVALID_BYTE_STRING
Format yang diharapkan adalah ByteString, tetapi ternyata <unsupported> (<class>
.
Nama Kolom Invalid Sebagai Jalur
Sumber data <datasource>
tidak dapat menyimpan kolom <columnName>
karena namanya berisi beberapa karakter yang tidak diizinkan dalam jalur file. Silakan, gunakan alias untuk mengganti namanya.
TIPE_DATA_KOLOM_ATAU_BIDANG_TIDAK_VALID
Kolom atau bidang <name>
berjenis <type>
padahal seharusnya <expectedType>
.
INVALID_CONF_VALUE (Nilai konfigurasi tidak valid)
Nilai '<confValue>
' dalam konfigurasi "<confName>
" tidak valid.
Untuk detail selengkapnya, lihat INVALID_CONF_VALUE
INVALID_CORRUPT_RECORD_TYPE (Jenis Catatan Rusak Tidak Valid)
Kolom <columnName>
untuk rekaman yang rusak harus memiliki jenis STRING
yang boleh bernilai null, tetapi didapatkan <actualType>
.
Penggunaan Penerima Saat Ini Tidak Valid
current_recipient
fungsi hanya dapat digunakan dalam pernyataan CREATE VIEW
atau pernyataan ALTER VIEW
untuk menentukan tampilan berbagi saja di Katalog Unity.
INVALID_CURSOR
Kursor tidak valid.
Untuk detail lebih lanjut, lihat INVALID_CURSOR
POLA_TANGGAL_WAKTU_TIDAK_VALID
Pola waktu/tanggal yang tidak dikenal: <pattern>
.
Untuk selengkapnya, lihat INVALID_DATETIME_PATTERN
NILAI_DEFAULT_TIDAK_VALID
Gagal menjalankan perintah <statement>
karena kolom tujuan atau variabel <colName>
memiliki nilai DEFAULT
<defaultValue>
,
Untuk keterangan lebih lanjut, lihat INVALID_DEFAULT_VALUE
NILAI_PEMBATAS_TIDAK_VALID
Nilai tidak valid untuk pemisah.
Untuk informasi lebih lanjut, lihat INVALID_DELIMITER_VALUE
Katalog Tujuan Tidak Valid
Katalog tujuan perintah SYNC
harus berada dalam Katalog Unity. Ditemukan <catalog>
.
Memori Pengandar Tidak Valid
Memori sistem <systemMemory>
harus setidaknya <minSystemMemory>
.
Harap tingkatkan ukuran timbunan menggunakan opsi –driver-memory atau "<config>
" dalam konfigurasi Spark.
OPSIP_DINAMIS_TIDAK_VALID
Opsi yang diteruskan <option_list> dilarang untuk tabel asing <table_name>.
LOKASI_KOSONG_TIDAK_VALID
Nama lokasi tidak boleh berupa string kosong, tetapi <location>
diberikan.
INVALID_ESC
Menemukan string escape yang tidak valid: <invalidEscape>
. String escape hanya boleh berisi satu karakter.
INVALID_ESCAPE_CHAR
EscapeChar
harus berupa string literal dengan panjang satu, tetapi mendapat <sqlExpr>
.
MEMORI_PELAKSANA_TIDAK_SAH
Memori pelaksana <executorMemory>
harus berukuran setidaknya <minSystemMemory>
.
Harap tingkatkan memori eksekutor menggunakan opsi –executor-memory atau "<config>
" dalam konfigurasi Spark.
PENGKODE EKSPRESI TIDAK VALID
Menemukan encoder ekspresi yang tidak valid. Mengharapkan instans ExpressionEncoder tetapi mendapatkan <encoderType>
. Untuk informasi selengkapnya, lihat '<docroot>
/api/java/index.html?org/apache/spark/sql/Encoder.html'.
INVALID_EXTERNAL_TYPE
Jenis eksternal <externalType>
tidak valid untuk jenis <type>
pada ekspresi <expr>
.
TIPE_LAPANGAN_DASAR_EKSTRAK_TIDAK_VALID
Tidak dapat mengekstrak nilai dari <base>
. Perlu jenis kompleks [STRUCT
, ARRAY
, MAP
] tetapi mendapat <other>
.
BIDANG_EKSTRAK_TIDAK_VALID
Tidak dapat mengekstrak <field>
dari <expr>
.
INVALID_EXTRACT_FIELD_TYPE
Nama bidang harus berupa string literal yang tidak null, tetapi nilainya adalah <extraction>
.
INVALID_FIELD_NAME
Nama bidang <fieldName>
tidak valid: <path>
bukan struktur.
INVALID_FORMAT
Format tidak valid: <format>
.
Untuk detail selengkapnya, lihat INVALID_FORMAT
FRAKSI_DETIK_TIDAK_VALID
Rentang valid untuk detik adalah [0, 60] (inklusif), tetapi nilai yang disediakan adalah "<secAndMicros>
". Untuk menghindari kesalahan ini, gunakan try_make_timestamp
, yang menghasilkan NULL
ketika terjadi kesalahan.
Jika Anda tidak ingin menggunakan versi tanda waktu default sesi dari fungsi ini, gunakan try_make_timestamp_ntz
atau try_make_timestamp_ltz
.
HANDLE_TIDAK_VALID
Pegangan <handle>
tidak valid.
Untuk detail selengkapnya, lihat INVALID_HANDLE
Metode Permintaan HTTP Tidak Sah
Parameter input: metode, nilai: <paramValue>
bukan parameter yang valid untuk http_request karena bukan metode HTTP yang valid.
Jalur Permintaan HTTP Tidak Valid
Parameter input: jalur, nilai: <paramValue>
bukan parameter yang valid untuk http_request karena pergerakan jalur tidak diperbolehkan.
PENGIDENTIFIKASI_TIDAK_VALID
Pengidentifikasi yang tidak dikutip <ident>
tidak valid dan harus kembali dikutip sebagai: <ident>
.
Pengidentifikasi yang tidak dikutip hanya dapat berisi huruf ASCII
('a' - 'z', 'A' - 'Z'), digit ('0' - '9'), dan underbar ('_') .
Pengidentifikasi yang tidak dikutip juga tidak boleh dimulai dengan angka.
Sumber data dan penyimpanan meta yang berbeda dapat memberlakukan pembatasan tambahan pada pengidentifikasi yang valid.
INDEKS_TIDAK_VALID_DARI_NOL
Indeks 0 tidak valid. Indeks harus < 0 atau > 0 (elemen pertama memiliki indeks 1).
INVALID_INLINE_TABLE
Tabel sebaris tidak valid.
Untuk informasi lebih lanjut, lihat INVALID_INLINE_TABLE
INVALID_INTERVAL_FORMAT
Kesalahan penguraian '<input>
' ke interval. Pastikan bahwa nilai yang disediakan dalam format yang valid untuk menentukan interval. Anda dapat merujuk pada dokumentasi untuk format yang benar.
Untuk informasi lebih lanjut, lihat INVALID_INTERVAL_FORMAT
INTERVAL_TIDAK_VALID_DENGAN_PENAMBAHAN_MIKRODETIK
Tidak dapat menambahkan interval ke tanggal karena bagian microseconds-nya bukan 0. Jika perlu atur <ansiConfig>
ke "false" untuk melewati kesalahan ini.
INVALID_INVERSE_DISTRIBUTION_FUNCTION
Fungsi distribusi terbalik tidak valid <funcName>
.
Untuk detail selengkapnya, lihat INVALID_INVERSE_DISTRIBUTION_FUNCTION
INVALID_JAVA_IDENTIFIER_AS_FIELD_NAME
<fieldName>
bukan pengidentifikasi Java yang valid dan tidak dapat digunakan sebagai nama bidang
<walkedTypePath>
.
TIPE_JOIN_TIDAK_VALID_UNTUK_JOINWITH
Jenis penyambungan yang tidak valid pada joinWith: <joinType>
.
INVALID_JSON_DATA_TYPE
Gagal mengonversi string JSON '<invalidType>
' ke jenis data. Masukkan tipe data yang valid.
TIPE DATA JSON TIDAK VALID UNTUK URUTAN
Pengurutan hanya dapat diterapkan pada tipe string, tetapi tipe data JSON adalah <jsonType>
.
INVALID_JSON_RECORD_TYPE
Mendeteksi jenis rekaman JSON yang tidak valid saat menyimpulkan skema umum dalam mode <failFastMode>
. Diharapkan jenis STRUCT
, tetapi ditemukan <invalidType>
.
INVALID_JSON_ROOT_FIELD
Tidak dapat mengonversi bidang akar JSON ke jenis Spark target.
INVALID_JSON_SCHEMA_MAP_TYPE
Skema input <jsonSchema>
hanya dapat berisi jenis kunci STRING
untuk MAP
.
INVALID_KRYO_SERIALIZER_BUFFER_SIZE
Nilai konfigurasi "<bufferSizeConfKey>
" harus kurang dari 2048 MiB, tetapi mendapat <bufferSizeConfValue>
MiB.
PENGGUNAAN_LABEL_TIDAK_VALID
Penggunaan label <labelName>
tidak valid.
Untuk informasi lebih lanjut, lihat INVALID_LABEL_USAGE
INVALID_LAMBDA_FUNCTION_CALL
Panggilan fungsi lambda tidak valid.
Untuk detail selengkapnya, lihat INVALID_LAMBDA_FUNCTION_CALL
INVALID_LATERAL_JOIN_TYPE
<joinType>
JOIN dengan korelasi LATERAL
tidak diizinkan karena subkueri OUTER
tidak dapat berkorelasi dengan mitra gabungannya. Hapus korelasi LATERAL
atau gunakan INNER
JOIN, atau LEFT OUTER
JOIN sebagai gantinya.
EKSPRESI_LIMIT_TIDAK_VALID_SEPERTI
Batas seperti ekspresi <expr>
tidak valid.
Untuk detail selengkapnya, lihat INVALID_LIMIT_LIKE_EXPRESSION
JALUR_TIDAK_ABSOLUT_TIDAK_VALID
Jalur non absolut yang disediakan <path>
tidak dapat memenuhi syarat. Harap perbarui jalur menjadi lokasi pemasangan dbfs yang valid.
EKSPRESI_NON_DETERMINISTIK_TIDAK_VALID
Operator, mengharapkan ekspresi deterministik, tetapi ekspresi yang sebenarnya adalah <sqlExprs>
.
RENTANG_LITERAL_NUMERIK_TIDAK_VALID
Literal numerik <rawStrippedQualifier>
berada di luar rentang yang valid untuk <typeName>
dengan nilai minimum <minValue>
dan nilai maksimum <maxValue>
. Harap sesuaikan nilainya sewajarnya.
INVALID_OBSERVED_METRICS
Metrik yang diamati tidak valid.
Untuk detail selengkapnya, lihat INVALID_OBSERVED_METRICS
INVALID_OPTIONS
Opsi tidak valid:
Untuk informasi lebih lanjut, lihat INVALID_OPTIONS
INVALID_PANDAS_UDF_PLACEMENT
Fungsi agregat grup pandas UDF <functionList>
tidak dapat dipanggil bersama dengan fungsi agregat non-pandas lainnya.
INVALID_PARAMETER_MARKER_VALUE
Pemetaan parameter yang tidak valid disediakan:
Untuk detail lebih lanjut, lihat INVALID_PARAMETER_MARKER_VALUE
NILAI_PARAMETER_TIDAK_VALID
Nilai parameter <parameter>
dalam <functionName>
tidak valid:
Untuk detail selengkapnya, lihat INVALID_PARAMETER_VALUE
TIPE_DATA_KOLOM_PARTISI_TIDAK_VALID
Tidak dapat menggunakan <type>
untuk kolom partisi.
INVALID_PARTITION_OPERATION [Operasi Partisi Tidak Valid]
Perintah partisi tidak valid.
Untuk detail selengkapnya, lihat INVALID_PARTITION_OPERATION
INVALID_PARTITION_VALUE
Gagal mentransmisikan nilai <value>
ke jenis data <dataType>
untuk kolom partisi <columnName>
. Pastikan nilai cocok dengan jenis data yang diharapkan untuk kolom partisi ini.
INVALID_PIPELINE_ID (ID jalur tidak valid)
Id alur <pipelineId>
tidak valid.
Id alur harus menjadi UUID dalam format 'xxxxxxxxx-xxxx-xxxx-xxxx-xxxx-xxxx'
Hak istimewa tidak valid
Hak istimewa <privilege>
tidak valid untuk <securable>
.
INVALID_PROPERTY_KEY
<key>
adalah kunci properti yang tidak valid, silakan gunakan tanda kutip, misalnya SET <key>=<value>
.
NILAI_PROPERTI_TIDAK_VALID
<value>
adalah nilai properti yang tidak valid, silakan gunakan tanda kutip, misalnya SET <key>=<value>
INVALID_QUALIFIED_COLUMN_NAME (Nama Kolom Memenuhi Syarat Tidak Valid)
Nama kolom <columnName>
tidak valid karena tidak memenuhi syarat dengan nama tabel atau terdiri dari lebih dari 4 bagian nama.
INVALID_QUERY_MIXED_QUERY_PARAMETERS
Kueri berparameter harus menggunakan parameter posisi, atau bernama, tetapi tidak keduanya.
INVALID_REGEXP_REPLACE
Tidak dapat melakukan regexp_replace untuk sumber = "<source>
", pola = "<pattern>
", penggantian = "<replacement>
" dan posisi = <position>
.
Format perintah pengaturan ulang tidak valid
Format yang diharapkan adalah 'RESET
' atau ' kunciRESET
'. Jika Anda ingin menyertakan karakter khusus dalam kunci, silakan gunakan tanda kutip, misalnya, RESET key
.
Kredensial_Salinan_S3_TIDAK_VALID
kredensial COPY INTO
harus menyertakan AWS_ACCESS_KEY
, AWS_SECRET_KEY
, dan AWS_SESSION_TOKEN
.
INVALID_SAVE_MODE
Mode penyimpanan yang ditentukan <mode>
tidak valid. Mode penyimpanan yang valid termasuk "tambahkan", "timpa", "abaikan", "error", "errorifexists", dan "default".
INVALID_SCHEMA
Skema input <inputSchema>
bukan string skema yang valid.
Untuk informasi lebih lanjut, lihat INVALID_SCHEMA
INVALID_SCHEMA_OR_RELATION_NAME
<name>
bukan nama yang valid untuk tabel/skema. Nama yang valid hanya berisi karakter alfabet, angka, dan _.
INVALID_SCHEME
Katalog Unity tidak mendukung <name>
sebagai skema file default.
INVALID_SECRET_LOOKUP
Pencarian informasi rahasia tidak sah
Untuk detail selengkapnya, lihat INVALID_SECRET_LOOKUP
Sintaks Set Tidak Valid
Format yang diharapkan adalah 'SET
', 'SET
kunci', atau 'SET
kunci=nilai'. Jika Anda ingin menyertakan karakter khusus dalam kunci, atau menyertakan titik koma dalam nilai, silakan gunakan backquotes, misalnya, SET key
=value
.
INVALID_SHARED_ALIAS_NAME
Nama alias <sharedObjectType>
harus memiliki bentuk "schema.name".
KOLOM_VARIAN_TUNGGAL_TIDAK_VALID
Opsi singleVariantColumn
tidak dapat digunakan jika ada juga skema yang ditentukan pengguna.
KATALOG_SUMBER_TIDAK_VALID
Katalog sumber tidak boleh berada dalam Katalog Unity untuk perintah SYNC
. Ditemukan <catalog>
.
INVALID_SQL_ARG (Argumen SQL Tidak Valid)
Argumen <name>
sql()
tidak valid. Pertimbangkan untuk menggantinya dengan literal SQL atau dengan fungsi konstruktor koleksi seperti map()
, array()
, struct()
.
INVALID_SQL_SYNTAX
Sintaks SQL tidak valid:
Untuk detail selengkapnya, lihat INVALID_SQL_SYNTAX
Jalur pemanggungan tidak valid dalam kueri akses pemanggungan (INVALID_STAGING_PATH_IN_STAGING_ACCESS_QUERY).
Jalur penahapan tidak valid dalam kueri <operation>
: <path>
PERNYATAAN_TIDAK_VALID_UNTUK_EKSEKUSI_KE_DALAM
Klausa INTO
pada EXECUTE IMMEDIATE
hanya valid untuk kueri namun pernyataan yang diberikan bukan kueri: <sqlString>
.
PERNYATAAN_ATAU_KLAUSA_TIDAK_VALID
Pernyataan atau klausul: <operation>
tidak valid.
INVALID_SUBQUERY_EXPRESSION
Subkueri tidak valid:
Untuk detail selengkapnya, lihat INVALID_SUBQUERY_EXPRESSION
SASARAN_TIDAK_VALID_UNTUK_PERINTAH_ALTER
ALTER <commandTableType>
...
<command>
tidak mendukung <tableName>
. Silakan gunakan ALTER <targetTableType>
...
<command>
sebagai gantinya.
TARGET_TIDAK_VALID_UNTUK_PERINTAH_SET_TBLPROPERTIES
ALTER <commandTableType>
...
SET TBLPROPERTIES
tidak mendukung <tableName>
. Silakan gunakan ALTER <targetTableType>
...
SET TBLPROPERTIES
sebagai gantinya.
INVALID_TEMP_OBJ_REFERENCE
Tidak dapat membuat objek persisten <objName>
tipe <obj>
karena mereferensikan ke objek sementara <tempObjName>
jenis <tempObj>
. Harap buat objek sementara <tempObjName>
persisten, atau buat objek persisten <objName>
sementara.
INVALID_TIMESTAMP_FORMAT
Tanda waktu yang disediakan <timestamp>
tidak cocok dengan sintaks yang diharapkan <format>
.
ZONA_WAKTU_TIDAK_VALID
Zona waktu: <timeZone>
tidak valid. Zona waktu harus berupa ID zona berbasis wilayah atau offset zona. ID wilayah harus memiliki formulir 'area/kota', seperti 'Amerika/Los_Angeles'. Offset zona harus dalam format '(+|-)HH', '(+|-)HH:mm' atau '(+|-)HH:mm:ss', misalnya '-08' , '+01:00' atau '-13:33:33', dan harus dalam rentang dari -18:00 hingga +18:00. 'Z' dan 'UTC' diterima sebagai sinonim untuk '+00:00'.
SPESIFIKASI_PENJELAJAHAN_WAKTU_TIDAK_VALID
Tidak dapat menentukan versi dan cap waktu saat melakukan operasi penelusuran waktu pada tabel.
STAMPEL_WAKTU_PERJALANAN_WAKTU_TIDAK_VALID
Ekspresi tanda waktu perjalanan waktu <expr>
tidak valid.
Untuk detail selengkapnya, lihat INVALID_TIME_TRAVEL_TIMESTAMP_EXPR
LITERAL_BERJENIS_TIDAK_VALID
Nilai literal yang diketik <valueType>
tidak valid: <value>
.
IMPLEMENTASI_UDF_TIDAK_VALID
Fungsi <funcName>
tidak menerapkan ScalarFunction atau AggregateFunction.
Sintaks Pembaruan Tidak Valid
<command> <supportedOrNot>
tabel sumber berada di Apache Hive Metastore dan tabel tujuan berada di Katalog Unity.
INVALID_URL
Url tidak valid: <url>
. Gunakan try_parse_url
untuk mentolerir URL yang tidak valid dan mengembalikan NULL
sebagai gantinya.
PENGGUNAAN_TIDAK_VALID_DARI_BINTANG_ATAU_REGEX
Penggunaan <elem>
tidak valid di <prettyName>
.
INVALID_UTF8_STRING
Urutan byte UTF8 tidak valid yang ditemukan dalam string: <str>
.
INVALID_UUID
Input <uuidInput>
bukan UUID yang valid.
UUID harus dalam format 'xxxxxxxxx-xxxx-xxxx-xxxx-xxxx-xxxxxxx'
Silakan periksa format UUID.
INVALID_VARIABLE_DECLARATION
Deklarasi variabel tidak valid.
Untuk detail selengkapnya, lihat INVALID_VARIABLE_DECLARATION
INVALID_VARIABLE_TYPE_FOR_QUERY_EXECUTE_IMMEDIATE
Jenis variabel harus berupa tipe string, namun yang diterima adalah <varType>
.
PEMBERIAN_TIPEGANDA_TIDAK_VALID
Nilai varian <value>
tidak dapat ditransmisikan ke <dataType>
. Silakan gunakan try_variant_get
sebagai gantinya.
VARIAN_TIDAK_VALID_DARI_PARQUET
Varian tidak valid.
Untuk detail selengkapnya, lihat INVALID_VARIANT_FROM_PARQUET
INVALID_VARIANT_GET_PATH
Jalur <path>
bukan jalur ekstraksi varian yang valid di <functionName>
.
Jalur yang valid harus dimulai dengan $
dan diikuti oleh nol atau lebih segmen seperti [123]
, .name
, ['name']
, atau ["name"]
.
INVALID_VARIANT_SHREDDING_SCHEMA
Skema <schema>
bukan skema penghancur varian yang valid.
KONDISI_WHERE_TIDAK_VALID
Kondisi WHERE
<condition>
berisi ekspresi yang tidak valid: <expressionList>
.
Tulis ulang kueri untuk menghindari fungsi jendela, fungsi agregat, dan fungsi generator dalam klausa WHERE
.
SPESIFIKASI_JENDELA_TIDAK_VALID_UNTUK_FUNGSI_AGREGASI
Tidak dapat menentukan ORDER BY
atau bingkai jendela untuk <aggFunc>
.
PESAN KOMIT PENULIS TIDAK VALID
Penulis sumber data telah menghasilkan jumlah pesan commit yang tidak valid. Diharapkan tepat satu penulis menerapkan pesan dari setiap tugas, tetapi menerima <detail>
.
INVALID_WRITE_DISTRIBUTION
Distribusi tulis yang diminta tidak valid.
Untuk detail selengkapnya, lihat INVALID_WRITE_DISTRIBUTION
KESALAHAN_PERINTAH_TERISOLASI
Gagal menjalankan <command>
. Output perintah:
<output>
PERINTAH_TERISOLASI_KEGAGALAN_TIDAK_DI KETAHUI
Gagal menjalankan <command>
.
KONDISI_JOIN_BUKAN_TIPE_BOOLEAN
Kondisi gabungan <joinCondition>
berjenis tidak valid <conditionType>
, diharapkan “BOOLEAN
”.
KAFKA_DATA_LOSS
Beberapa data mungkin hilang karena tidak tersedia di Kafka lagi;
baik data sudah kehabisan usia oleh Kafka atau topik mungkin telah dihapus sebelum semua data di
Topik telah diproses.
Jika Anda tidak ingin kueri streaming gagal pada kasus seperti itu, atur opsi sumber failOnDataLoss menjadi false.
Alasan:
Untuk detail selengkapnya, lihat KAFKA_DATA_LOSS
KINESIS_TIDAK_BISA_MEMBACA_SHARD_HINGGA_OFFSET_AKHIR
Tidak dapat membaca sampai nomor urutan yang diinginkan <endSeqNum>
untuk pecahan <shardId>
di
Aliran kinesis <stream>
dengan mode konsumen <consumerMode>
. Kueri akan gagal karena
potensi kehilangan data. Rekaman baca terakhir berada pada nomor urut <lastSeqNum>
.
Ini dapat terjadi jika data dengan endSeqNum telah kadaluarsa, atau aliran Kinesis telah berhenti.
dihapus dan direkonstruksi dengan nama yang sama. Perilaku kegagalan dapat diubah
dengan mengatur spark.databricks.kinesis.failOnDataLoss menjadi false dalam konfigurasi spark.
KONSUMEN KINESIS_EFO TIDAK DITEMUKAN
Untuk aliran kinesis <streamId>
, konsumen EFO dari aliran yang sebelumnya terdaftar <consumerId>
telah dihapus.
Mulai ulang kueri sehingga konsumen baru akan didaftarkan.
BATAS LANGGANAN KINESIS_EFO TERLAMPAUI
Untuk shard <shard>
, panggilan sebelumnya dari subscribeToShard API berada dalam waktu 5 detik dari panggilan berikutnya.
Mulai ulang kueri setelah 5 detik atau lebih.
KINESIS_FRAGMENT_TERAMBIL_KURANG_DARI_TERPANTAU_FRAGMEN
ShardId minimum yang diambil dari Kinesis (<fetchedShardId>
)
kurang dari minimum shardId yang dilacak (<trackedShardId>
).
Ini tidak terduga dan terjadi ketika aliran Kinesis dihapus dan dibuat ulang dengan nama yang sama,
kueri streaming pada aliran Kinesis ini dimulai ulang dengan menggunakan lokasi titik pemeriksaan yang sudah ada.
Mulai ulang kueri streaming dengan lokasi titik pemeriksaan baru, atau buat aliran dengan nama baru.
Mode polling Kinesis tidak didukung
Mode polling Kinesis tidak didukung.
Pelanggaran Urutan Nomor Rekam KINESIS
Untuk shard <shard>
, rekaman terakhir yang dibaca dari Kinesis dalam pengambilan sebelumnya memiliki nomor urut <lastSeqNum>
,
yang lebih besar dari rekaman yang dibaca dalam pengambilan data saat ini dengan nomor urutan <recordSeqNum>
.
Ini tidak terduga dan dapat terjadi ketika posisi awal untuk pengulangan atau pengambilan berikutnya salah diinisialisasi, dan hal ini dapat mengakibatkan duplikasi rekaman dalam pemrosesan berikutnya.
Sumber KINESIS harus dalam mode EFO untuk mengkonfigurasi konsumen.
Untuk membaca dari Kinesis Streams dengan konfigurasi konsumen (consumerName
, consumerNamePrefix
, atau registeredConsumerId
), consumerMode
harus efo
.
KINESIS_SOURCE (Sumber Kinesis) HARUS MENENTUKAN REGISTERED_CONSUMER_ID (ID Konsumen Terdaftar) DAN TIPE
Untuk membaca dari Kinesis Streams dengan pemakai terdaftar, Anda harus menentukan opsi registeredConsumerId
dan registeredConsumerIdType
.
Sumber KINESIS harus menentukan nama aliran atau ARNs
Untuk membaca dari Kinesis Streams, Anda harus mengonfigurasi salah satu dari opsi streamName
atau streamARN
, tetapi bukan keduanya, sebagai daftar nama aliran atau ARN yang dipisahkan koma.
KINESIS_SUMBERRATA_TIDAK_ADA_PILIHANKONSUMEN_DENGAN_KONSUMEN_TERDAFTAR
Untuk membaca dari Kinesis Streams dengan konsumen terdaftar, jangan konfigurasikan opsi consumerName
atau consumerNamePrefix
karena tidak akan berfungsi.
MISMATCH_HITUNGAN_ID_KONSUMEN_TERDAFTAR_SUMBER_KINESIS
Jumlah id konsumen terdaftar harus sama dengan jumlah aliran Kinesis tetapi mendapatkan id konsumen <numConsumerIds>
dan aliran <numStreams>
.
KINESIS_SOURCE_REGISTERED_CONSUMER_NOT_FOUND (Konsumen terdaftar sumber Kinesis tidak ditemukan)
Konsumen terdaftar <consumerId>
yang disediakan tidak dapat ditemukan untuk streamARN <streamARN>
. Verifikasi bahwa Anda telah mendaftarkan konsumen atau tidak menyediakan opsi registeredConsumerId
.
KINESIS_SOURCE_REGISTERED_CONSUMER_TYPE_INVALID
Jenis konsumen terdaftar <consumerType>
tidak valid. Ini harus name
atau ARN
.
KRYO_BUFFER_OVERFLOW
Serialisasi Kryo gagal: <exceptionMsg>
. Untuk menghindari hal ini, tingkatkan nilai "<bufferSizeConfKey>
".
LABELS_TIDAK_SESUAI
Label mulai <beginLabel>
tidak cocok dengan label akhir <endLabel>
.
LABEL_SUDAH_ADA
Label <label>
sudah ada. Pilih nama lain atau ganti nama label yang ada.
JALUR_DATA_TIDAK_ADA
jalur input LOAD DATA tidak ada: <path>
.
LOCAL_MUST_WITH_SCHEMA_FILE
LOCAL
harus digunakan bersama dengan skema file
, namun mendapatkan: <actualSchema>
.
LOKASI_SUDAH_ADA
Tidak dapat menamai tabel terkelola sebagai <identifier>
, karena lokasi terkait <location>
sudah ada. Pilih nama tabel lain, atau hapus lokasi yang ada terlebih dahulu.
PARTISI_TOPIK_HILANG_DALAM_OFFSET_AKHIR_DENGAN_PEMICU_TERSEDIASEKARANG
Beberapa partisi dalam topik Kafka telah hilang selama menjalankan kueri dengan Trigger.AvailableNow. Kesalahan bisa bersifat sementara - mulai ulang kueri Anda, dan laporkan jika Anda masih melihat masalah yang sama.
partisi topik untuk offset terkini: <tpsForLatestOffset>
, dan partisi topik untuk offset akhir: <tpsForEndOffset>
Pesan AVRO yang Salah Bentuk (MALFORMED_AVRO_MESSAGE)
Pesan Avro yang salah bentuk terdeteksi dalam deserialisasi pesan. Mode Penguraian: <mode>
. Untuk memproses pesan Avro yang salah bentuk sebagai hasil null, coba atur opsi 'mode' sebagai 'PERMISSIVE
'.
PENGODEAN_KARAKTER_MALFORMASI
Nilai tidak valid ditemukan saat melakukan <function>
dengan <charset>
REKAMAN_CSV_MALFORMASI
Catatan CSV cacat: <badRecord>
RECORD_MALFORMASI_DALAM_PARSING
Rekaman cacat terdeteksi dalam penguraian rekaman: <badRecord>
.
Mode Penguraian: <failFastMode>
. Untuk memproses rekaman cacat sebagai hasil null, coba atur opsi 'mode' sebagai 'PERMISSIVE
'.
Untuk detail selengkapnya, lihat MALFORMED_RECORD_IN_PARSING
Varian Tidak Sesuai
Varian biner tidak sesuai format. Silakan periksa sumber data valid.
TABEL_DIKELOLA_DENGAN_KREDENSIAL
Pembuatan tabel terkelola menggunakan kredensial penyimpanan tidak didukung.
MATERIALIZED_VIEW_MESA_PEMBARUAN_TANPA_PIPELINE_ID
Tidak dapat <refreshType>
tampilan materialisasi karena ada sebelum memiliki pipeline Id. Untuk mengaktifkan <refreshType>
, hapus dan buat ulang tampilan materialisasi.
OPERASI_MATERIALIZED_VIEW_TIDAK_DIIJINKAN
Operasi tampilan materialisasi <operation>
tidak diperbolehkan:
Untuk detail selengkapnya, lihat MATERIALIZED_VIEW_OPERATION_NOT_ALLOWED
KELUARAN_MATERIALIZED_VIEW_TANPA_ALIAS_EKSPLISIT
Ekspresi output <expression>
dalam view yang dimaterialisasi harus diberikan alias secara eksplisit.
MATERIALIZED_VIEW_ATAS_QUERY_STREAMING_TIDAK_VALID
Tampilan materialisasi <name>
tidak dapat dibuat menggunakan kueri streaming. Silakan gunakan CREATE
[OR REFRESH
] <st>
atau hapus kata kunci STREAM
ke klausa FROM
Anda untuk mengubah hubungan ini menjadi kueri batch sebagai gantinya.
"OPERASI_TIDAK_DIDUKUNG_PADA_PANDANGAN_TERWUJUD"
Operasi <operation>
saat ini tidak didukung pada tampilan materialisasi.
Jumlah maks variabel dalam sesi terlampaui
Tidak dapat membuat variabel baru <variableName>
karena jumlah variabel dalam sesi melebihi angka maksimum yang diizinkan (<maxNumVariables>
).
MAKSIMUM_REKAMAN_PER_PENGAMBILAN_TIDAK_VALID_UNTUK_SUMBER_KINESIS
maxRecordsPerFetch harus berupa bilangan bulat positif kurang dari atau sama dengan <kinesisRecordLimit>
PELANGGARAN_KARDINALITAS_PENGGABUNGAN
Kondisi pencarian ON
pada pernyataan MERGE
cocok dengan satu baris dari tabel target dan beberapa baris dari tabel sumber.
Ini dapat mengakibatkan baris target dikenai lebih dari sekali dengan operasi pembaruan atau penghapusan dan tidak diizinkan.
GABUNG_TANPA_KETIKA
Harus ada setidaknya satu klausa WHEN
dalam pernyataan MERGE
.
BATASAN_METRIK_TIDAK_DIDUKUNG
METRIC CONSTRAINT
tidak diaktifkan.
KESALAHAN_NILAI_ARGUMEN_TIDAK_VALID_PADA_PENYIMPAN_METRIK
Nilai yang disediakan "<argValue>
" tidak didukung oleh argumen "<argName>
" untuk fungsi tabel METRIC_STORE
.
Untuk informasi lebih lanjut, lihat METRIC_STORE_INVALID_ARGUMENT_VALUE_ERROR
KESALAHAN_TOKO_METRIK_TIDAK_DIDUKUNG
<routineName>
rutin Penyimpanan Metrik saat ini dinonaktifkan di lingkungan ini.
METRIC_VIEW_CACHE_TABLE_TIDAK_DIDUKUNG
Tampilan metrik tidak diizinkan untuk menggunakan tabel cache.
FUNGSI PENAMPILAN METRIK DINONAKTIFKAN
Fitur tampilan metrik dinonaktifkan. Pastikan "spark.databricks.sql.metricView.enabled" diatur ke true.
FUNGSI_UKURAN_TIDAK_VALID_PADAMETRIC_VIEW
Fungsi MEASURE
() hanya mengambil atribut sebagai input, tetapi mendapat <expr>
METRIC_VIEW_DALAM_CTE_TIDAK_DIDUKUNG
Tampilan metrik tidak diizinkan dalam definisi CTE. rencana: <plan>
Bergabung pada Tampilan Metrik Tidak Didukung
Tampilan metrik tidak diizinkan untuk menggunakan gabungan. rencana: <plan>
TAMPILAN_METRIK_FUNGSI_UKURAN_HILANG
Penggunaan kolom pengukuran <column>
tampilan metrik memerlukan fungsi MEASURE
() untuk menghasilkan hasil.
Penggunaan Tampilan Metrik Tidak Didukung
Penggunaan tampilan metrik tidak didukung. rencana: <plan>
FUNGSI JENDELA UNTUK PANDANGAN METRIK TIDAK DIDUKUNG
Tampilan metrik tidak diizinkan untuk menggunakan fungsi jendela <expr>
.
Migrasi Tidak Didukung
<table>
tidak didukung untuk migrasi ke tabel terkelola karena bukan tabel <tableKind>
.
PARTISI_TOPIK_YANG_TIDAK_SESUAI_ANTARA_END_OFFSET_DAN_PREFETCHED
Sumber data Kafka di Trigger.AvailableNow harus menyediakan partisi topik yang sama dalam offset yang diambil sebelumnya untuk mengakhiri offset untuk setiap mikrobatch. Kesalahan bisa bersifat sementara - mulai ulang kueri Anda, dan laporkan jika Anda masih melihat masalah yang sama.
partisi topik untuk offset yang telah diambil sebelumnya: <tpsForPrefetched>
, partisi topik untuk offset akhir: <tpsForEndOffset>
.
AGREGASI_HILANG
Ekspresi non-agregat <expression>
didasarkan pada kolom yang tidak berpartisipasi dalam klausa GROUP BY
.
Tambahkan kolom atau ekspresi ke GROUP BY
, agregat ekspresi, atau gunakan <expressionAnyValue>
jika Anda tidak peduli nilai mana dalam grup yang dikembalikan.
Untuk informasi lebih lanjut, lihat MISSING_AGGREGATION
Klausul yang Hilang untuk Operasi
Klausa yang hilang <clauses>
untuk operasi <operation>
. Harap tambahkan klausa yang diperlukan.
PILIHAN_KONEKSI_HILANG
Koneksi jenis '<connectionType>
' harus menyertakan opsi berikut: <requiredOptions>
.
MISSING_DATABASE_FOR_V1_SESSION_CATALOG
Nama database tidak ditentukan dalam katalog sesi v1. Pastikan untuk memberikan nama database yang valid saat berinteraksi dengan katalog v1.
GRUP_TIDAK_ADA
Kueri tidak menyertakan klausa GROUP BY
. Tambahkan GROUP BY
atau ubah menjadi fungsi jendela menggunakan klausa OVER.
NAMA_HILANG_UNTUK_BATASAN_PEMERIKSAAN
batasan CHECK
harus memiliki nama.
PARAMETER_HILANG_UNTUK_KAFKA
Parameter <parameterName>
diperlukan untuk Kafka, tetapi tidak ditentukan dalam <functionName>
.
PARAMETER_HILANG_UNTUK_RUTIN
Parameter <parameterName>
diperlukan, tetapi tidak ditentukan dalam <functionName>
.
DEFINISI_JADWAL_HILANG
Definisi jadwal harus disediakan setelah SCHEDULE
.
PENGATURAN_TIMEOUT_HILANG
Operasi telah kehabisan waktu, tetapi tidak ada durasi batas waktu yang dikonfigurasi. Untuk mengatur batas waktu berbasis waktu pemrosesan, gunakan operasi 'GroupState.setTimeoutDuration()' di 'mapGroupsWithState' atau 'flatMapGroupsWithState'. Untuk batas waktu berdasarkan waktu kejadian, gunakan 'GroupState.setTimeoutTimestamp()' dan tentukan marka air menggunakan 'Dataset.withWatermark()'.
SPESIFIKASI_JENDELA_HILANG
Spesifikasi jendela tidak ditentukan dalam klausa WINDOW
untuk <windowName>
. Untuk informasi selengkapnya tentang klausul WINDOW
, silakan merujuk ke '<docroot>
/sql-ref-syntax-qry-select-window.html'.
MODIFIKASI_KATALOG_BUILTIN
Mengubah katalog bawaan <catalogName>
tidak didukung.
JALUR_PEMUATAN_GANDA
Databricks Delta tidak mendukung beberapa jalur input di API load().
jalur: <pathList>
. Untuk membangun satu DataFrame dengan memuat
beberapa jalur dari tabel Delta yang sama, silakan muat jalur akar
tabel Delta dengan filter partisi yang sesuai. Jika ada beberapa jalur
berasal dari tabel Delta yang berbeda, silakan gunakan API union()/unionByName() milik Dataset.
untuk menggabungkan DataFrames yang dihasilkan dari panggilan API load() yang terpisah.
Batasan yang Sesuai Ganda
Ditemukan setidaknya dua batasan yang cocok dengan kondisi yang diberikan.
Klausa Hasil Query Multipel dengan Operator Pipa
<clause1>
dan <clause2>
tidak dapat hidup berdampingan di operator pipa SQL yang sama menggunakan '|>'. Pisahkan beberapa klausa hasil pencarian menjadi operator pemisah terpisah lalu coba jalankan ulang kueri tersebut.
SPESIFIKASI_PERJALANAN_WAKTU_MULTIPLE
Tidak dapat menentukan perjalanan waktu dalam klausa perjalanan waktu dan opsi.
MULTIPLE_XML_DATA_SOURCE
Mendeteksi beberapa sumber data dengan nama <provider> (<sourceNames>
). Tentukan nama kelas yang sepenuhnya memenuhi syarat atau hapus <externalSource>
dari classpath.
MULTI_ALIAS_WITHOUT_GENERATOR
Alias multi bagian (<names>
) tidak didukung dengan <expr>
karena bukan fungsi generator.
Sumber Banyak Tidak Didukung Untuk Ekspresi
Ekspresi <expr>
tidak mendukung lebih dari satu sumber.
Error Antarmuka Multi UDF
Tidak diizinkan untuk menerapkan beberapa antarmuka UDF, kelas UDF <className>
.
KLAUSA_YANG_SALING_EKSKLUSIF
Klausa atau opsi yang saling eksklusif <clauses>
. Hapus salah satu klausa ini.
Kesalahan Jenis Pendukung pada Alter Query (MV_ST_ALTER_QUERY_INCORRECT_BACKING_TYPE)
Kueri input mengharapkan nomor <expectedType>
, tetapi tabel yang mendasar adalah nomor <givenType>
.
PARAMETER_BERNAMA_TIDAK_DIDUKUNG
Parameter bernama tidak didukung untuk fungsi <functionName>
; silakan coba ulang kueri dengan argumen posisi untuk panggilan fungsi sebagai alternatif.
Parameter Bernama Tidak Didukung untuk SQL UDF
Tidak dapat memanggil fungsi <functionName>
karena referensi argumen bernama tidak didukung. Dalam hal ini, referensi argumen bernama <argument>
.
DUKUNGAN_PARAMETER_YANG_DIBERI_NAMA_NONAKTIF
Tidak dapat memanggil fungsi <functionName>
karena referensi argumen bernama tidak diaktifkan di sini.
Dalam hal ini, referensi argumen bernama <argument>
.
Atur "spark.sql.allowNamedFunctionArguments" ke "true" untuk mengaktifkan fitur.
RUANG NAMA_SUDAH ADA
Tidak dapat membuat namespace <nameSpaceName>
karena sudah ada.
Pilih nama yang berbeda, hapus namespace yang ada, atau tambahkan klausa IF NOT EXISTS
untuk mentolerir namespace yang sudah ada sebelumnya.
RUANG NAMA_TIDAK_KOSONG
Tidak dapat menjatuhkan namespace <nameSpaceNameName>
karena berisi objek.
Gunakan DROP NAMESPACE
...
CASCADE
untuk menghapus namespace dan semua objeknya.
RUANG_NAMA_TIDAK_DITEMUKAN
Namespace <nameSpaceName>
tidak dapat ditemukan. Verifikasi ejaan dan kebenaran namespace.
Jika Anda tidak memenuhi syarat nama dengan benar, verifikasi output current_schema() atau pastikan Anda memenuhi syarat nama dengan tepat.
Untuk mentolerir kesalahan saat drop, gunakan DROP NAMESPACE IF EXISTS
.
NATIVE_IO_ERROR
Permintaan bawaan gagal. requestId: <requestId>
, cloud: <cloud>
, operasi: <operation>
request: [https: <https>
, method = <method>
, path = <path>
, params = <params>
, host = <host>
, header = <headers>
, bodyLen = <bodyLen>
],
kesalahan: <error>
NATIVE_XML_DATA_SOURCE_NOT_ENABLED
Sumber Data XML asli tidak diaktifkan dalam kluster ini.
NILAI_NEGATIF_DALAM_EKSPRESI_FREKUENSI
Menemukan nilai negatif dalam <frequencyExpression>
: <negativeValue>
, tetapi mengharapkan nilai integral positif.
FUNGSI_AGREGAT_BERSARANG
Tidak diperbolehkan menggunakan fungsi agregat dalam argumen fungsi agregat lain. Silakan gunakan fungsi agregat dalam dalam sub-kueri.
Eksekusi Segera Berjenjang
Perintah EXECUTE IMMEDIATE
bertumpuk tidak diizinkan. Pastikan bahwa kueri SQL yang disediakan (<sqlString>
) tidak berisi perintah EXECUTE IMMEDIATE
lain.
NONEXISTENT_FIELD_NAME_IN_LIST (Nama Bidang Tidak Ada dalam Daftar)
Kolom <nonExistFields>
tidak ada. Bidang yang tersedia: <fieldNames>
ARGUMEN_TIDAK_BISA_DILIPAT
Fungsi <funcName>
mengharuskan parameter <paramName>
menjadi ekspresi jenis yang dapat dilipat <paramType>
, tetapi argumen aktual tidak dapat dilipat.
NON_LAST_MATCHED_CLAUSE_OMIT_CONDITION
Ketika ada lebih dari satu klausa MATCHED
dalam pernyataan MERGE
, hanya klausa MATCHED
terakhir yang dapat menghilangkan kondisi.
TIDAK_TERAKHIR_TIDAK_COCOK_DENGAN_KONDISI_PENGHAPUSAN_KLAUSA_SUMBER
Ketika ada lebih dari satu klausa NOT MATCHED BY SOURCE
dalam pernyataan MERGE
, hanya klausa NOT MATCHED BY SOURCE
terakhir yang dapat menghilangkan kondisi.
Kondisi_Penghilangan_Tidak_Cocok_Oleh_Klausa_Target_TIDAK_TERAKHIR
Ketika ada lebih dari satu klausa NOT MATCHED [BY TARGET
] dalam pernyataan MERGE
, hanya klausa NOT MATCHED [BY TARGET
] terakhir yang dapat menghilangkan kondisi.
NILAI_POROS_NON_LITERAL
Ekspresi literal yang diperlukan untuk nilai pivot, ditemukan pada <expression>
.
KOLOM_NON_PARTISI
klausa PARTITION
tidak boleh berisi kolom non-partisi: <columnName>
.
JENDELA_WAKTU_TIDAK_DIDUKUNG_DALAM_STREAMING
Fungsi jendela tidak didukung di <windowFunc>
(sebagai kolom <columnName>
) pada streaming DataFrames/Himpunan Data.
Streaming Terstruktur hanya mendukung agregasi jendela waktu menggunakan fungsi WINDOW
. (spesifikasi jendela: <windowSpec>
)
TIDAK_DIPERBOLEHKAN_DI_SALAH
Tidak diizinkan dalam klausa FROM
:
Untuk informasi lebih lanjut, lihat NOT_ALLOWED_IN_FROM
TIDAK_DIPERBOLEHKAN_DALAM_OPERATOR_PIPA_DIMANA
Tidak diizinkan dalam klausa pipa WHERE
:
Untuk detail selengkapnya, lihat NOT_ALLOWED_IN_PIPE_OPERATOR_WHERE
NOT_A_CONSTANT_STRING
Ekspresi <expr>
digunakan untuk klausul atau rutin <name>
harus merupakan konstanta STRING
yang NOT NULL
.
Untuk informasi lebih lanjut, lihat NOT_A_CONSTANT_STRING
BUKAN_SEBUAH_TABEL_TERPISAH
Operasi <operation>
tidak diperbolehkan untuk <tableIdentWithDB>
karena bukan tabel yang dipartisi.
BUKAN_FUNGSI_SKALAR
<functionName>
muncul sebagai ekspresi skalar di sini, tetapi fungsi didefinisikan sebagai fungsi tabel. Perbarui kueri untuk memindahkan panggilan fungsi ke klausa FROM
, atau tentukan ulang <functionName>
sebagai fungsi skalar sebagai gantinya.
BUKAN_FUNGSI_TABEL
<functionName>
muncul sebagai fungsi tabel di sini, tetapi fungsi didefinisikan sebagai fungsi skalar. Harap perbarui kueri untuk memindahkan panggilan fungsi di luar klausa FROM
, atau tentukan ulang <functionName>
sebagai fungsi tabel sebagai gantinya.
NOT_NULL_ASSERT_VIOLATION
nilai NULL
muncul di bidang yang tidak dapat bernilai null: <walkedTypePath>
Jika skema disimpulkan dari kelas tuple/case Scala, atau kelas case Java, silakan coba gunakan scala.Option[_] atau jenis nullable lainnya, seperti java.lang.Integer daripada int/scala.Int.
NOT_NULL_CONSTRAINT_VIOLATION
Menetapkan NULL
tidak diperbolehkan di sini.
Untuk informasi lebih lanjut, lihat NOT_NULL_CONSTRAINT_VIOLATION
PERUBAHAN_KOLOM_TIDAK_DIDUKUNG
ALTER TABLE ALTER
/
CHANGE COLUMN
tidak didukung untuk mengubah kolom <table>
dari <originName>
dengan jenis <originType>
ke <newName>
dengan jenis <newType>
.
PERINTAH_TIDAK_DIDUKUNG_UNTUK_TABEL_V2
<cmd>
tidak didukung untuk tabel v2.
Perintah tidak didukung tanpa dukungan hive.
<cmd>
tidak didukung, jika Anda ingin mengaktifkannya, atur "spark.sql.catalogImplementation" ke "hive".
TIDAK_DIDUKUNG_DALAM_JDBC_CATALOG
Perintah yang tidak didukung dalam katalog JDBC:
Untuk detail selengkapnya, lihat NOT_SUPPORTED_IN_JDBC_CATALOG
TIDAK_DIDUKUNG_DENGAN_DB_SQL
<operation>
tidak didukung pada <endpoint>
SQL .
TIDAK DIDUKUNG DENGAN SERVERLESS
<operation>
tidak didukung pada komputasi tanpa server.
NOT_UNRESOLVED_ENCODER
Pengkode yang belum diresolusi diharapkan, tetapi <attr>
ditemukan.
NILAI_KOLOM_DEFAULT_TIDAK_TERSEDIA
Tidak dapat menentukan nilai default untuk <colName>
karena tidak dapat diubah ke null dan tidak memiliki nilai default.
TIDAK_ADA_PENGELOLA_UNTUK_UDAF
Tidak ada handler untuk UDAF '<functionName>
'. Gunakan sparkSession.udf.register(...) sebagai gantinya.
TIDAK_ADA_AKSI_MERGE_YANG_DITENTUKAN
df.mergeInto perlu diikuti oleh setidaknya salah satu dari *whenMatched/whenNotMatched/whenNotMatchedBySource*.
TIDAK ADA LOKASI EKSTERNAL INDUK UNTUK PATH
SQLSTATE: tidak ada yang ditetapkan
Tidak ada lokasi eksternal induk yang ditemukan untuk jalur '<path>
'. Buat lokasi eksternal di salah satu jalur induk lalu coba lagi kueri atau perintah lagi.
NO_SQL_TYPE_IN_PROTOBUF_SCHEMA
Tidak dapat menemukan <catalystFieldPath>
dalam skema Protobuf.
TIDAK_ADA_LOKASI_PENYIMPANAN_UNTUK_TABEL
SQLSTATE: tidak ada yang ditetapkan
Tidak ada lokasi penyimpanan yang ditemukan untuk tabel '<tableId>
' saat menghasilkan kredensial tabel. Harap verifikasi jenis tabel dan URL lokasi tabel lalu coba lagi kueri atau perintah lagi.
NO_SUCH_CATALOG_EXCEPTION
Katalog '<catalog>
' tidak ditemukan. Harap verifikasi nama katalog lalu coba lagi kueri atau perintah lagi.
NO_SUCH_CLEANROOM_EXCEPTION
SQLSTATE: tidak ada yang ditetapkan
Kamar bersih '<cleanroom>
' tidak ada. Pastikan bahwa nama ruang bersih dieja dengan benar dan cocok dengan nama ruang bersih yang ada yang valid lalu coba lagi kueri atau perintah.
PENGECUALIAN_LOKASI_EKSTERNAL_TIDAK_TERSEDIA
SQLSTATE: tidak ada yang ditetapkan
Lokasi eksternal '<externalLocation>
' tidak ada. Harap verifikasi bahwa nama lokasi eksternal sudah benar, lalu coba lagi kueri atau perintah.
Kesalahan_NO_SUCH_METASTORE
SQLSTATE: tidak ada yang ditetapkan
Metastore tidak ditemukan. Silakan minta administrator akun Anda untuk menetapkan metastore ke ruang kerja saat ini lalu coba lagi kueri atau perintah lagi.
NO_SUCH_PROVIDER_EXCEPTION (Pengecualian dengan penyedia tidak dikenal)
SQLSTATE: tidak ada yang ditetapkan
Penyedia berbagi '<providerName>
' tidak ada. Pastikan nama penyedia berbagi dieja dengan benar dan cocok dengan nama nama penyedia yang sudah ada yang valid, lalu coba lagi kueri atau perintah tersebut.
NO_SUCH_RECIPIENT_EXCEPTION (Pengecualian Tidak Ada Penerima)
SQLSTATE: tidak ada yang ditetapkan
Penerima '<recipient>
' tidak ada. Pastikan bahwa nama penerima dieja dengan benar dan cocok dengan nama penerima yang sudah ada yang valid lalu coba lagi kueri atau perintah lagi.
NO_SUCH_SHARE_EXCEPTION
SQLSTATE: tidak ada yang ditetapkan
Bagian ‘<share>
’ tidak ada. Pastikan bahwa nama share dieja dengan benar dan cocok dengan nama share yang sudah ada yang valid, lalu coba lagi kueri atau perintah tersebut.
NO_SUCH_STORAGE_CREDENTIAL_EXCEPTION
SQLSTATE: tidak ada yang ditetapkan
Kredensial penyimpanan '<storageCredential>
' tidak ada. Pastikan bahwa nama kredensial penyimpanan dieja dengan benar dan cocok dengan nama kredensial penyimpanan yang sudah ada yang valid lalu coba lagi kueri atau perintah lagi.
PENGECUALIAN_PENGGUNA_TIDAK_ADA
SQLSTATE: tidak ada yang ditetapkan
Pengguna '<userName>
' tidak ada. Harap verifikasi bahwa pengguna yang Anda berikan izin atau ubah kepemilikan dieja dengan benar dan cocok dengan nama pengguna yang sudah ada yang valid lalu coba lagi kueri atau perintah tersebut.
NO_UDF_INTERFACE
Kelas UDF <className>
tidak menerapkan antarmuka UDF apa pun.
KOLOM_DAPAT_NOL_ATAU_LAPANGAN_DAPAT_NOL
Kolom atau bidang <name>
mengizinkan nilai null padahal seharusnya tidak bernilai null.
Atribut ID Baris yang Dapat Bernilai Null
Atribut ID baris tidak dapat diubah ke null: <nullableRowIdAttrs>
.
NULL_DATA_SOURCE_OPTION
Opsi baca/tulis sumber data <option>
tidak boleh memiliki nilai null.
NULL_MAP_KEY
Tidak dapat menggunakan null sebagai kunci peta.
NULL_QUERY_STRING_EXECUTE_IMMEDIATE
Eksekusi segera memerlukan variabel non-null sebagai string kueri, tetapi variabel yang disediakan <varName>
adalah null.
NUMERIK_DI_LUAR_JANGKAUAN_YANG_DIDUKUNG
Nilai <value>
tidak dapat ditafsirkan sebagai numerik karena memiliki lebih dari 38 digit.
NILAI_NUMERIK_DI_LUAR_BATAS
Untuk detail lebih lanjut, lihat NUMERIC_VALUE_OUT_OF_RANGE
KETIDAKCOCOKAN_JUMLAH_KOLOM
<operator>
hanya dapat dilakukan pada input dengan jumlah kolom yang sama, tetapi input pertama memiliki kolom <firstNumColumns>
dan input <invalidOrdinalNum>
memiliki kolom <invalidNumColumns>
.
Ketidakcocokan Alias Nilai Tabel Num
Jumlah alias yang diberikan tidak cocok dengan jumlah kolom output.
Nama fungsi: <funcName>
; jumlah alias: <aliasesNum>
; jumlah kolom output: <outColsNum>
.
KLAIM_IDENTITAS_KUSTOM_OAUTH_TIDAK_DIBERIKAN
Tidak ada klaim identitas kustom yang disediakan.
HANYA_FUNGSI_RAHASIA_YANG_DIDUKUNG_DI_SINI
Fungsi panggilan <functionName>
tidak didukung dalam <location>
ini; <supportedFunctions>
didukung di sini.
Hanya didukung dengan UC_SQL_CONNECTOR
Operasi SQL <operation>
hanya didukung pada konektor Databricks SQL dengan dukungan Unity Catalog.
OPERASI_DIBATALKAN
Operasi telah dibatalkan.
OPERASI_MEMBUTUHKAN_UNITY_KATALOG
Operasi <operation>
mengharuskan Katalog Unity diaktifkan.
Operasi Tidak Didukung - Hanya Baca
<plan>
tidak didukung dalam mode sesi baca-saja.
URUTKAN_DENGAN_POS_DI_LUAR_JANGKAUAN
ORDER BY
posisi <index>
tidak ada dalam daftar pilih (rentang yang valid adalah [1, <size>
]).
PARQUET_CONVERSION_FAILURE
Tidak dapat membuat konverter Parquet untuk jenis data <dataType>
yang jenis Parquet-nya <parquetType>
.
Untuk detail selengkapnya, lihat PARQUET_CONVERSION_FAILURE
PARQUET_TYPE_ILLEGAL
Jenis Parquet tidak sah: <parquetType>
.
JENIS_PARQUET_TIDAK_DIKENALI
Jenis Parquet yang tidak dikenal: <field>
.
JENIS_PARQUET_TIDAK_DIDUKUNG
Jenis parquet belum didukung: <parquetType>
.
PARSING_PERNYATAAN_KOSONG
Kesalahan sintaksis, pernyataan kosong yang tidak terduga.
MODE_PEMROSESAN_TIDAK_DIDUKUNG
Fungsi <funcName>
tidak mendukung mode <mode>
. Mode yang dapat diterima PERMISSIVE
dan FAILFAST
.
KESALAHAN_PARSE_SINTAKS
Kesalahan sintaks pada atau dekat <error> <hint>
.
PARTISI_SUDAH_ADA
Tidak dapat menambahkan RENAME
ke partisi-partisi <partitionList>
dalam tabel <tableName>
karena partisi-partisi tersebut sudah ada.
Pilih nama yang berbeda, hapus partisi yang ada, atau tambahkan klausa IF NOT EXISTS
untuk mentolerir partisi yang sudah ada sebelumnya.
PARTISI_TIDAK_DITEMUKAN
Partisi <partitionList>
tidak dapat ditemukan dalam tabel <tableName>
.
Verifikasi spesifikasi partisi dan nama tabel.
Untuk mengabaikan kesalahan saat menjalankan drop, gunakan ALTER TABLE
...
DROP IF EXISTS PARTITION
.
KOLOM_PARTISI_TIDAK_DITEMUKAN_DALAM_SKEMA
Kolom partisi <column>
tidak ditemukan dalam skema <schema>
. Harap sediakan kolom yang ada untuk pemartisian.
LOKASI_PARTISI_SUDAH_ADA
Lokasi partisi <locationPath>
sudah ada dalam tabel <tableName>
.
LOKASI_PARTISI_TIDAK_BERADA_DI_BAWAH_DIREKTORI_TABEL
Gagal menjalankan pernyataan ALTER TABLE SET PARTITION LOCATION
, karena
lokasi partisi <location>
tidak berada di bawah direktori tabel <table>
.
Untuk memperbaikinya, silakan atur lokasi partisi ke subdirektori <table>
.
PARTITION_METADATA
<action>
tidak diizinkan pada tabel <tableName>
karena menyimpan metadata partisi tidak didukung di Katalog Unity.
KETIDAKCOCOKAN_NOMOR_PARTISI
Jumlah nilai (<partitionNumber>
) tidak cocok dengan ukuran skema (<partitionSchemaSize>
): nilai <partitionValues>
, skema <partitionSchema>
, jalur file <urlEncodedPath>
.
Harap materialisasi ulang tabel atau hubungi pemilik.
EKSPRESI_TRANSFORMASI_PARTISI_TIDAK_DALAM_PARTISI_OLEH
Ekspresi <expression>
harus berada di dalam 'partitionedBy'.
Jalur_sudah_ada
Jalur <outputPath>
sudah ada. Atur mode sebagai "timpa" untuk menimpa jalur yang sudah ada.
JALUR_TIDAK_DITEMUKAN
Jalur tidak ditemukan: <path>
.
Batas Memori PHOTON_DESERIALIZED_PROTOBUF Terlampaui
Proses deserialisasi rencana Photon protobuf membutuhkan minimal <size>
byte, yang melebihi
batas maksimum <limit>
byte. Ini bisa disebabkan oleh rencana yang sangat besar atau adanya suatu hal yang sangat besar.
skema lebar. Cobalah untuk menyederhanakan kueri, menghapus kolom yang tidak perlu, atau menonaktifkan Photon.
BATAS_MEMORI_PROTOBUF_YANG_SERIAL_TELAH_TERLEBIHI_PHOTON
Paket protobuf Photon yang diserialisasikan memiliki ukuran <size>
byte, yang melebihi batas
<limit>
byte. Ukuran jenis data yang diserialisasikan dalam rencana adalah <dataTypeSize>
byte.
Ini bisa disebabkan oleh rencana yang sangat besar atau adanya skema yang sangat luas.
Pertimbangkan untuk menulis ulang kueri untuk menghapus operasi dan kolom yang tidak diinginkan atau menonaktifkan Photon.
EKSPRESI_OPERATOR_PIPA_TIDAK_MENGANDUNG_FUNGSI_AGREGAT
Ekspresi non-pengelompokan <expr>
disediakan sebagai argumen untuk |>AGGREGATE
operator pipa tetapi tidak berisi fungsi agregat apa pun; harap perbarui untuk menyertakan fungsi agregat lalu coba lagi kueri.
OPERATOR_PIPA_MENGANDUNG_FUNGSI_AGREGAT
Fungsi agregat <expr>
tidak diizinkan saat menggunakan operator pipa | klausa><clause>
; silakan gunakan operator pipa |>AGGREGATE
klausa sebagai gantinya.
KETIDAKCOCOKAN_TIPE_DATA_NILAI_POROS
Nilai pivot tidak valid '<value>
': jenis data nilai <valueType>
tidak cocok dengan jenis data kolom pivot <pivotType>
.
KETIDAKCOCOKAN_JUMLAH_ARGUMEN_PROSEDUR
Prosedur <procedureName>
mengharapkan argumen <expected>
, tetapi <actual>
disediakan.
PENCIPTAAN_PROSEDUR_RUTIN_KOSONG
CREATE PROCEDURE
dengan definisi rutin kosong tidak diperbolehkan.
PENCIPTAAN_PROSEDUR_PARAMETER_KELUAR_MASUK_KELUAR_DENGAN_DEFAULT
Parameter <parameterName>
didefinisikan dengan mode parameter <parameterMode>
. Parameter OUT dan INOUT
tidak dapat dihilangkan saat memanggil rutinitas dan karenanya tidak mendukung ekspresi DEFAULT
. Untuk melanjutkan, hapus klausa DEFAULT
atau ubah mode parameter menjadi IN
.
PROSEDUR_TIDAK_DIDUKUNG
Prosedur tersimpan tidak didukung
PROSEDUR_TIDAK_DIDUKUNG_DENGAN_HMS
Prosedur tersimpan tidak didukung dengan Hive Metastore. Silakan gunakan Katalog Unity sebagai gantinya.
KETERGANTUNGAN_PROTOBUF_TIDAK_DITEMUKAN
Tidak dapat menemukan dependensi: <dependencyName>
.
PROTOBUF_DESCRIPTOR_FILE_TIDAK_DITEMUKAN
Kesalahan saat membaca file deskriptor Protobuf di jalur: <filePath>
.
PROTOBUF_FIELD_MISSING
Mencari <field>
dalam skema Protobuf di <protobufSchema>
memberikan kecocokan <matchSize>
. Kandidat: <matches>
.
FIELD_PROBUF_HILANG_DALAM_SKEMA_SQL
Ditemukan <field>
dalam skema Protobuf tetapi tidak ada kecocokan dalam skema SQL.
PROTOBUF_FIELD_TYPE_MISMATCH
Ketidakcocokan tipe ditemukan untuk bidang: <field>
.
PROTOBUF_JAVA_CLASSES_NOT_SUPPORTED
Kelas Java tidak didukung untuk <protobufFunction>
. Hubungi Dukungan Databricks tentang opsi alternatif.
Pesan_PROTOBUF_Tidak_Ditemukan
Tidak dapat menemukan Pesan <messageName>
di deskriptor.
PROTOBUF_TIDAK_DIMUAT_FUNGSI_SQL_TIDAK_DAPAT_DIGUNAKAN
Tidak dapat memanggil fungsi SQL <functionName>
karena sumber data Protobuf tidak dimuat.
Mulai ulang pekerjaan atau sesi Anda dengan paket 'spark-protobuf' yang dimuat, seperti dengan menggunakan argumen –packages pada baris perintah, lalu coba lagi kueri atau perintah Anda.
TIPE_PROTOBUF_TIDAK_DIDUKUNG
Jenis Protobuf belum didukung: <protobufType>
.
PS_FETCH_RETRY_EXCEPTION
Tugas dalam tahap pengambilan pubsub tidak dapat dicoba kembali. Partisi <partitionInfo>
dalam tahap <stageInfo>
, TID <taskId>
.
Kesalahan: Opsi kosong tidak valid
<key>
tidak boleh berupa string kosong.
PS_TIPE_KUNCI_TIDAK_VALID
Jenis kunci tidak valid untuk PubSub dedup: <key>
.
PS_PILIHAN_TIDAK_VALID
Opsi <key>
tidak didukung oleh PubSub. Ini hanya dapat digunakan dalam pengujian.
Jenis Opsi Tidak Valid (PS_INVALID_OPTION_TYPE)
Jenis tidak valid untuk <key>
. Jenis yang diharapkan dari <key>
adalah jenis <type>
.
PS_BATAS_BACA_TIDAK_VALID
Batas baca tidak valid pada aliran PubSub: <limit>
.
Kesalahan Konversi Baris Tidak Aman dari Proto
UnsafeRow tidak valid untuk mendekode ke PubSubMessageMetadata, skema proto yang diinginkan adalah: <protoSchema>
. Input UnsafeRow mungkin rusak: <unsafeRow>
.
PS_INFO_OTENTIKASI_HILANG
Gagal menemukan informasi autentikasi PubSub lengkap.
PS_KEHILANGAN_OPSI_WAJIB
Tidak dapat menemukan opsi yang diperlukan: <key>
.
KESALAHAN_PENGGESERAN_TITIK_BALIK_PS
Gagal memindahkan file titik pemeriksaan data mentah dari <src>
ke direktori tujuan: <dest>
.
PS_MULTIPLE_AUTH_OPTIONS
Harap berikan kredensial layanan Databricks atau kredensial akun layanan GCP Anda.
PS_BERBAGAI_EPOCH_GAGAL
Aliran PubSub tidak dapat dimulai karena ada lebih dari satu pengambilan data yang gagal: <failedEpochs>
.
PILIHAN_PS_TIDAK_DALAM_BATAS
<key>
harus berada di antara batas berikut (<min>
, <max>
), tidak termasuk kedua batas tersebut.
Berikan Kredensial dengan Opsi
Kluster bersama tidak mendukung autentikasi dengan profil instans. Berikan kredensial ke aliran secara langsung menggunakan .option().
SPEKULASI_PS_SPARK_TIDAK_DIDUKUNG
Konektor sumber PubSub hanya tersedia dalam kluster dengan spark.speculation
dinonaktifkan.
PS_TIDAK_DAPAT_MEMBUAT_LANGGANAN
Terjadi kesalahan saat mencoba membuat langganan <subId>
pada topik <topicId>
. Silakan periksa apakah ada cukup izin untuk membuat langganan dan coba lagi.
PS_UNABLE_TO_PARSE_PROTO
Tidak dapat mengurai byte berseri untuk menghasilkan proto.
PANGGILAN_GET_OFFSET_TIDAK_DIDUKUNG
Fungsi getOffset tidak didukung jika tidak menyertakan batas.
Kesalahan_Sumber_Data_PYTHON
Sumber data Python gagal <action>
<type>
: <msg>
SUMBER_DATA_STREAMING_PYTHON_KESALAHAN_WAKTU_JALAN
Gagal saat sumber data streaming Python melakukan <action>
: <msg>
QUERIED_TABLE_INCOMPATIBLE_WITH_COLUMN_MASK_POLICY
Tidak dapat mengakses tabel yang direferensikan karena masker kolom yang ditetapkan sebelumnya saat ini tidak kompatibel dengan skema tabel; untuk melanjutkan, silakan hubungi pemilik tabel untuk memperbarui kebijakan:
Untuk detail selengkapnya, lihat QUERIED_TABLE_INCOMPATIBLE_WITH_COLUMN_MASK_POLICY
QUERIED_TABLE_TIDAK_SESUAI_DENGAN_KEBIJAKAN_KEAMANAN_TINGKAT_BARIS
Tidak dapat mengakses tabel yang direferensikan karena kebijakan keamanan tingkat baris yang ditetapkan sebelumnya saat ini tidak kompatibel dengan skema tabel; untuk melanjutkan, silakan hubungi pemilik tabel untuk memperbarui kebijakan:
Untuk rincian lebih lanjut, lihat QUERIED_TABLE_INCOMPATIBLE_WITH_ROW_LEVEL_SECURITY_POLICY
WAKTU_EKSEKUSI_KUERIT_MELEBIHI_BATAS
Eksekusi kueri dibatalkan karena melebihi batas waktu (<timeoutSec>
). Anda dapat meningkatkan batas dalam detik dengan mengatur <config>
.
BACA_FILE_SAAT_INI_TIDAK_DITEMUKAN
<message>
Ada kemungkinan file yang mendasar telah diperbarui. Anda dapat secara eksplisit membatalkan cache di Spark dengan menjalankan perintah 'REFRESH TABLE
tableName' di SQL atau dengan membuat ulang Himpunan Data/DataFrame yang terlibat.
Pembacaan_File_Parameter_Rutinitas_Ambigu
Pemanggilan fungsi <functionName>
memiliki <parameterName>
dan <alternativeName>
yang disetel, yang merupakan alias satu sama lain. Silakan atur hanya satu dari mereka.
BACA_TVF_PARAMETER_DIBUTUHKAN_TIDAK_TERDUGA
Parameter <functionName>
yang diperlukan untuk fungsi <parameterName>
harus ditetapkan pada posisi <expectedPos>
tanpa nama.
Kedaluwarsa untuk Penerima Tidak Didukung
Hanya jenis TIMESTAMP
/TIMESTAMP_LTZ
/TIMESTAMP_NTZ
yang didukung untuk tanda waktu kedaluwarsa penerima.
RECURSIVE_PROTOBUF_SCHEMA
Ditemukan referensi rekursif dalam skema Protobuf, yang tidak dapat diproses oleh Spark secara default: <fieldDescriptor>
. coba atur opsi recursive.fields.max.depth
1 ke 10. Melampaui 10 tingkat rekursi tidak diperbolehkan.
Tampilan Rekursif
Tampilan rekursif <viewIdent>
terdeteksi (siklus: <newPath>
).
Nilai default tidak diperbolehkan di dalam partisi
Referensi ke nilai kolom DEFAULT
tidak diizinkan dalam klausa PARTITION
.
RELASI_LEBIH_BESAR_DARI_8G
Tidak bisa membangun <relationName>
yang lebih besar dari 8 GB.
KESALAHAN_FUNGSI_JARAK_JAUH_HTTP_GAGAL
Permintaan HTTP jarak jauh gagal dengan kode <errorCode>
, dan pesan kesalahan <errorMessage>
KESALAHAN_PARSING_HASIL_HTTP_FUNGSI_JARAK_JAUH
Gagal mengevaluasi fungsi SQL <functionName>
karena ketidakmampuan untuk mengurai hasil JSON dari respons HTTP jarak jauh; pesan kesalahan <errorMessage>
. Periksa dokumentasi API: <docUrl>
. Silakan perbaiki masalah yang ditunjukkan dalam pesan kesalahan dan coba lagi kueri.
HASIL_FUNGSI_JARAK_JAUH_HTTP_KESALAHAN_TIDAK_TERDUGA
Gagal mengevaluasi fungsi SQL <functionName>
karena ketidakmampuan untuk memproses respons HTTP jarak jauh yang tidak terduga; pesan kesalahan <errorMessage>
. Periksa dokumentasi API: <docUrl>
. Silakan perbaiki masalah yang ditunjukkan dalam pesan kesalahan dan coba lagi kueri.
Batas Waktu Coba Ulang HTTP Fungsi Jarak Jauh
Permintaan jarak jauh gagal setelah mencoba kembali <N>
kali; kode kesalahan HTTP terakhir yang gagal <errorCode>
dan pesannya <errorMessage>
ERROR: Fungsi remote tidak memenuhi persyaratan
Gagal mengevaluasi fungsi SQL <functionName>
karena <errorMessage>
. Periksa persyaratan di <docUrl>
. Silakan perbaiki masalah yang ditunjukkan dalam pesan kesalahan dan coba lagi kueri.
GANTI_NAMA_SOURC_PATH_TIDAK_DITEMUKAN
Gagal mengganti nama karena <sourcePath>
tidak ditemukan.
KLAUSA_YANG_DIULANG
Klausa <clause>
dapat digunakan paling banyak sekali per operasi <operation>
.
PARAMETER_YANG_DIPERLUKAN_SUDAH_DISIAPKAN_POSISIONAL
Parameter yang diperlukan oleh rutin <routineName>
, yaitu <parameterName>
, telah ditetapkan pada posisi <positionalIndex>
tanpa nama.
Harap perbarui panggilan fungsi dengan menghapus argumen yang diberi nama dengan <parameterName>
untuk parameter ini atau menghapus argumen posisi.
argumen di <positionalIndex>
lalu coba kueri lagi.
Parameter yang Diperlukan Tidak Ditemukan
Tidak dapat memanggil <routineName>
rutin karena parameter bernama <parameterName>
diperlukan, tetapi panggilan rutin tidak menyediakan nilai. Harap perbarui panggilan rutin untuk menyediakan nilai argumen (baik secara posisional pada indeks <index>
atau berdasarkan nama) dan coba lagi kueri.
MEMBUTUHKAN_NAMESPACE_BAGIAN_TUNGGAL
<sessionCatalog>
memerlukan namespace satu bagian, tetapi mendapat <namespace>
.
KONFLIK_KOLOM_DATA_TERSIMPAN_DENGAN_VARIAN_TUNGGAL
Opsi pembaca API DataFrame 'rescuedDataColumn' saling eksklusif dengan opsi API DataFrame 'singleVariantColumn'.
Silakan hapus salah satunya lalu coba lagi operasi DataFrame lagi.
KOLOM_CDC_DISEDIKAN_SAAT_MENULIS
Tulisan berisi kolom yang dicadangkan <columnList>
yang digunakan
secara internal sebagai metadata untuk Umpan Data Perubahan. Untuk menulis ke tabel, ubah nama atau hapus
kolom ini atau nonaktifkan Ubah Umpan Data pada tabel dengan menyetel
<config>
ke false.
PERMISSIONS_OPSI_STREAMING_TERBATAS_DITEGAKAN
Opsi <option>
memiliki nilai terbatas pada kluster Bersama untuk sumber <source>
.
Untuk detail selengkapnya, lihat RESTRICTED_STREAMING_OPTION_PERMISSION_ENFORCED
RUTIN_SUDAH_ADA
Tidak dapat membuat <newRoutineType> <routineName>
karena sudah ada <existingRoutineType>
nama tersebut.
Pilih nama yang berbeda, jatuhkan atau ganti <existingRoutineType>
yang ada, atau tambahkan klausa IF NOT EXISTS
untuk mentolerir <newRoutineType>
yang sudah ada sebelumnya.
RUTIN_TIDAK_DITEMUKAN
Rutin <routineName>
tidak dapat ditemukan. Verifikasi ejaan dan kebenaran skema dan katalog.
Jika Anda tidak menentukan nama dengan skema dan katalog, verifikasi output current_schema(), atau tentukan nama dengan skema dan katalog yang benar.
Untuk mengabaikan kesalahan saat menjalankan drop, gunakan DROP
...
IF EXISTS
.
ROUTINE_PARAMETER_TIDAK_DITEMUKAN (ROUTINE_PARAMETER_NOT_FOUND)
<routineName>
fungsi rutin tidak mendukung parameter <parameterName>
yang ditentukan pada posisi <pos>
.<suggestion>
PENGGUNAAN_RUTIN_NAMA_KELAS_CADANGAN_SISTEM
Fungsi <routineName>
tidak dapat dibuat karena nama kelas yang ditentukan '<className>
' dicadangkan untuk penggunaan sistem. Ganti nama kelas dan coba lagi.
KETIDAKCOCOKAN_KEAMANAN_TINGKAT_BARIS_ABAC
Filter baris tidak dapat diselesaikan pada <tableName>
karena ada ketidakcocokan antara filter baris yang diwarisi dari kebijakan dan filter baris yang ditentukan secara eksplisit. Untuk melanjutkan, nonaktifkan Kontrol Akses Berbasis Atribut (ABAC) dan hubungi dukungan Databricks.
ROW_LEVEL_SECURITY_CHECK_CONSTRAINT_UNSUPPORTED
Pembuatan pembatasan CHECK
pada tabel <tableName>
dengan kebijakan keamanan tingkat baris tidak didukung.
NAMA_KOLOM_DUPLIKAT_KEAMANAN_TINGKAT_BARIS
Pernyataan <statementType>
mencoba menetapkan kebijakan keamanan tingkat baris ke tabel, tetapi dua atau beberapa kolom yang direferensikan memiliki nama yang sama <columnName>
, yang tidak valid.
FITUR_KEAMANAN_TINGKAT_BARIS_TIDAK_DIDUKUNG
Kebijakan keamanan tingkat baris untuk <tableName>
tidak didukung:
Untuk informasi lebih lanjut, lihat ROW_LEVEL_SECURITY_FEATURE_NOT_SUPPORTED
PERUBAHAN_SKEMA_TIDAK_KOMPATIBEL_KEAMANAN_LEVEL_BARIS
Tidak dapat menghapus <statementType> <columnName>
dari tabel <tableName>
karena merujuk pada kebijakan keamanan tingkat baris. Pemilik tabel harus menghapus atau mengubah kebijakan ini sebelum melanjutkan.
PENGGABUNGAN_KEAMANAN_TINGKAT_BARIS_SAAT_INI_TIDAK_DIDUKUNG_SENI
Operasi MERGE INTO
tidak mengakomodasi kebijakan keamanan tingkat baris di tabel sumber <tableName>
.
Penggabungan Target Tidak Didukung oleh Keamanan Tingkat Baris
Operasi MERGE INTO
tidak mendukung penulisan ke dalam tabel <tableName>
dengan kebijakan keamanan pada tingkat baris.
NAMA KOLOM MULTI-BAGIAN KEAMANAN TINGKAT BARIS
Pernyataan ini mencoba menetapkan kebijakan keamanan tingkat baris ke tabel, tetapi kolom yang direferensikan <columnName>
memiliki beberapa bagian nama, yang tidak valid.
ROW_LEVEL_SECURITY_REQUIRE_UNITY_CATALOG
Kebijakan keamanan tingkat baris hanya didukung di Katalog Unity.
ROW_LEVEL_SECURITY_SHOW_PARTITIONS_UNSUPPORTED
perintah SHOW PARTITIONS
tidak didukung untuk tabel<format>
dengan kebijakan keamanan tingkat baris.
Sumber Kloning Tabel Keamanan Tingkat Baris Tidak Didukung
<mode>
mengkloning tabel <tableName>
dengan kebijakan keamanan tingkat baris tidak didukung.
Keamanan_tingkat_baris_tabel_kloning_target_tidak_didukung
<mode>
mengkloning tabel ke <tableName>
dengan kebijakan keamanan pada tingkat baris tidak didukung.
KEAMANAN_TINGKAT_BARIS_KONSTANTA_TIDAK_DIDUKUNG_SEBAGAI_PARAMETER
Menggunakan konstanta sebagai parameter dalam kebijakan keamanan tingkat baris tidak didukung. Perbarui perintah SQL Anda untuk menghapus konstanta dari definisi filter baris lalu coba lagi perintah tersebut.
KEAMANAN_TINGKAT_BARIS_PENYEDIA_TIDAK_DIDUKUNG
Gagal menjalankan perintah <statementType>
karena menetapkan kebijakan keamanan tingkat baris tidak didukung untuk sumber data target dengan penyedia tabel: "<provider>
".
Kueri Baris Sub: Terlalu Banyak Baris
Lebih dari satu baris dikembalikan oleh subkueri yang digunakan untuk satu baris.
NILAI_BARIS_ADALAH_NULL
Ditemukan NULL
pada baris di indeks <index>
, mengharapkan nilai bukanNULL
.
ID_aturan_tidak_ditemukan
Tidak ditemukan id untuk nama aturan "<ruleName>
". Silakan ubah RuleIdCollection.scala jika Anda menambahkan aturan baru.
PERIZINAN_TABEL_CONTOH
Izin tidak didukung pada database/tabel sampel.
FUNGSI_SKALAR_TIDAK_KOMPATIBEL
ScalarFunction <scalarFunc>
tidak mengesampingkan metode 'produceResult(InternalRow)' dengan implementasi kustom.
FUNGSI_SKALAR_TIDAK_SEPENUHNYA_DIREALISASIKAN
ScalarFunction <scalarFunc>
tidak menerapkan atau mengambil alih metode 'produceResult(InternalRow)'.
SUBQUERY_SKALAR_ADA_DI_GROUP_BY_ATAU_FUNGSI_AGREGAT
Subkueri skalar berkorelasi '<sqlExpr>
' tidak ada dalam GROUP BY
, atau dalam fungsi agregat.
Tambahkan elemen ke GROUP BY
sesuai posisi ordinal atau bungkus dengan first()
(atau first_value
) jika Anda tidak mempermasalahkan nilai yang diperoleh.
SCALAR_SUBQUERY_TOO_MANY_ROWS
Lebih dari satu baris yang dikembalikan oleh subkueri yang digunakan sebagai ekspresi.
JADWAL_SUDAH_ADA
Tidak dapat menambahkan <scheduleType>
ke tabel yang sudah memiliki <existingScheduleType>
. Silakan hilangkan jadwal yang ada atau gunakan ALTER TABLE
...
ALTER <scheduleType>
... untuk mengubahnya.
PERIODE PENJADWALAN TIDAK VALID
Periode jadwal untuk <timeUnit>
harus berupa nilai bilangan bulat antara 1 dan <upperBound>
(inklusif). Diterima: <actual>
.
Skema sudah ada
Tidak dapat membuat <schemaName>
skema karena sudah ada.
Pilih nama yang berbeda, hapus skema yang ada, atau tambahkan klausa IF NOT EXISTS
untuk memperbolehkan skema yang sudah ada sebelumnya.
SCHEMA_NOT_EMPTY
Tidak dapat menghapus skema <schemaName>
karena berisi objek.
Gunakan DROP SCHEMA
...
CASCADE
untuk menghilangkan skema dan semua objeknya.
SCHEMA_NOT_FOUND
Skema <schemaName>
tidak dapat ditemukan. Verifikasi ejaan dan kebenaran skema dan katalog.
Jika Anda tidak menetapkan kualifikasi nama dengan katalog, periksa output dari current_schema(), atau tetapkan kualifikasi nama dengan katalog yang benar.
Untuk mentolerir kesalahan saat drop, gunakan DROP SCHEMA IF EXISTS
.
KESALAHAN_KONFIGURASI_SKEMA_REGISTRI
Skema di dalam registri tidak dapat diinisialisasi.
<reason>
.
SECOND_FUNCTION_ARGUMENT_NOT_INTEGER
Argumen kedua dari fungsi <functionName>
harus berupa bilangan bulat.
FUNGSI_RAHASIA_LOKASI_TIDAK_VALID
Tidak dapat menjalankan perintah <commandType>
dengan satu atau beberapa referensi yang tidak dienkripsi ke fungsi SECRET
; harap enkripsi hasil dari setiap panggilan fungsi tersebut dengan AES_ENCRYPT
dan coba perintah lagi
SEED_EKSPRESI_TIDAK_DAPAT_DIPERLUAS
Ekspresi benih <seedExpr>
ekspresi <exprWithSeed>
harus dapat dilipat.
SERVER_SEDANG_SIBUK
Server sibuk dan tidak dapat menangani permintaan. Silakan tunggu sebentar dan coba lagi.
TAMPILKAN_KOLOM_DENGAN_NAMESPACE_KONFLIK
SHOW COLUMNS
dengan namespace yang bertentangan: <namespaceA>
!= <namespaceB>
.
Urutkan_Tanpa_Pembagian
sortBy harus digunakan bersama dengan bucketBy.
PEKERJAAN_SPARK_DIBATALKAN
Pekerjaan <jobId>
dibatalkan <reason>
Menentukan pembagian tidak diizinkan
CREATE TABLE
tanpa daftar kolom eksplisit tidak dapat menentukan informasi wadah.
Silakan gunakan form dengan daftar kolom eksplisit dan tentukan informasi pengelompokan.
Atau, biarkan informasi bucketing disimpulkan dengan cara menghilangkan klausul.
Menentukan "cluster by" dengan "bucketing" tidak diperbolehkan.
Tidak dapat menentukan CLUSTER BY
dan CLUSTERED BY INTO BUCKETS
.
Penentuan CLUSTER BY bersama PARTITIONED BY tidak diizinkan.
Tidak dapat menentukan CLUSTER BY
dan PARTITIONED BY
.
SPESIFIKASI_PARTISI_TIDAK_DIPERBOLEHKAN
CREATE TABLE
tanpa daftar kolom eksplisit tidak dapat menentukan PARTITIONED BY
.
Silakan gunakan formulir dengan daftar kolom eksplisit dan tentukan PARTITIONED BY
.
Atau, izinkan partisi disimpulkan dengan menghilangkan klausa PARTITION BY
.
SQL_CONF_NOT_FOUND (Konfigurasi SQL Tidak Ditemukan)
Konfigurasi SQL <sqlConf>
tidak dapat ditemukan. Harap verifikasi bahwa konfigurasi ada.
JALUR_PENTAS_SAAT_INI_TIDAK_TERSEDIA
Kesalahan sementara saat mengakses jalur staging target <path>
, silakan coba lagi dalam beberapa menit
STAR_GROUP_BY_POS
Bintang (*) tidak diperbolehkan dalam daftar pilih saat GROUP BY
urutan ordinal digunakan.
PROSESOR_KEADAAN_TIDAK_DAPAT_MELAKUKAN_OPERASI_DENGAN_KEADAAN_HANDLE_TIDAK_VALID
Gagal melakukan operasi prosesor stateful=<operationType>
dengan status handle tidak valid=<handleState>
.
PROSESOR_BERSTATUS_TIDAK_DAPAT_MELAKUKAN_OPERASI_DENGAN_MODE_WAKTU_TIDAK_VALID
Gagal melakukan operasi prosesor stateful=<operationType>
dengan timeMode yang tidak valid=<timeMode>
PROSESOR_BERSTATUS_DUPLIKASI_VARIABEL_STATUS_DITENTUKAN
Variabel status dengan nama <stateVarName>
telah ditentukan dalam StatefulProcessor.
PROSESOR_STATEFUL_MODUS_WAKTU_SALAH_UNTUK_MENETAPKAN_TTL
Tidak dapat menggunakan TTL untuk state=<stateName>
di timeMode=<timeMode>
, gunakan TimeMode.ProcessingTime() sebagai gantinya.
DURASI_TTL_PROSESOR_BERSTATUS_HARUS_POSITIF
Durasi TTL harus lebih besar dari nol untuk operasi penyimpanan status=<operationType>
pada status=<stateName>
.
PROSESOR_BERSTATUS_MODE_WAKTU_TIDAK_DIKENAL
Mode waktu yang tidak diketahui <timeMode>
. Mode timeMode yang dapat diterima adalah opsi 'none', 'processingTime', 'eventTime'.
STATE_STORE_TIDAK_BISA_MEMBUAT_KELUARGA_KOLOM_DENGAN_KARAKTER_YANG_DICADANGKAN
Gagal membuat keluarga kolom dengan karakter awal dan nama yang tidak didukung=<colFamilyName>
.
TIDAK DAPAT MENGGUNAKAN KELUARGA KOLOM DENGAN NAMA TIDAK VALID DI TAHANAN NEGARA
Gagal melakukan operasi keluarga kolom=<operationName>
dengan nama yang tidak valid=<colFamilyName>
. Nama keluarga kolom tidak boleh kosong atau menyertakan spasi di depan/belakang atau gunakan kata kunci yang dicadangkan=default
STATE_STORE_COLUMN_FAMILY_SCHEMA_INCOMPATIBLE
Transformasi skema yang tidak kompatibel dengan keluarga kolom=<colFamilyName>
, oldSchema=<oldSchema>
, newSchema=<newSchema>
.
TOKO_STATUS_TIDAK_MENDUKUNG_ITERATOR_DAPAT_DIPAKAI_ULANG
StateStore <inputClass>
tidak mendukung iterator yang dapat digunakan kembali.
PENANGANAN_TOKO_STATUS_BELUM_DINISIALISASI
Pegangan belum diinisialisasi untuk StatefulProcessor.
Harap hanya gunakan StatefulProcessor dalam operator transformWithState.
JUMLAH_KOLOM_URUTAN_TIDAK_TEPAT_DI_STATE_STORE_UNTUK_PEMINDAIAN_RENTANG
Jumlah ordinal urutan yang salah yakni<numOrderingCols>
untuk encoder pemindaian rentang. Jumlah ordinal pengurutan tidak boleh nol atau lebih besar dari jumlah kolom skema.
Jumlah kolom awalan yang salah untuk pemindaian awalan di penyimpanan status
Jumlah kolom prefiks yang salah=<numPrefixCols>
untuk encoder pemindaian prefiks. Kolom awalan tidak boleh nol atau lebih besar dari atau sama dengan num kolom skema.
STATE_STORE_INVALID_CONFIG_AFTER_RESTART
Tidak dapat mengubah <configName>
dari <oldConfig>
ke <newConfig>
di antara mulai ulang. Atur <configName>
ke <oldConfig>
, atau mulai ulang dengan direktori titik pemeriksaan baru.
PENYEDIA_TIDAK_VALID_TOKO_STATUS
Penyedia Penyimpanan Status yang diberikan <inputClass>
tidak memperluas org.apache.spark.sql.execution.streaming.state.StateStoreProvider.
PERUBAHAN_JENIS_VARIBA_TIDAK_VALID_PADA_PENYIMPANAN_STATUS
Tidak dapat mengubah <stateVarName>
menjadi <newType>
di antara mulai ulang kueri. Atur <stateVarName>
ke <oldType>
, atau mulai ulang dengan direktori titik pemeriksaan baru.
PENYIMPANAN_STATUS_KOLOM_PENGURUTAN_JENIS_NULL_TIDAK_DIDUKUNG
Kolom pengurutan tipe null dengan nama=<fieldName>
pada indeks=<index>
tidak didukung untuk pengkodean pemindaian rentang.
Penyedia Penyimpanan Negara Tidak Mendukung Pemutaran Kembali Status Secara Detail
Penyedia Penyimpanan Status yang diberikan <inputClass>
tidak mendukung org.apache.spark.sql.execution.streaming.state.SupportsFineGrainedReplay.
Oleh karena itu, ini tidak mendukung opsi snapshotStartBatchId atau readChangeFeed di sumber data status.
AMBANG_BATAS_BERKAS_SKEMA_STATUS_PENYIMPANAN_STATUS_TERLAMPAUI
Jumlah file skema status <numStateSchemaFiles>
melebihi jumlah maksimum file skema status untuk kueri ini: <maxStateSchemaFiles>
.
Ditambahkan: <addedColumnFamilies>
, Dihapus: <removedColumnFamilies>
Silakan atur 'spark.sql.streaming.stateStore.stateSchemaFilesThreshold' ke angka yang lebih tinggi, atau kembalikan perubahan skema status.
OPERASI_TIDAK_DIDUKUNG_PADA_KOLOM_KELUARGA_YANG_HILANG_DI_PENYIMPANAN_STATUS
Operasi penyimpanan status=<operationType>
tidak didukung pada keluarga kolom yang hilang=<colFamilyName>
.
Batas Evolusi Skema Nilai di Toko Status Terlampaui
Jumlah evolusi skema status <numSchemaEvolutions>
melebihi jumlah maksimum evolusi skema status, <maxSchemaEvolutions>
, yang diizinkan untuk keluarga kolom ini.
Keluarga kolom yang bermasalah: <colFamilyName>
Atur 'spark.sql.streaming.stateStore.valueStateSchemaEvolutionThreshold' ke angka yang lebih tinggi, atau kembalikan modifikasi skema status
KOLOM_PENYIMPAN_STATUS_BERVARIABEL_TIDAK_MENDUKUNG_PENGURUTAN
Kolom pengurutan ukuran variabel dengan nama=<fieldName>
pada indeks=<index>
tidak didukung untuk encoder pemindaian rentang.
Kolom Partisi Statis dalam Daftar Kolom Insert
Kolom partisi statis <staticName>
juga ditentukan dalam daftar kolom.
STDS_COMMITTED_BATCH_UNAVAILABLE
Tidak ada batch berkomitmen yang ditemukan, lokasi titik pemeriksaan: <checkpointLocation>
. Pastikan bahwa kueri telah dijalankan dan setiap mikrobatch telah dikomit sebelum berhenti.
STDS_CONFLICT_OPTIONS
Opsi <options>
tidak dapat ditentukan bersama-sama. Tentukan yang satu.
GAGAL_MEMBACA_METADATA_OPERATOR
Gagal membaca metadata operator untuk checkpointLocation=<checkpointLocation>
dan batchId=<batchId>
.
File tidak ada, atau file rusak.
Jalankan ulang kueri streaming untuk membuat metadata operator, dan laporkan ke komunitas atau vendor terkait jika kesalahan berlanjut.
STDS_GAGAL_MEMBACA_SKEMA_STATUS
Gagal membaca skema status. File tidak ada, atau file rusak. opsi: <sourceOptions>
.
Jalankan ulang kueri streaming untuk membuat skema status, dan laporkan ke komunitas atau vendor yang sesuai jika kesalahan berlanjut.
STDS_INVALID_OPTION_VALUE
Nilai tidak valid untuk opsi sumber '<optionName>
':
Untuk informasi lebih lanjut, lihat STDS_INVALID_OPTION_VALUE
Tidak Ada Partisi yang Ditemukan di State Store
Status tidak memiliki partisi apa pun. Silakan periksa kembali apakah kueri menunjuk ke status yang valid. opsi: <sourceOptions>
STDS_OFFSET_LOG_TIDAK_TERSEDIA
Log offset untuk <batchId>
tidak ada, lokasi cek poin: <checkpointLocation>
.
Tentukan ID batch yang tersedia untuk kueri - Anda dapat mengkueri ID batch yang tersedia melalui menggunakan sumber data metadata status.
Log Metadata Offset STDS Tidak Tersedia
Metadata tidak tersedia untuk log offset untuk <batchId>
, lokasi titik pemeriksaan: <checkpointLocation>
.
Titik pemeriksaan tampaknya hanya dijalankan dengan versi Spark yang lebih lama. Jalankan kueri streaming dengan versi Spark terbaru, sehingga Spark membuat metadata status.
STDS_REQUIRED_OPTION_UNSPECIFIED
'<optionName>
' harus ditentukan.
STREAMING_AQE_TIDAK_DIDUKUNG_UNTUK_OPERATOR_STATEFUL
Eksekusi Kueri Adaptif tidak didukung untuk operator stateful dalam Streaming Terstruktur.
STREAMING_DARI_TAMPILAN_MATERIALISASI
Tidak dapat melakukan streaming dari tampilan terwujud <viewName>
. Streaming dari tampilan materialisasi tidak didukung.
STREAMING_OUTPUT_MODE
Mode output streaming tidak valid: <outputMode>
.
Untuk informasi lebih lanjut, lihat STREAMING_OUTPUT_MODE
MODE_STREAMING_WAKTU_NYATA
Mode streaming real-time memiliki batasan berikut:
Untuk mengetahui detail lebih lanjut, lihat STREAMING_REAL_TIME_MODE
STATUS_STREAMING_OPERATOR_YANG_MENYIMPAN_DATA_TIDAK_SESUAI_DALAM_METADATA_STATUS
Nama operator streaming stateful tidak cocok dengan operator dalam metadata status. Ini kemungkinan terjadi ketika pengguna menambahkan/menghapus/mengubah operator stateful dari kueri streaming yang ada.
Operator stateful pada metadata: [<OpsInMetadataSeq>
]; Operator stateful pada batch saat ini: [<OpsInCurBatchSeq>
].
TABEL_STREAMING_MEMBUTUHKAN_PEMBARUAN
tabel streaming <tableName>
perlu di-refresh untuk menjalankan <operation>
.
Jika tabel dibuat dari DBSQL
, jalankan REFRESH <st>
.
Jika tabel dibuat oleh aliran data di Delta Live Tables, silakan perbarui aliran data tersebut.
TABEL_STREAMING_TIDAK_DIDUKUNG
tabel streaming hanya dapat dibuat dan disegarkan di Delta Live Tables dan Databricks SQL Warehouses.
OPERASI_TABEL_STREAMING_TIDAK_DIIJINKAN
Operasi <operation>
tidak diperbolehkan:
Untuk detail lebih lanjut, lihat STREAMING_TABLE_OPERATION_NOT_ALLOWED
STREAMING_TABLE_QUERY_INVALID
Tabel streaming <tableName>
hanya bisa dibuat dari sebuah kueri streaming. Tambahkan kata kunci STREAM
ke klausa FROM
Anda untuk mengubah hubungan ini menjadi kueri streaming.
ALIRAN_TIDAK_DITEMUKAN_UNTUK_SUMBER_KINESIS
Aliran Kinesis <streamName>
di <region>
tidak ditemukan.
Silakan mulai kueri baru yang mengarah ke nama stream yang benar.
Ketidakcocokan Panjang Array Struktur
Baris input tidak memiliki jumlah nilai yang diharapkan yang diperlukan oleh skema. bidang <expected>
diperlukan jika nilai <actual>
disediakan.
JUMLAH_BATAS_DAN_OFFSET_MELEBIHI_INT_MAKS
Jumlah klausa LIMIT
dan klausul OFFSET
tidak boleh lebih besar dari nilai bilangan bulat maksimum 32-bit (2.147.483.647) tetapi batas yang ditemukan = <limit>
, offset = <offset>
.
Hanya Sinkronisasi Metadata Delta
Perintah sinkronisasi metadata tabel hanya didukung untuk tabel delta.
Sinkronisasi_Sumber_Target_Tabel_Tidak_Sama
Nama tabel sumber <srcTable>
harus sama dengan nama tabel tujuan <destTable>
.
SYNTAX_DISCONTINUED
Dukungan klausa atau kata kunci: <clause>
telah dihentikan dalam konteks ini.
Untuk informasi lebih lanjut, lihat SYNTAX_DISCONTINUED
TABEL_OR_VIEW_SUDAH_ADA
Tidak dapat membuat tabel atau menampilkan <relationName>
karena sudah ada.
Pilih nama yang berbeda, hapus objek yang ada, tambahkan klausa IF NOT EXISTS
untuk mentolerir objek yang sudah ada sebelumnya, tambahkan klausa OR REPLACE
untuk mengganti tampilan materialisasi yang ada, atau tambahkan klausa OR REFRESH
untuk memperbarui tabel streaming yang ada.
TABEL_ATAU_TAMPILAN_TIDAK_DITEMUKAN
Tabel atau tampilan <relationName>
tidak dapat ditemukan. Verifikasi ejaan dan kebenaran skema dan katalog.
Jika Anda tidak memenuhi syarat nama dengan skema, verifikasi output current_schema(), atau memenuhi syarat nama dengan skema dan katalog yang benar.
Untuk mentolerir kesalahan saat drop, gunakan DROP VIEW IF EXISTS
atau DROP TABLE IF EXISTS
.
Untuk informasi lebih lanjut, lihat TABLE_OR_VIEW_NOT_FOUND
ARGUMEN_BERBENTUK_TABEL_BELUM_DIIMPLEMENTASIKAN_UNTUK_FUNGSI_SQL
Tidak dapat <action>
fungsi buatan pengguna SQL <functionName>
dengan argumen TABLE
karena fungsionalitas ini belum diimplementasikan.
FUNGSI_BERNILAI_TABEL_GAGAL_DIPERIKSA_DI_PYTHON
Gagal menganalisis fungsi tabel yang ditentukan pengguna Python: <msg>
FUNGSI_BERNILAI_TABEL_METADATA_YANG_DIPERLUKAN_TIDAK_KOMPATIBEL_DENGAN_PANGGILAN
Gagal mengevaluasi fungsi tabel <functionName>
karena metadata tabelnya <requestedMetadata>
, tetapi panggilan fungsi <invalidFunctionCallProperty>
.
FUNGSI_DENGAN_TABEL_METADATA_DIBUTUHKAN_TIDAK_VALID
Gagal mengevaluasi fungsi tabel <functionName>
karena metadata tabelnya tidak valid; <reason>
.
FUNGSI_BERBASIS_TABEL_TERLALU_BANYAK_ARGUMEN_TABEL
Ada terlalu banyak argumen tabel untuk fungsi bernilai tabel.
Fungsi ini memungkinkan satu argumen tabel, tetapi menerima: <num>
.
Jika Anda ingin mengizinkannya, atur "spark.sql.allowMultipleTableArguments.enabled" ke "true"
TABEL_DENGAN_ID_TIDAK_DITEMUKAN
Tabel dengan ID <tableId>
tidak dapat ditemukan. Verifikasi kebenaran UUID.
Tugas Penulisan Gagal
Tugas gagal saat menulis baris data ke <path>
.
TABEL_SEMENTARA_ATAU_TAMPILAN_SUDAH_ADA
Tidak dapat membuat tampilan sementara <relationName>
karena sudah ada.
Pilih nama yang berbeda, hilangkan atau ganti tampilan yang ada, atau tambahkan klausa IF NOT EXISTS
untuk mentolerir tampilan yang sudah ada sebelumnya.
NAMA_TEMP_VIEW_TERLALU_BANYAK_BAGIAN_NAMA
CREATE TEMPORARY VIEW
atau API Dataset yang sesuai hanya menerima nama tampilan satu bagian, tetapi menerima: <actualName>
.
KOMA_TERAKHIR_DALAM_SELECT
Koma berikutnya terdeteksi dalam klausa SELECT
. Hapus koma berikutnya sebelum klausa FROM
.
TRIGGER_INTERVAL_INVALID
Interval pemicu harus berupa durasi positif yang dapat dikonversi menjadi seluruh detik. Diterima: <actual>
detik.
UC_BUCKETED_TABLES
Tabel yang dikelompokkan dalam bucket tidak didukung di Unity Catalog.
Nama_katalog_UC_tidak_disediakan
Untuk Katalog Unity, tentukan nama katalog secara eksplisit. Misalnya SHOW GRANT your.address@email.com ON CATALOG
utama.
UC_COMMAND_NOT_SUPPORTED
Perintah: <commandName>
tidak didukung di Katalog Unity.
Untuk detail selengkapnya, lihat UC_COMMAND_NOT_SUPPORTED
UC_PERINTAH_TIDAK_DIDUKUNG_DALAM_SERVERLESS
Perintah <commandName>
tidak didukung untuk kluster Katalog Unity dalam lingkungan tanpa server. Gunakan satu pengguna atau kluster bersama sebagai gantinya.
UC_COMMAND_NOT_SUPPORTED_IN_SHARED_ACCESS_MODE (Perintah UC tidak didukung dalam mode akses bersama)
Perintah-perintah: <commandName>
tidak didukung untuk klaster Katalog Unity dalam mode akses bersama. Gunakan mode akses pengguna tunggal sebagai gantinya.
Tujuan Kredensial UC Tidak Didukung
Jenis kredensial yang ditentukan tidak didukung.
SUMBER_DATA_UC_TIDAK_DIDUKUNG
Format sumber data <dataSourceFormatName>
tidak didukung di Unity Catalog.
UC_DATASOURCE_OPTIONS_TIDAK_DIDUKUNG
Opsi sumber data tidak didukung di Katalog Unity.
Volume Eksternal Tidak Ditemukan Lokasinya
klausa LOCATION
harus ada untuk volume eksternal. Silakan periksa sintaksis 'CREATE EXTERNAL VOLUME
...
LOCATION
...' untuk membuat volume eksternal.
UC_GAGAL_STATUS_PENYEDIAAN
Kueri gagal karena mencoba merujuk ke tabel <tableName>
tetapi tidak dapat melakukannya: <failureReason>
. Perbarui tabel <tableName>
untuk memastikan tabel berada dalam status Provisi aktif lalu coba lagi kueri tersebut.
Skema_BERKAS_UC_UNTUK_PEMBUATAN_TABEL_TIDAK_DIDUKUNG
Membuat tabel di Unity Catalog dengan skema file <schemeName>
tidak didukung.
Sebagai gantinya, buat koneksi sumber data federasi menggunakan perintah CREATE CONNECTION
untuk penyedia tabel yang sama, lalu buat katalog berdasarkan koneksi dengan perintah CREATE FOREIGN CATALOG
untuk mereferensikan tabel di dalamnya.
UC_HIVE_METASTORE_FEDERATION_CROSS_CATALOG_VIEW_TIDAK_DIDUKUNG
Tampilan Federasi Metastore Apache Hive tidak mendukung dependensi antar beberapa katalog. Tampilan <view>
di katalog Federasi Metastore Hive harus menggunakan dependensi dari katalog hive_metastore atau spark_catalog, tetapi dependensinya <dependency>
berada di katalog lain <referencedCatalog>
. Perbarui dependensi untuk memenuhi batasan ini lalu coba lagi kueri atau perintah Anda.
Federation Metastore Hive Tidak Diaktifkan
Federasi Apache Hive Metastore tidak diaktifkan pada kluster ini.
Mengakses katalog <catalogName>
tidak didukung pada kluster ini
UC_KETIDAKVALIDAN_DEPENDENSI
Dependensi <viewName>
dicatat sebagai <storedDeps>
saat diuraikan sebagai <parsedDeps>
. Ini kemungkinan terjadi melalui penggunaan API non-SQL yang tidak tepat. Anda dapat memperbaiki dependensi di Databricks Runtime dengan menjalankan ALTER VIEW <viewName>
AS <viewText>
.
UC_INVALID_NAMESPACE
Namespace berlapis atau kosong tidak didukung di Katalog Unity.
UC_REFERENSI_TIDAK_VALID
Objek non-Unity-Catalog <name>
tidak dapat dirujuk dalam objek Katalog Unity.
Penulisan di Federasi Lakehouse Tidak Diizinkan
Dukungan tulis Unity Catalog Lakehouse Federation tidak diaktifkan untuk penyedia <provider>
pada kluster ini.
LOKASI_UC_UNTUK_VOLUME_TERKELOLA_TIDAK_DIDUKUNG
Volume yang dikelola tidak menerima klausa LOCATION
. Silakan periksa sintaks 'CREATE VOLUME
...' untuk membuat volume terkelola.
UC_NOT_ENABLED
Katalog Unity tidak diaktifkan pada kluster ini.
Federasi Kuery UC Tidak Diaktifkan
Federasi Kueri Katalog Unity tidak diaktifkan pada kluster ini.
Kredensial layanan UC tidak aktif
Kredensial layanan tidak diaktifkan pada kluster ini.
UC_VOLUMES_TIDAK_DIAKTIFKAN
Dukungan untuk Unity Catalog Volumes tidak diaktifkan pada instance ini.
BERBAGI_VOLUME_TIDAK_DIAKTIFKAN
Dukungan untuk Berbagi Volume tidak diaktifkan pada instans ini.
UC_VOLUME_TIDAK_DITEMUKAN
Volume <name>
tidak ada. Silakan gunakan 'SHOW VOLUMES
' untuk mencantumkan volume yang tersedia.
KESALAHAN_LINGKUNGAN_UDF
Gagal menginstal dependensi UDF untuk <udfName>
.
Untuk detail selengkapnya, lihat UDF_ENVIRONMENT_ERROR
UDF_ERROR
SQLSTATE: tidak ada yang ditetapkan
Eksekusi fungsi <fn>
gagal
Untuk detail selengkapnya, lihat UDF_ERROR
UDF_LIMITS
Satu atau beberapa batas UDF dilanggar.
Untuk detail selengkapnya, lihat UDF_LIMITS
UDF_MAX_COUNT_EXCEEDED (Jumlah Maksimum UDF Terlampaui)
Melebihi batas UDF sekueri dengan batas <maxNumUdfs>
UDF (diberlakukan selama pratinjau publik). Ditemukan <numUdfs>
. UDF adalah: <udfNames>
.
UDF_PYSPARK_ERROR
Pekerja Python keluar secara tak terduga
Untuk detail selengkapnya, lihat UDF_PYSPARK_ERROR
UDF_PYSPARK_UNSUPPORTED_TYPE
PySpark UDF <udf> (<eval-type>
) tidak didukung pada kluster dalam mode Akses bersama.
UDF_PYSPARK_USER_CODE_ERROR
Eksekusi gagal.
Untuk detail selengkapnya, lihat UDF_PYSPARK_USER_CODE_ERROR
UDF_UNSUPPORTED_PARAMETER_DEFAULT_VALUE
Nilai default parameter tidak didukung untuk fungsi <functionType>
yang ditentukan pengguna.
UDF_USER_CODE_ERROR
Eksekusi fungsi <fn>
gagal.
Untuk detail selengkapnya, lihat UDF_USER_CODE_ERROR
KETIDAKCOCOKAN_NOMOR_ALIAS_UDTF
Jumlah alias yang disediakan dalam klausul AS tidak sesuai dengan jumlah kolom yang dihasilkan oleh UDTF.
Alias <aliasesSize>
yang diharapkan, tetapi yang didapat adalah <aliasesNames>
.
Pastikan bahwa jumlah alias yang disediakan cocok dengan jumlah output kolom oleh UDTF.
UDTF_TIDAK_VALID_ALIAS_DALAM_DIMINTA_STRING_PENYUSUNAN_DARI_METODE_ANALISA
Gagal mengevaluasi fungsi tabel yang ditentukan pengguna karena metode 'analisis' mengembalikan OrderingColumn yang diminta yang ekspresi nama kolomnya menyertakan alias yang tidak perlu <aliasName>
; silakan hapus alias ini lalu coba kueri lagi.
UDTF_EKSPRESI_YANG_DIPILIH_TIDAK_VALID_DARI_METODE_ANALISIS_MEMERLUKAN_ALIAS
Gagal mengevaluasi fungsi tabel yang ditentukan pengguna karena metode 'analisis' mengembalikan ekspresi 'pilih' yang diminta (<expression>
) yang tidak menyertakan alias yang sesuai; harap perbarui UDTF untuk menentukan alias di sana lalu coba kueri lagi.
TIDAK DAPAT MEMPEROLEH MEMORI
Tidak dapat memperoleh <requestedBytes>
byte memori, hanya mendapatkan <receivedBytes>
.
Tidak dapat mengonversi ke tipe pesan Protobuf
Tidak dapat mengonversi jenis SQL <toType>
ke tipe Protobuf <protobufType>
.
TIDAK_BISA_MENDAPATKAN_TABEL_HIVE
Tidak dapat mengambil tabel basis data Hive: <dbName>
. Nama Kelas Kesalahan: <className>
.
TIDAK DAPAT MENDUGA SKEMA
Tidak dapat menyimpulkan skema untuk <format>
. Ini harus ditentukan secara manual.
Akses Tanpa Izin
Akses tidak sah:
<report>
UNBOUND_SQL_PARAMETER
Menemukan parameter tidak terikat: <name>
. Silakan, perbaiki args
dan berikan pemetaan parameter ke fungsi konstruktor literal atau koleksi SQL seperti map()
, array()
, struct()
.
UNCLOSED_BRACKETED_COMMENT
Menemukan komentar berkurung yang tidak tertutup. Harap tambahkan */ di akhir komentar.
TIPE_INPUT_TIDAK_TERDUGA
Parameter <paramIndex>
fungsi <functionName>
memerlukan jenis <requiredType>
, namun <inputSql>
memiliki jenis <inputType>
.
TIPE_INPUT_TIDAK_TERDUGA_DARI_PARAMETER_BERNAMA
Parameter <namedParamKey>
fungsi <functionName>
memerlukan jenis <requiredType>
, namun <inputSql>
memiliki jenis <inputType>
.<hint>
OPERATOR_TAK_TERDUGA_DALAM_TAMPILAN_STREAMING
Operator yang tidak terduga <op>
dalam pernyataan CREATE VIEW
sebagai sumber streaming.
Kueri tampilan streaming hanya boleh terdiri dari operasi SELECT
, WHERE
, dan UNION ALL
.
Argumen_posisi_tidak_diharapkan
Tidak dapat memanggil rutin <routineName>
karena berisi argumen posisi setelah argumen bernama yang ditetapkan ke <parameterName>
; harap susun ulang agar argumen posisi menjadi yang pertama, kemudian coba lagi mengeksekusi kuerinya.
PENYERIAL TAK TERDUGA UNTUK KELAS
Kelas <className>
memiliki serializer ekspresi yang tidak terduga. Mengharapkan "STRUCT
" atau "IF
" yang seharusnya mengembalikan "STRUCT
", tetapi yang ditemukan adalah <expr>
.
UNKNOWN_FIELD_EXCEPTION
Mengalami <changeType>
selama penguraian: <unknownFieldBlob>
, yang dapat diperbaiki dengan coba lagi otomatis: <isRetryable>
Untuk informasi lebih lanjut, silakan lihat UNKNOWN_FIELD_EXCEPTION
UNKNOWN_POSITIONAL_ARGUMENT
Pemanggilan rutin <routineName>
berisi argumen posisional tidak dikenal <sqlExpr>
pada posisi <pos>
. Ini tidak valid.
JENIS_PRIMITIF_TIDAK_DIKENAL_DALAM_VARIAN
Ditemukan jenis primitif tidak dikenal dengan id <id>
dalam nilai varian.
UNKNOWN_PROTOBUF_MESSAGE_TYPE
Mencoba memperlakukan <descriptorName>
sebagai Pesan, namun ternyata <containingType>
.
UNPIVOT_MEMBUTUHKAN_ATRIBUT
UNPIVOT
mengharuskan semua ekspresi <given>
yang diberikan menjadi kolom ketika tidak ada ekspresi <empty>
yang diberikan. Ini bukan kolom: [<expressions>
].
UNPIVOT_MEMBUTUHKAN_KOLOM_NILAI
Setidaknya satu kolom nilai perlu ditentukan untuk UNPIVOT
, semua kolom yang ditentukan sebagai id.
Ketidakcocokan_tipe_data_unpivot_value
Kolom nilai unpivot harus berbagi tipe paling umum, beberapa jenis tidak berbagi tipe tersebut: [<types>
].
Ketidaksesuaian_Ukuran_Nilai_Unpivot
Semua kolom nilai unpivot harus memiliki ukuran yang sama dengan nama kolom nilai (<names>
).
NAMA_PARAMETER_TIDAK_DIKENAL
Tidak dapat memanggil rutin <routineName>
karena panggilan rutin menggunakan referensi argumen bernama untuk argumen bernama <argumentName>
, tetapi rutinitas ini tidak menyertakan parameter apa pun yang berisi argumen dengan nama ini. Maksudmu salah satu dari berikut ini? [<proposal>
] .
UNRECOGNIZED_SQL_TYPE
Jenis SQL yang tidak dikenal - nama: <typeName>
, id: <jdbcType>
.
STATISTIK_TIDAK_DIKENALI
Statistik <stats>
tidak dikenali. Statistik yang valid termasuk nilai count
, count_distinct
, approx_count_distinct
, mean
, stddev
, min
, max
, dan persentil. Persentil harus berupa nilai numerik diikuti oleh '%', dalam rentang 0% hingga 100%.
FUNGSI_BERNILAI_TABEL_YANG_TIDAK_DAPAT_DIPECAHKAN
Tidak dapat menyelesaikan <name>
sebagai fungsi yang bernilai tabel.
Pastikan bahwa <name>
didefinisikan sebagai fungsi bernilai tabel dan semua parameter yang diperlukan disediakan dengan benar.
Jika <name>
tidak ditentukan, buat fungsi bernilai tabel sebelum menggunakannya.
Untuk informasi selengkapnya tentang menentukan fungsi bernilai tabel, lihat dokumentasi Apache Spark.
Tidak Terpecahkan Semuanya Dalam Grup Berdasarkan
Tidak dapat menyimpulkan kolom pengelompokan untuk GROUP BY ALL
berdasarkan klausa SELECT. Tentukan kolom pengelompokan secara eksplisit.
KOLOM_TIDAK_TERSELESAIKAN
Parameter kolom, variabel, atau fungsi dengan nama <objectName>
tidak dapat diselesaikan.
Untuk detail selengkapnya, lihat UNRESOLVED_COLUMN
BIDANG_BELUM_SELESAI
Bidang dengan nama <fieldName>
tidak dapat diselesaikan dengan kolom jenis struct <columnPath>
.
Untuk detail selengkapnya, lihat UNRESOLVED_FIELD
UNRESOLVED_MAP_KEY
Tidak dapat menyelesaikan kolom <objectName>
sebagai kunci peta. Jika kuncinya adalah string literal, tambahkan tanda kutip tunggal '' di sekitarnya.
Untuk informasi lebih lanjut, lihat UNRESOLVED_MAP_KEY
RUTINITAS_BELUM_TERATASI
Tidak dapat menyelesaikan rutinitas <routineName>
pada jalur pencarian <searchPath>
.
Verifikasi ejaan <routineName>
, periksa apakah rutinitas tersebut ada, dan pastikan Anda memiliki hak istimewa USE
pada katalog dan skema, serta hak istimewa EXECUTE
pada rutinitas tersebut.
Untuk detail selengkapnya, lihat UNRESOLVED_ROUTINE
KOLOM_MENGGUNAKAN_YANG_TIDAK_TERSELESAIKAN_UNTUK_GABUNGAN
Kolom USING
<colName>
tidak dapat diselesaikan di sisi gabungan <side>
. Kolom sisi <side>
: [<suggestion>
].
VARIABEL_TIDAK_TERSELESAIKAN
Tidak dapat mengatasi variabel <variableName>
pada jalur pencarian <searchPath>
.
Pemrosesan_Data_Tidak_Terstruktur_Format_Berkas_Tidak_Didukung
Format file yang tidak terstruktur <format>
tidak didukung. Format berkas yang didukung: <supportedFormats>
.
Perbarui format
dari ekspresi <expr>
Anda ke salah satu format yang didukung lalu coba lagi kueri tersebut.
Pemrosesan_Data_Tidak_Terstruktur_Model_Tidak_Didukung
Model yang tidak terstruktur <model>
tidak didukung. Model yang didukung <supportedModels>
.
Silakan beralih ke salah satu model yang didukung lalu coba lagi kueri.
KOLOM_OCR_TIDAK_TERSTRUKTUR_TIDAK_DIIJINKAN_DENGAN_OPSI_MODEL_METADATA
Parameter fungsi 'ocrText' harus NULL
atau dihilangkan saat opsi 'metadataModel' ditentukan. Opsi 'metadataModel' tertentu memicu ekstraksi metadata, di mana 'ocrText' yang disediakan dilarang.
TIDAK MENDUKUNG_PENAMBAHAN_BERKAS
Tidak mendukung menambahkan file.
Untuk informasi lebih lanjut, lihat UNSUPPORTED_ADD_FILE
UNSUPPORTED_ALTER_COLUMN_PARAMETER
Menentukan <parameter>
dengan ALTER <commandTableType>
tidak didukung.
UNSUPPORTED_ARROWTYPE
Tipe panah yang tidak didukung <typeName>
.
Fungsi Berbasis Tabel dalam Batch Tidak Didukung
Fungsi <funcName>
tidak mendukung kueri batch.
UNSUPPORTED_CALL
Tidak dapat memanggil metode "<methodName>
" dari kelas "<className>
".
Untuk informasi lebih lanjut, lihat UNSUPPORTED_CALL
KARAKTER_TIDAK_DIDUKUNG_ATAU_VARCHAR_SEBAGAI_STRING
Jenis char/varchar tidak dapat digunakan dalam skema tabel.
Jika Anda ingin Spark memperlakukannya sebagai jenis string sama dengan Spark 3.0 dan yang lebih lama, atur "spark.sql.legacy.charVarcharAsString" ke "true".
KLAUSA_TIDAK_DIDUKUNG_UNTUK_OPERASI
<clause>
tidak didukung untuk <operation>
.
KOLOKASI_TIDAK_DIDUKUNG
Collation <collationName>
tidak didukung untuk:
Untuk informasi lebih lanjut, lihat UNSUPPORTED_COLLATION
Lokasi Nenek Moyang Umum Tidak Didukung untuk Sumber Aliran Berkas
Nenek moyang umum jalur sumber dan sourceArchiveDir harus terdaftar di UC.
Jika Anda melihat pesan kesalahan ini, kemungkinan Anda mendaftarkan jalur sumber dan sourceArchiveDir di lokasi eksternal yang berbeda.
Silakan masukkan mereka ke dalam satu lokasi eksternal.
KLAUSA_KENDALA_TIDAK_DIDUKUNG
Klausa batasan <clauses>
tidak didukung.
UNSUPPORTED_CONSTRAINT_TYPE (Jenis batasan tidak didukung)
Jenis batasan yang tidak didukung. Hanya <supportedConstraintTypes>
yang didukung
SUMBER_DATA_TIDAK_DIDUKUNG_UNTUK_KUERl_LANGSUNG
Jenis sumber data yang tidak didukung untuk kueri langsung pada file: <dataSourceType>
TIPE DATA TIDAK DIDUKUNG
Jenis data yang tidak didukung <typeName>
.
MODE_SIMPAN_SUMBER_DATA_TIDAK_MENDUKUNG
Sumber data "<source>
" tidak dapat ditulis dalam mode <createMode>
. Sebagai gantinya, gunakan mode "Tambahkan" atau "Timpa".
TIPE_DATA_TIDAK_DIPERLUKAN_UNTUK_SUMBER_DATA
Sumber data <format>
tidak mendukung kolom <columnName>
dengan jenis <columnType>
.
JENIS_DATA_TIDAK_DIDUKUNG_UNTUK_ENCODER
Tidak dapat membuat encoder untuk <dataType>
. Gunakan jenis data output yang berbeda untuk UDF atau DataFrame Anda.
UNSUPPORTED_DEFAULT_VALUE
Nilai kolom DEFAULT
tidak didukung.
Untuk detail selengkapnya, lihat UNSUPPORTED_DEFAULT_VALUE
UNSUPPORTED_DESERIALIZER
Deserializer tersebut tidak didukung
Untuk detail selengkapnya, lihat UNSUPPORTED_DESERIALIZER
EKSPRESI_TIDAK_DIDUKUNG_KOLOM_DIHASILKAN
Tidak dapat membuat kolom dihasilkan <fieldName>
dengan ekspresi pembuatan <expressionStr>
karena <reason>
.
Ekspresi Tidak Didukung untuk Operator
Operator kueri berisi satu atau beberapa ekspresi yang tidak didukung.
Pertimbangkan untuk menulis ulang untuk menghindari fungsi jendela, fungsi agregat, dan fungsi generator dalam klausa WHERE
.
Ekspresi tidak valid: [<invalidExprSqls>
]
Ekspresi yang tidak didukung untuk parameter (UNSUPPORTED_EXPR_FOR_PARAMETER)
Parameter kueri berisi ekspresi yang tidak didukung.
Parameter dapat berupa variabel atau harfiah.
Ekspresi tidak valid: [<invalidExprSql>
]
EKSPRESI_TIDAK_DIDUKUNG_UNTUK_JENDELA
Ekspresi <sqlExpr>
tidak didukung dalam fungsi jendela.
FITUR_TIDAK_DIDUKUNG
Fitur ini tidak didukung:
Untuk informasi lebih lanjut, lihat UNSUPPORTED_FEATURE
TIPE_FN_TIDAK_DIDUKUNG
Jenis fungsi yang ditentukan pengguna yang tidak didukung: <language>
GENERATOR_TIDAK_DIDUKUNG
Generator tidak didukung:
Untuk lebih jelasnya, lihat UNSUPPORTED_GENERATOR
Ekspresi Pengelompokan Tidak Didukung
grouping()/grouping_id() hanya dapat digunakan dengan GroupingSets/Cube/Rollup.
Posisi Awal dan Pasangan Pemicu Tidak Didukung untuk Sumber Kinesis
<trigger>
dengan posisi awal <initialPosition>
tidak didukung oleh sumber Kinesis
UNSUPPORTED_INSERT
Tidak dapat menyisipkan ke target.
Untuk informasi lebih lanjut, lihat UNSUPPORTED_INSERT
TIPE_PENGGABUNGAN_TIDAK_DIDUKUNG
Jenis join yang tidak didukung '<typ>
'. Jenis gabungan yang didukung meliputi: <supported>
.
PEMBUATAN_TABEL_TERKELOLA_TIDAK_DIDUKUNG
Membuat tabel terkelola <tableName>
menggunakan sumber data <dataSource>
tidak didukung. Anda perlu menggunakan sumber data DELTA
atau membuat tabel eksternal menggunakan CREATE EXTERNAL TABLE <tableName>
...
USING <dataSource>
...
UNSUPPORTED_MERGE_CONDITION
operasi MERGE
berisi kondisi <condName>
yang tidak didukung.
Untuk detail selengkapnya, lihat UNSUPPORTED_MERGE_CONDITION
KEBIJAKAN_AKSES_BARIS_ATAU_KOLOM_BERTINGKAT_YANG_TIDAK_DIDUKUNG
Tabel <tableName>
memiliki kebijakan keamanan tingkat baris atau masker kolom yang secara tidak langsung mengacu pada tabel lain dengan kebijakan keamanan tingkat baris atau masker kolom; ini tidak didukung. Urutan panggilan: <callSequence>
PENULISAN_ULANG_TIDAK_DIDUKUNG
Tidak dapat menimpa target yang juga sedang dibaca.
Untuk detail selengkapnya, lihat UNSUPPORTED_OVERWRITE
Partisi Transformasi Tidak Didukung
Transformasi partisi yang tidak didukung: <transform>
. Transformasi yang didukung adalah identity
, bucket
, dan clusterBy
. Pastikan ekspresi transformasi Anda menggunakan salah satunya.
MODE_PENYIMPANAN_TIDAK_DIDUKUNG
Mode penyimpanan <saveMode>
tidak didukung untuk:
Untuk detail selengkapnya, lihat UNSUPPORTED_SAVE_MODE
UNSUPPORTED_SHOW_CREATE_TABLE
Tidak didukung perintah SHOW CREATE TABLE
.
Untuk informasi lebih lanjut, lihat UNSUPPORTED_SHOW_CREATE_TABLE
FITUR_ANALISATOR_SATU_LINTASAN_TIDAK_DIDUKUNG
Penganalisis sekali-lintas tidak dapat memproses kueri atau perintah ini karena belum mendukung <feature>
.
OPERATOR_STREAMING_TIDAK_DIDUKUNG_TANPA_TANDA_AIR
<outputMode>
mode keluaran tidak didukung untuk <statefulOperator>
pada streaming DataFrames/DataSets tanpa tanda air.
PILIHAN_STREAMING_TIDAK_DIDUKUNG_UNTUK_TAMPILAN
Tidak didukung untuk menyiarkan tampilan. Alasan:
Untuk detail selengkapnya, lihat UNSUPPORTED_STREAMING_OPTIONS_FOR_VIEW
Pilihan Streaming Tidak Didukung, Izin Diterapkan
Opsi streaming <options>
tidak didukung untuk sumber data <source>
pada kluster bersama. Harap konfirmasikan bahwa opsi ditentukan dan dieja dengan benar, dan periksahttps://docs.databricks.com/en/compute/access-mode-limitations.html#streaming-limitations-and-requirements-for-unity-catalog-shared-access-mode untuk batasan.
Izin Streaming yang Tidak Didukung Diberlakukan
Sumber data <sink>
tidak didukung sebagai sink streaming pada kluster bersama.
Sumber Streaming Tidak Didukung - Izin Diperketat
Sumber data <source>
tidak didukung sebagai sumber streaming pada kluster bersama.
FUNGSI_BERNILAI_TABEL_STREAMING_TIDAK_DIDUKUNG
Fungsi <funcName>
tidak mendukung streaming. Hapus kata kunci STREAM
BATAS_PEMBACAAN_ALIRAN_YANG_TIDAK_DIDUKUNG_UNTUK_SUMBER_KINESIS
<streamReadLimit>
tidak didukung oleh sumber Kinesis
UNSUPPORTED_SUBQUERY_EXPRESSION_CATEGORY
Ekspresi subkueri yang tidak didukung:
Untuk detail selengkapnya, lihat UNSUPPORTED_SUBQUERY_EXPRESSION_CATEGORY
KOLOM_TIMESERIES_TIDAK_DIDUKUNG
Pembuatan kunci utama dengan kolom deret waktu tidak didukung
DERET_WAKTU_TIDAK_DIDUKUNG_DENGAN_LEBIH_DARI_SATU_KOLOM
Membuat kunci primer dengan lebih dari satu kolom timeseries <colSeq>
tidak didukung
Pemicu Tidak Didukung untuk Sumber Kinesis
<trigger>
tidak didukung oleh sumber Kinesis
LITERAL_BERTIPE_TIDAK_DIDUKUNG
Literal jenis <unsupportedType>
tidak didukung. Jenis yang tersedia adalah <supportedTypes>
.
FITUR_UDF_TIDAK_DIDUKUNG
Fungsi <function>
menggunakan fitur berikut yang memerlukan versi runtime Databricks yang lebih baru: <features>
. Silakan konsultasikan <docLink>
untuk detailnya.
JENIS_JENIS_UDF_YANG_TIDAK_DIDUKUNG_DI_TEMPAT_YANG_SAMA
Jenis UDF tidak dapat digunakan bersama-sama: <types>
UNTYPED_SCALA_UDF
Anda menggunakan Scala UDF yang tidak dijenis, yang tidak memiliki informasi jenis input.
Spark dapat secara tidak sadar meneruskan null ke fungsi penutupan Scala dengan argumen tipe primitif, dan fungsi penutupan akan melihat nilai default dari tipe Java untuk argumen null, misalnya udf((x: Int) => x, IntegerType)
, hasilnya adalah 0 untuk input null. Untuk menghilangkan kesalahan ini, Anda dapat:
- gunakan API UDF Scala yang ditik (tanpa parameter jenis pengembalian), misalnya
udf((x: Int) => x)
. - gunakan API UDF Java, misalnya
udf(new UDF1[String, Integer] { override def call(s: String): Integer = s.length() }, IntegerType)
, jika jenis input semuanya tidak primitif. - atur "spark.sql.legacy.allowUntypedScalaUDF" ke "true" dan gunakan API ini dengan hati-hati.
UPGRADE_NOT_SUPPORTED
Tabel tidak memenuhi syarat untuk diupgrade dari Apache Hive Metastore ke Katalog Unity. Alasan:
Untuk informasi lebih lanjut, lihat UPGRADE_NOT_SUPPORTED
FUNGSI_YANG_DIDEFINISIKAN_PENGGUNA
Fungsi yang ditentukan pengguna tidak valid:
Untuk informasi lebih lanjut, lihat USER_DEFINED_FUNCTIONS
PENGECUALIAN_DIPICU_PENGGUNA
<errorMessage>
KESALAHAN_YANG_DIPICU_PENGGUNA_KETIDAKCOCOKAN_PARAMETER
Fungsi raise_error()
digunakan untuk meningkatkan kelas kesalahan: <errorClass>
yang mengharapkan parameter: <expectedParms>
.
Parameter yang disediakan <providedParms>
tidak cocok dengan parameter yang diharapkan.
Pastikan untuk menyediakan semua parameter yang diharapkan.
Kesalahan Tidak Dikenal Kelas Pengecualian yang Ditingkatkan oleh Pengguna
Fungsi raise_error()
digunakan untuk menaikkan kelas kesalahan yang tidak diketahui: <errorClass>
VARIABEL_SUDAH_ADA
Tidak dapat membuat variabel <variableName>
karena sudah ada.
Pilih nama yang berbeda, atau letakkan atau ganti variabel yang ada.
VARIABEL_TIDAK_DITEMUKAN
Variabel <variableName>
tidak dapat ditemukan. Verifikasi ejaan dan kebenaran skema dan katalog.
Jika Anda tidak menentukan nama dengan skema dan katalog, verifikasi output current_schema(), atau tentukan nama dengan skema dan katalog yang benar.
Untuk mentolerir kesalahan saat drop, gunakan DROP VARIABLE IF EXISTS
.
BATAS_UKURAN_KONSTRUKTOR_VARIANT
Tidak dapat membuat Varian yang lebih besar dari 16 MiB. Ukuran maksimum yang diizinkan dari nilai Varian adalah 16 MiB.
VARIANT_DUPLICATE_KEY
Gagal membangun varian karena kunci objek duplikat <key>
.
BATAS_UKURAN_VARIAN
Tidak dapat membangun varian yang lebih besar dari <sizeLimit>
di <functionName>
.
Harap hindari string input besar ke ekspresi ini (misalnya, tambahkan panggilan fungsi untuk memeriksa ukuran ekspresi dan mengonversinya ke NULL
terlebih dahulu jika terlalu besar).
TAMPILAN_SUDAH_ADA
Tidak dapat membuat tampilan <relationName>
karena sudah ada.
Pilih nama yang berbeda, hapus atau ganti objek yang ada, atau tambahkan klausa IF NOT EXISTS
untuk mentolerir objek yang sudah ada.
Melampaui Kedalaman Sarang Maksimum
Kedalaman tampilan <viewName>
melebihi kedalaman resolusi tampilan maksimum (<maxNestedDepth>
).
Analisis dibatalkan untuk menghindari kesalahan. Jika Anda ingin mengatasi hal ini, silakan coba tingkatkan nilai "spark.sql.view.maxNestedViewDepth".
TAMPILAN_TIDAK_DITEMUKAN
Tampilan <relationName>
tidak dapat ditemukan. Verifikasi ejaan dan kebenaran skema dan katalog.
Jika Anda tidak memenuhi syarat nama dengan skema, verifikasi output current_schema(), atau memenuhi syarat nama dengan skema dan katalog yang benar.
Untuk mentolerir kesalahan saat drop, gunakan DROP VIEW IF EXISTS
.
VOLUME_SUDAH_ADA
Tidak dapat membuat volume <relationName>
karena sudah ada.
Pilih nama yang berbeda, hapus atau ganti objek yang ada, atau tambahkan klausa IF NOT EXISTS
untuk mentolerir objek yang sudah ada.
FUNGSI_JENDELA_DAN_RANGKA_TIDAK_SESUAI
<funcName>
fungsi hanya dapat dievaluasi dalam bingkai jendela berbasis baris yang diurutkan dengan satu offset: <windowExpr>
.
Fungsi Window Tanpa Klausa Over
Fungsi jendela <funcName>
memerlukan klausa OVER.
DENGAN_KREDENSIAL
sintaks WITH CREDENTIAL
tidak didukung untuk <type>
.
TULIS_STREAM_TIDAK_DIPERBOLEHKAN
writeStream
hanya dapat dipanggil pada streaming Dataset/DataFrame.
KOLOM_DEFAULT_YANG_SALAH_PADA_DELTA_ALTER_TABLE_ADD_COLUMN_TIDAK_DIDUKUNG
Gagal menjalankan perintah karena nilai DEFAULT
tidak didukung saat menambahkan baru
kolom ke tabel Delta yang sudah ada sebelumnya; harap tambahkan kolom tanpa default
nilai terlebih dahulu, lalu jalankan perintah ALTER TABLE ALTER COLUMN SET DEFAULT
kedua untuk menerapkan
untuk baris yang akan disisipkan di masa mendatang.
DEFAULT_KOLOM_SALAH_ UNTUK_FITUR_DELTA_BELUM_DIAKTIFKAN
Gagal menjalankan perintah <commandType>
karena menetapkan nilai kolom DEFAULT
.
tetapi fitur tabel yang sesuai tidak diaktifkan. Silakan coba lagi perintah
setelah menjalankan ALTER TABLE
tableName SET
TBLPROPERTIES
('delta.feature.allowColumnDefaults' = 'didukung').
PERINTAH_SALAH_UNTUK_JENIS_OBJEK
Operasi <operation>
memerlukan <requiredType>
. Tapi <objectName>
adalah <foundType>
. Gunakan <alternative>
sebagai gantinya.
WRONG_NUM_ARGS
<functionName>
memerlukan parameter <expectedNum>
tetapi angka aktualnya <actualNum>
.
Untuk informasi lebih lanjut, lihat WRONG_NUM_ARGS
XML_ROW_TAG_MISSING
opsi <rowTag>
diperlukan untuk membaca file dalam format XML.
Jenis Tertanam yang Tidak Didukung XML
XML tidak mendukung <innerDataType>
sebagai jenis dalam <dataType>
. Harap bungkus <innerDataType>
dalam elemen StructType saat menggunakannya di dalam <dataType>
.
KESALAHAN_KONFLIK_DATA_DISELAMATKAN_XML_WILDCARD
Data yang diselamatkan dan kolom bebas tidak dapat diaktifkan secara bersamaan. Hapus opsi wildcardColumnName.
Kolom ZORDERBY_COLUMN tidak ada
Kolom ZOrderBy <columnName>
tidak ada.
Danau Delta
DELTA_ACTIVE_SPARK_SESSION_TIDAK_DITEMUKAN
Tidak dapat menemukan SparkSession aktif
TRANSAKSI_AKTIF_DELTA_SUDAH_DITETAPKAN
Tidak dapat menyetel transaksi baru sebagai aktif ketika transaksi sudah aktif
DELTA_GAGAL_MENAMBAHKAN_KOLOM_DENGAN_NAMA_INTERNAL
Gagal menambahkan kolom <colName>
karena nama dicadangkan.
Penambahan Vektor Penghapusan Tidak Diizinkan
Operasi saat ini mencoba menambahkan vektor penghapusan ke tabel yang tidak mengizinkan pembuatan vektor penghapusan baru. Silakan ajukan laporan bug.
PENAMBAHAN VEKTOR PENGHAPUSAN DENGAN BATAS KETAT TIDAK DIIZINKAN
Semua operasi yang menambahkan vektor penghapusan harus mengatur kolom tightBounds dalam statistik ke false. Silakan ajukan laporan bug.
DELTA_TAMBAH_KOLOM_PADA_INDEKS_KURANG_DARI_NOL
Indeks <columnIndex>
untuk menambahkan kolom <columnName>
lebih rendah dari 0
DELTA_TAMBAH_KOLOM_INDUK_TIDAK_STRUKTURAL
Tidak dapat menambahkan <columnName>
karena induknya bukan StructType. Ditemukan <other>
STRUKTUR_PENAMBAHAN_KOLOM_DELTA_TIDAK_DITEMUKAN
Struktur tidak ditemukan pada posisi <position>
DELTA_TAMBAHKAN_KONSTRAN
Silakan gunakan ALTER TABLE
tambahkan CONSTRAINT
untuk menambahkan batasan CHECK
.
DELTA_AGGREGATE_IN_GENERATED_COLUMN
Ditemukan <sqlExpr>
. Kolom yang dihasilkan tidak dapat menggunakan ekspresi agregat
AGREGASI_DELTA_TIDAK_DIDUKUNG
Fungsi agregat tidak didukung di <operation> <predicate>
.
DELTA_ALTER_COLLATION_NOT_SUPPORTED_BLOOM_FILTER
Gagal mengubah kolasi kolom <column>
karena memiliki indeks bloom filter. Harap pertahankan pengurutan yang ada atau hapus indeks filter "bloom", kemudian coba perintah lagi untuk mengubah pengurutan.
DELTA_MENGUBAH_KOLEKSI_TIDAK_DIDUKUNG_CLUSTER_BY
Gagal mengubah kolase kolom <column>
karena merupakan kolom pengklusteran. Harap pertahankan kolasi yang ada atau ubah kolom menjadi kolom non-kluster dengan perintah ALTER TABLE
lalu ulangi perintah tersebut untuk mengubah kolasi.
DELTA_ALTER_TABLE_CHANGE_COL_TIDAK_DIDUKUNG
ALTER TABLE CHANGE COLUMN
tidak didukung untuk mengubah <currentType>
kolom ke <newType>
DELTA_ALTER_TABLE_CLUSTER_BY_TIDAK_DIIJINKAN
ALTER TABLE CLUSTER BY
hanya didukung untuk tabel Delta dengan pengklusteran Liquid.
DELTA_ALTER_TABLE_CLUSTER_BY_ON_PARTITIONED_TABLE_NOT_ALLOWED
ALTER TABLE CLUSTER BY
tidak dapat diterapkan ke tabel yang dipartisi.
Perubahan nama tabel DELTA tidak diizinkan
Operasi tidak diizinkan: ALTER TABLE RENAME
TO tidak diizinkan untuk tabel Delta terkelola pada S3, karena konsistensi akhir pada S3 dapat merusak log transaksi Delta. Jika Anda bersikeras melakukannya dan yakin bahwa belum pernah ada tabel Delta dengan nama baru <newName>
sebelumnya, Anda dapat mengaktifkan ini dengan mengatur <key>
menjadi benar.
DELTA_ALTER_TABLE_SET_CLUSTERING_TABEL_FITUR_TIDAK_DIPERBOLEHKAN
Fitur tabel <tableFeature>
tidak dapat diaktifkan menggunakan ALTER TABLE SET TBLPROPERTIES
. Gunakan CREATE
ATAU REPLACE TABLE CLUSTER BY
untuk membuat tabel Delta dengan pengklusteran.
PERUBAHAN TIPE DATA DELTA YANG AMBIGU
Tidak dapat mengubah tipe data <column>
dari <from>
ke <to>
. Perubahan ini berisi penghapusan kolom dan penambahan, oleh karena itu bersifat ambigu. Harap buat perubahan ini secara individual menggunakan ALTER TABLE
[ADD | DROP | RENAME
] COLUMN
.
DELTA_KOLOM_PARTISI_AMBIGU
Kolom partisi ambigu <column>
bisa menjadi <colMatches>
.
DELTA_JALUR_AMBIGU_PADA_CREATE_TABLE
CREATE TABLE
berisi dua lokasi berbeda: <identifier>
dan <location>
.
Anda dapat menghapus klausa LOCATION
dari pernyataan CREATE TABLE
, atau mengatur
<config>
ke true untuk melewati pemeriksaan ini.
ARSIP_BERKAS_YANG_TERARSIP_DALAM_BATAS
Tabel <table>
tidak berisi rekaman yang cukup dalam file yang tidak diarsipkan agar dapat memenuhi jumlah yang ditentukan sebanyak LIMIT
dari <limit>
rekaman.
FILE_TERARSIP_DELTA_DALAM_PEMINDAIAN
Ditemukan <numArchivedFiles>
file yang berpotensi diarsipkan dalam tabel <table>
yang perlu dipindai sebagai bagian dari kueri ini.
File yang diarsipkan tidak dapat diakses. Waktu yang tersisa hingga arsip dikonfigurasi sebagai <archivalTime>
.
Sesuaikan filter kueri Anda untuk mengecualikan file yang diarsipkan.
DELTA_BLOK_KOLOM_PEMETAAN_DAN_OPERASI_CDC
Operasi "<opName>
" tidak diizinkan ketika tabel telah mengaktifkan umpan data perubahan (CDF) dan telah mengalami perubahan skema menggunakan DROP COLUMN
atau RENAME COLUMN
.
DELTA_BLOOM_FILTER_DROP_ON_NON_EXISTING_COLUMNS
Tidak dapat menghapus indeks bloom filter untuk kolom berikut yang tidak ada: <unknownColumns>
DELTA_BLOOM_FILTER_OOM_ON_WRITE
OutOfMemoryError terjadi saat menulis indeks Bloom Filter untuk kolom berikut: <columnsWithBloomFilterIndices>
.
Anda dapat mengurangi penggunaan memori indeks bloom filter dengan memilih nilai yang lebih kecil untuk opsi 'numItems', nilai yang lebih besar untuk opsi 'fpp', atau dengan mengindeks lebih sedikit kolom.
DELTA_CANNOT_CHANGE_DATA_TYPE (Kesalahan: Tidak dapat mengubah jenis data)
Tidak dapat mengubah tipe data: <dataType>
DELTA_TIDAK_BISA_MENGUBAH_LOKASI
Tidak dapat mengubah 'lokasi' tabel Delta menggunakan SET TBLPROPERTIES
. Silakan gunakan ALTER TABLE SET LOCATION
sebagai gantinya.
DELTA_TIDAK_BISA_MENGUBAH_PENYEDIA
'provider' adalah properti tabel yang telah dipesan, dan tidak dapat diubah.
DELTA_TIDAK_BISA_MEMBUAT_BLOOM_FILTER_KOLOM_TIDAK_ADA
Tidak dapat membuat indeks filter mekar untuk kolom yang tidak ada berikut ini: <unknownCols>
DELTA_TIDAK_DAPAT_MEMBUAT_JALUR_LOG
Tidak dapat membuat <path>
DELTA_TIDAK_BISA_MENDESKRIPSIKAN_RIWAYAT_TAMPILAN
Tidak dapat menjelaskan riwayat tampilan.
DELTA_CANNOT_DROP_BLOOM_FILTER_ON_NON_INDEXED_COLUMN
Tidak dapat menghapus indeks bloom filter pada kolom yang belum terindeks: <columnName>
DELTA_TIDAK_BISA_MENGHAPUS_FITUR_BATASAN_CEK
Tidak dapat menghilangkan fitur tabel batasan CHECK
.
Batasan berikut harus dihilangkan terlebih dahulu: <constraints>
.
DELTA_TIDAK_BISA_MENGHAPUS_FITUR_COLLATIONS
Tidak dapat menghilangkan fitur tabel kolaterasi.
Kolom dengan kolase non-default harus diubah untuk menggunakan UTF8_BINARY terlebih dahulu: <colNames>
.
DELTA_CANNOT_EVALUATE_EXPRESSION
Tidak dapat mengevaluasi ekspresi: <expression>
DELTA_TIDAK_DAPAT_MENEMUKAN_BUCKET_SPEC
Mengharapkan tabel Delta berbasis 'bucketing' tetapi tidak dapat menemukan spesifikasi 'bucketing' dalam tabel
TIDAK_BISA_MENGHASILKAN_KODE_UNTUK_EKSPRESI
Tidak dapat menghasilkan kode untuk ekspresi: <expression>
DELTA_TIDAK_BISA_MEMODIFIKASI_HANYA_TAMBAH
Tabel ini dikonfigurasi untuk hanya mengizinkan penambahan. Jika Anda ingin mengizinkan pembaruan atau penghapusan, gunakan 'ALTER TABLE
<table_name>SET TBLPROPERTIES (<config>
=false)'.
DELTA_TIDAK_BISA_MENGUBAH_KETERGANTUNGAN_KOMIT_TERKOORDINASI
<Command>
tidak dapat mengubah atau menghapus properti tabel tanda waktu saat komit karena komit terkoordinasi diaktifkan dalam tabel ini dan bergantung padanya. Silakan hapus ("delta.enableInCommitTimestamps", "delta.inCommitTimestampEnablementVersion", "delta.inCommitTimestampEnablementTimestamp") dari klausa TBLPROPERTIES
lalu coba lagi perintah tersebut.
DELTA_TIDAK_BISA_MENGUBAH_PROPERTI_TABEL
Konfigurasi tabel Delta <prop>
tidak dapat ditentukan oleh pengguna
DELTA_TIDAK_BISA_MENGABAIKAN_KOMIT_TERKOORDINASI_KONFS
<Command>
tidak dapat mengubah konfigurasi komitmen terkoordinasi untuk tabel target yang sudah ada. Silakan hapus ("delta.coordinatedCommits.commitCoordinator-preview", "delta.coordinatedCommits.commitCoordinatorConf-preview", "delta.coordinatedCommits.tableConf-preview") dari klausa TBLPROPERTIES
lalu coba lagi perintah tersebut.
DELTA_TIDAK_DAPAT_MEREKONSTRUKSI_JALUR_DARI_URI
Uri (<uri>
) yang tidak dapat diubah menjadi jalur relatif ditemukan di log transaksi.
DELTA_TIDAK_BISA_MEMBERI_PATH_RELATIF
Jalur (<path>
) yang tidak dapat direlativasi dengan input saat ini yang ditemukan di
log transaksi. Silakan jalankan kembali ini dengan cara:
%%scala com.databricks.delta.Delta.fixAbsolutePathsInLog("<userPath>
", true)
lalu jalankan juga:
%%scala com.databricks.delta.Delta.fixAbsolutePathsInLog("<path>
")
DELTA_TIDAK_BISA_MENGGANTI_NAMA_PATH
Tidak dapat mengganti nama <currentPath>
menjadi <newPath>
DELTA_TIDAK_BISA_MENGGANTI_TABEL_YANG_HILANG
Tabel <tableName>
tidak dapat diganti karena tidak ada. Gunakan CREATE
ATAU REPLACE TABLE
untuk membuat tabel.
DELTA_TIDAK_DAPAT_MENYELESAIKAN_KOLOM
Tidak dapat menyelesaikan kolom <columnName>
di <schema>
DELTA_TIDAK_DAPAT_MEMULIHKAN_VERSI_TABEL
Tidak dapat memulihkan tabel ke versi <version>
. Versi yang tersedia: [<startVersion>
, <endVersion>
].
DELTA_TIDAK_BISA_MENGEMBALIKAN_STEMPELWAKTU_SEBELUMNYA
Tidak dapat memulihkan tabel ke tanda waktu (<requestedTimestamp>
) seperti sebelum versi paling awal tersedia. Silakan gunakan tanda waktu setelah (<earliestTimestamp>
).
DELTA_TIDAK_BISA_MENGEMBALIKAN_TIMESTAMP_YANG_LEBIH_BESAR
Tidak dapat mengembalikan tanda waktu tabel (<requestedTimestamp>
) karena itu melebihi versi terbaru yang tersedia. Silakan gunakan tanda waktu sebelum (<latestTimestamp>
)
DELTA_TIDAK_BISA_MENGATUR_KETERGANTUNGAN_KOMIT_YANG_TERKOORDINASI
<Command>
tidak dapat mengatur properti tabel tanda waktu dalam penerapan bersama dengan penerapan terkoordinasi, karena yang terakhir tergantung pada yang pertama dan mengatur yang sebelumnya secara internal. Silakan hapus ("delta.enableInCommitTimestamps", "delta.inCommitTimestampEnablementVersion", "delta.inCommitTimestampEnablementTimestamp") dari klausa TBLPROPERTIES
lalu coba lagi perintah tersebut.
DELTA_CANNOT_SET_LOCATION_ON_PATH_IDENTIFIER
Tidak dapat mengubah lokasi tabel berbasis jalur.
DELTA_TIDAK_BISA_MENGATUR_PROPERTI_KOLOM_STATISTIK_YANG_DIKENGELOLA
Tidak dapat mengatur delta.managedDataSkippingStatsColumns pada tabel non-DLT
DELTA_CANNOT_SET_UC_COMMIT_COORDINATOR_CONF_IN_COMMAND
Saat mengaktifkan 'unity-catalog' sebagai koordinator penerapan, konfigurasi "<configuration>
" tidak dapat diatur dari perintah. Silakan hapus dari klausa TBLPROPERTIES
lalu coba lagi perintah tersebut.
DELTA_TIDAK_BISA_MENGATUR_KONF_URAIAN_UC_DI_SESI
Saat mengaktifkan 'unity-catalog' sebagai koordinator penerapan, konfigurasi "<configuration>
" tidak dapat diatur dari konfigurasi SparkSession. Silakan batalkan pengaturan dengan menjalankan spark.conf.unset("<configuration>")
lalu coba lagi perintah tersebut.
DELTA_TIDAK_BISA_MENGUBAH_PENGATURAN_KOMIT_TERKOORDINASI
ALTER
tidak dapat menghapus konfigurasi komit terkoordinasi. Untuk menurunkan tingkat tabel dari penerapan terkoordinasi, silakan coba lagi menggunakan ALTER
TABLE [table-name] ``DROP FEATURE`` ‘coordinatedCommits-preview’
.
DELTA_TIDAK_DAPAT_MEMPERBARUI_BIDANG_ARRAY
Tidak dapat memperbarui kolom %1$s tipe %2$s: perbarui elemen melalui %2$s.element
TIDAK_BISA_MEMPERBARUI_BIDANG_PETA_DELTA
Tidak dapat memperbarui bidang %1$s jenis %2$s: memperbarui peta dengan memperbarui kunci %2$satau nilai %2$s
DELTA_TIDAK_BISA_MEMPERBARUI_FIELD_LAIN
Tidak dapat memperbarui kolom <tableName>
tipe <typeName>
DELTA_CANNOT_UPDATE_STRUCT_FIELD
Tidak dapat memperbarui bidang <tableName>
jenis <fieldName>
: perbarui struct dengan menambahkan, menghapus, atau memperbarui bidangnya
TIDAK DAPAT MENGGUNAKAN SEMUA KOLOM UNTUK PARTISI
Tidak dapat menggunakan semua kolom untuk kolom partisi
DELTA_CANNOT_VACUUM_LITE
VACUUM
LITE tidak dapat menghapus semua file yang memenuhi syarat karena beberapa file tidak dirujuk oleh log Delta. Silakan jalankan VACUUM FULL
.
DELTA_TIDAK_BISA_MENULIS_KE_TAMPILAN
<table>
adalah tampilan. Menulis ke tampilan tidak didukung.
DELTA_CAST_OVERFLOW_IN_TABLE_WRITE
Gagal menulis nilai jenis <sourceType>
ke dalam kolom jenis <targetType>
<columnName>
karena kelebihan kapasitas.
Gunakan try_cast
pada nilai input untuk mentolerir luapan dan mengembalikan NULL
sebagai gantinya.
Jika perlu, atur <storeAssignmentPolicyFlag>
ke "LEGACY
" untuk melewati kesalahan ini atau mengatur <updateAndMergeCastingFollowsAnsiEnabledFlag>
ke true untuk kembali ke perilaku lama dan mengikuti <ansiEnabledFlag>
di UPDATE
dan MERGE
.
DELTA_CDC_TIDAK_DIPERBOLEHKAN_DALAM_VERSI_INI
Konfigurasi delta.enableChangeDataFeed tidak dapat diatur. Umpan data perubahan dari Delta belum tersedia.
DELTA_CHANGE_DATA_FEED_INCOMPATIBLE_DATA_SCHEMA
Pengambilan perubahan tabel antara versi <start>
dan <end>
gagal karena skema data yang tidak kompatibel.
Skema baca Anda <readSchema>
pada versi <readVersion>
, tetapi kami menemukan skema data yang tidak kompatibel pada versi <incompatibleVersion>
.
Jika memungkinkan, silakan ambil perubahan tabel menggunakan skema versi akhir dengan mengatur <config>
ke endVersion
, atau hubungi dukungan.
DELTA_PERUBAHAN_DATA_FEED_PERUBAHAN_SKEMA_TIDAK_KOMPATIBEL
Gagal mengambil perubahan tabel antara versi <start>
dan <end>
karena perubahan skema yang tidak cocok.
Skema baca Anda <readSchema>
pada versi <readVersion>
, tetapi kami menemukan perubahan skema yang tidak kompatibel pada versi <incompatibleVersion>
.
Jika memungkinkan, silakan kueri perubahan tabel secara terpisah dari versi <start>
ke <incompatibleVersion>
- 1, dan dari versi <incompatibleVersion>
ke <end>
.
FILE DATA PERUBAHAN DELTA TIDAK DITEMUKAN
File <filePath>
yang dirujuk dalam log transaksi tidak dapat ditemukan. Ini dapat terjadi ketika data telah dihapus secara manual dari sistem file daripada menggunakan tabel DELETE
pernyataan. Permintaan ini tampaknya menargetkan Umpan Data Perubahan, jika benar demikian, kesalahan ini dapat terjadi ketika file data perubahan melewati periode retensi dan telah dihapus oleh pernyataan VACUUM
. Untuk informasi selengkapnya, lihat <faqPath>
UMPAN_TABEL_PERUBAHAN_DELTA_NONAKTIF
Tidak dapat menulis ke tabel dengan set delta.enableChangeDataFeed. Perubahan umpan data dari Delta tidak tersedia.
TABEL_TIDAK_ADA_DELTA_CHECKPOINT
Tidak dapat memeriksa tabel yang tidak ada <path>
. Apakah Anda menghapus file secara manual di direktori _delta_log?
DELTA_CLONE_AMBIGUOUS_TARGET
Dua jalur disediakan sebagai target CLONE
, sehingga menjadi ambigu jalur mana yang harus digunakan. Suatu eksternal
lokasi untuk CLONE
diberikan pada <externalLocation>
bersamaan dengan rute
<targetIdentifier>
.
SALINAN_DELTA_FILE_TIDAK_SEMPURNA
File (<fileName>
) tidak disalin sepenuhnya. Ukuran file yang diharapkan: <expectedSize>
, ditemukan: <actualSize>
. Untuk melanjutkan operasi dengan mengabaikan pemeriksaan ukuran file, setel <config>
menjadi false.
Sumber DELTA_CLONE tidak didukung
Sumber kloning <mode>
yang tidak didukung '<name>
', yang formatnya <format>
.
Format yang didukung adalah 'delta', 'gunung es' dan 'parquet'.
DELTA_CLUSTERING_CLONE_TABLE_NOT_SUPPORTED (Fitur ini tidak didukung)
CLONE
tidak didukung untuk tabel Delta dengan pengklusteran Liquid untuk versi DBR < 14.0.
TIPE_DATA_KOLOM_CLUSTER_DELTA_TIDAK_DIDUKUNG
CLUSTER BY
tidak didukung karena kolom berikut: <columnsWithDataTypes>
tidak mendukung lompati data.
KETIDAKCOCOKAN_KOLOM_CLUSTER_DELTA
Kolom pengklusteran yang disediakan tidak cocok dengan tabel yang ada.
- disediakan:
<providedClusteringColumns>
- tersedia:
<existingClusteringColumns>
DELTA_CLUSTERING_KOLOM_TANPA_STATISTIK
Pengklusteran cairan mengharuskan kolom pengklusteran memiliki statistik. Tidak dapat menemukan kolom pengklusteran '<columns>
' dalam skema statistik:
<schema>
PEMBUATAN_CLUSTER_DELTA_BUAT_TABEL_EKSTERNAL_NON_CAIR_DARI_TABEL_CAIR
Membuat tabel eksternal tanpa pengklusteran cair dari direktori tabel dengan pengklusteran cairan tidak diperbolehkan; jalur: <path>
.
"KLASTERISASI_DELTA_TIDAK_DIDUKUNG (DELTA_CLUSTERING_NOT_SUPPORTED)"
'<operation>
' tidak mendukung pengklusteran.
Penghentian Fase Delta Clustering Gagal
Tidak dapat melengkapi <phaseOutType>
dari tabel dengan fitur tabel <tableFeatureToAdd>
(alasan: <reason>
). Silakan coba perintah OPTIMIZE
lagi.
== Kesalahan ==
<error>
PENGGANTIAN_CLUSTER_DELTA_MENGGANTI_TABEL_DENGAN_TABEL_TERPARTISI
REPLACE
tabel Delta dengan pengelompokan Liquid pada tabel yang dipartisi tidak diizinkan.
TABEL_TANPA_KOLOM_CLUSTERING_TAMPILKAN_PEMBUATAN_DELTA_CLUSTERING
SHOW CREATE TABLE
tidak didukung untuk tabel Delta dengan pengklusteran Liquid tanpa kolom pengklusteran apa pun.
DELTA_CLUSTERING_KE_TABEL_TERPARTISI_DENGAN_KOLOM_CLUSTERING_TIDAK_KOSONG
Transisi tabel Delta dengan pengklusteran Liquid ke tabel yang dipartisi tidak diizinkan untuk operasi: <operation>
, ketika tabel yang ada memiliki kolom pengklusteran yang tidak kosong.
Jalankan ALTER TABLE CLUSTER BY
NONE untuk menghapus kolom pengklusteran terlebih dahulu.
KLASTERING_DELTA_DENGAN_PEMBARUAN_PARTISI_DINAMIS
Mode timpa partisi dinamis tidak diizinkan untuk tabel Delta dengan pengklusteran Liquid.
DELTA_PENGELOMPOKAN_DENGAN_PARTISI_PREDIKAT
OPTIMIZE
perintah untuk tabel Delta dengan pengklusteran Liquid tidak mendukung predikat partisi. Silakan hapus predikat: <predicates>
.
Delta_Clustering_With_ZOrder_By
perintah OPTIMIZE
untuk tabel Delta dengan pengklusteran Liquid tidak dapat menentukan ZORDER BY
. Silakan hapus ZORDER BY (<zOrderBy>
).
Kluster Delta oleh Jumlah Kolom yang Tidak Valid
CLUSTER BY
untuk pengklusteran Liquid mendukung hingga <numColumnsLimit>
kolom pengklusteran, tetapi tabel memiliki kolom pengklusteran <actualNumColumns>
. Hapus kolom pengklusteran tambahan.
KLUSTER_DELTA_MENURUT_SKEMA_TIDAK_DISEDIKAN
Tidak diperbolehkan menentukan CLUSTER BY
ketika skema tidak ditentukan. Tentukan skema untuk tabel <tableName>
.
DELTA_KLOMPKBERSAMA_DENGAN_PENGELOMPOKAN
Pengklusteran dan pengelompokan tidak bisa dilakukan sekaligus. Hapus CLUSTERED BY INTO BUCKETS
/ bucketBy jika Anda ingin membuat tabel Delta dengan pengklusteran.
DELTA_CLUSTER_DENGAN_PARTISI_DENGAN
Pengklusteran dan pemartisian tidak dapat ditentukan keduanya. Hapus PARTITIONED BY
/ partitionBy / partitionedBy jika Anda ingin membuat tabel Delta dengan pengklusteran.
KOLOKASI_DELTA_TIDAK_DIDUKUNG
Kolatasi tidak didukung di Delta Lake.
DELTA_KOLOM_PELEWATAN_DATA_TIDAK_DIDUKUNG_KOLOM_TERPARTISI
Pengabaian data tidak didukung untuk kolom partisi '<column>
'.
DELTA_COLUMN_TIPE_LEWATI_DATA_TIDAK_DIDUKUNG
Pengabaian data tidak didukung untuk kolom '<column>
' dengan tipe <type>
.
PEMETAAN_KOLOM_DELTA_ID_KOLOM_MAKS_BELUM_DISET
Properti id kolom maksimum (<prop>
) tidak diatur pada tabel yang diaktifkan pemetaan kolom.
PEMETAAN_KOLOM_DELTA_MAX_COLUMN_ID_TIDAK_DITETAPKAN_DENGAN_BENAR
Properti id kolom maksimum (<prop>
) pada tabel dengan pemetaan kolom diaktifkan, yaitu <tableMax>
, yang tidak dapat lebih kecil dari id kolom maksimum untuk semua kolom (<fieldMax>
).
KOLOM_DELTA_TIPE_DATA_HILANG
Tipe data kolom <colName>
tidak disediakan.
KOLOM_DELTA_TIDAK_DITEMUKAN
Tidak dapat menemukan kolom <columnName>
yang diberikan [<columnList>
]
Kolom_DELTA_Tidak_Ditemukan_dalam_Penggabungan
Tidak dapat menemukan kolom '<targetCol>
' dari tabel target dari kolom INSERT
: <colNames>
. klausa INSERT
harus menentukan nilai untuk semua kolom tabel target.
KOLOM_DELTA_TIDAK_DITEMUKAN_DALAM_SKEMA
Tidak dapat menemukan kolom <columnName>
di:
<tableSchema>
JALUR_KOLOM_DELTA_TIDAK_BERLAPIS
Diharapkan <columnPath>
menjadi jenis data berlapis, tetapi ditemukan <other>
. Sedang mencari
indeks <column>
di bidang bertingkat.
Skema:
<schema>
DELTA_KOLOM_TIPE_STRUKTUR_TIDAK_SESUAI
Kolom struktur <source>
tidak dapat disisipkan ke dalam bidang <targetType>
<targetField>
di <targetTable>
.
KONDISI_PENGALIHAN_SEMENTARA_KOMIT_DELTA
Tidak dapat menangani komitmen tabel dalam kondisi tabel pengalihan '<state>
'.
Validasi Pemadatan Delta Gagal
Validasi pemadatan jalur <compactedPath>
ke <newPath>
gagal: Silakan ajukan laporan bug.
Tipe kompleks kolom DELTA mengandung tipe NULL
Ditemukan NullType yang bersarang di kolom <columName>
yang merupakan <dataType>
. Delta tidak mendukung penulisan NullType dalam jenis kompleks.
DELTA_PENAMBAHAN_SEKALIGUS
ConcurrentAppendException: File ditambahkan ke <partition>
oleh pembaruan bersamaan. <retryMsg> <conflictingCommit>
Lihat <docLink>
untuk detail selengkapnya.
DELTA_CONCURRENT_DELETE_DELETE
ConcurrentDeleteDeleteException: Transaksi ini mencoba menghapus satu atau beberapa file yang dihapus (misalnya <file>
) dengan pembaruan bersamaan. Silakan coba operasi ini lagi.<conflictingCommit>
Lihat <docLink>
untuk detail selengkapnya.
PENGHAPUSAN_BACA_DELTA_SEKALIGUS
ConcurrentDeleteReadException: Transaksi ini mencoba membaca satu atau beberapa file yang dihapus (misalnya <file>
) dengan pembaruan bersamaan. Silakan coba operasi ini lagi.<conflictingCommit>
Lihat <docLink>
untuk detail selengkapnya.
TRANSAKSI_SERENTAK_DELTA
ConcurrentTransactionException: Kesalahan ini terjadi ketika beberapa kueri streaming menggunakan titik pemeriksaan yang sama untuk menulis ke dalam tabel ini. Apakah Anda menjalankan instance kueri streaming yang sama secara paralel?<conflictingCommit>
Lihat <docLink>
untuk detail selengkapnya.
TULISAN_KONKUREN_DELTA
ConcurrentWriteException: Transaksi bersamaan telah menulis data baru sejak transaksi saat ini membaca tabel. Silakan coba operasi ini lagi.<conflictingCommit>
Lihat <docLink>
untuk detail selengkapnya.
KOLOM_SET_KONFLIK_DELTA
Ada konflik pada kolom SET
berikut: <columnList>
.
PENGLIMPAHAN_KONFIGURASI_DELTA_TIDAK_DIDUKUNG_DALAM_PERINTAH
Selama <command>
, konfigurasi "<configuration>
" tidak dapat diatur dari perintah . Silakan hapus dari klausa TBLPROPERTIES
lalu coba lagi perintah tersebut.
Pembaruan Delta Tidak Didukung Dalam Sesi
Selama <command>
, konfigurasi "<configuration>
" tidak dapat diatur dari konfigurasi SparkSession. Silakan batalkan pengaturan dengan menjalankan spark.conf.unset("<configuration>")
lalu coba lagi perintah tersebut.
KONSTRAIN_DELTA_SUDAH_ADA
Batasan '<constraintName>
' sudah ada. Hapus batasan lama terlebih dahulu.
Batasan lama:
<oldConstraint>
Ketidakcocokan Tipe Data Aturan Delta
<columnName>
kolom memiliki tipe data <columnType>
dan tidak dapat diubah menjadi tipe data <dataType>
karena kolom ini direferensikan oleh batasan pemeriksaan berikut:
<constraints>
PERUBAHAN_KOLOM_TERGANTUNG_KONSTRAN_DELTA
Tidak dapat mengubah <columnName>
kolom karena kolom ini dirujuk oleh batasan pemeriksaan berikut:
<constraints>
KONSTRUKSI_DELTA_TIDAK_ADA
Tidak dapat menghilangkan batasan yang tidak ada <constraintName>
dari tabel <tableName>
. Untuk menghindari kesalahan, berikan parameter IF EXISTS
atau atur konfigurasi sesi SQL <config>
ke <confValue>
.
Konversi Delta-Merge-on-Read Tidak Didukung
Perubahan tabel Merge-On-Read <format>
tidak didukung: <path>
, <hint>
DELTA_KONVERSI_TIDAK_ADA_PARTISI_YANG_DITEMUKAN
Tidak menemukan informasi partisi dalam katalog untuk tabel <tableName>
. Apakah Anda menjalankan "MSCK REPAIR TABLE
" di tabel Anda untuk menemukan partisi?
DELTA_KONVERSI_TIDAK_DIDUKUNG_KOLOM_PARTISI_TERKOLEKSI
Tidak bisa mengonversi tabel Parquet dengan kolom partisi tersusun <colName>
ke Delta.
KONVERSI_DELTA_PEMETAAN_KOLOM_TIDAK_DIDUKUNG
Konfigurasi '<config>
' tidak dapat diatur ke <mode>
saat menggunakan CONVERT
TO DELTA
.
KONVERSI_DELTA_PERUBAHAN_SKEMA_TIDAK_DIDUKUNG
Perubahan skema yang tidak didukung ditemukan untuk tabel <format>
: <path>
, <hint>
DELTA_CONVERT_NON_PARQUET_TABLE
CONVERT
TO DELTA
hanya mendukung tabel bertipe parquet, tetapi Anda mencoba mengonversi sumber bertipe <sourceName>
: <tableId>
Konversi Delta ke Pelacakan Baris Delta Tanpa Statistik
Tidak dapat mengaktifkan pelacakan baris tanpa mengumpulkan statistik.
Jika Anda ingin mengaktifkan pelacakan baris, lakukan hal berikut:
- Aktifkan pengumpulan statistik dengan menjalankan perintah
SET <statisticsCollectionPropertyKey>
= benar
- Jalankan
CONVERT
hinggaDELTA
tanpa opsi TIDAKSTATISTICS
.
Jika Anda tidak ingin mengumpulkan statistik, nonaktifkan pelacakan baris:
- Nonaktifkan pengaktifan fitur tabel secara default dengan menjalankan perintah:
RESET <rowTrackingTableFeatureDefaultKey>
- Nonaktifkan properti tabel secara default dengan menjalankan:
SET <rowTrackingDefaultPropertyKey>
= salah
DELTA_COPY_INTO_TARGET_FORMAT
target COPY INTO
harus berupa tabel Delta.
DELTA_CREATE_EXTERNAL_TABLE_WITHOUT_SCHEMA
Anda mencoba membuat tabel eksternal <tableName>
dari <path>
menggunakan Delta, tetapi skema tidak ditentukan ketika
jalur input kosong.
Untuk mempelajari selengkapnya tentang Delta, lihat <docLink>
Buat Tabel Eksternal Delta Tanpa Log Transaksi
Anda mencoba membuat tabel eksternal <tableName>
dari %2$s
menggunakan Delta, tetapi log transaksi tidak tersedia.
%2$s/_delta_log
. Periksa pekerjaan upstream untuk memastikan bahwa pekerjaan tersebut sedang menulis menggunakan
format("delta") dan bahwa jalur adalah akar tabel.
Untuk mempelajari selengkapnya tentang Delta, lihat <docLink>
DELTA_KETIDAKCOCOKAN_LOKASI_IDENTIFIER_PADA_PERINTAH_BUAT_TABEL
Membuat tabel Delta berbasis jalur dengan lokasi lain tidak didukung. Pengidentifikasi: <identifier>
, Lokasi: <location>
DELTAMEMBUAT_TABEL_NAMA_TABEL_ATAU_LOKASI_HILANG
Nama tabel atau lokasi harus ditentukan.
PERBEDAAN_SKEMA_PENCIPTAAN_TABEL_DELTA
Skema yang ditentukan tidak cocok dengan skema yang ada pada <path>
.
== Ditentukan ==
<specifiedSchema>
== Yang Ada ==
<existingSchema>
== Perbedaan ==
<schemaDifferences>
Jika tujuan Anda adalah untuk menyimpan skema yang ada, Anda dapat menghilangkan
skema dari perintah buat tabel. Jika tidak, pastikan bahwa
Skema tersebut sesuai.
FITUR_PENGELOMPOKAN_TABEL_SET_CREATE_DELTA_TIDAK_DIPERBOLEHKAN
Fitur tabel <tableFeature>
tidak dapat diaktifkan menggunakan TBLPROPERTIES
. Gunakan CREATE
ATAU REPLACE TABLE CLUSTER BY
untuk membuat tabel Delta dengan pengklusteran.
PENCIPTAAN_TABEL_DELTA_DENGAN_PENGELOMPOKAN_BERBEDA
Kolom pengklusteran yang ditentukan tidak cocok dengan kolom pengklusteran yang ada di <path>
.
== Ditentukan ==
<specifiedColumns>
== Yang Ada ==
<existingColumns>
DELTA_BUAT_TABEL_DENGAN_PARTISI_BERBEDA
Partisi yang ditentukan tidak cocok dengan partisi yang ada di <path>
.
== Ditentukan ==
<specifiedColumns>
== Yang Ada ==
<existingColumns>
Buat_Tabel_DELTA_Dengan_Properti_Berbeda
Properti yang ditentukan tidak sesuai dengan properti yang ada di <path>
.
== Ditentukan ==
<specifiedProperties>
== Yang Ada ==
<existingProperties>
"Tabel Delta Dibuat dengan Lokasi yang Tidak Kosong"
Tidak dapat membuat tabel ('<tableId>
'). Lokasi terkait ('<tableLocation>
') tidak kosong dan juga bukan tabel Delta.
DELTA_DATA_CHANGE_FALSE
Tidak dapat mengubah metadata tabel karena opsi 'dataChange' diatur ke false. Operasi yang dicoba: '<op>
'.
FILE_PARQUET_DELTA_DIHAPUS_TIDAK_DITEMUKAN
File <filePath>
yang dirujuk dalam log transaksi tidak dapat ditemukan. File parquet ini dapat dihapus sesuai kebijakan retensi data Delta.
Durasi retensi data bawaan Delta: <logRetentionPeriod>
. Waktu modifikasi file parquet: <modificationTime>
. Waktu penghapusan file parquet: <deletionTime>
. Dihapus pada versi Delta: <deletionVersion>
.
VEKTOR_PENGHAPUSAN_DELTA_KEHILANGAN_JML_REKAMAN
Tidak valid untuk mengikat file dengan vektor penghapusan yang tidak memiliki statistik numRecords.
METADATA_DOMAIN_DELTA_TIDAK_DIDUKUNG
Tindakan DomainMetadata yang terdeteksi untuk domain <domainNames>
, tetapi DomainMetadataTableFeature tidak diaktifkan.
DELTA_DROP_KOLOM_PADA_INDEKS_KURANG_DARI_NOL
Indeks <columnIndex>
untuk menghapus kolom kurang dari 0
DELTA_DROP_COLUMN_ON_SINGLE_FIELD_SCHEMA (DELTA_HAPUS_KOLOM_PADA_SKEMA_SATU_FIELD)
Tidak dapat menghapus kolom dari skema dengan satu kolom. Skema:
<schema>
DELTA_DUPLICATE_ACTIONS_FOUND
Operasi file '<actionType>
' untuk jalur <path>
ditentukan beberapa kali.
Ini bertentang dengan <conflictingPath>
.
Tidak valid untuk memiliki beberapa operasi file dengan jalur yang sama dalam satu commit.
Ditemukan Kolom Duplikat Delta
Ditemukan kolom duplikat <coltype>
: <duplicateCols>
DELTA_DUPLICATE_COLUMNS_ON_INSERT
Nama kolom duplikat dalam klausa INSERT
KOLOM_DUPLIKAT_PADA_TABEL_PEMBARUAN_DELTA
<message>
Hapus kolom duplikat sebelum Anda memperbarui tabel Anda.
DELTA_DUPLIKASI_DATA_MELOMPATI_KOLOM
Kolom lompati data duplikat ditemukan: <columns>
.
KESALAHAN_INTERNAL_DUPLIKAT_DELTA_METADATA_DOMAIN
Kesalahan internal: dua tindakan DomainMetadata dalam transaksi yang sama memiliki domain yang sama <domainName>
Deserialisasi Histogram Delta DV
Tidak dapat mendeserialisasi histogram jumlah rekaman yang dihapus selama verifikasi integritas tabel.
Pembaruan Partisi Dinamis Delta Nonaktif
Modus timpa partisi dinamis ditentukan oleh konfigurasi sesi atau opsi penulisan, tetapi dinonaktifkan oleh spark.databricks.delta.dynamicPartitionOverwrite.enabled=false
.
DELTA_EMPTY_DATA
Data yang digunakan dalam membuat tabel Delta tidak memiliki kolom apa pun.
DELTA_EMPTY_DIRECTORY
Tidak ada file yang ditemukan di direktori: <directory>
.
DELTA_MELEBIHI_BATAS_VARCHAR_KARAKTER
Nilai "<value>
" melebihi batasan panjang jenis karakter/varchar. Pemeriksaan gagal: <expr>
.
DELTA_GAGAL_CAST_NILAI_PARTISI
Gagal mengubah nilai partisi <value>
menjadi <dataType>
GAGAL_DELTA_MENEMUKAN_ATRIBUT_DI_KOLOM_OUTPUT
Tidak dapat menemukan <newAttributeName>
di antara <targetOutputColumns>
output target yang ada
DELTA_GAGAL_MENDETEKSI_SKEMA
Gagal menyimpulkan skema dari daftar file yang diberikan.
DELTA_FAILED_MERGE_SCHEMA_FILE
Gagal menggabungkan skema file <file>
:
<schema>
DELTA_FAILED_READ_FILE_FOOTER
Tidak dapat membaca footer untuk file: <currentFile>
DELTA_GAGAL_MENGENALI_PREDIKAT
Tidak dapat mengenali predikat '<predicate>
'
DELTA_GAGAL_PEMINDAIAN_DENGAN_VERSI_SEJARAH
Harapkan pemindaian penuh dari versi terbaru sumber Delta, tetapi menemukan pemindaian historis versi <historicalVersion>
DELTA_GAGAL_MENGGABUNGKAN_BIDANG-BIDANG
Gagal menggabungkan bidang '<currentField>
' dan '<updateField>
'
Delta_Fitur_Protokol_Meta_Data_Tidak_Sesuai
Tidak dapat beroperasi pada tabel ini karena fitur tabel berikut diaktifkan dalam metadata tetapi tidak tercantum dalam protokol: <features>
.
Fitur Delta Memerlukan Pengaktifan Manual
Skema tabel Anda memerlukan pengaktifan fitur tabel berikut secara manual: <unsupportedFeatures>
.
Untuk melakukan ini, jalankan perintah berikut untuk setiap fitur yang tercantum di atas:
ALTER TABLE
table_name SET TBLPROPERTIES
('delta.feature.feature_name' = 'didukung')
Ganti "table_name" dan "feature_name" dengan nilai nyata.
Fitur yang didukung saat ini: <supportedFeatures>
.
FITUR_DELTA_HANYA_DAPAT_MENGHILANGKAN_PERLINDUNGAN_CHECKPOINT_DENGAN_PEMOTONGAN_SEJARAH
Tidak dapat menghilangkan fitur Perlindungan Titik Pemeriksaan.
Fitur ini hanya dapat dihilangkan dengan memotong riwayat.
Silakan coba lagi dengan opsi TRUNCATE HISTORY
:
ALTER TABLE
nama_tabel DROP FEATURE
perlindunganCheckpoint TRUNCATE HISTORY
DELTA_FEATURE_DROP_CHECKPOINT_FAILED
Penurunan <featureName>
gagal karena kegagalan dalam pembuatan titik pemeriksaan.
Silakan coba lagi nanti. Masalah berlanjut, hubungi dukungan Databricks.
PERUBAHAN_FITUR_HAPUS_TITIK_KONTROL_PERLINDUNGAN_MENUNGGU_MASA_RETENSI
Operasi tidak berhasil karena masih ada jejak fitur yang dihilangkan
dalam riwayat tabel. CheckpointProtection tidak dapat dihapus hingga histori ini
versi telah kedaluwarsa.
Untuk menghilangkan CheckpointProtection, harap tunggu versi historisnya
kedaluwarsa, lalu ulangi perintah ini. Periode retensi untuk versi historis adalah
saat ini dikonfigurasi untuk <truncateHistoryLogRetentionPeriod>
.
GAGAL_VALIDASI_ULANG_KONFLIK_FITUR_DELTA_HAPUS
Tidak dapat menghilangkan fitur karena transaksi bersamaan mengubah tabel.
Silakan coba operasi ini lagi.
<concurrentCommit>
PENGHAPUSAN_FITUR_DELTA_FITUR_BERGANTUNG
Tidak dapat menghilangkan fitur tabel <feature>
karena beberapa fitur lain (<dependentFeatures>
) dalam tabel ini bergantung pada <feature>
.
Pertimbangkan untuk menghilangkannya terlebih dahulu sebelum menghilangkan fitur ini.
FITUR_DELTA_DROP_FITUR_TIDAK_ADA
Tidak dapat menghilangkan <feature>
dari tabel ini karena saat ini tidak ada dalam protokol tabel.
FITUR_DELTA_DROPT_VERSI_HISTORIS_ADA
Tidak dapat menghilangkan <feature>
karena log Delta berisi versi historis yang menggunakan fitur tersebut.
Harap tunggu hingga periode retensi riwayat (<logRetentionPeriodKey>=<logRetentionPeriod>
)
sudah berlalu sejak fitur tersebut terakhir kali aktif.
Atau, tunggu hingga periode retensi TRUNCATE HISTORY
kedaluwarsa (<truncateHistoryLogRetentionPeriod>
)
lalu jalankan:
ALTER TABLE
nama_tabel DROP FEATURE
nama_fitur TRUNCATE HISTORY
TRUNCASI RIWAYAT DROP_FITUR DELTA TIDAK DIIZINKAN
Fitur tertentu tidak memerlukan pemotongan riwayat.
DELTA_FEATURE_DROP_NONREMOVABLE_FEATURE
Tidak dapat menghapus <feature>
karena penghapusan fitur ini tidak didukung.
Silakan hubungi dukungan Databricks.
FITUR_DELTA_GUGUR_FITUR_KLIEN_TIDAK_DIDUKUNG
Tidak dapat menghilangkan <feature>
karena tidak didukung oleh versi Databricks ini.
Pertimbangkan untuk menggunakan Databricks dengan versi yang lebih tinggi.
Fitur_Hapus_Delta_Tunggu_Periode_Retensi
Menghilangkan <feature>
sebagian berhasil.
Fitur ini sekarang tidak lagi digunakan dalam versi tabel saat ini. Namun, fitur
masih ada dalam versi-versi historis dari tabel. Fitur tabel tidak dapat dihilangkan
dari protokol tabel hingga versi historis ini kedaluwarsa.
Untuk menghilangkan fitur tabel dari protokol, harap tunggu hingga versi historis tersedia.
kedaluwarsa, lalu ulangi perintah ini. Periode retensi untuk versi historis adalah
saat ini dikonfigurasi sebagai <logRetentionPeriodKey>=<logRetentionPeriod>
.
Atau, tunggu hingga periode retensi TRUNCATE HISTORY
kedaluwarsa (<truncateHistoryLogRetentionPeriod>
)
lalu jalankan:
ALTER TABLE
nama_tabel DROP FEATURE
nama_fitur TRUNCATE HISTORY
Fitur Delta Memerlukan Versi Pembaca yang Lebih Tinggi
Tidak dapat mengaktifkan fitur tabel <feature>
karena memerlukan versi protokol pembaca yang lebih tinggi (saat ini <current>
). Pertimbangkan untuk meningkatkan versi protokol pembaca tabel ke <required>
, atau ke versi yang mendukung fitur tabel pembaca. Lihat <docLink>
untuk informasi selengkapnya tentang versi protokol tabel.
FITUR_DELTA_MEMBUTUHKAN_VERSI_PENULIS_YANG_LEBIH_TINGGI
Tidak dapat mengaktifkan fitur tabel <feature>
karena memerlukan versi protokol penulis yang lebih tinggi (saat ini <current>
). Pertimbangkan untuk meningkatkan versi protokol penulis tabel ke <required>
, atau ke versi yang mendukung fitur tabel penulis. Lihat <docLink>
untuk informasi selengkapnya tentang versi protokol tabel.
FILE_DELTA_SUDAH_ADA
Jalur file yang ada <path>
Daftar_berkas_delta_dan_konflik_pola_string
Tidak dapat menentukan daftar file dan string pola.
BERKAS_DELTA_TIDAK_DITEMUKAN
Jalur file <path>
BERKAS_DELTA_TIDAK_DITEMUKAN_DETAIL
File <filePath>
yang dirujuk dalam log transaksi tidak dapat ditemukan. Ini terjadi ketika data telah dihapus secara manual dari sistem file daripada menggunakan tabel DELETE
pernyataan. Untuk informasi selengkapnya, lihat <faqPath>
BERKAS_OR_DIR_DELTA_TIDAK_DITEMUKAN
Tidak ada file atau direktori seperti itu: <path>
FILE_DELTA_YANG_AKAN_DITIMPA_TIDAK_DITEMUKAN
File (<path>
) yang akan ditulis ulang tidak ditemukan di antara file kandidat:
<pathList>
DELTA_FOUND_MAP_TYPE_COLUMN
MapType ditemukan. Untuk mengakses kunci atau nilai MapType, tentukan satu
dari:
<key>
atau
<value>
diikuti dengan nama kolom (hanya jika kolom tersebut adalah jenis struct).
contoh mymap.key.mykey
Jika kolom adalah jenis dasar, mymap.key atau mymap.value sudah cukup.
Skema:
<schema>
KETIDAKSESUAIAN_TIPEG_DATA_KOLOM_TERGENERASI_DELTA
<columnName>
kolom memiliki tipe data <columnType>
dan tidak dapat diubah menjadi tipe data <dataType>
karena kolom ini direferensikan oleh kolom yang dihasilkan berikut:
<generatedColumns>
DELTA_PERUBAHAN_KOLOM_TERGENERASI_KOLOM_DEPENDEN
Tidak dapat mengubah kolom <columnName>
karena kolom ini dirujuk oleh kolom yang dihasilkan berikut ini:
<generatedColumns>
DELTA_GENERATED_COLUMNS_EXPR_TYPE_MISMATCH
Jenis ekspresi dari kolom yang dihasilkan <columnName>
adalah <expressionType>
, tetapi jenis kolomnya adalah <columnType>
KETIDAKCOCOKAN_JENIS_PEMBARUAN_KOLOM_TERGENERASI_DELTA
Kolom <currentName>
adalah kolom yang dihasilkan atau kolom yang digunakan oleh kolom yang dihasilkan. Jenis data <currentDataType>
dan tidak dapat dikonversi ke jenis data <updateDataType>
DELTA_GEOSPATIAL_TIDAK_DIDUKUNG
Jenis geospasial tidak didukung dalam versi Delta Lake ini.
DELTA_ICEBERG_COMPAT_VIOLATION
Validasi IcebergCompatV<version>
telah gagal.
Untuk informasi lebih lanjut, lihat DELTA_ICEBERG_COMPAT_VIOLATION
KOLOM_IDENTITAS_DELTA_MENGUBAH_KOLOM_TIDAK_DIDUKUNG
ALTER TABLE ALTER COLUMN
tidak didukung untuk kolom IDENTITY
.
KOLOM_IDENTITAS_DELTA_ALTER_FORMAT_NON_DELTA
ALTER TABLE ALTER COLUMN SYNC IDENTITY
hanya didukung oleh Delta.
Kolom_Identitas_Delta_Alter_Kolom_Non_Identitas
ALTER TABLE ALTER COLUMN SYNC IDENTITY
tidak dapat dipanggil pada kolom non IDENTITY
.
SISIPAN EKSPILISIT KOLOM IDENTITAS DELTA TIDAK DIDUKUNG
Menyediakan nilai untuk kolom GENERATED ALWAYS
sebagai IDENTITY
<colName>
tidak didukung.
KOLOM_IDENTITAS_DELTA_LANGKAH_TIDAK_SAH
IDENTITY
langkah kolom tidak boleh bernilai 0.
DELTA_IDENTITY_COLUMNS_NON_DELTA_FORMAT
IDENTITY
kolom hanya didukung oleh Delta.
Kolom identitas Delta partisi tidak didukung
PARTITIONED BY IDENTITY
kolom <colName>
tidak didukung.
Penggantian kolom identitas DELTA tidak didukung
ALTER TABLE REPLACE COLUMNS
tidak didukung untuk tabel dengan kolom IDENTITY
.
DATA_TYPE_TIDAK_DIDUKUNG_KOLOM_IDENTITAS_DELTA
DataType <dataType>
tidak didukung untuk kolom IDENTITY
.
Kolom identitas Delta tidak didukung untuk diperbarui - DELTA_IDENTITY_COLUMNS_UPDATE_NOT_SUPPORTED
UPDATE
pada kolom IDENTITY
<colName>
tidak didukung.
KOLOM_IDENTITAS_DELTA_DENGAN_EKSPRESI_TERGENERASI
IDENTITY
kolom tidak dapat ditentukan dengan ekspresi kolom yang dihasilkan.
DELTA_ILLEGAL_OPTION
Nilai tidak valid '<input>
' untuk opsi '<name>
', <explain>
DELTA_ILLEGAL_USAGE
Penggunaan <option>
tidak diizinkan saat <operation>
tabel Delta.
DELTA_INCONSISTENT_BUCKET_SPEC
BucketSpec pada tabel Delta yang di-bucket tidak cocok dengan BucketSpec dari metadata. Yang diharapkan: <expected>
. Aktual: <actual>
.
DELTA_INCONSISTENT_LOGSTORE_CONFS
(<setKeys>
) tidak dapat diatur ke nilai yang berbeda. Harap hanya atur salah satunya, atau atur ke nilai yang sama.
DELTA_INCORRECT_ARRAY_ACCESS
Salah mengakses sebuah "ArrayType". Gunakan posisi dari arrayname.element.elementname untuk
tambahkan ke array.
DELTA_INCORRECT_ARRAY_ACCESS_BY_NAME
ArrayType ditemukan. Untuk mengakses elemen ArrayType, tentukan
<rightName>
alih-alih <wrongName>
.
Skema:
<schema>
DELTA_TIDAK_BENAR_DAPAT_KONF
Gunakan getConf()
alih-alih 'conf.getConf()
DELTA_PENERAPAN_PENYIMPANAN_LOG_TIDAK_BENAR
Kesalahan biasanya terjadi ketika implementasi LogStore default, yang
adalah, HDFSLogStore, digunakan untuk menulis ke dalam tabel Delta pada sistem penyimpanan non-HDFS.
Untuk mendapatkan jaminan ACID transaksional pada pembaruan tabel, Anda harus menggunakan
implementasi LogStore yang benar yang sesuai untuk sistem penyimpanan Anda.
Lihat <docLink>
untuk detailnya.
INDEKS_DELTA_LEBIH_BESAR_ATAU_SAMA_DENGAN_STRUKTUR
Indeks <position>
untuk menghilangkan kolom sama dengan atau lebih besar dari panjang struktur: <length>
INDEKS_DELTA_LEBIH_BESAR_DARI_STRUKTUR
Indeks <index>
untuk menambahkan kolom <columnName>
lebih besar dari panjang struktur: <length>
DELTA_INSERT_COLUMN_ARITY_MISMATCH
Tidak dapat menulis ke '<tableName>
', <columnName>
; tabel target memiliki kolom <numColumns>
tetapi data yang disisipkan memiliki kolom <insertColumns>
DELTA_PENYISIPAN_KOLOM_TIDAK_SESUAI
Kolom <columnName>
tidak ditentukan di INSERT
TIPE_OTOMATIS_KOMPAK_TIDAK_VALID_DELTA
Jenis ringkas otomatis tidak valid: <value>
. Nilai yang diizinkan adalah: <allowed>
.
JUMLAH_BUCKET_TIDAK_VALID
Jumlah wadah tidak valid: <invalidBucketCount>
. Jumlah bucket harus berupa angka positif yang merupakan pangkat dua dan setidaknya 8. Anda dapat menggunakan <validBucketCount>
sebagai gantinya.
DELTA_INVALID_BUCKET_INDEX (Indeks Ember Tidak Valid)
Tidak dapat menemukan kolom wadah di kolom partisi
DELTA_INVALID_CALENDAR_INTERVAL_EMPTY
Interval tidak boleh null atau kosong.
DELTA_RENTANG_CDC_TIDAK_VALID
Rentang CDC dari awal <start>
hingga akhir <end>
tidak valid. Akhiri tidak boleh sebelum memulai.
DELTA_KARAKTER_TIDAK_VALID_DALAM_NAMA_KOLOM
Nama atribut "<columnName>
" berisi karakter yang tidak valid di antara " ,;{}()\n\t=". Silakan gunakan alias untuk mengganti namanya.
DELTA_KARAKTER_TIDAK_VALID_DALAM_NAMA_KOLOM
Ditemukan karakter yang tidak valid di antara ' ,;{}()nt=' dalam nama kolom skema Anda.
Nama kolom tidak valid: <invalidColumnNames>
.
Silakan gunakan karakter lain dan coba lagi.
Atau, aktifkan Pemetaan Kolom untuk tetap menggunakan karakter ini.
DELTA_INVALID_CLONE_PATH
Lokasi target untuk CLONE
harus merupakan jalur absolut atau nama tabel. Menggunakan
gunakan jalur absolut daripada <path>
.
DELTA_NAMA_KOLOM_TIDAK_VALID_SAAT_MENGHAPUS_PEMETAAN_KOLOM
Ditemukan karakter yang tidak valid di antara ' ,;{}()nt=' dalam nama kolom skema Anda.
Nama kolom tidak valid: <invalidColumnNames>
.
Pemetaan kolom tidak dapat dihapus ketika ada karakter yang tidak valid dalam nama kolom.
Ganti nama kolom untuk menghapus karakter yang tidak valid dan jalankan perintah ini lagi.
DELTA_INVALID_FORMAT
Format yang tidak kompatibel terdeteksi.
Log transaksi untuk Delta ditemukan di <deltaRootPath>
/_delta_log'',
Namun, Anda mencoba memformat <operation> <path>
dengan format("<format>
"). Anda harus menggunakan
Gunakan 'format("delta")' saat membaca dan menulis ke tabel delta.
Untuk mempelajari selengkapnya tentang Delta, lihat <docLink>
DELTA_REFERENSI_KOLOM_TERGENERASI_TIDAK_VALID
Kolom yang dihasilkan tidak dapat menggunakan kolom yang tidak ada atau kolom lain yang dihasilkan
OPSI_PENULISAN_IDEMPOTEN_TIDAK_VALID_DELTA
Opsi yang tidak valid untuk penulisan Dataframe idempoten: <reason>
DELTA_INVALID_INTERVAL
<interval>
bukan INTERVAL
yang valid.
DELTA_SKEMA_INVENTARIS_TIDAK_VALID
Skema untuk INVENTORY
yang ditentukan tidak berisi semua bidang yang diperlukan. Bidang yang diperlukan adalah: <expectedSchema>
LEVEL_ISOLASI_DELTA_TIDAK_VALID
tingkat isolasi tidak valid '<isolationLevel>
'
DELTA_INVALID_LOGSTORE_CONF (Konfigurasi Logstore Delta Tidak Valid)
(<classConfig>
) dan (<schemeConfig>
) tidak dapat diatur secara bersamaan. Harap atur hanya satu grup dari mereka.
DELTA_INVALID_MANAGED_TABLE_SYNTAX_NO_SCHEMA
Anda mencoba membuat tabel terkelola <tableName>
menggunakan Delta, tetapi skema tidak ditentukan.
Untuk mempelajari selengkapnya tentang Delta, lihat <docLink>
DELTA_INVALID_PARTITION_COLUMN
<columnName>
bukan kolom partisi yang valid dalam tabel <tableName>
.
NAMA_KOLOM_PARTISI_DELTA_TIDAK_VALID
Ditemukan kolom partisi yang memiliki karakter yang tidak valid di antara " ,;{}()nt=". Silakan ubah nama menjadi kolom partisi Anda. Pemeriksaan ini dapat dinonaktifkan dengan mengatur spark.conf.set("spark.databricks.delta.partitionColumnValidity.enabled", false) namun ini tidak disarankan karena fitur Delta lainnya mungkin tidak berfungsi dengan baik.
KESALAHAN_DELTA_TIPE_KOLOM_PARTISI_TIDAK_VALID
Menggunakan kolom <name>
dari jenis <dataType>
sebagai kolom partisi tidak didukung.
DELTA_JALUR_PARTISI_TIDAK_VALID
Fragmen jalur partisi harus berupa formulir seperti part1=foo/part2=bar
. Jalur partisi: <path>
DELTA_TURUNAN_PROTOKOL_TIDAK_VALID
Versi protokol tidak dapat diturunkan dari <oldProtocol>
ke <newProtocol>
DELTA_VERSI_PROTOKOL_TIDAK_VALID
Versi protokol Delta yang tidak didukung: tabel "<tableNameOrPath>
" memerlukan versi pembaca <readerRequired>
dan versi penulis <writerRequired>
, tetapi versi Databricks ini mendukung versi pembaca <supportedReaders>
dan versi penulis <supportedWriters>
. Silakan tingkatkan ke rilis yang lebih baru.
FUNGSI_NILAI_TABEL_TIDAK_VALID_DELTA
Fungsi <function>
adalah fungsi bernilai tabel yang tidak didukung untuk pembacaan data CDC.
DELTA_INVALID_TIMESTAMP_FORMAT
Tanda waktu yang disediakan <timestamp>
tidak cocok dengan sintaks yang diharapkan <format>
.
DELTA_LOG_ALREADY_EXISTS
Log Delta sudah ada di <path>
FILE_LOG_DELTA_TIDAK_DITEMUKAN_UNTUK_SUMBER_STREAMING
Jika Anda tidak pernah menghapusnya, kemungkinan kueri Anda tertinggal. Hapus cek poinnya untuk memulai dari awal. Untuk menghindari hal ini terjadi lagi, Anda dapat memperbarui kebijakan retensi tabel Delta Anda
NAMA_KOLOM_PELACAKAN_BARIS_TERWUJUD_DELTA_HILANG
Nama kolom <rowTrackingColumn>
termaterialisasi hilang untuk <tableName>
.
UKURAN_ARRAY_DELTA_MAKSIMUM_TERLEBIHI
Gunakan batas kurang dari Int.MaxValue - 8.
Upaya komit maksimum DELTA terlampaui
Commit ini gagal karena sudah dicoba <numAttempts>
kali namun tidak berhasil.
Ini dapat disebabkan oleh tabel Delta yang diperbarui terus menerus oleh banyak proses bersamaan
Komitmen
Penerapan dimulai pada versi: <startVersion>
Komit gagal pada versi: <failVersion>
Jumlah tindakan yang coba dilakukan: <numActions>
Total waktu yang dihabiskan untuk mencoba penerapan ini: <timeSpent>
ms
DAFTAR_FILE_MAKSIMUM_DELTA_DILAMPAUI
Daftar file harus memiliki paling banyak entri <maxFileListSize>
, memiliki <numFiles>
.
DELTA_GABUNG_TAMBAH_KOLOM_KOSONG
Tidak dapat menambahkan kolom <newColumn>
dengan tipe VOID. Tentukan tipe non-void secara eksplisit.
DELTA_MERGE_TIPE_DATA_TIDAK_KOMPATIBEL
Gagal menggabungkan <currentDataType>
dan <updateDataType>
tipe data yang tidak kompatibel
DELTA_MERGE_TIPE_DESIMAL_TIDAK_KOMPATIBEL
Gagal menggabungkan jenis desimal yang tidak kompatibel dengan <decimalRanges>
.
DELTA_GABUNGAN_MATERIALISASI_SUMBER_GAGAL_BERULANG
Mempertahankan sumber pernyataan MERGE
dalam bentuk yang ada telah gagal berulang kali.
PENGGABUNGAN_DELTA_HILANG_KAPAN
Harus ada setidaknya satu klausa WHEN
dalam pernyataan MERGE
.
ATTRIBUT_DELTA_GABUNGAN_TERSURUH_HILANG_DARI_INPUT
Atribut yang sudah diselesaikan <missingAttributes>
hilang dari <input>
di operator <merge>
KESALAHAN_PENUGASAN_TIDAK_TERDUGA_DELTA_MERGE
Kunci penetapan tak terduga: <unexpectedKeyClass>
- <unexpectedKeyObject>
DELTA_MERGE_UNRESOLVED_EXPRESSION
Tidak dapat menyelesaikan <sqlExpr>
dalam <clause>
dengan <cols>
.
DELTA_METADATA_BERUBAH
MetadataChangedException: Metadata tabel Delta telah diubah oleh pembaruan yang berlangsung secara bersamaan. Silakan coba operasi ini lagi.<conflictingCommit>
DATA_PERUBAHAN_HILANG_DELTA
Kesalahan saat mendapatkan data perubahan untuk rentang [<startVersion>
, <endVersion>
] karena data perubahan tidak tersedia.
direkam untuk versi [<version>
]. Jika Anda telah mengaktifkan umpan data perubahan pada tabel ini,
gunakan DESCRIBE HISTORY
untuk melihat kapan pertama kali diaktifkan.
Jika tidak, untuk mulai merekam data perubahan, gunakan ALTER
TABLE' table_name SET TBLPROPERTIES
(<key>
=true)'.
DELTA_KOLOM_HILANG
Tidak dapat menemukan <columnName>
dalam kolom tabel: <columnList>
Delta, informasi komit hilang
Tabel ini memiliki fitur <featureName>
diaktifkan yang membutuhkan keberadaan aksi CommitInfo di setiap commit. Namun, tindakan CommitInfo hilang dari versi komit <version>
.
DELTA_MISSING_COMMIT_TIMESTAMP (stempel waktu komit hilang)
Tabel ini memiliki fitur <featureName>
diaktifkan yang memerlukan kehadiran commitTimestamp dalam tindakan CommitInfo. Namun, bidang ini belum ditetapkan dalam versi commit <version>
.
TABEL_DELTA_HILANG_DELTA
<tableName>
bukan tabel Delta.
DELTA_MISSING_DELTA_TABLE_COPY_INTO
Tabel tidak ditemukan. Buat tabel Delta kosong terlebih dahulu menggunakan CREATE TABLE <tableName>
.
DELTA_MISSING_ICEBERG_CLASS
Kelas 'Iceberg' tidak ditemukan. Pastikan dukungan Delta Iceberg diinstal.
Silakan merujuk ke <docLink>
untuk detail selengkapnya.
DELTA_MISSING_NOT_NULL_COLUMN_VALUE
Kolom <columnName>
, yang memiliki batasan NOT NULL
, hilang dari data yang ditulis ke dalam tabel.
DELTA_PARTISI_KOLOM_HILANG
Kolom partisi <columnName>
tidak ditemukan dalam <columnList>
skema
BAGIAN_FILE_DELTA_HILANG
Tidak dapat menemukan semua file bagian dari versi titik pemeriksaan: <version>
DELTA_TIDAK_ADA_PROVIDER_UNTUK_MENGONVERSI
CONVERT
TO DELTA
hanya mendukung tabel parquet. Silakan ubah target Anda menjadi parquet.`<path>`
jika itu adalah direktori dengan format parquet.
DELTA_MISSING_SET_COLUMN
SET
kolom <columnName>
tidak ditemukan. Kolom yang tersedia: <columnList>
.
Catatan_Transaksi_Hilang_DELTA
Format yang tidak kompatibel terdeteksi.
Anda mencoba <operation> <path>
menggunakan Delta, tetapi tidak ada
ada log transaksi. Periksa pekerjaan hulu untuk memastikan bahwa tugas tersebut sedang menulis
menggunakan format("delta") dan Anda mencoba melakukan %1$s pada jalur dasar tabel.
Untuk mempelajari selengkapnya tentang Delta, lihat <docLink>
MODE_DELTA_TIDAK_DIDUKUNG
Mode yang ditentukan '<mode>
' tidak didukung. Mode yang didukung adalah: <supportedModes>
DELTA_MULTIPLE_CDC_BOUNDARY
Beberapa argumen <startingOrEnding>
telah disediakan untuk pembacaan CDC. Harap sediakan salah satu dari Tanda Waktu <startingOrEnding>
atau Versi <startingOrEnding>
.
DELTA_KONFIGURASI_GANDA_UNTUK_KOLOM_TUNGGAL_DALAM_BLOOM_FILTER
Beberapa konfigurasi indeks filter mekar diteruskan ke perintah untuk kolom: <columnName>
DELTA_BARIS_SUMBER_BERGANDA_COCOK_DENGAN_BARIS_TARGET_DALAM_MERGE
Tidak dapat melakukan Penggabungan karena beberapa baris sumber cocok dan mencoba mengubah yang sama
baris target dalam tabel Delta dengan cara yang mungkin bertentangan. Dengan semantik SQL dari Merge,
ketika beberapa baris sumber cocok pada baris target yang sama, hasilnya mungkin ambigu
karena tidak jelas baris sumber mana yang harus digunakan untuk memperbarui atau menghapus yang cocok
baris sasaran Anda dapat melakukan pra-pemrosesan tabel sumber untuk menghilangkan kemungkinan
berbagai pertandingan. Silakan merujuk ke
<usageReference>
DELTA_HARUS_MENGATUR_SEMUA_KOMIT_KOORDINASI_KONF_DI_PERINTAH
Selama <command>
, kedua konfigurasi komit terkoordinasi ("delta.coordinatedCommits.commitCoordinator-preview", "delta.coordinatedCommits.commitCoordinatorConf-preview") diatur dalam perintah atau tidak satupun dari mereka diatur. Hilang: "<configuration>
". Tentukan konfigurasi ini dalam klausa TBLPROPERTIES
atau hapus konfigurasi lain, lalu coba lagi perintah tersebut.
DELTA_HARUS_MENETAPKAN_SEMUA_KOMITMEN_TERKOORDINASI_KONFS_DALAM_SESI
Selama <command>
, kedua konfigurasi commits terkoordinasi ("coordinatedCommits.commitCoordinator-preview", "coordinatedCommits.commitCoordinatorConf-preview") diatur dalam konfigurasi SparkSession atau tidak keduanya. Hilang: "<configuration>
". Atur konfigurasi ini di SparkSession atau batalkan pengaturan konfigurasi lainnya, lalu coba lagi perintah tersebut.
Konflik Nama Delta dalam Tabel Berkeranjang
Nama kolom berikut diperuntukkan hanya untuk penggunaan internal tabel yang dibagi ke dalam bucket Delta: <names>
DELTA_BIDANG_TERSARANG_PERLU_MENAMAI_ULANG
Skema input berisi bidang bersarang yang di-kapitalisasi secara berbeda dari tabel target.
Nama mereka perlu diubah untuk menghindari hilangnya data di bidang ini saat menulis ke Delta.
Bidang:
<fields>
.
Skema asli:
<schema>
KONSTRUKSI_DELTA_BERSARANG_TIDAK_NULL
Jenis bidang <nestType>
pada <parent>
memiliki batasan NOT NULL
. Delta tidak mendukung batasan NOT NULL
yang ditumpuk dalam array atau peta. Untuk menekan kesalahan ini dan secara diam-diam mengabaikan batasan yang ditentukan, atur <configKey>
= true.
Jenis <nestType>
yang diuraikan:
<nestedPrettyJson>
DELTA_PERTANYAAN_TERKAIT_BERSARANG_TIDAK_DIDUKUNG
Subkueri berlapis tidak didukung dalam kondisi <operation>
.
DELTA_BARU_PEMERIKSAAN_BATASAN_PELANGGARAN
<numRows>
baris di <tableName>
melanggar batasan CHECK
baru (<checkConstraint>
)
DELTA_BARU_PELANGGARAN_TIDAK_NULL
<numRows>
baris di <tableName>
melanggar batasan NOT NULL
baru pada <colName>
** DELTA_BATAS_PERIKSA_NON_BOOLEAN
CHECK
batasan '<name>
' (<expr>
) harus berupa ekspresi boolean.
DELTA_EKSPRESI_NON_DETERMINISTIK_DALAM_KOLOM_GENERASI
Ditemukan <expr>
. Kolom yang dihasilkan tidak dapat menggunakan ekspresi non deterministik.
FUNGSI_NON_DETERMINISTIK_DELTA_TIDAK_DIDUKUNG
Fungsi non-deterministik tidak didukung dalam <operation> <expression>
DELTA_KLAUSA_TERAKHIR_TIDAK_COCOK_HILANG_KONDISI
Ketika ada lebih dari satu klausa MATCHED
dalam pernyataan MERGE
, hanya klausa MATCHED
terakhir yang dapat menghilangkan kondisi.
DELTA_BUKAN_TERPADA_YANG_TIDAK_COCOK_DENGAN_KLAUSA_SUMBER_BIARKAN_KONDISI
Ketika ada lebih dari satu klausa NOT MATCHED BY SOURCE
dalam pernyataan MERGE
, hanya klausa NOT MATCHED BY SOURCE
terakhir yang dapat menghilangkan kondisi.
DELTA_TIDAK_SESUAI_TERAKHIR_PASAL_ABAIKAN_KONDISI
Ketika ada lebih dari satu klausa NOT MATCHED
dalam pernyataan MERGE
, hanya klausa NOT MATCHED
terakhir yang dapat menghilangkan kondisi
DELTA_NON_PARSABLE_TAG
Tidak dapat mengurai tag <tag>
.
Tag file adalah: <tagList>
DELTA_KOLOM_BUKAN_PARTISI_TIDAK_ADA
Data yang ditulis ke Dalam Delta perlu berisi setidaknya satu kolom yang tidak dipartisi.<details>
Referensi Kolom Non-Partisi Delta
Referensi predikat ke kolom non-partisi '<columnName>
'. Hanya kolom partisi yang dapat dirujuk: [<columnList>
]
DELTA_KOLOM_TIDAK_TERPARTISI_DITENTUKAN
Kolom non-partisi <columnList>
ditentukan di mana hanya kolom partisi yang diharapkan: <fragment>
.
KETERANGAN_NON_SATU_BAGIAN_NAMESPACE_UNTUK_KATALOG
Katalog Delta memerlukan namespace bagian tunggal, tetapi <identifier>
adalah multi-bagian.
Koordinator Komitmen Tanpa UC Delta Tidak Didukung dalam Perintah
Mengatur koordinator penerapan ke '<nonUcCoordinatorName>
' dari perintah tidak didukung, karena tabel yang dikelola UC hanya dapat memiliki 'unity-catalog' sebagai koordinator penerapan. Ubah menjadi 'unity-catalog' atau hapus semua properti tabel Komit Terkoordinasi dari klausa TBLPROPERTIES
, lalu coba lagi perintah tersebut.
Koordinator Komit Delta Non-UC Tidak Didukung dalam Sesi
Mengatur koordinator penerapan ke '<nonUcCoordinatorName>
' dari konfigurasi SparkSession tidak didukung, karena tabel yang dikelola UC hanya dapat memiliki 'unity-catalog' sebagai koordinator penerapan. Ubah menjadi 'unity-catalog' dengan menjalankan spark.conf.set("<coordinatorNameDefaultKey>", "unity-catalog")
, atau hapus semua properti tabel Komit Terkoordinasi dari konfigurasi SparkSession dengan menjalankan spark.conf.unset("<coordinatorNameDefaultKey>")
, spark.conf.unset("<coordinatorConfDefaultKey>")
, spark.conf.unset("<tableConfDefaultKey>")
, lalu coba lagi perintah .
DELTA_BUKAN_TABEL_DELTA_DATABRICKS
<table>
bukan tabel Delta. Silakan letakkan tabel ini terlebih dahulu jika Anda ingin membuatnya dengan Databricks Delta.
DELTA_BUKAN_TABEL_DELTA
<tableName>
bukan tabel Delta. Silakan hapus tabel ini dahulu jika Anda ingin membuatnya kembali dengan Delta Lake.
KOLOM_DELTA_TIDAK_NULL_TIDAK_DITEMUKAN_DALAM_STRUCT
Kolom tidak dapat diubah ke null tidak ditemukan dalam struct: <struct>
PELANGGARAN_PERATURAN_DELTA_TIDAK_BOLEH_NULL
batasan NOT NULL
dilanggar untuk kolom: <columnName>
.
DELTA_TIDAK_NULL_BIDANG_BERTINGKAT
Bidang berlapis yang tidak dapat bernilai null tidak dapat ditambahkan ke induk yang dapat bernilai null. Atur nullability kolom induk sesuai kondisi yang diperlukan.
DELTA_TIDAK_ADA_KOMIT_YANG_DITEMUKAN
Tidak ada komit yang ditemukan di <logPath>
DELTA_TIDAK_ADA_RIWAYAT_YANG_BISA_DIBUAT_ULANG_DITEMUKAN
Tidak ada komit yang dapat direproduksi ditemukan di <logPath>
TIDAK ADA PELANGGARAN ATURAN PENGALIHAN
Operasi tidak diizinkan: <operation>
tidak dapat dilakukan pada tabel dengan fitur pengalihan.
Aturan tanpa pengalihan tidak terpenuhi <noRedirectRules>
.
DELTA_NO_RELATION_TABLE
Tabel <tableIdent>
tidak ditemukan
DELTA_TIDAK_MULAI_UNTUK_MEMBACA_CDC
Tidak ada startingVersion atau startingTimestamp yang disediakan untuk pembacaan data CDC.
SKEMA_NULL_DELTA_DALAM_PENULISAN_STREAMING
Delta tidak menerima NullTypes dalam skema untuk penulisan streaming.
DELTA_ONEOF_IN_TIMETRAVEL
Harap sediakan 'timestampAsOf' atau 'versionAsOf' untuk perjalanan waktu.
Operasi Hanya Delta
<operation>
hanya didukung untuk tabel Delta.
OPERASI_DELTA_JALUR_HILANG
Harap berikan pengidentifikasi jalur atau tabel untuk <operation>
.
OPERASI_DELTA_TIDAK_DIPERBOLEHKAN
Operasi tidak diizinkan: <operation>
tidak didukung untuk tabel Delta
Operasi Delta Tidak Diizinkan (Detail)
Operasi tidak diizinkan: <operation>
tidak didukung untuk tabel Delta: <tableName>
OPERASI_DELTA_TIDAK_DIDUKUNG_UNTUK_KOLOM_DENGAN_KOLEKSI
<operation>
tidak didukung untuk kolom <colName>
dengan kolasi <collation>
yang bukan default.
OPERASI_DELTA_TIDAK_DIDUKUNG_UNTUK_EKSPRESI_DENGAN_KOLASI
<operation>
tidak didukung untuk ekspresi <exprText>
karena menggunakan kolatasi non-default.
OPERASI_DELTA_PADA_VIEW_SEMENTARA_DENGAN_KOLOM_GENERASI_TIDAK_DIDUKUNG
<operation>
perintah pada tampilan sementara yang mengacu pada tabel Delta yang berisi kolom yang dihasilkan tidak didukung. Jalankan perintah <operation>
pada tabel Delta secara langsung
Operasi Delta pada Tampilan Tidak Diizinkan
Operasi tidak diizinkan: <operation>
tidak dapat dilakukan pada tampilan.
DELTA_OPTIMASI_PENUH_TIDAK_DIDUKUNG
OPTIMIZE FULL
hanya didukung untuk tabel berkluster dengan kolom pengklusteran yang tidak kosong.
DELTA_OVERWRITE_MUST_BE_TRUE
Opsi salin overwriteSchema tidak dapat ditentukan tanpa pengaturan OVERWRITE
= 'true'.
SKEMA_TIMPALAN_DELTA_DENGAN_PENGGANTIAN_PARTISI_DINAMIS
'overwriteSchema' tidak boleh digunakan dalam mode timpa partisi dinamis.
DELTA_PARTITION_COLUMN_CAST_FAILED
Gagal mentransmisikan nilai <value>
ke <dataType>
kolom partisi <columnName>
DELTA_PARTITION_COLUMN_NOT_FOUND
Kolom partisi <columnName>
tidak ditemukan dalam skema [<schemaMap>
]
Skema Partisi Delta dalam Tabel Iceberg
Skema partisi tidak dapat ditentukan saat mengonversi tabel Iceberg. Ini secara otomatis disimpulkan.
JALUR_DELTA_TIDAK_ADA
<path>
tidak ada, atau bukan tabel Delta.
DELTA_PATH_EXISTS
Tidak dapat menulis ke jalur yang sudah ada <path>
tanpa menetapkan OVERWRITE
= 'true'.
DELTA_POST_COMMIT_HOOK_FAILED
Komitmen ke versi tabel Delta <version>
berhasil, tetapi terjadi kesalahan saat menjalankan hook setelah komitmen <name> <message>
PROTOKOL_DELTA_BERUBAH
ProtocolChangedException: Versi protokol tabel Delta telah diubah oleh pembaruan bersamaan. <additionalInfo> <conflictingCommit>
Lihat <docLink>
untuk detail selengkapnya.
DELTA_PROTOCOL_PROPERTY_NOT_INT
Properti protokol <key>
harus berupa bilangan bulat. Ditemukan <value>
Protokol DELTA_READ_FEATURE membutuhkan akses menulis
Tidak dapat memutakhirkan versi protokol pembaca saja untuk menggunakan fitur tabel. Versi protokol penulis setidaknya harus <writerVersion>
untuk melanjutkan. Lihat <docLink>
untuk informasi selengkapnya tentang versi protokol tabel.
BACA_TABEL_DELTA_TANPA_KOLOM
Anda mencoba membaca tabel Delta <tableName>
yang tidak memiliki kolom apa pun.
Tulis beberapa data baru dengan opsi mergeSchema = true
untuk dapat membaca tabel.
DELTA_REGEX_OPT_SYNTAX_ERROR
Silakan periksa ulang sintaks Anda untuk '<regExpOption>
'
DELTA_GANTI_DIMANA_DALAM_TIMPA
Anda tidak dapat menggunakan replaceWhere bersamaan dengan penimpaaan melalui filter.
GANTI_DELTA_SAAT_TIDAK_SESUAI
Data tertulis tidak memenuhi kondisi penggantian sebagian tabel atau batasan '<replaceWhere>
'.
<message>
DELTA_REPLACE_WHERE_WITH_DYNAMIC_PARTITION_OVERWRITE
Ekspresi 'replaceWhere' dan 'partitionOverwriteMode'='dynamic' tidak dapat diatur dalam opsi DataFrameWriter.
DELTA_GANTI_DIMANA_DENGAN_FILTER_PERUBAHAN_DATA_TIDAK_TERATUR
'replaceWhere' tidak dapat digunakan dengan filter data saat 'dataChange' diatur ke false. Filter: <dataFilters>
PENUGASAN_DELTA_ROW_ID_TANPA_STATISTIK
Tidak dapat menetapkan ID baris tanpa statistik jumlah baris.
Collect statistics for the table by running the following code in a Scala notebook and retry:
import com.databricks.sql.transaction.tahoe.DeltaLog
import com.databricks.sql.transaction.tahoe.stats.StatisticsCollection
import org.apache.spark.sql.catalyst.TableIdentifier
val log = DeltaLog.forTable(spark, TableIdentifier(table_name))
StatisticsCollection.recompute(spark, log)
SKEMA_DELTA_BERUBAH
Perubahan skema yang terdeteksi:
skema sumber streaming: <readSchema>
skema data file: <dataSchema>
Silakan coba mulai ulang pertanyaannya. Jika masalah ini berulang di seluruh kueri dimulai ulang tanpa
dalam membuat kemajuan, Anda telah melakukan perubahan skema yang tidak kompatibel dan perlu memulai kembali
lakukan kueri dari awal menggunakan direktori checkpoint baru.
SKEMA_DELTA_BERUBAH_DENGAN_OPSI_AWAL
Perubahan skema yang terdeteksi dalam versi <version>
:
skema sumber streaming: <readSchema>
skema data file: <dataSchema>
Silakan coba mulai ulang pertanyaannya. Jika masalah ini berulang di seluruh kueri dimulai ulang tanpa
dalam membuat kemajuan, Anda telah melakukan perubahan skema yang tidak kompatibel dan perlu memulai kembali
lakukan kueri dari awal menggunakan direktori checkpoint baru. Jika masalah berlanjut setelah
mengubah ke direktori titik pemeriksaan baru, Anda mungkin perlu mengubah yang sudah ada
Opsi 'startingVersion' atau 'startingTimestamp' untuk memulai dari versi yang lebih baru dari
<version>
dengan direktori titik pemeriksaan baru.
PERUBAHAN_SKEMA_DELTA_DENGAN_VERSI
Perubahan skema yang terdeteksi dalam versi <version>
:
skema sumber streaming: <readSchema>
skema data file: <dataSchema>
Silakan coba mulai ulang pertanyaannya. Jika masalah ini berulang di seluruh kueri dimulai ulang tanpa
dalam membuat kemajuan, Anda telah melakukan perubahan skema yang tidak kompatibel dan perlu memulai kembali
lakukan kueri dari awal menggunakan direktori checkpoint baru.
PERUBAHAN_SKEMA_DELTA_SEJAK_ANALISIS
Skema tabel Delta Anda telah berubah dengan cara yang tidak kompatibel sejak DataFrame Anda
atau objek DeltaTable dibuat. Tentukan ulang objek DataFrame atau DeltaTable Anda.
Perubahan:
<schemaDiff> <legacyFlagMessage>
SKEMA_DELTA_TIDAK_DIBERIKAN
Skema tabel tidak disediakan. Harap berikan skema (definisi kolom) tabel saat menggunakan tabel REPLACE
dan kueri SELECT
AS tidak disediakan.
SKEMA_DELTA_BELUM_DITETAPKAN
Skema tabel belum ditetapkan. Tulis data ke dalamnya atau gunakan CREATE TABLE
untuk mengatur skema.
KETIDAKCOCOKAN_SKEMA_LOKASI_DELTA_SET
Skema lokasi Delta baru berbeda dari skema tabel saat ini.
skema asli:
<original>
skema tujuan:
<destination>
Jika ini adalah perubahan yang dimaksudkan, Anda dapat menonaktifkan pemeriksaan ini dengan menjalankan:
%%sql atur <config>
= benar
DELTA_BERKAS_KLONING_SEMENTARA_TIDAK_DITEMUKAN
File <filePath>
yang dirujuk dalam log transaksi tidak dapat ditemukan. Ini dapat terjadi ketika data telah dihapus secara manual dari sistem file daripada menggunakan tabel DELETE
pernyataan. Tabel ini tampaknya merupakan kloning dangkal, jika demikian, kesalahan ini dapat terjadi ketika tabel asli tempat tabel ini dikloning telah menghapus file yang masih digunakan kloning. Jika Anda ingin ada kloning yang independen dari tabel asli, gunakan klon DEEP sebagai gantinya.
DELTA_SHARING_TIDAK_DAPAT_MENGUBAH_PROPERTI_PENERIMA_YANG_DIPESAN
Properti yang telah didefinisikan sebelumnya yang dimulai dengan <prefix>
tidak dapat dimodifikasi.
DELTA_SHARING_CURRENT_RECIPIENT_PROPERTY_UNDEFINED
Data dibatasi oleh properti penerima <property>
yang tidak berlaku untuk penerima saat ini dalam sesi.
Untuk informasi lebih lanjut, lihat DELTA_SHARING_CURRENT_RECIPIENT_PROPERTY_UNDEFINED
TINDAKAN_TIDAK_VALID_PADA_TAMPILAN_BERSAMA_EKSTERNAL
<operation>
tidak dapat digunakan dalam tampilan Delta Sharing yang dibagikan lintas akun.
DELTA_SHARING_OTENTIKASI_PENYEDIA_TIDAK_VALID
Jenis autentikasi ilegal <authenticationType>
untuk penyedia <provider>
.
PENERIMA_OTENTIKASI_TIDAK_VALID_DELTA_BAGIKAN
Jenis autentikasi ilegal <authenticationType>
untuk penerima <recipient>
.
DELTA_SHARING_NAMA_OBJEK_DATA_BERSAMA_TIDAK_VALID
Nama tidak valid untuk mereferensikan <type>
di dalam fitur berbagi. Anda dapat menggunakan nama <type>
dalam pembagian sesuai format [skema].[<type>
], atau Anda juga dapat menggunakan nama lengkap asli tabel dengan format [katalog].[skema].[>tipe>].
Jika Anda tidak yakin tentang nama yang harus digunakan, Anda dapat menjalankan "SHOW ALL IN SHARE
[share]" dan menemukan nama <type>
yang akan dihapus: kolom "name" adalah nama <type>
di dalam share dan kolom "shared_object" adalah nama lengkap asli <type>
.
DELTA_SHARING_MAXIMUM_RECIPIENT_TOKENS_EXCEEDED
Ada lebih dari dua token untuk penerima <recipient>
.
Properti Penerima Delta Sharing Tidak Ditemukan
Properti penerima <property>
tidak ada.
DELTA_SHARING_RECIPIENT_TOKENS_TIDAK_DITEMUKAN
Token penerima hilang untuk penerima <recipient>
.
DELTA_TAMPILKAN_PARTISI_DI_KOLOM_BERPARTISI
Kolom non-partisi <badCols>
ditentukan untuk SHOW PARTITIONS
Tampilkan Partisi di Tabel Tanpa Partisi Delta
SHOW PARTITIONS
tidak diizinkan pada tabel yang tidak dipartisi: <tableName>
DELTA_SOURCE_IGNORE_DELETE
Data yang dihapus ditemukan (misalnya <removedFile>
) dari sumber streaming pada versi ke-<version>
. Ini saat ini tidak didukung. Jika Anda ingin mengabaikan penghapusan, atur opsi 'ignoreDeletes' ke 'true'. Tabel sumber dapat ditemukan di jalur <dataPath>
.
DELTA_SOURCES_TABEL_ABAIKAN_PERUBAHAN
Mendeteksi pembaruan data (misalnya <file>
) dalam tabel sumber pada versi <version>
. Ini saat ini tidak didukung. Jika ini akan terjadi secara teratur dan Anda tidak masalah untuk mengabaikan perubahan, atur opsi 'skipChangeCommits' ke 'true'. Jika Anda ingin pembaruan data tercermin, mulai ulang kueri ini dengan direktori titik pemeriksaan baru atau lakukan refresh penuh jika Anda menggunakan DLT. Jika Anda perlu menangani perubahan ini, silakan beralih ke MV. Tabel sumber dapat ditemukan di jalur <dataPath>
.
DELTA_VERSI_AWAL_DAN_CAP_WAKTU_KEDUA_DISETEL
Harap sediakan '<version>
' atau '<timestamp>
'
DELTA_STATS_COLLECTION_COLUMN_NOT_FOUND
Dalam metadata Parquet, statistik <statsType>
tidak ditemukan untuk kolom: <columnPath>
.
DELTA_STREAMING_TIDAK_DAPAT_MELANJUTKAN_PEMROSESAN_SETELAH_EVOLUSI_SKEMA
Kami telah mendeteksi satu atau beberapa perubahan skema non-aditif (<opType>
) antara versi Delta <previousSchemaChangeVersion>
dan <currentSchemaChangeVersion>
di sumber streaming Delta.
Silakan periksa apakah Anda ingin menyebarkan perubahan skema secara manual ke tabel sink sebelum kami melanjutkan pemrosesan aliran menggunakan skema yang diselesaikan pada <currentSchemaChangeVersion>
.
Setelah Anda memperbaiki skema tabel sink atau memutuskan tidak perlu diperbaiki, Anda dapat mengatur (salah satu) konfigurasi SQL berikut untuk membuka blokir perubahan skema non-aditif dan melanjutkan pemrosesan aliran.
Untuk membuka blokir aliran khusus ini hanya untuk rangkaian perubahan skema ini: atur <allowCkptVerKey> = <allowCkptVerValue>
.
Untuk membuka blokir aliran khusus ini: atur <allowCkptKey> = <allowCkptValue>
Untuk membuka blokir semua stream: setel <allowAllKey> = <allowAllValue>
.
Atau jika berlaku, Anda dapat mengganti <allowAllMode>
dengan <opSpecificMode>
di conf SQL untuk membuka blokir aliran hanya untuk jenis perubahan skema ini.
PEMERIKSAAN_DELTA_STREAMING_PEMETAAN_KOLOM_TANPA_CUPLIKAN
Gagal mendapatkan rekam jepret log Delta untuk versi mulai saat memeriksa perubahan skema pemetaan kolom. Pilih versi mulai yang berbeda, atau aktifkan secara paksa pembacaan streaming dengan risiko Anda sendiri dengan mengatur '<config>
' ke 'true'.
PERUBAHAN_SKEMA_TIDAK_KOMPATIBEL_DELTA_STREAMING
Pembacaan streaming tidak didukung pada tabel dengan perubahan skema yang tidak kompatibel dengan pembacaan, seperti mengganti nama, menghapus, atau mengubah jenis data.
Untuk informasi lebih lanjut dan kemungkinan langkah berikutnya untuk mengatasi masalah ini, silakan tinjau dokumentasi di <docLink>
Baca skema: <readSchema>
. Skema data yang tidak kompatibel: <incompatibleSchema>
.
DELTA_STREAMING_INCOMPATIBLE_SCHEMA_CHANGE_USE_SCHEMA_LOG
Pembacaan streaming tidak didukung pada tabel dengan perubahan skema yang tidak kompatibel dengan pembacaan, seperti mengganti nama, menghapus, atau mengubah jenis data.
Harap sediakan 'schemaTrackingLocation' untuk mengaktifkan evolusi skema non-aditif untuk pemrosesan aliran Delta.
Lihat <docLink>
untuk detail selengkapnya.
Baca skema: <readSchema>
. Skema data yang tidak kompatibel: <incompatibleSchema>
.
DELTA_STREAMING_METADATA_EVOLUTION
Skema, konfigurasi tabel, atau protokol tabel Delta Anda telah berubah selama streaming.
Log pelacakan skema atau metadata telah diperbarui.
Mulai ulang aliran untuk melanjutkan pemrosesan menggunakan metadata yang diperbarui.
Skema yang diperbarui: <schema>
.
Konfigurasi tabel yang diperbarui: <config>
.
Protokol tabel yang diperbarui: <protocol>
DELTA_STREAMING_SCHEMA_EVOLUTION_UNSUPPORTED_ROW_FILTER_COLUMN_MASKS
Streaming dari tabel sumber <tableId>
dengan pelacakan skema tidak mendukung filter baris atau masker kolom.
Hapus filter baris atau masker kolom, atau nonaktifkan pelacakan skema.
Konflik Lokasi Skema Streaming Delta
Terdeteksi lokasi skema yang bertentangan pada '<loc>
' ketika streaming dari tabel yang terletak di '<table>
'.
Aliran lain mungkin menggunakan kembali lokasi skema yang sama, yang tidak diizinkan.
Harap berikan jalur schemaTrackingLocation
unik baru atau streamingSourceTrackingId
sebagai opsi pembaca untuk salah satu aliran dari tabel ini.
Lokasi Skema Streaming Delta Tidak di Bawah Checkpoint
Lokasi skema '<schemaTrackingLocation>
' harus ditempatkan di bawah lokasi titik pemeriksaan '<checkpointLocation>
'.
DELTA_STREAMING_SCHEMA_LOG_DESERIALIZE_FAILED
File log yang tidak lengkap di dalam skema log sumber streaming Delta pada '<location>
'.
Log skema mungkin rusak. Silakan pilih lokasi skema baru.
SKEMA_STREAMING_DELTA_TIDAK_KOMPATIBEL_ID_TABEL_DELTA
Id tabel Delta yang terdeteksi tidak kompatibel saat mencoba membaca aliran Delta.
Id tabel yang dipertahankan: <persistedId>
, Id tabel: <tableId>
Catatan skema mungkin telah digunakan kembali. Silakan pilih lokasi skema baru.
DELTA_STREAMING_SCHEMA_LOG_SKEMA_PARTISI_TIDAK_KOMPATIBEL
Terdeteksi skema partisi yang tidak kompatibel saat mencoba membaca aliran Delta.
Skema yang bertahan: <persistedSchema>
, skema partisi Delta: <partitionSchema>
Pilih lokasi skema baru untuk menginisialisasi ulang log skema jika Anda telah mengubah skema partisi tabel secara manual baru-baru ini.
INISIALISASI_LOG_SKEMA_DELTA_STREAMING_GAGAL_META_DATA_TIDAK_KOMPATIBEL
Kami tidak dapat menginisialisasi log skema sumber streaming Delta karena
kami mendeteksi perubahan skema atau protokol yang tidak kompatibel saat melayani batch streaming dari versi tabel <a>
ke <b>
.
DELTA_STREAMING_SKEMA_LOG_GAGAL_MENGENALI_SKEMA
Gagal memproses skema dari log skema sumber streaming Delta.
Log skema mungkin rusak. Silakan pilih lokasi skema baru.
TABEL_DELTA_SUDAH_MEMILIKI_KOLOM_CDC
Tidak dapat mengaktifkan Ubah Pengambilan Data pada tabel. Tabel sudah berisi
kolom cadangan <columnList>
yang akan
digunakan secara internal sebagai metadata untuk Umpan Data Perubahan tabel. Untuk mengaktifkan
Lakukan Perubahan Umpan Data pada tabel untuk mengganti nama/hapus kolom-kolom ini.
TABEL_DELTA_SUDAH_ADA
Tabel <tableName>
sudah ada.
TABEL_DELTA_UNTUK_JALUR_CONF_HADOOP_TIDAK_DIDUKUNG
Saat ini, DeltaTable.forPath hanya mendukung kunci konfigurasi Hadoop yang dimulai dengan <allowedPrefixes>
, namun menerima <unsupportedOptions>
.
Ketidaksesuaian_ID_TABEL_DELTA (DELTA_TABLE_ID_MISMATCH)
Tabel Delta di <tableLocation>
telah diganti saat perintah ini menggunakan tabel.
Id tabel <oldId>
tetapi sekarang <newId>
.
Silakan coba lagi perintah saat ini untuk memastikannya membaca tampilan tabel yang konsisten.
KETIDAKCOCOKAN_LOKASI_TABEL_DELTA
Lokasi tabel <tableName>
yang ada adalah <existingTableLocation>
. Ini tidak cocok dengan lokasi yang ditentukan <tableLocation>
.
TABEL_DELTA_TIDAK_DITEMUKAN
Tabel Delta <tableName>
tidak ada.
TABEL_DELTA_TIDAK_DIDUKUNG_DALAM_OP
Tabel tidak didukung oleh <operation>
. Silakan gunakan jalur sebagai gantinya.
OPERASI_HANYA_TABEL_DELTA
<tableName>
bukan tabel Delta.
<operation>
hanya didukung untuk tabel Delta.
STRUKTUR_AKHIR_TABEL_TARGET_DELTA_KOSONG
Skema akhir dari tabel target tidak memiliki isi.
DELTA_TIMESTAMP_LEBIH_BESAR_DARI_COMMIT
Tanda waktu yang disediakan (<providedTimestamp>
) adalah setelah versi terbaru tersedia untuk ini
tabel (<tableName>
). Silakan gunakan tanda waktu sebelum atau pada <maximumTimestamp>
.
Cap Waktu Delta Tidak Sah
Tanda waktu yang disediakan (<expr>
) tidak dapat dikonversi ke tanda waktu yang valid.
DELTA_WAKTU_PENGEMBALIAN_TIDAK_VALID_NILAI_MULAI
<timeTravelKey>
harus menjadi nilai awal yang valid.
DELTA_CATATAN_TRANSAKSI_YANG_DIPOTONG
<path>
: Tidak dapat merekonstruksi status pada versi <version>
karena log transaksi telah dipotong karena penghapusan manual atau kebijakan penyimpanan log (<logRetentionKey>=<logRetention>
) dan kebijakan penyimpanan titik pemeriksaan (<checkpointRetentionKey>=<checkpointRetention>
)
DELTA_PENGHAPUSAN_PARTISI_TABEL_TIDAK_DIDUKUNG
Operasi tidak diizinkan: TRUNCATE TABLE
pada tabel Delta tidak mendukung predikat partisi; gunakan DELETE
untuk menghapus partisi atau baris tertentu.
DELTA_UDF_IN_GENERATED_COLUMN
Ditemukan <udfExpr>
. Kolom yang dihasilkan tidak dapat menggunakan fungsi yang ditentukan pengguna
DELTA_UNEXPECTED_ACTION_EXPRESSION (Ekspresi_Aksi_Tidak_Terduga_DELTA)
Ekspresi tindakan tak terduga <expression>
.
DELTA_JUMLAH_TAK_TERDUGA_KOLOM_PARTISI_DARI_NAMA_FILE
Mengharapkan <expectedColsSize>
kolom partisi: <expectedCols>
tetapi ditemukan <parsedColsSize>
kolom partisi: <parsedCols>
saat mem-parsing nama file: <path>
PEMINDAIAN_SEBAGIAN_TIDAK_TERDUGA_DELTA
Diantisipasi pemindaian penuh sumber Delta, tetapi ditemukan pemindaian parsial. jalur:<path>
DELTA_KOLOM_PARTISI_TIDAK_TERDUGA_DARI_NAMA_FILE
Mengharapkan kolom partisi <expectedCol>
, tetapi ditemukan kolom partisi <parsedCol>
saat mengurai nama file: <path>
DELTA_SKEMA_PARTISI_TIDAK_TERDUGA_DARI_PENGGUNA
CONVERT
TO DELTA
dipanggil dengan skema partisi yang berbeda dari skema partisi yang disimpulkan dari katalog, harap hindari menyediakan skema sehingga skema partisi dapat dipilih dari katalog.
skema partisi katalog:
<catalogPartitionSchema>
skema partisi yang disediakan:
<userPartitionSchema>
Lokasi Kompatibilitas Seragam Delta Tidak Dapat Diubah
delta.universalFormat.compatibility.location tidak dapat diubah.
LOKASI_KESESUAIAN_UNIFORM_DELTA_TIDAK_TERDAFTAR
delta.universalFormat.compatibility.location tidak terdaftar dalam katalog.
DELTA_UNIFORM_COMPATIBILITY_MISSING_OR_INVALID_LOCATION
Lokasi hilang atau tidak valid untuk format kompatibilitas Seragam. Silakan atur direktori kosong untuk delta.universalFormat.compatibility.location.
Alasan kegagalan:
Untuk detail selengkapnya, lihat DELTA_UNIFORM_COMPATIBILITY_MISSING_OR_INVALID_LOCATION
DELTA_UNIFORM_ICEBERG_INGRESS_VIOLATION
Pembacaan Iceberg menggunakan Delta Uniform telah gagal.
Untuk detail selengkapnya, lihat DELTA_UNIFORM_ICEBERG_INGRESS_VIOLATION
MASUK_DELTA_UNIFORM_TIDAK_DIDUKUNG
Membuat atau memperbarui tabel ingress seragam tidak didukung.
FORMAT PENERIMAAN DELTA UNIFORM TIDAK DIDUKUNG
Format <fileFormat>
tidak didukung. Hanya format file asli "iceberg" yang didukung.
DELTA_UNIFORM_TIDAK_DIDUKUNG
Format Universal hanya didukung pada tabel Katalog Unity.
PEMBAHARUAN_UNIFORM_DELTA_TIDAK_DIDUKUNG
REFRESH
pengidentifikasi SYNC UNIFORM
tidak didukung karena alasan:
Untuk detail selengkapnya, lihat DELTA_UNIFORM_REFRESH_NOT_SUPPORTED
DELTA_PEMBARUAN_SERAGAM_TIDAK_DIDUKUNG_UNTUK_TABEL_ICEBERG_TERKELOLA_DENGAN_PATH_METADATA
REFRESH TABLE
dengan METADATA_PATH
tidak didukung dalam tabel terkelola Iceberg
KONVERSI_FORMAT_UNIVERSAL_DELTA_GAGAL
Gagal mengonversi versi tabel <version>
ke format universal <format>
. <message>
Pelanggaran Format Universal Delta
Validasi Universal Format (<format>
) gagal: <violation>
DELTA_UNKNOWN_CONFIGURATION
Konfigurasi yang ditentukan tidak dikenal: <config>
DELTA_HAK ISTIMEWA TIDAK DIKENAL
Hak istimewa yang tidak diketahui: <privilege>
BATAS_BACA_TIDAK_DIKETAHUI_DELTA
BatasBaca Tidak Diketahui: <limit>
DELTA_PERUBAHAN_KOLOM_TIDAK_TERKENAL
Perubahan kolom yang tidak dikenal <otherClass>
. Anda mungkin menjalankan versi Delta Lake yang sudah kedaluarsa.
DELTA_UNRECOGNIZED_INVARIANT
Tidak dikenali invariabel. Silakan tingkatkan versi Spark Anda.
DELTA_UNRECOGNIZED_LOGFILE
File log yang tidak dikenali <fileName>
HAPUS_DELTA_PROPERTI_TIDAK_ADA
Mencoba untuk menghapus properti yang tidak ada '<property>
' dari tabel <tableName>
DELTA_TIDAK_DIDUKUNG_JALUR_ABS_TAMBAH_BERKAS
<path>
tidak mendukung penambahan file dengan jalur absolut
DELTA_OPERASI_UBAH_TABEL_YANG_TIDAK_DIDUKUNG_ALTER_COLOM
ALTER TABLE CHANGE COLUMN
tidak didukung untuk mengubah kolom <fieldPath>
dari <oldField>
menjadi <newField>
DELTA_TIDAK_DIDUKUNG_MENGUBAH_TABEL_GANTI_KOLOM_OP
Operasi ALTER TABLE REPLACE COLUMNS
tidak didukung. Alasan: <details>
Gagal mengubah skema dari:
<oldSchema>
ke:
<newSchema>
DELTA_TIDAK_MENDUKUNG_KLON_GANTI_TABEL_SAMA
Anda mencoba REPLACE
tabel yang ada (<tableName>
) dengan CLONE
. Operasi ini adalah
tidak didukung. Coba target lain untuk CLONE
atau hapus tabel pada target saat ini.
DELTA_PERUBAHAN_MODE_PEMETAAN_KOLOM_TIDAK_DIDUKUNG
Mengubah mode pemetaan kolom dari '<oldMode>
' menjadi '<newMode>
' tidak didukung.
OPERASI_PEMETAAN_KOLOM_YANG_TIDAK_DIDUKUNG_PADA_KOLOM_DENGAN_INDEKS_BLOOM_FILTER
Gagal melakukan operasi Pemetaan Kolom <opName>
pada kolom <columnNames>
karena kolom ini memiliki Indeks Filter Bloom.
Jika Anda ingin melakukan operasi Pemetaan Kolom pada kolom
dengan Bloom Filter Index(es),
silakan hapus Indeks Filter Bloom terlebih dahulu:
DROP BLOOMFILTER INDEX ON TABLE
FOR COLUMNS(<columnNames>
namaTabel )
Jika Anda ingin menghapus semua Indeks Filter Bloom pada tabel, gunakan:
DROP BLOOMFILTER INDEX ON TABLE
tableName
DELTA_UNSUPPORTED_COLUMN_MAPPING_PROTOCOL
Versi protokol tabel Anda saat ini tidak mendukung perubahan mode pemetaan kolom
menggunakan <config>
.
Versi protokol Delta yang diperlukan untuk pemetaan kolom:
<requiredVersion>
Versi protokol Delta tabel Anda saat ini:
<currentVersion>
<advice>
PERUBAHAN_SKEMA_PEMETAAN_KOLOM_TIDAK_DIDUKUNG_DELTA
Perubahan skema terdeteksi:
skema lama:
<oldTableSchema>
skema baru:
<newTableSchema>
Perubahan skema tidak diperbolehkan selama perubahan mode pemetaan kolom.
PENULISAN_PEMETAAN_KOLOM_TIDAK_DIDUKUNG_DELTA
Menulis data dengan mode pemetaan kolom tidak didukung.
DELTA_TIPE_KOLOM_TIDAK_DIDUKUNG_DALAM_BLOOM_FILTER
Membuat indeks filter mekar pada kolom dengan tipe <dataType>
tidak didukung: <columnName>
DELTA_TIDAK_DIDUKUNG_PETA_KOMENTAR_ARRAY
Tidak dapat menambahkan komentar ke <fieldPath>
. Menambahkan komentar ke elemen kunci/nilai atau array peta tidak didukung.
DELTA_TIPE_DATA_TIDAK_DIDUKUNG
Kolom yang ditemukan menggunakan jenis data yang tidak didukung: <dataTypeList>
. Anda dapat mengatur '<config>
' ke 'false' untuk menonaktifkan pemeriksaan jenis. Menonaktifkan pemeriksaan jenis ini dapat memungkinkan pengguna membuat tabel Delta yang tidak didukung dan hanya boleh digunakan saat mencoba membaca/menulis tabel warisan.
Jenis data yang tidak didukung di kolom yang dihasilkan.
<dataType>
tidak boleh menjadi hasil kolom yang dihasilkan
PENGKLONAN_MENYELURUH_TIDAK_DIDUKUNG_DELTA
Penggandaan penuh tidak didukung untuk versi Delta ini.
DESKRIPSI_DETAIL_VIEW_TIDAK_DIDUKUNG_DELTA
<view>
adalah tampilan.
DESCRIBE DETAIL
hanya didukung untuk tabel.
DELTA_TIDAK_DIDUKUNG_HAPUS_KOLOM_PENGGROUAN
Menghilangkan kolom pengklusteran (<columnList>
) tidak diperbolehkan.
DELTA_UNSUPPORTED_DROP_COLUMN
DROP COLUMN
tidak didukung untuk tabel Delta Anda. <advice>
DELTA_TIDAK_DIDUKUNG_MENGHAPUS_KOLOM_BERSARANG_DARI_TIPE_NON_STRUKTUR
Hanya dapat menghilangkan kolom berlapis dari StructType. Ditemukan <struct>
DELTA_TIDAK_MENDUKUNG_MENGHAPUS_KOLOM_PARTISI
Menghilangkan kolom partisi (<columnList>
) tidak diperbolehkan.
DELTA_UNSUPPORTED_EXPRESSION
Jenis ekspresi yang tidak didukung(<expType>
) untuk <causedBy>
. Jenis yang didukung adalah [<supportedTypes>
].
DELTA_EKSPRESI_TIDAK_DIDUKUNG_KOLOM_TERGENERASI
<expression>
tidak dapat digunakan dalam kolom yang dihasilkan
FITUR_YANG_TIDAK_DIDUKUNG_UNTUK_MEMBACA
Fitur baca Delta yang tidak didukung: tabel "<tableNameOrPath>
" memerlukan fitur tabel pembaca yang tidak didukung oleh versi Databricks ini: <unsupported>
. Silakan merujuk ke <link>
untuk informasi selengkapnya tentang kompatibilitas fitur Delta Lake.
FITUR_YANG_TIDAK_DIDUKUNG_DELTA_UNTUK_PENULISAN
Fitur tulis Delta yang tidak didukung: tabel "<tableNameOrPath>
" memerlukan fitur tabel penulis yang tidak didukung oleh versi Databricks ini: <unsupported>
. Silakan merujuk ke <link>
untuk informasi selengkapnya tentang kompatibilitas fitur Delta Lake.
DELTA_FITUR_YANG_TIDAK_DIDUKUNG_DALAM_KONFIGURASI
Fitur tabel yang dikonfigurasi dalam konfigurasi Spark atau properti tabel Delta berikut ini tidak dikenali oleh versi Databricks ini: <configs>
.
STATUS_FITUR_TIDAK_DIDUKUNG_DELTA
Mengharapkan status untuk fitur tabel <feature>
adalah "didukung", tetapi yang didapat "<status>
".
DELTA_Pembaruan_Bidang_Tidak_Didukung_Non-Struktural
Memperbarui bidang berlapis hanya didukung untuk StructType, tetapi Anda mencoba memperbarui bidang <columnName>
, yang berjenis: <dataType>
.
DELTA_UNSUPPORTED_FSCK_WITH_DELETION_VECTORS
Perintah 'FSCK REPAIR TABLE
' tidak didukung pada versi tabel dengan file vektor penghapusan yang hilang.
Silakan hubungi dukungan.
DELTA_TIDAK_DIDUKUNG_GENERATE_DENGAN_VEKTOR_DELETION
Perintah 'GENERATE
symlink_format_manifest' tidak didukung pada versi tabel dengan vektor penghapusan.
Untuk menghasilkan versi tabel tanpa vektor penghapusan, jalankan 'REORG TABLE
tabel APPLY (PURGE
)'. Kemudian jalankan kembali perintah 'GENERATE
'.
Pastikan bahwa tidak ada transaksi bersamaan yang menambahkan vektor penghapusan lagi antara REORG
dan GENERATE
.
Jika Anda perlu membuat manifes secara teratur, atau Anda tidak dapat mencegah transaksi bersamaan, pertimbangkan untuk menonaktifkan vektor penghapusan pada tabel ini menggunakan tabelALTER TABLE
SET TBLPROPERTIES
(delta.enableDeletionVectors = false)'.
DELTA_TIDAK_DIDUKUNG_INVARIAN_TANPA_STRUKTUR
Invarian pada bidang berlapis selain StructTypes tidak didukung.
DELTA_TIDAK_DIDUKUNG_DALAM_SUBQUERY
Subkueri tidak didukung dalam kondisi <operation>
.
DELTA_DAFTAR_KUNCI_TIDAK_DIDUKUNG_DENGAN_PREFIX
listKeywithPrefix tidak tersedia
GENERASI_MANIFEST_YANG_TIDAK_DIDUKUNG_DENGAN_PEMETAAN_KOLOM_DELTA
Pembuatan manifes tidak didukung untuk tabel yang memanfaatkan pemetaan kolom, karena pembaca eksternal tidak dapat membaca tabel Delta ini. Lihat Dokumentasi Delta untuk detail selengkapnya.
DELTA_TIDAK_MENDUKUNG_EVOLUSI_SKEMA_MERGE_DENGAN_CDC
MERGE INTO
operasi dengan evolusi skema saat ini tidak mendukung penulisan output CDC.
DELTA_TIDAK_DIDUKUNG_MULTI_KOLOM_DALAM_PREDIKAT
Predikat 'In' multi-kolom tidak didukung dalam kondisi <operation>
.
KOLUM_YANG_TERDAMPAR_TIDAK_DIDUKUNG_DI_BLOOM_FILTER
Membuat indeks filer bloom pada kolom berlapis saat ini tidak didukung: <columnName>
DELTA_BIDANG_TERSELIP_TIDAK_DIDUKUNG_DALAM_OPERASI
Bidang berlapis tidak didukung di <operation>
(bidang = <fieldName>
).
DELTA_UNSUPPORTED_NON_EMPTY_CLONE
Tabel tujuan kloning tidak kosong. Silakan TRUNCATE
atau DELETE FROM
tabel sebelum menjalankan CLONE
.
DELTA_MODE_KELUARAN_TIDAK_DIDUKUNG
<dataSource>
sumber data tidak mendukung mode output <mode>
KOLOM PARTISI TIDAK DIDUKUNG DALAM FILTER BLOOM
Membuat indeks filter mekar pada kolom partisi tidak didukung: <columnName>
DELTA_TIDAK_MENDUKUNG_UBAH_NAMA_KOLOM
Penggantian nama kolom tidak didukung untuk tabel Delta Anda. <advice>
DELTA_SKEMA_TIDAK_DIDUKUNG_SELANJUTNYA_SELAMA_BACA
Delta tidak mendukung penentukan skema pada waktu baca.
DELTA_TIDAK_DIDUKUNG_URUTKAN_DI_TABEL_BERKERANJANG
SORTED BY
tidak didukung untuk tabel wadah Delta
SUMBER YANG TIDAK DIDUKUNG DELTA
<operation>
hanya mendukung sumber Delta sebagai destinasi.
<plan>
DELTA_PARTISI_STATIS_TIDAK_DIDUKUNG
Menentukan partisi statis dalam spesifikasi partisi saat ini tidak didukung selama penyisipan
DELTA_NAMA_STRATEGI_TIDAK_DIDUKUNG
Nama strategi yang tidak didukung: <strategy>
DELTA_UNSUPPORTED_SUBQUERY
Subkueri tidak didukung pada <operation>
(kondisi = <cond>
).
DELTA_UNSUPPORTED_SUBQUERY_IN_PARTITION_PREDICATES
Subkueri tidak didukung pada predikat partisi.
DELTA_TIDAK_MENDUKUNG_PENGEMBALIAN_WAKTU_DENGAN_FORMAT_BERBEDA
Tidak dapat mengatur perjalanan waktu dalam beberapa format.
DELTA_TAMPILAN_JELAJAH_WAKTU_TIDAK_DIDUKUNG
Tidak dapat melihat perjalanan waktu, subkueri, streaming, atau mengubah kueri umpan data.
DELTA_TIDAK_DIDUKUNG_MEMOTONG_TABEL_SAMPLE
Memotong tabel sampel tidak didukung
DELTA_UNSUPPORTED_TYPE_CHANGE_IN_SCHEMA
Tidak dapat beroperasi pada tabel ini karena perubahan tipe yang tidak didukung diterapkan. Bidang <fieldName>
diubah dari <fromType>
menjadi <toType>
.
PERUBAHAN JENIS TIDAK DIDUKUNG PADA KOLOM DENGAN INDEKS BLOOM FILTER
Gagal mengubah tipe data kolom <columnNames>
karena kolom ini memiliki Indeks Filter Bloom.
Jika Anda ingin mengubah tipe data kolom dengan Bloom Filter Index(es),
silakan hapus Indeks Filter Bloom terlebih dahulu:
DROP BLOOMFILTER INDEX ON TABLE
FOR COLUMNS(<columnNames>
tableName )
Jika Anda ingin menghapus semua Indeks Filter Bloom pada tabel, gunakan:
DROP BLOOMFILTER INDEX ON TABLE
namaTabel
Fungsi vakum pada partisi tertentu tidak didukung di DELTA
Harap sediakan jalur dasar (<baseDeltaPath>
) saat membersihkan tabel delta. Menyedot debu pada partisi tertentu belum bisa dilakukan.
DELTA_TULISAN_TIDAK_DIDUKUNG_TABEL_DITAHAPKAN
Implementasi tabel tidak mendukung penulisan: <tableName>
DELTA_TULISAN_TIDAK_DIDUKUNG_TANPA_KOORDINATOR
Anda mencoba menulis pada tabel yang telah terdaftar di koordinator komit <coordinatorName>
. Namun, tidak ada implementasi koordinator ini yang tersedia di lingkungan saat ini dan menulis tanpa koordinator tidak diizinkan.
TABEL_SAMPEL_TULISAN_TIDAK_DIDUKUNG_DELTA
Penulisan pada tabel sampel tidak didukung
EKSPRESI_KETIDAKCOCOKAN_SKEMA_PEMBARUAN_DELTA
Tidak dapat melemparkan <fromCatalog>
ke <toCatalog>
. Semua kolom berlapis harus sesuai.
KESALAHAN_DELTA_VAKUM_SALIN_KE_STATUS_GAGAL
VACUUM
pada file data berhasil, tetapi pengumpulan sampah status COPY INTO
gagal.
DELTA_VERSIONS_NOT_CONTIGUOUS
Versi (<versionList>
) tidak berurutan.
Untuk informasi lebih lanjut, lihat DELTA_VERSIONS_NOT_CONTIGUOUS
DELTA_MELANGGAR_KENDALA_DENGAN_NILAI
CHECK
batasan <constraintName> <expression>
dilanggar menurut baris dengan nilai:
<values>
DELTA_VIOLATE_TABLE_PROPERTY_VALIDATION_FAILED
Validasi properti tabel <table>
telah dilanggar:
Untuk informasi lebih lanjut, lihat DELTA_VIOLATE_TABLE_PROPERTY_VALIDATION_FAILED
PENULISAN_DELTA_KE_TAMPILAN_TIDAK_DIDUKUNG
<viewIdentifier>
adalah tampilan. Anda tidak boleh menulis data ke dalam tampilan.
KOLOM_DELTA_ZORDERING_TIDAK_ADA
Kolom Z-Ordering <columnName>
tidak ada dalam skema data.
Urutan Delta pada Kolom Tanpa Statistik
Z-Ordering di <cols>
akan
tidak efektif, karena saat ini kami tidak mengumpulkan statistik untuk kolom ini. Silakan merujuk ke
<link>
untuk informasi selengkapnya tentang lompati data dan urutan z. Anda dapat menonaktifkan
pemeriksaan ini dilakukan dengan mengatur
'%%sql atur <zorderColStatKey>
= salah'
PENGURUTAN_DELTA_PADA_KOLOM_PARTISI
<colName>
adalah kolom partisi. Urutan Z hanya dapat dilakukan pada kolom data
Berbagi Delta
DELTA_SHARING_AKTIVASI_NONCE_TIDAK_ADA
SQLSTATE: tidak ada yang ditetapkan
Nonce aktivasi tidak ditemukan. Tautan aktivasi yang Anda gunakan tidak valid atau telah kedaluwarsa. Regenerasi tautan aktivasi dan coba lagi.
BAGIKAN_DELTA_ANTAR_WILAYAH_TIDAK_DIDUKUNG
SQLSTATE: tidak ada yang ditetapkan
Berbagi antar wilayah <regionHint>
dengan wilayah di luarnya tidak didukung.
DELTA_SHARING_GET_RECIPIENT_PROPERTIES_INVALID_DEPENDENT
SQLSTATE: tidak ada yang ditetapkan
Tampilan yang ditentukan dengan fungsi current_recipient
hanya untuk berbagi dan hanya dapat dikueri dari sisi penerima data. Securable dengan id <securableId>
yang disediakan bukan merupakan Tampilan Berbagi Delta.
Tipe yang dapat diamankan pada DELTA_SHARING yang dapat berubah tidak didukung
SQLSTATE: tidak ada yang ditetapkan
Jenis securable <securableKind>
yang diberikan tidak mendukung perubahan dalam Delta Sharing.
DELTA_BAGIKAN_ROTASI_TOKEN_TIDAK_DIAUTORISASI_UNTUK_PASARAN
SQLSTATE: tidak ada yang ditetapkan
Jenis aman yang disediakan <securableKind>
tidak mendukung tindakan putar token yang dimulai oleh layanan Marketplace.
DS_AUTH_TYPE_NOT_AVAILABLE (Tipe otentikasi DS tidak tersedia)
SQLSTATE: tidak ada yang ditetapkan
<dsError>
: Jenis autentikasi tidak tersedia di entitas penyedia <providerEntity>
.
DS_CDF_TIDAK_DIAKTIFKAN
SQLSTATE: tidak ada yang ditetapkan
<dsError>
: Tidak dapat mengakses umpan data perubahan untuk <tableName>
. CDF tidak diaktifkan pada tabel delta asli. Silakan hubungi penyedia data Anda.
DS_CDF_TIDAK_DIBAGIKAN
SQLSTATE: tidak ada yang ditetapkan
<dsError>
: Tidak dapat mengakses umpan data perubahan untuk <tableName>
. CDF tidak dibagikan pada tabel. Silakan hubungi penyedia data Anda.
DS_CDF_RPC_INVALID_PARAMETER
SQLSTATE: tidak ada yang ditetapkan
<dsError>
: <message>
Kesalahan Autentikasi Klien DS untuk Basis Data Server DS
SQLSTATE: tidak ada yang ditetapkan
<dsError>
: <message>
DS_CLIENT_ERROR_FOR_DB_DS_SERVER
SQLSTATE: tidak ada yang ditetapkan
<dsError>
: <message>
KEGAGALAN PERTUKARAN TOKEN OAUTH KLIEN_DS
SQLSTATE: tidak ada yang ditetapkan
<dsError>
: <message>
Pertukaran Token OAuth DS_CLIENT tidak diizinkan
SQLSTATE: tidak ada yang ditetapkan
<dsError>
: <message>
Vendor Cloud Tidak Tersedia
SQLSTATE: tidak ada yang ditetapkan
<dsError>
: Vendor cloud untuk sementara waktu tidak tersedia untuk <rpcName>
, silakan coba lagi.<traceId>
PERINTAH_MATERIALISASI_DATA_GAGAL
SQLSTATE: tidak ada yang ditetapkan
<dsError>
: Tugas materialisasi data yang dijalankan <runId>
dari <orgId>
org gagal pada perintah <command>
Perintah Materialisasi Data Tidak Didukung
SQLSTATE: tidak ada yang ditetapkan
<dsError>
: Tugas materialisasi data berjalan <runId>
dari org <orgId>
tidak mendukung perintah <command>
DS_DATA_MATERIALIZATION_TIDAK_ADA_NAMESPACE_VALID
SQLSTATE: tidak ada yang ditetapkan
<dsError>
: Tidak dapat menemukan namespace yang valid untuk membuat materialisasi untuk <tableName>
. Silakan hubungi penyedia data Anda untuk memperbaikinya.
DS_DATA_MATERIALIZATION_RUN_TIDAK_ADA
SQLSTATE: tidak ada yang ditetapkan
<dsError>
: Tugas materialisasi data yang dijalankan <runId>
dari org <orgId>
tidak ditemukan
DS_DELTA_ILLEGAL_STATE
SQLSTATE: tidak ada yang ditetapkan
<dsError>
: <message>
DS_DELTA_MISSING_CHECKPOINT_FILES
SQLSTATE: tidak ada yang ditetapkan
<dsError>
: Tidak dapat menemukan semua bagian berkas dari titik pemeriksaan pada versi: <version>
. <suggestion>
DS_DELTA_NULL_POINTER (penunjuk null)
SQLSTATE: tidak ada yang ditetapkan
<dsError>
: <message>
Pengecualian Saat Runtime DS_DELTA
SQLSTATE: tidak ada yang ditetapkan
<dsError>
: <message>
Token Kedaluwarsa: Tidak Diotorisasi untuk Marketplace
SQLSTATE: tidak ada yang ditetapkan
<dsError>
: Jenis yang dapat diamankan <securableKind>
yang disediakan tidak mendukung tindakan kedaluwarsa token yang dimulai oleh layanan Marketplace.
Permintaan Gagal untuk Membuka Server DS
SQLSTATE: tidak ada yang ditetapkan
<dsError>
: <message>
DS_FEATURE_ONLY_FOR_DATABRICKS_TO_DATABRICKS
SQLSTATE: tidak ada yang ditetapkan
<dsError>
: <feature>
hanya diaktifkan untuk berbagi Databricks ke Databricks Delta.
DS_FILE_LISTING_EXCEPTION (Pengecualian daftar file DS)
SQLSTATE: tidak ada yang ditetapkan
<dsError>
: <storage>
: <message>
DS_FILE_SIGNING_EXCEPTION
SQLSTATE: tidak ada yang ditetapkan
<dsError>
: <message>
DS_FLAKY_NETWORK_CONNECTION
SQLSTATE: tidak ada yang ditetapkan
<dsError>
: Koneksi jaringan tidak berfungsi untuk <rpcName>
, silakan coba lagi.<traceId>
DS_FOREIGN_TABLE_METADATA_REFRESH_FAILED (Pembaruan metadata tabel asing gagal)
SQLSTATE: tidak ada yang ditetapkan
<dsError>
: <message>
Konfigurasi DS_HADOOP belum diatur (DS_HADOOP_CONFIG_NOT_SET)
SQLSTATE: tidak ada yang ditetapkan
<dsError>
: <key>
tidak diatur oleh pemanggil.
DS_ILLEGAL_STATE
SQLSTATE: tidak ada yang ditetapkan
<dsError>
: <message>
Kesalahan Internal DS Dari Server DS DB
SQLSTATE: tidak ada yang ditetapkan
<dsError>
: <message>
DS_INVALID_AZURE_PATH
SQLSTATE: tidak ada yang ditetapkan
<dsError>
: Jalur Azure tidak valid: <path>
.
Operasi Tindakan Delta Tidak Valid
SQLSTATE: tidak ada yang ditetapkan
<dsError>
: <message>
Bidang Tidak Valid
SQLSTATE: tidak ada yang ditetapkan
<dsError>
: <message>
Operasi Iterator Tidak Valid pada DS
SQLSTATE: tidak ada yang ditetapkan
<dsError>
: <message>
DS_INVALID_PARTITION_SPEC
SQLSTATE: tidak ada yang ditetapkan
<dsError>
: <message>
Respons tidak valid dari server DS
SQLSTATE: tidak ada yang ditetapkan
<dsError>
: <message>
DS_MATERIALIZATION_QUERY_FAILED
SQLSTATE: tidak ada yang ditetapkan
<dsError>
: Kueri untuk <schema>
gagal.
<table>
dari Share <share>
.
DS_MATERIALIZATION_QUERY_TIMEDOUT
SQLSTATE: tidak ada yang ditetapkan
<dsError>
: Waktu kueri habis untuk <schema>
.
<table>
dari Bagikan <share>
setelah <timeoutInSec>
detik.
KUNCI_IDEMPOTENSI_DS_HILANG
SQLSTATE: tidak ada yang ditetapkan
<dsError>
: Kunci idepotensi diperlukan saat kueri <schema>
.
<table>
dari Share <share>
secara asinkron.
DS_MORE_THAN_ONE_RPC_PARAMETER_SET
SQLSTATE: tidak ada yang ditetapkan
<dsError>
: Harap hanya sediakan salah satu dari: <parameters>
.
DS_TIDAK_ADA_METASTORE_DITUGASKAN
SQLSTATE: tidak ada yang ditetapkan
<dsError>
: Tidak ada metastore yang ditetapkan untuk ruang kerja saat ini (workspaceId: <workspaceId>
).
DS_O2D_OIDC_GAGAL_GENERASI_TOKEN_IDENTITAS_BEBAN_KERJA
SQLSTATE: tidak ada yang ditetapkan
<dsError>
: Pembuatan token identitas beban kerja untuk penyedia OIDC O2D gagal: <message>
.
DS_KETIDAKCOCOKAN_PAGINASI_DAN_ARGUMEN_QUERY
SQLSTATE: tidak ada yang ditetapkan
<dsError>
: Ketidakcocokan argumen paginasi atau kueri.
KOLOM_PARTISI_DS_DIUBAH_NAMA
SQLSTATE: tidak ada yang ditetapkan
<dsError>
: Kolom partisi [<renamedColumns>
] diganti namanya pada tabel bersama. Silakan hubungi penyedia data Anda untuk memperbaikinya.
DS_QUERY_BEFORE_START_VERSION
SQLSTATE: tidak ada yang ditetapkan
<dsError>
: Anda hanya bisa mengkueri data tabel sejak versi <startVersion>
.
DS_QUERY_TIMEOUT_ON_SERVER
SQLSTATE: tidak ada yang ditetapkan
<dsError>
: Waktu habis terjadi saat memproses <queryType>
pada <tableName>
setelah pembaruan <numActions>
di seluruh iterasi <numIter>
.<progressUpdate> <suggestion> <traceId>
Pembatasan Laju pada Server DS
SQLSTATE: tidak ada yang ditetapkan
<dsError>
: <message>
DS_RECIPIENT_RPC_INVALID_PARAMETER
SQLSTATE: tidak ada yang ditetapkan
<dsError>
: <message>
Sumber daya sudah ada di server DS.
SQLSTATE: tidak ada yang ditetapkan
<dsError>
: <message>
DS_RESOURCE_HABIS
SQLSTATE: tidak ada yang ditetapkan
<dsError>
: Batas <resource>
telah terlampaui: [<limitSize>
]<suggestion>
.<traceId>
SUMBER_DAYA_TIDAK_DITEMUKAN_DI_SERVER_DS
SQLSTATE: tidak ada yang ditetapkan
<dsError>
: <message>
DS_SISTEM_IZIN_KELOMPOK_RUANG_KERJA_TIDAK_DIDUKUNG
SQLSTATE: tidak ada yang ditetapkan
Tidak dapat memberikan hak istimewa pada <securableType>
untuk grup yang dihasilkan oleh sistem <principal>
.
PERJALANAN_WAKTU_TIDAK_DIIJINKAN
SQLSTATE: tidak ada yang ditetapkan
<dsError>
: Permintaan perjalanan waktu tidak diizinkan kecuali jika riwayat dibagikan di <tableName>
. Silakan hubungi penyedia data Anda.
DS_TIDAK_DIAUTORIZASI
SQLSTATE: tidak ada yang ditetapkan
<dsError>
: Tidak sah.
DS_UNAUTHORIZED_D2O_OIDC_RECIPIENT
SQLSTATE: tidak ada yang ditetapkan
<dsError>
: Penerima OIDC D2O yang tidak sah: <message>
.
DS_UNKNOWN_EXCEPTION
SQLSTATE: tidak ada yang ditetapkan
<dsError>
: <traceId>
DS_UNKNOWN_QUERY_ID
SQLSTATE: tidak ada yang ditetapkan
<dsError>
: Id kueri <queryID>
yang tidak diketahui untuk <schema>
.
<table>
dari Share <share>
.
DS_STATUS_PERTANYAAN_TIDAK_DI_KETAHUI
SQLSTATE: tidak ada yang ditetapkan
<dsError>
: Status kueri yang tidak diketahui untuk id kueri <queryID>
untuk <schema>
.
<table>
dari Share <share>
.
DS_UNKNOWN_RPC
SQLSTATE: tidak ada yang ditetapkan
<dsError>
: RPC <rpcName>
tidak diketahui .
DS_UNSUPPORTED_DELTA_READER_VERSION
SQLSTATE: tidak ada yang ditetapkan
<dsError>
: Versi pembaca protokol Delta <tableReaderVersion>
lebih tinggi dari <supportedReaderVersion>
dan tidak dapat didukung di server berbagi delta.
Fitur Tabel Delta Tidak Didukung
SQLSTATE: tidak ada yang ditetapkan
<dsError>
: Fitur tabel <tableFeatures>
ditemukan dalam<versionStr> <historySharingStatusStr> <optionStr>
tabel
Operasi Tidak Didukung
SQLSTATE: tidak ada yang ditetapkan
<dsError>
: <message>
DS_UNSUPPORTED_STORAGE_SCHEME
SQLSTATE: tidak ada yang ditetapkan
<dsError>
: Skema penyimpanan yang tidak didukung: <scheme>
.
TIPE_TABEL_TIDAK_DIDUKUNG
SQLSTATE: tidak ada yang ditetapkan
<dsError>
: Tidak dapat mengambil <schema>
.
<table>
dari Share <share>
karena tabel dengan tipe [<tableType>
] saat ini tidak didukung dalam protokol Delta Sharing.
DS_USER_CONTEXT_ERROR (Kesalahan Konteks Pengguna)
SQLSTATE: tidak ada yang ditetapkan
<dsError>
: <message>
Fungsi Berbagi Tampilan DS Tidak Diizinkan
SQLSTATE: tidak ada yang ditetapkan
<dsError>
: Fungsi berikut: <functions>
tidak diizinkan dalam kueri berbagi tampilan.
DS_WORKSPACE_DOMAIN_TIDAK_DITETAPKAN
SQLSTATE: tidak ada yang ditetapkan
<dsError>
: Domain ruang kerja <workspaceId>
belum diatur.
DS_RUANG_KERJA_TIDAK_DITEMUKAN
SQLSTATE: tidak ada yang ditetapkan
<dsError>
: Ruang Kerja <workspaceId>
tidak ditemukan.
Autoloader
CF_TAMBAH_BARU_TIDAK_DIDUKUNG
Mode evolusi skema <addNewColumnsMode>
tidak didukung saat skema sudah ditentukan. Untuk menggunakan mode ini, Anda dapat memberikan skema melalui cloudFiles.schemaHints
sebagai gantinya.
CF_AMBIGUOUS_AUTH_OPTIONS_ERROR
Menemukan opsi autentikasi untuk penyiapan notifikasi pada direktori (default)
mode daftar:
<options>
Jika Anda ingin menggunakan mode pemberitahuan file, silakan atur secara eksplisit:
.option("cloudFiles.<useNotificationsKey>
", "true")
Atau, jika Anda ingin melewati validasi opsi Anda dan mengabaikan ini
opsi autentikasi, Anda dapat mengatur:
.option("cloudFiles.ValidateOptionsKey>", "false")
Kesalahan Mode Pencatatan Tambahan yang Tidak Jelas.
Mode daftar bertahap (cloudFiles.<useIncrementalListingKey>
)
dan notifikasi file (cloudFiles.<useNotificationsKey>
)
telah diaktifkan pada saat yang sama.
Pastikan Anda hanya memilih satu.
CF_AZURE_AUTHENTICATION_MISSING_OPTIONS
Harap berikan kredensial layanan Databricks atau clientId dan clientSecret untuk mengautentikasi dengan Azure.
CF_AZURE_AUTHENTICATION_MULTIPLE_OPTIONS
Ketika kredensial layanan Databricks disediakan, tidak ada opsi kredensial lain (misalnya clientId, clientSecret, atau connectionString) yang harus disediakan.
CF_AZURE_STORAGE_SUFFIXES_DIBUTUHKAN
Memerlukan adlsBlobSuffix dan adlsDfsSuffix untuk Azure
CF_BUCKET_MISMATCH
<storeType>
dalam peristiwa file <fileEvent>
berbeda dari yang diharapkan oleh sumber: <source>
.
Tidak dapat mengembangkan skema karena catatan log kosong.
Tidak dapat mengembangkan skema ketika log skema kosong. Lokasi log skema: <logPath>
TIDAK DAPAT MENGURAI PESAN ANTRIAN
Tidak dapat mengurai pesan antrean berikut: <message>
CF_TIDAK_BISA_MENYELESAIKAN_NAMA_KONTAINER
Tidak dapat menyelesaikan nama kontainer dari jalur: <path>
, uri yang telah diuraikan: <uri>
CF_TIDAK_DAPAT_MENJALANKAN_PENCATATAN_DIREKTORI
Tidak dapat melakukan penelusuran direktori ketika ada utas pengisian ulang asinkron yang berjalan
CF_CLEAN_SOURCE_ALLOW_OVERWRITES_BOTH_ON
Tidak dapat mengaktifkan cloudFiles.cleanSource dan cloudFiles.allowOverwrites secara bersamaan.
IZIN_MENULIS_TIDAK_DIAUTORISASI_CF_CLEAN_SOURCE
Auto Loader tidak dapat menghapus file yang diproses karena tidak memiliki izin tulis ke direktori sumber.
<reason>
Untuk memperbaikinya, Anda dapat:
- Memberikan izin tulis ke direktori sumber ATAU
- Atur cleanSource ke 'OFF'
Anda juga dapat membuka blokir streaming Anda dengan mengatur SQLConf spark.databricks.cloudFiles.cleanSource.disabledDueToAuthorizationErrors ke 'true'.
CF_KOLOM_DUPLIKAT_DALAM_DATA
Terjadi kesalahan saat mencoba menyimpulkan skema partisi tabel Anda. Anda memiliki kolom yang sama yang diduplikasi di jalur data dan partisi Anda. Untuk mengabaikan nilai partisi, berikan kolom partisi Anda secara eksplisit dengan menggunakan: .option("cloudFiles.<partitionColumnsKey>
", "{comma-separated-list}")
CF_EMPTY_DIR_FOR_SCHEMA_INFERENCE
Tidak dapat menyimpulkan skema ketika jalur input <path>
kosong. Silakan coba untuk memulai aliran ketika ada file di jalur input, atau tentukan skema.
KESALAHAN_OTENTIKASI_GRID_ACARA_CF
Gagal membuat langganan Event Grid. Silakan pastikan bahwa layanan Anda
utama memiliki Langganan Event Grid <permissionType>
. Lihat detail selengkapnya di:
<docLink>
CF_GAGAL_MEMBUAT_GRID_ACARA
Gagal membuat langganan event grid. Pastikan bahwa Microsoft.EventGrid
terdaftar sebagai penyedia sumber daya dalam langganan Anda. Lihat detail selengkapnya di:
<docLink>
KESALAHAN_GRID_EVENT_TIDAK_DITEMUKAN
Gagal membuat langganan Event Grid. Pastikan penyimpanan Anda
akun (<storageAccount>
) berada di bawah grup sumber daya Anda (<resourceGroup>
) dan bahwa
akun penyimpanan adalah akun "StorageV2 (serba guna v2)". Lihat detail selengkapnya di:
<docLink>
Pemberitahuan Peristiwa CF Tidak Didukung
Mode notifikasi acara Auto Loader tidak didukung untuk <cloudStore>
.
CF_GAGAL_MEMERIKSA_ALIRAN_BARU
Gagal memeriksa apakah aliran adalah baru
CF_GAGAL_MEMBUAT_LANGGANAN_PUBSUB
Gagal membuat langganan: <subscriptionName>
. Langganan dengan nama yang sama sudah ada dan dikaitkan dengan topik lain: <otherTopicName>
. Topik yang diinginkan adalah <proposedTopicName>
. Hapus langganan yang sudah ada atau buat langganan dengan akhiran sumber daya baru.
CF_FAILED_TO_CREATED_PUBSUB_TOPIC
Gagal membuat topik: <topicName>
. Topik dengan nama yang sama sudah ada.
<reason>
Hapus topik yang ada atau coba lagi dengan akhiran sumber daya lain
GAGAL_MENGHAPUS_NOTIFIKASI_GCP
Gagal menghapus pemberitahuan dengan id <notificationId>
pada bucket <bucketName>
untuk topik <topicName>
. Silakan coba lagi atau hapus pemberitahuan secara manual melalui konsol GCP.
CF_FAILED_TO_DESERIALIZE_PERSISTED_SCHEMA (Gagal mendeserialisasi skema yang disimpan)
Gagal mendeserialisasi skema persisten dari string: '<jsonSchema>
'
GAGAL_MENGEMBANGKAN_SKEMA
Tidak dapat mengembangkan skema tanpa log skema.
CF_GAGAL_MENEMUKAN_PROVIDER
Gagal menemukan penyedia untuk <fileFormatInput>
CF_FAILED_TO_INFER_SCHEMA
Gagal menyimpulkan skema untuk format <fileFormatInput>
dari file yang ada di jalur input <path>
.
Untuk informasi lebih lanjut, lihat CF_FAILED_TO_INFER_SCHEMA
GAGAL MENULIS KE LOG SKEMA
Gagal menulis ke log skema di lokasi <path>
.
Format file diperlukan
Tidak dapat menemukan opsi yang diperlukan: cloudFiles.format.
CF_FOUND_MULTIPLE_AUTOLOADER_PUBSUB_SUBSCRIPTIONS
Ditemukan beberapa langganan (<num>
) dengan awalan Auto Loader untuk topik <topicName>
:
<subscriptionList>
Seharusnya hanya ada satu langganan per topik. Silakan pastikan secara manual bahwa topik Anda tidak memiliki beberapa langganan.
CF_GCP_AUTENTIKASI
Harap berikan semua item berikut: <clientEmail>
, <client>
.
<privateKey>
, dan <privateKeyId>
atau berikan <serviceCredential>
untuk menggunakan kredensial layanan Databricks Anda.
Atau, berikan tidak satu pun dari mereka untuk menggunakan rantai penyedia kredensial GCP default untuk mengautentikasi dengan sumber daya GCP.
CF_GCP_LABELS_COUNT_EXCEEDED
Telah menerima terlalu banyak label (<num>
) untuk sumber daya GCP. Jumlah label maksimum per sumber daya adalah <maxNum>
.
CF_GCP_RESOURCE_TAGS_COUNT_EXCEEDED (Jumlah Tag Sumber Daya pada GCP Melebihi Batas)
Menerima terlalu banyak tag sumber daya (<num>
) untuk sumber daya GCP. Jumlah maksimum tag sumber daya per sumber daya adalah <maxNum>
, karena tag sumber daya disimpan sebagai label GCP pada sumber daya, dan tag spesifik Databricks menggunakan sebagian dari kuota label ini.
Catatan_Log_Di_Schema_Tidak_Lengkap
File log yang belum lengkap pada log skema di jalur <path>
CF_INCOMPLETE_METADATA_FILE_IN_CHECKPOINT
File metadata yang tidak lengkap di titik pemeriksaan Auto Loader
Penggunaan Batch Tidak Valid (CF_INCORRECT_BATCH_USAGE)
CloudFiles adalah sumber streaming. Silakan gunakan spark.readStream alih-alih spark.read. Untuk menonaktifkan pemeriksaan ini, atur <cloudFilesFormatValidationEnabled>
ke false.
CF_INCORRECT_SQL_PARAMS
Metode cloud_files menerima dua parameter string yang diperlukan: jalur untuk dimuat, dan format file. Opsi pembaca file harus disediakan dalam peta nilai kunci string. misalnya cloud_files("path", "json", map("option1", "value1")). Diterima: <params>
Penggunaan Aliran yang Salah di CF
Untuk menggunakan 'cloudFiles' sebagai sumber streaming, berikan format file dengan opsi 'cloudFiles.format', dan gunakan .load() untuk membuat DataFrame Anda. Untuk menonaktifkan pemeriksaan ini, atur <cloudFilesFormatValidationEnabled>
ke false.
CF_INTERNAL_ERROR
Kesalahan internal.
Untuk detail selengkapnya, lihat CF_INTERNAL_ERROR
CF_INVALID_ARN
ARN tidak valid: <arn>
Sertifikat Azure tidak valid (CF_INVALID_AZURE_CERTIFICATE)
Kunci privat yang disediakan dengan opsi cloudFiles.certificate tidak dapat diurai. Harap sediakan kunci umum yang valid dalam format PEM.
CF_INVALID_AZURE_CERT_PRIVATE_KEY
Kunci privat yang disediakan dengan opsi cloudFiles.certificatePrivateKey tidak dapat diurai. Harap sediakan kunci privat yang valid dalam format PEM.
CF_INVALID_CHECKPOINT
Titik pemeriksaan ini bukan sumber CloudFiles yang valid
CF_INVALID_CLEAN_SOURCE_MODE
Mode tidak valid untuk opsi sumber bersih <value>
.
CF_GCP_TAG_SUMBER_DAYA_TIDAK_VALID
Kunci tag sumber daya tidak valid untuk sumber daya GCP: <key>
. Kunci harus dimulai dengan huruf kecil, panjangnya 1 hingga 63 karakter, dan hanya berisi huruf kecil, angka, garis bawah (_), dan tanda hubung (-).
CF_INVALID_TAG_NILAI_TANDA_RESOURCE_GCP
Nilai tag sumber daya tidak valid untuk sumber daya GCP: <value>
. Panjang nilai harus dalam 0 hingga 63 karakter dan hanya boleh berisi huruf kecil, angka, garis bawah (_), dan tanda hubung (-).
CF_INVALID_MANAGED_FILE_EVENTS_OPTION_KEYS
Auto Loader tidak mendukung opsi berikut saat digunakan dengan peristiwa berkas yang dikelola.
<optionList>
Kami menyarankan agar Anda menghapus opsi ini lalu menghidupkan ulang aliran.
CF_INVALID_MANAGED_FILE_EVENTS_RESPONSE
Respons tidak valid dari layanan kejadian berkas yang dikelola. Silakan hubungi dukungan Databricks untuk bantuan.
Untuk detail selengkapnya, lihat CF_INVALID_MANAGED_FILE_EVENTS_RESPONSE
CF_SKEMA_EVOLUSI_MODE_TIDAK_VALID
cloudFiles.
<schemaEvolutionModeKey>
harus salah satu dari {
"<addNewColumns>
"
"<failOnNewColumns>
"
"<rescue>
"
"<noEvolution>
"}
CF_INVALID_SCHEMA_HINTS_OPTION
Petunjuk skema hanya dapat menentukan kolom tertentu sekali.
Dalam hal ini, mendefinisikan ulang kolom: <columnName>
beberapa kali dalam schemaHints:
<schemaHints>
CF_INVALID_SCHEMA_HINT_COLUMN
Petunjuk skema tidak dapat digunakan untuk mengubah tipe bersarang dari peta dan array.
Kolom yang berkonflik: <columnName>
CF_LATEST_OFFSET_READ_LIMIT_REQUIRED
latestOffset harus dipanggil dengan ReadLimit pada sumber ini.
CF_LOG_FILE_MALFORMED
File log salah bentuk: gagal membaca versi log yang benar dari <fileName>
.
Acara File Dikelola CF Sedang Dipulihkan
Anda telah meminta Auto Loader untuk mengabaikan file yang ada di lokasi eksternal Anda dengan mengatur includeExistingFiles ke false. Namun, layanan peristiwa file terkelola masih menemukan file yang ada di lokasi eksternal Anda. Silakan coba lagi setelah pengelolaan file selesai mengidentifikasi semua file di lokasi eksternal Anda.
CF_MANAGED_FILE_EVENTS_ENDPOINT_NOT_FOUND
Anda menggunakan Auto Loader dengan peristiwa berkas yang dikelola, tetapi kelihatannya lokasi eksternal untuk jalur input Anda '<path>
' tidak mengaktifkan peristiwa berkas atau jalur input tidak valid. Silakan minta Administrator Databricks Anda untuk mengaktifkan event file di lokasi eksternal untuk jalur masukan Anda.
Izin Endpoint CF_MANAGED_FILE_EVENTS Ditolak
Anda menggunakan Auto Loader dengan peristiwa file yang dikelola, tetapi Anda tidak memiliki akses ke lokasi eksternal atau volume untuk jalur input '<path>
', atau jalur input tersebut tidak valid. Harap minta Administrator Databricks Anda untuk memberikan izin baca untuk lokasi atau volume eksternal atau berikan jalur input yang valid dalam lokasi atau volume eksternal yang ada.
CF_MANAGED_FILE_EVENTS_HANYA_PADA_SERVERLESS
Auto Loader dengan peristiwa berkas yang dikelola hanya tersedia di Databricks serverless. Untuk melanjutkan, pindahkan beban kerja ini ke Databricks tanpa server atau nonaktifkan opsi cloudFiles.useManagedFileEvents.
CF_MAX_HARUS_POSITIF
maks harus positif
CF_METADATA_FILE_Sedang_Digunakan_Secara_Berkelanjutan
Secara bersamaan, beberapa kueri streaming menggunakan <metadataFile>
CF_MISSING_METADATA_FILE_ERROR
File metadata di direktori titik pemeriksaan sumber streaming hilang. Metadata ini
file berisi opsi default penting untuk aliran, sehingga aliran tidak dapat dimulai ulang
Sekarang. Silakan hubungi dukungan Databricks untuk bantuan.
CF_MISSING_PARTITION_COLUMN_ERROR (Kesalahan: Kolom partisi yang hilang)
Kolom partisi <columnName>
tidak ada dalam skema yang disediakan:
<schema>
CF_MISSING_SCHEMA_IN_PATHLESS_MODE
Tentukan skema menggunakan .schema() jika jalur tidak disediakan ke sumber CloudFiles saat menggunakan mode pemberitahuan file. Atau, agar Auto Loader menyimpulkan skema, harap sediakan jalur dasar di .load().
PEMBERITAHUAN_PUBSUB_BERGANDA_UNTUK_TOPIK
Menemukan pemberitahuan yang ada untuk topik <topicName>
pada wadah <bucketName>
:
notifikasi,ID
<notificationList>
Untuk menghindari pencemaran pelanggan dengan peristiwa yang tidak diinginkan, silakan hapus pemberitahuan di atas dan coba lagi.
Kesalahan Partisi Baru_CF
Kolom partisi baru disimpulkan dari file Anda: [<filesList>
]. Harap sediakan semua kolom partisi dalam skema Anda atau berikan daftar kolom partisi yang ingin Anda ekstrak nilainya dengan menggunakan: .option("cloudFiles.partitionColumns", "{comma-separated-list|empty-string}")
Kesalahan Inferensi Partisi CF (CF_PARTITION_INFERENCE_ERROR)
Terjadi kesalahan ketika mencoba menyimpulkan skema partisi dari batch file saat ini. Harap berikan kolom partisi Anda secara eksplisit dengan menggunakan: .option("cloudFiles.<partitionColumnOption>
", "{comma-separated-list}")
CF_PATH_DOES_NOT_EXIST_FOR_READ_FILES
Tidak dapat membaca file ketika jalur input <path>
tidak ada. Pastikan jalur input ada dan coba kembali.
CF_PERIODIC_BACKFILL_TIDAK_DIDUKUNG
Isi ulang berkala tidak didukung jika isi ulang asinkron dinonaktifkan. Anda dapat mengaktifkan daftar isi ulang/direktori asinkron dengan mengatur spark.databricks.cloudFiles.asyncDirListing
ke true
CF_PREFIX_MISMATCH (Ketidaksesuaian Awalan_CF)
Ditemukan peristiwa yang tidak cocok: kunci <key>
tidak memiliki awalan: <prefix>
CF_PROTOCOL_MISMATCH
<message>
Jika Anda tidak perlu membuat perubahan lain pada kode Anda, silakan atur SQL
konfigurasi: '<sourceProtocolVersionKey> = <value>
'
untuk melanjutkan streaming Anda. Silakan merujuk ke:
<docLink>
untuk informasi lebih lanjut.
Kesalahan Wilayah Tidak Ditemukan (CF_REGION_NOT_FOUND_ERROR)
Tidak bisa mendapatkan Wilayah AWS default. Tentukan wilayah menggunakan opsi cloudFiles.region.
CF_RESOURCE_SUFFIX_EMPTY
Gagal membuat layanan pemberitahuan: akhiran sumber daya tidak boleh kosong.
Akhiran Sumber _Karakter Tidak Valid_ AWS
Gagal membuat layanan pemberitahuan: akhiran sumber daya hanya dapat memiliki karakter alfanumerik, tanda hubung (-) dan garis bawah (_).
CF_RESOURCE_SUFFIX_INVALID_CHAR_AZURE
Gagal membuat layanan pemberitahuan: akhiran sumber daya hanya dapat memiliki huruf kecil, angka, dan tanda hubung (-).
CF_RESOURCE_SUFFIX_INVALID_CHAR_GCP
Gagal membuat layanan pemberitahuan: akhiran sumber daya hanya dapat memiliki karakter alfanumerik, tanda hubung (-), garis bawah (_), titik (.), tanda tilde (~) plus (+), dan tanda persen (<percentSign>
).
CF_RESOURCE_SUFFIX_LIMIT
Gagal membuat layanan pemberitahuan: akhiran sumber daya tidak boleh memiliki lebih dari <limit>
karakter.
CF_RESOURCE_SUFFIX_LIMIT_GCP
Gagal membuat layanan pemberitahuan: akhiran sumber daya harus antara karakter <lowerLimit>
dan <upperLimit>
.
CF_RESTRICTED_GCP_RESOURCE_TAG_KEY
Ditemukan tag kunci sumber daya GCP yang terbatas (<key>
). Kunci tag sumber daya GCP berikut dibatasi untuk Auto Loader: [<restrictedKeys>
]
RETENSI_CF_LEBIH_BESAR_DARI_USIA_FILE_MAKSIMUM
cloudFiles.cleanSource.retentionDuration tidak boleh lebih besar dari cloudFiles.maxFileAge.
PREFIKS_KUNCI_BARU_TOPIK_PUB_SUB_SAMA_CF
Gagal membuat pemberitahuan untuk topik: <topic>
dengan awalan: <prefix>
. Sudah ada topik dengan nama yang sama dengan awalan lain: <oldPrefix>
. Coba gunakan akhiran sumber daya yang berbeda untuk pengaturan atau hapus pengaturan yang ada.
GAGAL_PENIRUAN_MENYELURUH_SKEMA_CF_TERKLOKALISASI
Gagal mengkloning dan memigrasikan entri log skema apa pun dari log skema sumber.
CF_SFTP_MISSING_PASSWORD_OR_KEY_FILE
Kata sandi atau file kunci harus ditentukan untuk SFTP.
Tentukan kata sandi di uri sumber atau melalui <passwordOption>
, atau tentukan konten file kunci melalui <keyFileOption>
.
CF_SFTP_TIDAK_DIAKTIFKAN
Mengakses file SFTP tidak diaktifkan.. Silakan hubungi dukungan Databricks untuk bantuan.
CF_SFTP_REQUIRE_UC_CLUSTER
Kluster berkemampuan UC diperlukan untuk mengakses file SFTP. Silakan hubungi dukungan Databricks untuk bantuan.
CF_SFTP_USERNAME_NOT_FOUND
Nama pengguna harus ditentukan untuk SFTP.
Harap berikan nama pengguna di uri sumber atau melalui <option>
.
Jalur Direktori Sumber Diperlukan
Harap sediakan jalur direktori sumber dengan opsi path
Sumber Tidak Didukung
Sumber file cloud saat ini hanya mendukung jalur S3, Azure Blob Storage (wasb/wasbs), dan Azure Data Lake Gen1 (adl) serta Gen2 (abfs/abfss). path: '<path>
', URI yang telah diresolusikan: '<uri>
'
CF_STATE_PARAM_SQL_TIDAK_BENAR
Fungsi cloud_files_state menerima parameter string yang mewakili direktori titik pemeriksaan dari aliran cloudFiles atau nama tabel multi-bagian yang mengidentifikasi tabel streaming, serta parameter kedua yang opsional berupa bilangan bulat yang mewakili versi titik pemeriksaan untuk memuat status. Parameter kedua mungkin juga 'terbaru' untuk membaca titik pemeriksaan terbaru. Diterima: <params>
Jalur Titik Pemeriksaan Tidak Valid_CF_STATE
Jalur titik pemeriksaan input <path>
tidak valid. Jalur tidak ada atau tidak ada sumber cloud_files yang ditemukan.
CF_STATE_INVALID_VERSION (versi tidak valid)
Versi yang ditentukan <version>
tidak ada, atau dihapus selama analisis.
CF_THREAD_IS_DEAD
<threadName>
thread sudah mati.
Gagal Menentukan Lokasi Stream Checkpoint
Tidak dapat memperoleh lokasi titik pemeriksaan aliran dari lokasi titik pemeriksaan sumber: <checkPointLocation>
CF_tidak_dapat_mendeteksi_format_berkas
Tidak dapat mendeteksi format file sumber dari file sampel <fileSize>
, ditemukan <formats>
. Tentukan formatnya.
CF_TIDAK_DAPAT_MENEKSTRAK_INFORMASI_BUCKET
Tidak dapat mengekstrak informasi wadah. Jalur: '<path>
', URI yang telah diselesaikan: '<uri>
'.
CF_TIDAK_DAPAT_MENGELOLA_INFO_KUNCI
Tidak dapat mengekstrak informasi kunci. Jalur: '<path>
', URI yang telah diselesaikan: '<uri>
'.
CF_TIDAK_BISA_MENGEKSTRAK_INFO_AKUN_PENYIMPANAN
Tidak dapat mengekstrak informasi akun penyimpanan; jalur: '<path>
', URI yang telah diselesaikan: '<uri>
'
TIDAK_DAPAT_MENCANTUMKAN_DENGAN_EFEKTIF
Menerima event penggantian nama direktori untuk jalur <path>
, tetapi kami tidak dapat mencantumkan direktori ini dengan efisien. Agar aliran berlanjut, atur opsi 'cloudFiles.ignoreDirRenames' ke true, dan pertimbangkan untuk mengaktifkan backfill reguler dengan cloudFiles.backfillInterval agar data ini diproses.
CF_BATAS_BACA_TIDAK_TERDUGA
Batas Baca Tak Terduga: <readLimit>
Kesalahan Kunci Opsi Tak Dikenal
Ditemukan kunci opsi yang tidak diketahui:
<optionList>
Pastikan bahwa semua kunci opsi yang disediakan sudah benar. Jika Anda ingin mengabaikan
validasi opsi Anda dan abaikan opsi yang tidak diketahui ini, Anda dapat mengatur seperti berikut:
.option("cloudFiles.<validateOptions>
", "false")
CF_UNKNOWN_READ_LIMIT
BatasBaca Tidak Diketahui: <readLimit>
CF_UNSUPPORTED_CLOUD_FILES_SQL_FUNCTION
Fungsi SQL 'cloud_files' untuk membuat sebuah sumber streaming Auto Loader hanya didukung dalam satu pipeline Delta Live Tables. Lihat detail selengkapnya di:
<docLink>
Format tidak didukung untuk penarikan skema (CF_UNSUPPORTED_FORMAT_FOR_SCHEMA_INFERENCE)
Inferensi skema tidak didukung untuk format: <format>
. Tentukan skema.
CF_UNSUPPORTED_LOG_VERSION
UnsupportedLogVersion: versi log tertinggi yang didukung adalah v<maxVersion>``, but encountered v``<version>
. File log dihasilkan oleh versi DBR yang lebih baru dan tidak dapat dibaca oleh versi ini. Silakan perbarui.
Mode Evolusi Skema Tidak Didukung CF
Mode evolusi skema <mode>
tidak didukung untuk format: <format>
. Atur mode evolusi skema ke 'tidak ada'.
CF_USE_DELTA_FORMAT
Membaca dari tabel Delta tidak didukung dengan sintaks ini. Jika Anda ingin menggunakan data dari Delta, silakan lihat dokumen: baca tabel Delta (<deltaDocLink>
), atau baca tabel Delta sebagai sumber aliran (<streamDeltaDocLink>
). Sumber streaming dari Delta sudah dioptimalkan untuk konsumsi data inkremental.
Geospasial
EWKB_PARSE_ERROR
Kesalahan saat mengurai EWKB: <parseError>
pada posisi <pos>
GEOJSON_PARSE_ERROR
Kesalahan penguraian GeoJSON: <parseError>
pada posisi <pos>
Untuk detail selengkapnya, lihat GEOJSON_PARSE_ERROR
ID_SELAWANGYAN_H3_TIDAKVALID
<h3Cell>
bukan ID sel H3 yang valid
Untuk detail lebih lanjut, lihat H3_INVALID_CELL_ID
H3_INVALID_GRID_DISTANCE_VALUE
Jarak kisi H3 <k>
harus tidak negatif
Untuk detail selengkapnya, lihat H3_INVALID_GRID_DISTANCE_VALUE
H3_INVALID_RESOLUTION_VALUE
Resolusi H3 <r>
harus antara <minR>
dan <maxR>
, inklusif
Untuk informasi lebih lanjut, lihat H3_INVALID_RESOLUTION_VALUE
H3_NOT_ENABLED
<h3Expression>
dinonaktifkan atau tidak didukung. Pertimbangkan untuk mengaktifkan Photon atau beralih ke tingkat yang mendukung ekspresi H3
Untuk detail selengkapnya, lihat H3_NOT_ENABLED
H3_PENTAGON_MENGALAMI_KESALAHAN
Segi lima ditemui saat menghitung cincin heks <h3Cell>
dengan jarak kisi <k>
H3_JARAK_GRID_TIDAK_TERDEFINISI
Jarak kisi H3 antara <h3Cell1>
dan <h3Cell2>
tidak ditentukan
ST_DIFFERENT_SRID_VALUES
Argumen ke "<sqlFunction>
" harus memiliki nilai SRID yang sama. Nilai SRID ditemukan: <srid1>
, <srid2>
ST_INVALID_ARGUMENT (Argumen Tidak Valid)
"<sqlFunction>
": <reason>
Jenis_Argumen_Tidak_Sesuai
Argumen ke "<sqlFunction>
" harus berjenis <validTypes>
Kesalahan Transformasi CRS Tidak Valid (ST_INVALID_CRS_TRANSFORMATION_ERROR)
<sqlFunction>
: Transformasi CRS yang tidak valid atau tidak didukung dari <srcSrid>
SRID ke <trgSrid>
SRID
ST_NILAI_ENDIANNESS_TIDAK_VALID
Endianness '<e>
' harus berupa 'NDR' (endianness kecil) atau 'XDR' (endianness besar).
NILAI_GEOHASH_TIDAK_VALID
<sqlFunction>
: Nilai geohash tidak valid: '<geohash>
'. Nilai geohash harus berupa string base32 huruf kecil yang valid seperti yang dijelaskan dalamhttps://en.wikipedia.org/wiki/Geohash#Textual_representation
ST_INVALID_INDEX_VALUE
<sqlFunction>
: Indeks tidak valid <index>
untuk nilai geospasial yang disediakan.
Nilai Presisi Tidak Valid
Presisi <p>
harus antara <minP>
dan <maxP>
, termasuk
ST_INVALID_SRID_VALUE
<srid>
SRID yang tidak valid atau tidak didukung
ST_NOT_ENABLED
<stExpression>
dinonaktifkan atau tidak didukung. Pertimbangkan untuk mengaktifkan Photon atau beralih ke tingkat yang mendukung ekspresi ST
TIPE_PENGEMBALIAN_TIDAK_DIDUKUNG
Jenis data GEOGRAPHY
dan GEOMETRY
tidak dapat dikembalikan dalam kueri. Gunakan salah satu ekspresi SQL berikut untuk mengonversinya ke format pertukaran standar: <projectionExprs>
.
WKB_PARSE_ERROR
Kesalahan mengurai WKB: <parseError>
pada posisi <pos>
Untuk detail selengkapnya, lihat WKB_PARSE_ERROR
WKT_PARSE_ERROR
Kesalahan mengurai WKT: <parseError>
pada posisi <pos>
Untuk detail selengkapnya, lihat WKT_PARSE_ERROR
Katalog Unity
KESALAHAN_NAMA_KOLOM_BERTENTANGAN
Kolom <columnName>
berkonflik dengan kolom lain dengan nama yang sama tetapi dengan/tanpa spasi kosong berikutnya (misalnya, kolom yang sudah ada bernama <columnName>
''). Ganti nama kolom dengan nama yang berbeda.
KREDENSIAL_KONEKSI_TIDAK_DIDUKUNG_UNTUK_KONEKSI_TABEL_ONLINE
SQLSTATE: tidak ada yang ditetapkan
Permintaan tidak valid untuk mendapatkan kredensial tingkat koneksi untuk koneksi jenis <connectionType>
. Kredensial tersebut hanya tersedia untuk koneksi PostgreSQL terkelola.
JENIS_KONEKSI_TIDAK_DIAKTIFKAN
SQLSTATE: tidak ada yang ditetapkan
Tipe koneksi '<connectionType>
' tidak diaktifkan. Harap aktifkan koneksi untuk menggunakannya.
PENERIMA_DELTA_SHARING_HANYA_BACA_SUDAH_ADA
SQLSTATE: tidak ada yang ditetapkan
Sudah ada objek Penerima '<existingRecipientName>
' dengan pengidentifikasi berbagi yang sama '<existingMetastoreId>
'.
DELTA_SHARING_JENIS_AMAN_YANG_HANYA_DAPAT_DIBACA
SQLSTATE: tidak ada yang ditetapkan
Data Jenis Dapat Diamankan Delta Sharing <securableKindName>
hanya dapat dibaca dan tidak dapat dibuat, dimodifikasi, atau dihapus.
AKSES_EKSTERNAL_DINONAKTIFKAN_PADA_METASTORE
SQLSTATE: tidak ada yang ditetapkan
Penjualan kredensial ditolak untuk lingkungan komputasi non Databricks karena Akses Data Eksternal dinonaktifkan untuk metastore <metastoreName>
. Silakan hubungi admin metastore Anda untuk mengaktifkan konfigurasi 'Akses Data Eksternal' di metastore.
AKSES_EKSTERNAL_TIDAK_DIPERBOLEHKAN_UNTUK_TABEL
SQLSTATE: tidak ada yang ditetapkan
Tabel dengan id <tableId>
tidak dapat diakses dari luar Lingkungan Komputasi Databricks karena jenisnya <securableKind>
. Hanya 'TABLE_EXTERNAL
', 'TABLE_DELTA_EXTERNAL
' dan 'TABLE_DELTA
' jenis tabel dapat diakses secara eksternal.
SKEMA_PENGGUNAAN_EKSTERNAL_DITETAPKAN_KE_JENIS_SECURABLE_YANG_TIDAK_TEPAT
SQLSTATE: tidak ada yang ditetapkan
Hak istimewa EXTERNAL
USE SCHEMA
tidak berlaku untuk entitas ini <assignedSecurableType>
dan hanya dapat ditetapkan ke skema atau katalog. Hapus hak istimewa dari objek <assignedSecurableType>
dan tetapkan ke skema atau katalog sebagai gantinya.
Penulisan Eksternal Tidak Diizinkan Untuk Tabel
SQLSTATE: tidak ada yang ditetapkan
Tabel dengan id <tableId>
tidak dapat ditulis dari luar Lingkungan Komputasi Databricks karena jenisnya <securableKind>
. Hanya jenis tabel 'TABLE_EXTERNAL
' dan 'TABLE_DELTA_EXTERNAL
' yang dapat ditulis secara eksternal.
AKAR_PENYIMPANAN_KATALOG_ASING_HARUS_MENDUKUNG_PENULISAN
SQLSTATE: tidak ada yang ditetapkan
Lokasi penyimpanan untuk katalog asing jenis <catalogType>
akan digunakan untuk mengeluarkan data dan tidak dapat bersifat baca-saja.
BATAS TUMPUKAN TERJAMIN DALAM BIDANG MELEBIHI
SQLSTATE: tidak ada yang ditetapkan
Jumlah <resourceType>
untuk jalur input <url>
melebihi batas yang diizinkan (<overlapLimit>
) untuk HMS yang saling tumpang tindih <resourceType>
.
INVALID_RESOURCE_NAME_DELTA_SHARING
SQLSTATE: tidak ada yang ditetapkan
Permintaan Delta Sharing tidak didukung menggunakan nama sumber daya
TIPE_ENTITAS_NAMA_SUMBER_TIDAK_VALID
SQLSTATE: tidak ada yang ditetapkan
Nama sumber daya yang disediakan mereferensikan jenis entitas <provided>
tetapi diharapkan <expected>
INVALID_RESOURCE_NAME_METASTORE_ID
SQLSTATE: tidak ada yang ditetapkan
Nama sumber daya yang disediakan mereferensikan metastore yang tidak berada dalam cakupan untuk permintaan saat ini
TUMBUKAN_LOKASI
SQLSTATE: tidak ada yang ditetapkan
Input path URL '<path>
' bertumpang tindih dengan <overlappingLocation>
dalam panggilan '<caller>
'.
<conflictingSummary>
.
Akar Penyimpanan Katalog Asing REDSHIFT Harus di S3
SQLSTATE: tidak ada yang ditetapkan
Akar penyimpanan untuk katalog eksternal Redshift harus di AWS S3.
SECURABLE_KIND_DOES_NOT_SUPPORT_LAKEHOUSE_FEDERATION
SQLSTATE: tidak ada yang ditetapkan
Jenis <securableKind>
tidak dapat diamankan dan tidak mendukung Federasi Lakehouse.
JENIS_AMAN_TIDAK_DIAKTIFKAN
SQLSTATE: tidak ada yang ditetapkan
Tipe yang dapat diamankan '<securableKind>
' tidak diaktifkan. Jika ini adalah jenis yang dapat diamankan yang terkait dengan fitur pratinjau, mohon aktifkan pada pengaturan ruang kerja.
JENIS_YANG_DAPAT_DIPERTAHANKAN_TIDAK_MENDUKUNG_FEDERASI_LAKEHOUSE
SQLSTATE: tidak ada yang ditetapkan
Tipe <securableType>
yang dapat diamankan tidak mendukung Federasi Lakehouse.
JUMLAH_KOLOM_TABEL_SUMBER_MELEBIHI_BATAS
SQLSTATE: tidak ada yang ditetapkan
Tabel sumber memiliki lebih dari <columnCount>
kolom. Kurangi jumlah kolom menjadi <columnLimitation>
atau kurang.
"UC_AAD_MASA_HIDUP_TOKEN_TERLALU_PENDEK"
SQLSTATE: tidak ada yang ditetapkan
Masa berlaku token AAD yang ditukar <lifetime>
telah dikonfigurasi terlalu pendek. Silakan periksa pengaturan Microsoft Azure ACTIVE Directory Anda untuk memastikan token akses sementara memiliki setidaknya satu jam masa pakai.https://learn.microsoft.com/azure/active-directory/develop/active-directory-configurable-token-lifetimes
UC_ABAC_EVALUATION_ERROR
SQLSTATE: tidak ada yang ditetapkan
Kesalahan saat mengevaluasi kebijakan ABAC pada <resource>
.
AKSI_UC_AUTHZ_TIDAK_DIDUKUNG
SQLSTATE: tidak ada yang ditetapkan
Otorisasi <actionName>
tidak didukung; harap periksa apakah RPC yang dipanggil diimplementasikan untuk jenis sumber daya ini
Izin Pembuatan Koneksi HMS Ditolak
SQLSTATE: tidak ada yang ditetapkan
Tidak dapat membuat koneksi untuk metastore Apache Hive bawaan karena pengguna: <userId>
bukan admin dari ruang kerja: <workspaceId>
Hubungan HMS Bawaan dengan Memodifikasi Bidang Terbatas
SQLSTATE: tidak ada yang ditetapkan
Coba ubah bidang terbatas dalam koneksi HMS bawaan '<connectionName>
'. Hanya 'warehouse_directory' yang dapat diperbarui.
UC_TIDAK_BISA_MENGGANTI_NAMA_KOLOM_PENYARINGAN_PARTISI
SQLSTATE: tidak ada yang ditetapkan
Gagal mengganti nama kolom tabel <originalLogicalColumn>
karena digunakan untuk pemfilteran partisi di <sharedTableName>
. Untuk melanjutkan, Anda dapat menghapus tabel dari berbagi, mengganti nama kolom, dan membagikannya dengan kolom pemfilteran partisi yang diinginkan lagi. Namun, ini dapat merusak kueri streaming untuk penerima Anda.
Pembentukan anak UC dilarang untuk kluster non-UC
SQLSTATE: tidak ada yang ditetapkan
Tidak dapat membuat <securableType>
'<securable>
' di bawah <parentSecurableType>
'<parentSecurable>
' karena permintaan bukan dari kluster UC.
Kegagalan Akses Penyimpanan Cloud
SQLSTATE: tidak ada yang ditetapkan
Gagal mengakses penyimpanan cloud: <errMsg>
exceptionTraceId=<exceptionTraceId>
Opsi Koneksi yang Bertentangan
SQLSTATE: tidak ada yang ditetapkan
Tidak dapat membuat koneksi dengan opsi autentikasi nama pengguna/kata sandi dan oauth. Silakan pilih satu.
UC_KONEKSI_ADA_UNTUK_KREDENSIAL
SQLSTATE: tidak ada yang ditetapkan
Kredensial '<credentialName>
' memiliki satu atau beberapa koneksi dependen. Anda dapat menggunakan opsi paksa untuk terus memperbarui atau menghapus kredensial, tetapi koneksi yang menggunakan kredensial ini mungkin tidak berfungsi lagi.
Koneksi UC Kadaluarsa: Akses Token
SQLSTATE: tidak ada yang ditetapkan
Token akses yang terkait dengan koneksi kedaluwarsa. Harap perbarui koneksi untuk memulai ulang alur OAuth untuk mengambil token.
Sesi_Koneksi_Kedaluwarsa_Segarkan_Token
SQLSTATE: tidak ada yang ditetapkan
Token refresh yang terkait dengan koneksi kedaluwarsa. Perbarui koneksi untuk memulai ulang alur OAuth untuk mengambil token baru.
KONEKSI_UC_DALAM_KEADAAN_GAGAL
SQLSTATE: tidak ada yang ditetapkan
Koneksi dalam status FAILED
. Perbarui koneksi dengan kredensial yang valid untuk mengaktifkannya kembali.
Token Penyegar Hilang untuk Koneksi UC
SQLSTATE: tidak ada yang ditetapkan
Tidak ada token refresh yang terkait dengan koneksi. Harap perbarui integrasi klien OAuth di penyedia identitas Anda agar dapat menghasilkan token refresh, dan perbarui atau buat ulang koneksi untuk memulai ulang alur OAuth serta mengambil token yang diperlukan.
Pertukaran OAuth pada UC_CONNECTION gagal
SQLSTATE: tidak ada yang ditetapkan
Pertukaran token OAuth gagal dengan kode status HTTP <httpStatus>
. Respons server atau pesan pengecualian yang dikembalikan adalah: <response>
UC_KOMIT_KOORDINASI_TIDAK_DIAKTIFKAN
SQLSTATE: tidak ada yang ditetapkan
Dukungan untuk penerapan terkoordinasi tidak diaktifkan. Silakan hubungi dukungan Databricks.
UC_PEMBUATAN_DILARANG_UNTUK_KEAMANAN_NONAKTIF
SQLSTATE: tidak ada yang ditetapkan
Tidak dapat membuat <securableType>
'<securableName>
' karena berada di bawah <parentSecurableType>
'<parentSecurableName>
' yang tidak aktif. Silakan hapus entitas induk yang dapat diamankan dan buat ulang induknya.
UC_CREDENTIAL_ACCESS_CONNECTOR_PARSING_FAILED
SQLSTATE: tidak ada yang ditetapkan
Gagal mengurai ID konektor akses yang disediakan: <accessConnectorId>
. Harap verifikasi pemformatannya, lalu coba lagi.
Kredensial UC gagal mendapatkan token validasi
SQLSTATE: tidak ada yang ditetapkan
Gagal mendapatkan token AAD untuk melakukan validasi izin cloud pada konektor akses. Silakan coba lagi tindakan tersebut.
KREDENSIAL_UC_HAK_AKSES_CLOUD_TIDAK_VALID
SQLSTATE: tidak ada yang ditetapkan
Mendaftarkan kredensial memerlukan peran kontributor melalui konektor akses yang sesuai dengan ID <accessConnectorId>
. Silakan hubungi admin akun Anda.
Tipe Kredensial Tidak Valid untuk Tujuan
SQLSTATE: tidak ada yang ditetapkan
Jenis kredensial '<credentialType>
' tidak didukung untuk tujuan '<credentialPurpose>
'
Izin Kredensial UC Ditolak
SQLSTATE: tidak ada yang ditetapkan
Hanya admin akun yang dapat membuat atau memperbarui kredensial dengan jenis <storageCredentialType>
.
KEBIJAKAN_KEPERCAYAAN_KREDENSIAL_UC_TERBUKA
SQLSTATE: tidak ada yang ditetapkan
Kebijakan kepercayaan peran IAM agar Akun Databricks dapat mengambil alih peran harus menyertakan ID eksternal. Silakan hubungi admin akun Anda untuk menambahkan kondisi ID eksternal. Perilaku ini untuk menjaga terhadap masalah Deputi Bingung https://docs.aws.amazon.com/IAM/latest/UserGuide/confused-deputy.html).
KREDENSIAL_UC_PRINSIPAL_LAYANAN_TANPA_PRI_VILEGE_TIDAK_DIDUKUNG
SQLSTATE: tidak ada yang ditetapkan
Perwakilan layanan tidak dapat menggunakan hak istimewa CREATE_STORAGE_CREDENTIAL
untuk mendaftarkan identitas terkelola. Untuk mendaftarkan identitas terkelola, berikan peran admin akun pada prinsipal layanan.
KP_AKSES_WORKSPACE_API_DILARANG
SQLSTATE: tidak ada yang ditetapkan
Membuat atau memperbarui kredensial sebagai admin non-akun tidak didukung di API tingkat akun. Silakan gunakan API tingkat ruang kerja sebagai gantinya.
Format_Universal_UC_DELTA_TIDAK_BISA_MENGURAI_VERSI_ICEBERG
SQLSTATE: tidak ada yang ditetapkan
Tidak dapat mengurai versi tabel Iceberg dari lokasi metadata <metadataLocation>
.
UC_DELTA_FORMAT_UNIVERSAL_PENULISAN_SEJARAHTERKAIT
SQLSTATE: tidak ada yang ditetapkan
Terdeteksi adanya pembaruan ke versi metadata gunung es yang sama secara bersamaan.
UC_DELTA_UNIVERSAL_FORMAT_LOKASI_METADATA_TIDAK_VALID
SQLSTATE: tidak ada yang ditetapkan
Lokasi metadata yang diterapkan <metadataLocation>
tidak valid. Ini bukan subdirektori dari direktori akar tabel <tableRoot>
.
UC_DELTA_KONSTRINKSI_BIDANG_HILANG_PADA_FORMAT_UNIVERSAL
SQLSTATE: tidak ada yang ditetapkan
Informasi konversi format gunung es delta yang disediakan tidak memiliki bidang yang diperlukan.
UC_DELTA_UNIVERSAL_FORMAT_NON_CREATE_CONSTRAINT
SQLSTATE: tidak ada yang ditetapkan
Mengatur informasi format bergaya delta gunung es pada saat pembuatan tidak didukung.
UC_DELTA_FORMAT_UNIVERSAL_TERLALU_BESAR_KETERBATASAN
SQLSTATE: tidak ada yang ditetapkan
Informasi konversi format gunung es delta yang disediakan terlalu besar.
UC_DELTA_UNIVERSAL_FORMAT_UPDATE_INVALID
SQLSTATE: tidak ada yang ditetapkan
Metadata seragam hanya dapat diperbarui pada tabel Delta dengan uniform yang diaktifkan.
Pembatasan_Kedalaman_Ketergantungan_Tercapai
SQLSTATE: tidak ada yang ditetapkan
<resourceType>
'<ref>
' kedalaman melebihi batas (atau memiliki referensi melingkar).
UC_DEPENDENCY_DOES_NOT_EXIST (ketergantungan UC tidak ada)
SQLSTATE: tidak ada yang ditetapkan
<resourceType>
'<ref>
' tidak valid karena salah satu sumber daya yang mendasar tidak ada. <cause>
IZIN_KETERGANTUNGAN_DITOLAK
SQLSTATE: tidak ada yang ditetapkan
<resourceType>
'<ref>
' tidak memiliki hak istimewa yang memadai untuk dijalankan karena pemilik salah satu sumber daya yang mendasar gagal pemeriksaan otorisasi. <cause>
UC_KONEKSI_GANDA
SQLSTATE: tidak ada yang ditetapkan
Koneksi yang disebut '<connectionName>
' dengan URL yang sama sudah ada. Silakan minta izin kepada pemilik untuk menggunakan koneksi tersebut alih-alih membuat duplikat.
UC_DUPLICATE_PEMBUATAN_KATALOG_KAIN
SQLSTATE: tidak ada yang ditetapkan
Mencoba membuat katalog Fabric dengan URL '<storageLocation>
' yang cocok dengan katalog lain yang sudah ada; hal ini tidak diperbolehkan.
UC_DUPLICATE_TAG_ASSIGNMENT_CREATION
SQLSTATE: tidak ada yang ditetapkan
Penetapan tag dengan kunci tag <tagKey>
sudah ada
ENTITAS_UC_TIDAK_MEMILIKI_KLUSTER_ONLINE_YANG_SESUAI
SQLSTATE: tidak ada yang ditetapkan
Entitas <securableType> <entityId>
tidak memiliki kluster online yang sesuai.
Jumlah berkas melebihi batas maksimum
SQLSTATE: tidak ada yang ditetapkan
Ada lebih dari <maxFileResults>
file. Tentukan [max_results] untuk membatasi jumlah file yang dikembalikan.
UC_EXTERNAL_LOCATION_OP_NOT_ALLOWED
SQLSTATE: tidak ada yang ditetapkan
Tidak dapat <opName> <extLoc> <reason>
.
<suggestion>
.
UC_FITUR_DINONAKTIFKAN
SQLSTATE: tidak ada yang ditetapkan
<featureName>
saat ini dinonaktifkan di UC.
Katalog Asing untuk Jenis Koneksi Tidak Didukung
SQLSTATE: tidak ada yang ditetapkan
Pembuatan katalog asing untuk jenis koneksi '<connectionType>
' tidak didukung. Tipe koneksi ini hanya dapat digunakan untuk membuat alur penyerapan terkelola. Silakan referensi dokumentasi Databricks untuk informasi lebih lanjut.
PENGECEKAN_KREDENSIAL_ASING_HANYA_UNTUK_OPERASI_MEMBACA
SQLSTATE: tidak ada yang ditetapkan
Hanya kredensial READ yang dapat diambil untuk tabel asing.
Ketidakcocokan Panjang Kolom Anak pada Kunci Asing
SQLSTATE: tidak ada yang ditetapkan
Kunci asing <constraintName>
memiliki kolom anak dan kolom induk yang ukurannya berbeda.
UC_KETIDAKSESUAIAN_KOLOM_KUNCI_ASING
SQLSTATE: tidak ada yang ditetapkan
Kolom induk kunci asing tidak cocok dengan kolom anak kunci utama yang dirujuk. Kolom induk kunci asing adalah (<parentColumns>
) dan kolom anak kunci utama adalah (<primaryKeyChildColumns>
).
Ketidakcocokan Jenis Kolom Kunci Asing
SQLSTATE: tidak ada yang ditetapkan
Tipe kolom anak kunci asing tidak cocok dengan tipe kolom induk. Kolom anak kunci asing <childColumnName>
memiliki tipe <childColumnType>
dan kolom induk <parentColumnName>
memiliki jenis <parentColumnType>
.
UC_GCP_INVALID_PRIVATE_KEY
SQLSTATE: tidak ada yang ditetapkan
Akses ditolak. Penyebab: kunci privat akun layanan tidak valid.
UC_GCP_INVALID_PRIVATE_KEY_JSON_FORMAT
SQLSTATE: tidak ada yang ditetapkan
Kunci Privat OAuth Akun Google Server harus menjadi objek JSON yang valid dengan bidang yang diperlukan, pastikan untuk memberikan file JSON lengkap yang dihasilkan dari bagian 'KEYS' dari halaman detail akun layanan.
UC_GCP_KUNCI_PRIBADI_TIDAK_VALID_FORMAT_JSON_BIDANG_HILANG
SQLSTATE: tidak ada yang ditetapkan
Kunci Privat OAuth Akun Google Server harus menjadi objek JSON yang valid dengan bidang yang diperlukan, pastikan untuk memberikan file JSON lengkap yang dihasilkan dari bagian 'KEYS' dari halaman detail akun layanan. Bidang yang hilang adalah <missingFields>
Peran_IAM_Tidak_Mengasumsikan_Sendiri
SQLSTATE: tidak ada yang ditetapkan
Pada kredensial penyimpanan ini, peran IAM ditemukan tidak dapat berfungsi secara mandiri. Silakan periksa kepercayaan peran Anda dan kebijakan IAM untuk memastikan bahwa peran IAM Anda dapat diambil alih sesuai dengan dokumentasi kredensial penyimpanan Unity Catalog.
UC_ICEBERG_COMMIT_CONFLICT
SQLSTATE: tidak ada yang ditetapkan
Tidak dapat menerapkan <tableName>
: lokasi metadata <baseMetadataLocation>
telah berubah dari <catalogMetadataLocation>
.
UC_ICEBERG_COMMIT_INVALID_TABLE
SQLSTATE: tidak ada yang ditetapkan
Tidak dapat melakukan penerapan Managed Iceberg ke tabel Iceberg yang tidak Dikelola: <tableName>
.
UC_ICEBERG_COMMIT_MISSING_FIELD_CONSTRAINT
SQLSTATE: tidak ada yang ditetapkan
Informasi komit Managed Iceberg yang disediakan tidak memiliki bidang yang diperlukan.
Ketidakcocokan_ID_UC
SQLSTATE: tidak ada yang ditetapkan
<type> <name>
tidak memiliki ID <wrongId>
. Silakan coba lagi operasi ini.
UC_INVALID_ACCESS_DBFS_ENTITY
SQLSTATE: tidak ada yang ditetapkan
Akses <securableType> <securableName>
tidak valid di katalog terfederasi <catalogName>
. <reason>
UC_INVALID_CLOUDFLARE_ACCOUNT_ID
SQLSTATE: tidak ada yang ditetapkan
ID akun Cloudflare tidak valid.
UC_INVALID_CREDENTIAL_CLOUD
SQLSTATE: tidak ada yang ditetapkan
Penyedia kredensial cloud tidak valid ‘<cloud>
’. Penyedia cloud yang diizinkan '<allowedCloud>
'.
UC_NILAI_TUJUAN_KREDENSIAL_TIDAK_VALID
SQLSTATE: tidak ada yang ditetapkan
Nilai '<value>
' tidak valid untuk 'tujuan' kredensial. Nilai yang diizinkan '<allowedValues>
'.
UC_INVALID_CREDENTIAL_TRANSITION
SQLSTATE: tidak ada yang ditetapkan
Tidak dapat memperbarui koneksi dari <startingCredentialType>
ke <endingCredentialType>
. Satu-satunya transisi yang valid adalah dari koneksi berbasis nama pengguna/kata sandi ke koneksi berbasis token OAuth.
UC_INVALID_CRON_STRING_FABRIC
SQLSTATE: tidak ada yang ditetapkan
String cron tidak valid. Ditemukan: '<cronString>
' dengan kesalahan penguraian: '<message>
'
UC_AKSES_LANGSUNG_TIDAK_VALID_TABEL_DIKELOLA
SQLSTATE: tidak ada yang ditetapkan
Tabel yang diakses langsung dan terkelola tidak valid <tableName>
. Pastikan definisi alur tabel sumber & tidak didefinisikan.
UC_TIDAK_VALID_LOKASI_PENYIMPANAN_KOSONG
SQLSTATE: tidak ada yang ditetapkan
Lokasi penyimpanan kosong yang tidak terduga untuk <securableType>
'<securableName>
' dalam katalog '<catalogName>
'. Untuk memperbaiki kesalahan ini, jalankan DESCRIBE SCHEMA <catalogName>
.
<securableName>
dan segarkan halaman ini.
Pembaruan Opsi Tidak Valid UC
SQLSTATE: tidak ada yang ditetapkan
Opsi yang disediakan tidak valid untuk pembaruan. Opsi tidak valid: <invalidOptions>
. Opsi yang diizinkan: <allowedOptions>
.
UC_NILAI_OPSI_TIDAK_VALID
SQLSTATE: tidak ada yang ditetapkan
Nilai tidak valid '<value>
' untuk '<option>
'. Nilai yang diizinkan '<allowedValues>
'.
UC_NILAI_OPSI_TIDAK_VALID_KOSONG
SQLSTATE: tidak ada yang ditetapkan
'<option>
' tidak boleh kosong. Masukkan nilai yang tidak kosong.
UC_INVALID_R2_ACCESS_KEY_ID
SQLSTATE: tidak ada yang ditetapkan
ID kunci akses R2 tidak valid.
UC_INVALID_R2_SECRET_ACCESS_KEY
SQLSTATE: tidak ada yang ditetapkan
Kunci akses rahasia R2 tidak valid.
Kondisi Aturan Tidak Valid UC
SQLSTATE: tidak ada yang ditetapkan
Kondisi tidak valid dalam aturan '<ruleName>
'. Kesalahan kompilasi dengan pesan '<message>
'.
UC_PEMBARUAN_TIDAK_VALID_PADA_KELOMPOK_ADMIN_WORKSPACE_SISTEM_YANG_DIMILIKI_KEAMANAN
SQLSTATE: tidak ada yang ditetapkan
Tidak dapat memperbarui <securableType>
'<securableName>
' karena dimiliki oleh grup internal. Silakan hubungi dukungan Databricks untuk detail tambahan.
UC_INVALID_WASBS_EXTERNAL_LOCATION_STORAGE_CREDENTIAL - Kredensial Penyimpanan Lokasi Eksternal WASBS Tidak Valid
SQLSTATE: tidak ada yang ditetapkan
<storageCredentialName>
Kredensial Penyimpanan yang disediakan tidak terkait dengan Root DBFS, sehingga pembuatan wasbs Lokasi Eksternal dilarang.
Skema UC_LOCATION tidak valid
SQLSTATE: tidak ada yang ditetapkan
Lokasi penyimpanan memiliki skema URI yang tidak valid: <scheme>
.
Respons Server OAuth yang Salah Bentuk
SQLSTATE: tidak ada yang ditetapkan
Tanggapan dari server token tidak menyertakan bidang <missingField>
. Respons server yang dikembalikan adalah: <response>
STATUS_PENUGASAN_METASTORE_TIDAK_VALID
SQLSTATE: tidak ada yang ditetapkan
'<metastoreAssignmentStatus>
' tidak dapat ditetapkan. Hanya MANUALLY_ASSIGNABLE
dan AUTO_ASSIGNMENT_ENABLED
yang didukung.
Sertifikasi Metastore UC Tidak Diaktifkan
SQLSTATE: tidak ada yang ditetapkan
Sertifikasi metastore tidak diaktifkan.
Pemetaan UC_METASTORE_DB_SHARD tidak ditemukan
SQLSTATE: tidak ada yang ditetapkan
Gagal mendapatkan pemetaan metastore ke shard database untuk ID Metastore <metastoreId>
karena kesalahan internal. Silakan hubungi dukungan Databricks.
UC_METASTORE_MEMILIKI_KATALOG_ONLINE_TERKELOLA_AKTIF
SQLSTATE: tidak ada yang ditetapkan
Metastore <metastoreId>
memiliki <numberManagedOnlineCatalogs>
katalog terkelola secara online. Silakan hapus mereka secara eksplisit, lalu coba lagi menghapus metastore.
UC_METASTORE_STORAGE_ROOT_CREDENTIAL_UPDATE_INVALID
SQLSTATE: tidak ada yang ditetapkan
Kredensial akar metastore tidak boleh ditentukan saat memperbarui lokasi akar metastore. Kredensial akan diambil dari lokasi eksternal induk metastore.
Penghapusan UC_METASTORE_STORAGE_ROOT tidak valid
SQLSTATE: tidak ada yang ditetapkan
Penghapusan lokasi akar penyimpanan metastore gagal. <reason>
UC_METASTORE_STORAGE_ROOT_BACA-SAJA_TIDAK_SAH
SQLSTATE: tidak ada yang ditetapkan
Akar <securableType>
untuk metastore tidak dapat bersifat baca-saja.
UC_METASTORE_AKAR_PENYIMPANAN_PEMBARUAN_TIDAK_VALID
SQLSTATE: tidak ada yang ditetapkan
Akar penyimpanan metastore tidak dapat diperbarui setelah diatur.
MODEL_UC_STATUS_TIDAK_VALID
SQLSTATE: tidak ada yang ditetapkan
Tidak dapat menghasilkan kredensial '<opName>
' sementara untuk versi model <modelVersion>
dengan status <modelVersionStatus>
. Kredensial '<opName>
' hanya dapat dihasilkan untuk versi model dengan status <validStatus>
UC_TIDAK_ADA_ID_ORGANISASI_DALAM_KONTEKS
SQLSTATE: tidak ada yang ditetapkan
Mencoba mengakses ID org (atau ID ruang kerja), tetapi konteks tidak memilikinya.
UC_ONLINE_CATALOG_NOT_MUTABLE
SQLSTATE: tidak ada yang ditetapkan
Permintaan <rpcName>
memperbarui <fieldName>
. Gunakan tab 'compute' di toko online untuk memodifikasi apa pun selain komentar, pemilik, dan Mode Isolasi dari katalog online.
KUOTA_KATALOG_ONLINE_TERLEBIHI
SQLSTATE: tidak ada yang ditetapkan
Tidak dapat membuat lebih dari <quota>
toko online di metastore dan saat ini sudah ada <currentCount>
. Anda mungkin tidak memiliki akses ke toko online yang ada. Hubungi admin metastore Anda untuk diberikan akses atau untuk instruksi lebih lanjut.
UC_INDEKS_ONLINE_KATALOG_TIDAK_SAH_CRUD
SQLSTATE: tidak ada yang ditetapkan
katalog indeks online harus di-<action>
-kan melalui API /vector-search.
INDEKS_ONLINE_KATALOG_TIDAK_BISA_DIUBAH
SQLSTATE: tidak ada yang ditetapkan
Permintaan <rpcName>
memperbarui <fieldName>
. Gunakan API /vector-search untuk memodifikasi semua hal kecuali komentar, pemilik, dan modus isolasi dari katalog indeks daring.
KUOTA_INDEKS_KATALOG_DARING_TERLEBIHI
SQLSTATE: tidak ada yang ditetapkan
Jumlah katalog indeks online di metastore tidak boleh lebih dari <quota>
, dan saat ini sudah ada <currentCount>
. Anda mungkin tidak memiliki akses ke katalog indeks online yang ada. Hubungi admin metastore Anda untuk diberikan akses atau untuk instruksi lebih lanjut.
UC_ONLINE_INDEX_TIDAK_VALID_CRUD
SQLSTATE: tidak ada yang ditetapkan
indeks daring harus <action>
melalui API /vector-search.
UC_ONLINE_STORE_INVALID_CRUD
SQLSTATE: tidak ada yang ditetapkan
toko online harus <action>
dari tab perhitungan toko online.
Nama Kolom Tabel Daring Terlalu Panjang
SQLSTATE: tidak ada yang ditetapkan
Nama kolom tabel sumber <columnName>
terlalu panjang. Panjang maksimum adalah <maxLength>
karakter.
UC_TABEL_ONLINE_KOLOM_KUNCI_PRIMER_TIDAK_DALAM_TABEL_SUMBER_KONSTRAIN_KUNCI_PRIMER
SQLSTATE: tidak ada yang ditetapkan
Kolom <columnName>
tidak dapat digunakan sebagai kolom kunci utama tabel online karena bukan bagian dari batasan PRIMARY KEY
tabel sumber yang ada. Untuk detailnya, silakan lihat <docLink>
KUNCI_RANGKAIAN_WAKTU_TABEL_ONLINE_TIDAK_TERDAPAT_DALAM_KENDALA_KUNCI_UTAMA_TABEL_SUMBER
SQLSTATE: tidak ada yang ditetapkan
Kolom <columnName>
tidak dapat digunakan sebagai kunci waktu tabel online karena bukan kolom timeseries dari batasan PRIMARY KEY
tabel sumber yang ada. Untuk detailnya, silakan lihat <docLink>
Kuota Tabel Sumber UC_ONLINE_VIEWS_Terlampaui
SQLSTATE: tidak ada yang ditetapkan
Tidak dapat membuat lebih dari <quota>
tabel online per tabel sumber.
Akses Tampilan Online Ditolak
SQLSTATE: tidak ada yang ditetapkan
Mengakses sumber daya <resourceName>
memerlukan penggunaan gudang SQL Tanpa Server. Pastikan gudang yang digunakan untuk menjalankan kueri atau melihat katalog database di UI tanpa server. Untuk detailnya, silakan lihat <docLink>
Kuota Lihat Berkelanjutan Online Terlampaui
SQLSTATE: tidak ada yang ditetapkan
Tidak dapat membuat lebih dari <quota>
tampilan online secara terus menerus di toko online, serta sudah ada <currentCount>
. Anda mungkin tidak memiliki akses ke tampilan online yang sudah ada. Hubungi admin toko online Anda untuk diberikan akses atau untuk instruksi lebih lanjut.
Tampilan Online UC Tidak Mendukung DMK
SQLSTATE: tidak ada yang ditetapkan
<tableKind>
tidak dapat dibuat pada lokasi penyimpanan dengan Kunci Terkelola Databricks. Pilih skema/katalog yang berbeda di lokasi penyimpanan tanpa enkripsi Kunci Terkelola Databricks.
Tampilan daring UC_katalog tidak valid
SQLSTATE: tidak ada yang ditetapkan
Katalog <catalogName>
tidak valid dengan jenis <catalogKind>
untuk membuat <tableKind>
di dalam.
<tableKind>
hanya dapat dibuat di bawah katalog jenis: <validCatalogKinds>
.
UC_ONLINE_VIEW_SKEMA_TIDAK_VALID
SQLSTATE: tidak ada yang ditetapkan
<schemaName>
skema yang tidak valid dengan <schemaKind>
jenis untuk membuat <tableKind>
di dalamnya.
<tableKind>
hanya dapat dibuat di bawah skema jenis: <validSchemaKinds>
.
UC_ONLINE_VIEW_INVALID_TTL_TIME_COLUMN_TYPE
SQLSTATE: tidak ada yang ditetapkan
Kolom <columnName>
tipe <columnType>
tidak dapat digunakan sebagai kolom waktu TTL. Jenis yang diperbolehkan adalah <supportedTypes>
.
UC_OUT_OF_AUTHORIZED_PATHS_SCOPE
SQLSTATE: tidak ada yang ditetapkan
Kesalahan Jalur Diotorisasi. Lokasi <securableType>
<location>
tidak ditetapkan dalam jalur yang diizinkan untuk katalog: <catalogName>
. Silakan minta pemilik katalog untuk menambahkan jalur ke daftar jalur resmi yang ditentukan pada katalog.
UC_OVERLAPPED_AUTHORIZED_PATHS
SQLSTATE: tidak ada yang ditetapkan
Opsi 'authorized_paths' berisi jalur-jalur yang saling tumpang tindih: <overlappingPaths>
. Pastikan setiap jalur unik dan tidak bersinggungan dengan orang lain dalam daftar.
UC_PAGINATION_AND_QUERY_ARGS_MISMATCH (Ketidakcocokan antara paginasi dan argumen kueri)
SQLSTATE: tidak ada yang ditetapkan
Argumen kueri '<arg>
' diatur ke '<received>
' yang berbeda dengan nilai yang digunakan dalam panggilan penomoran halaman pertama ('<expected>
')
JALUR_UC_TERLALU_PANJANG
SQLSTATE: tidak ada yang ditetapkan
Jalur input terlalu panjang. Panjang yang diizinkan: <maxLength>
. Panjang input: <inputLength>
. Input: <path>
...
Batas Keterbatasan Keserentakan Database Metastore Terlampaui
SQLSTATE: tidak ada yang ditetapkan
Terlalu banyak permintaan ke database dari metastore <metastoreId>
. Silakan coba lagi nanti.
UC_KUNCI_PRIMER_PADA_KOLOM_NULLABLE
SQLSTATE: tidak ada yang ditetapkan
Tidak dapat membuat kunci primer <constraintName>
karena kolom turunannya <childColumnNames>
dapat diubah ke null. Silakan ubah opsi null kolom dan coba ulang.
Batas Waktu Permintaan UC
SQLSTATE: tidak ada yang ditetapkan
Operasi ini membutuhkan waktu terlalu lama.
UC_ROOT_STORAGE_S3_NAMA_BUCKET_MENGANDUNG_TITIK
SQLSTATE: tidak ada yang ditetapkan
Katalog Unity tidak mendukung nama bucket S3 penyimpanan utama yang mengandung titik: <uri>
UC_SCHEMA_EMPTY_STORAGE_LOCATION
SQLSTATE: tidak ada yang ditetapkan
Lokasi penyimpanan kosong yang tidak terduga untuk skema '<schemaName>
' dalam katalog '<catalogName>
'. Pastikan skema menggunakan skema jalur <validPathSchemesListStr>
.
Layanan UC Sementara Tidak Tersedia
SQLSTATE: tidak ada yang ditetapkan
Kami mengalami masalah sementara saat memproses permintaan Anda. Silakan coba lagi dalam beberapa saat. Jika masalah berlanjut, silakan hubungi dukungan.
UC_STORAGE_CREDENTIAL_ACCESS_CONNECTOR_PARSING_FAILED (Gagal parsing konektor akses kredensial penyimpanan)
SQLSTATE: tidak ada yang ditetapkan
Gagal mengurai ID konektor akses yang disediakan: <accessConnectorId>
. Harap verifikasi pemformatannya, lalu coba lagi.
Izin Pembuatan Akar Kredensial Penyimpanan DBFS Ditolak
SQLSTATE: tidak ada yang ditetapkan
Tidak dapat membuat kredensial penyimpanan untuk akar DBFS karena pengguna: <userId>
bukan admin ruang kerja: <workspaceId>
Kredensial Penyimpanan UC Lokasi Akar DBFS Tidak Valid
SQLSTATE: tidak ada yang ditetapkan
Lokasi <location>
tidak berada di dalam <dbfsRootLocation>
akar DBFS
UC_STORAGE_CREDENTIAL_DBFS_ROOT_PRIVATE_DBFS_ENABLED (Kredensial Penyimpanan untuk DBFS Root Pribadi Diaktifkan)
SQLSTATE: tidak ada yang ditetapkan
Kredensial penyimpanan akar DBFS belum didukung untuk ruang kerja dengan DBFS berkemampuan Firewall
UC_STORAGE_CREDENTIAL_DBFS_ROOT_PRIVATE_NOT_SUPPORTED
SQLSTATE: tidak ada yang ditetapkan
Kredensial penyimpanan akar DBFS untuk ruang kerja saat ini belum didukung
UC_STORAGE_CREDENTIAL_DBFS_ROOT_WORKSPACE_DISABLED
SQLSTATE: tidak ada yang ditetapkan
Akar DBFS tidak diaktifkan untuk ruang kerja <workspaceId>
UC_STORAGE_CREDENTIAL_GAGAL_MENDAPATKAN_TOKEN_VALIDASI
SQLSTATE: tidak ada yang ditetapkan
Gagal mendapatkan token AAD untuk melakukan validasi izin cloud pada konektor akses. Silakan coba lagi tindakan tersebut.
Kredensial Penyimpanan Tidak Valid - Izin Awan Tidak Benar
SQLSTATE: tidak ada yang ditetapkan
Untuk mendaftarkan kredensial penyimpanan, diperlukan peran kontributor pada konektor akses yang sesuai dengan ID <accessConnectorId>
. Silakan hubungi admin akun Anda.
Izin Kredensial Penyimpanan Ditolak
SQLSTATE: tidak ada yang ditetapkan
Hanya admin akun yang dapat membuat atau memperbarui kredensial penyimpanan dengan jenis <storageCredentialType>
.
"Kredensial Penyimpanan UC: Token Validasi Tidak Ada untuk Service Principal"
SQLSTATE: tidak ada yang ditetapkan
Token validasi yang hilang untuk prinsipal layanan. Mohon sediakan token ID Entra yang valid dengan cakupan ARM pada header permintaan 'X-Databricks-Azure-SP-Management-Token' dan coba lagi. Untuk detailnya, periksahttps://docs.databricks.com/api/workspace/storagecredentials
KEBIJAKAN KEPERCAYAAN KREDENSIAL PENYIMPANAN UC TERBUKA
SQLSTATE: tidak ada yang ditetapkan
Kebijakan kepercayaan peran IAM agar Akun Databricks dapat mengambil alih peran harus menyertakan ID eksternal. Silakan hubungi admin akun Anda untuk menambahkan kondisi ID eksternal. Perilaku ini untuk menjaga terhadap masalah Deputi Bingung https://docs.aws.amazon.com/IAM/latest/UserGuide/confused-deputy.html).
UC_STORAGE_CREDENTIAL_UNPRIVILEGED_SERVICE_PRINCIPAL_NOT_SUPPORTED
SQLSTATE: tidak ada yang ditetapkan
Perwakilan layanan tidak dapat menggunakan hak istimewa CREATE_STORAGE_CREDENTIAL
untuk mendaftarkan identitas terkelola. Untuk mendaftarkan identitas terkelola, berikan peran admin akun pada prinsipal layanan.
UC_STORAGE_CREDENTIAL_WASBS_NOT_DBFS_ROOT
SQLSTATE: tidak ada yang ditetapkan
Lokasi <location>
tidak berada di dalam akar DBFS, karena itu kami tidak dapat membuat kredensial penyimpanan <storageCredentialName>
Penyimpanan UC Kredensial Workspace API Dilarang
SQLSTATE: tidak ada yang ditetapkan
Membuat atau memperbarui kredensial penyimpanan sebagai admin non-akun tidak didukung di API tingkat akun. Silakan gunakan API tingkat ruang kerja sebagai gantinya.
UC_SISTEM_RUANG_KERJA_IZIN_KELOMPOK_TIDAK_DIDUKUNG
SQLSTATE: tidak ada yang ditetapkan
Tidak dapat memberikan hak istimewa pada <securableType>
untuk grup yang dihasilkan oleh sistem <principal>
.
Penetapan Tag UC Dengan Kunci Tidak Ada
SQLSTATE: tidak ada yang ditetapkan
Penetapan tag dengan kunci tag <tagKey>
tidak ada
UC_JALUR_DASAR_KONEKSI_HTTP_TIDAK_DIDUKUNG
SQLSTATE: tidak ada yang ditetapkan
Jalur dasar yang disediakan tidak valid, jalur dasar harus seperti /api/resources/v1. Jalur yang tidak didukung: <path>
Sambungan HTTP tidak didukung oleh host
SQLSTATE: tidak ada yang ditetapkan
Nama host yang diberikan tidak valid, nama host harus dalam format sepertihttps://www.databricks.com tanpa akhiran jalur. Host yang tidak didukung: <host>
KARAKTER_LATIN_TIDAK_DIDUKUNG_DALAM_JALUR
SQLSTATE: tidak ada yang ditetapkan
Hanya karakter Latin/Latin-1 dasar ASCII
yang didukung dalam jalur lokasi/volume/tabel eksternal. Jalur yang tidak didukung: <path>
PEMBARUAN UC DILARANG UNTUK PENYEDIAAN YANG DAPAT DIAMANKAN
SQLSTATE: tidak ada yang ditetapkan
Tidak dapat memperbarui <securableType>
'<securableName>
' karena sedang disediakan.
KONFLIK_PENULISAN_UC
SQLSTATE: tidak ada yang ditetapkan
<type> <name>
telah dimodifikasi oleh permintaan lain. Silakan coba lagi operasi ini.
Permintaan Commits Terkoordinasi Eksternal pada Katalog Unity Ditolak
SQLSTATE: tidak ada yang ditetapkan
Permintaan untuk melakukan commit/getCommits untuk tabel '<tableId>
' dari luar lingkungan komputasi yang diaktifkan Databricks Unity Catalog ditolak untuk keamanan. Silakan hubungi dukungan Databricks untuk integrasi dengan Unity Catalog.
Permintaan Pembuatan Tabel Staging Eksternal Unity Catalog Ditolak
SQLSTATE: tidak ada yang ditetapkan
Permintaan untuk membuat tabel penahapan '<tableFullName>
' dari luar lingkungan komputasi yang diaktifkan Databricks Unity Catalog ditolak untuk keamanan. Silakan hubungi dukungan Databricks untuk integrasi dengan Unity Catalog.
Permintaan Pembuatan Tabel Eksternal di UNITY_CATALOG Ditolak untuk Tabel Non-Eksternal
SQLSTATE: tidak ada yang ditetapkan
Permintaan untuk membuat tabel non-eksternal '<tableFullName>
' dari luar lingkungan komputasi yang diaktifkan Databricks Unity Catalog ditolak untuk keamanan. Silakan hubungi dukungan Databricks untuk integrasi dengan Unity Catalog.
Penolakan Penghasilan Kredensial Jalur Eksternal UNITY_CATALOG
SQLSTATE: tidak ada yang ditetapkan
Permintaan untuk menghasilkan kredensial akses untuk jalur '<path>
' dari luar lingkungan komputasi yang diaktifkan Databricks Unity Catalog ditolak untuk keamanan. Silakan hubungi dukungan Databricks untuk integrasi dengan Unity Catalog.
PENOLAKAN_GENERATE_KREDENSIAL_TABEL_EKSTERNAL_UNITY_CATALOG
SQLSTATE: tidak ada yang ditetapkan
Permintaan untuk menghasilkan kredensial akses untuk tabel '<tableId>
' dari luar lingkungan komputasi yang diaktifkan Databricks Unity Catalog ditolak untuk keamanan. Silakan hubungi dukungan Databricks untuk integrasi dengan Unity Catalog.
UNITY_CATALOG_EXTERNAL_GET_FOREIGN_CREDENTIALS_DENIED
SQLSTATE: tidak ada yang ditetapkan
Permintaan untuk mendapatkan kredensial asing untuk keamanan dari luar lingkungan komputasi yang diaktifkan Databricks Unity Catalog ditolak untuk keamanan.
PENOLAKAN PEMUTAKHIRAN METADATA SNAPSHOT EKSTERNAL UNITY_CATALOG
SQLSTATE: tidak ada yang ditetapkan
Permintaan untuk memperbarui rekam jepret metadata dari luar lingkungan komputasi yang diaktifkan Databricks Unity Catalog ditolak untuk keamanan.
CREDENTIALS_TULIS_TIDAK_DIDUKUNG_UNTUK_TABEL_ONLINE_MANAJEMEN_LEGACY
SQLSTATE: tidak ada yang ditetapkan
Permintaan tidak valid untuk mendapatkan kredensial menulis untuk tabel yang dikelola secara online dalam katalog online.
API Berkas
FILES_API_API_IS_NOT_ENABLED
SQLSTATE: tidak ada yang ditetapkan
<API_NAME> API tidak diaktifkan
FILES_API_API_TIDAK_DIAKTIFKAN_UNTUK_JALUR_CLOUD
SQLSTATE: tidak ada yang ditetapkan
Metode API File yang diminta tidak didukung untuk jalur cloud
FILES_API_AWS_ACCESS_DENIED
SQLSTATE: tidak ada yang ditetapkan
Akses ke wadah penyimpanan ditolak oleh AWS.
API_FILE_AWS_AKSES_SEMUA_DINONAKTIFKAN
SQLSTATE: tidak ada yang ditetapkan
Semua akses ke wadah penyimpanan telah dinonaktifkan di AWS.
FILES_API_AWS_BUCKET_TIDAK_ADA
SQLSTATE: tidak ada yang ditetapkan
Wadah penyimpanan tidak ada di AWS.
FILES_API_AWS_TERLARANG
SQLSTATE: tidak ada yang ditetapkan
Akses ke wadah penyimpanan dilarang oleh AWS.
FILES_API_AWS_HEADER_OTORISASI_TIDAK_VALID
SQLSTATE: tidak ada yang ditetapkan
Ruang kerja salah dikonfigurasi: ruang kerja harus berada di wilayah yang sama dengan wadah penyimpanan akar ruang kerja AWS.
FILES_API_AWS_NAMA_BUCKET_TIDAK_VALID
SQLSTATE: tidak ada yang ditetapkan
Nama wadah penyimpanan tidak valid.
FILES_API_AWS_KMS_KEY_DISABLED (Kunci AWS KMS Dinonaktifkan)
SQLSTATE: tidak ada yang ditetapkan
Kunci KMS yang dikonfigurasi untuk mengakses wadah penyimpanan dinonaktifkan di AWS.
FILES_API_AWS_TIDAK_DIAUTORISASI
SQLSTATE: tidak ada yang ditetapkan
Akses ke sumber daya AWS tidak sah.
AKUN_AZURE_FILES_API_DINONAKTIFKAN
SQLSTATE: tidak ada yang ditetapkan
Akun penyimpanan dinonaktifkan di Azure.
FILES_API_CONTAINER_AZURE_TIDAK_ADA
SQLSTATE: tidak ada yang ditetapkan
Kontainer Azure tidak ada.
Akses FILES_API_AZURE Dilarang
SQLSTATE: tidak ada yang ditetapkan
Akses ke kontainer penyimpanan dilarang oleh Azure.
FILES_API_AZURE_PUNYA_SEWA
SQLSTATE: tidak ada yang ditetapkan
Azure merespons bahwa saat ini ada sewa pada sumber daya. Coba lagi nanti.
IZIN_AKUN_TIDAK_MEMADAI_FILES_API_AZURE
SQLSTATE: tidak ada yang ditetapkan
Akun yang diakses tidak memiliki izin yang memadai untuk menjalankan operasi ini.
FILES_API_AZURE_NAMA_AKUN_PENYIMPANAN_TIDAK_VALID
SQLSTATE: tidak ada yang ditetapkan
Tidak dapat mengakses akun penyimpanan di Azure: nama akun penyimpanan yang tidak valid.
OTENTIKASI_BERBASIS_KUNCI_API_FILE_AZURE_TIDAK_DIPERBOLEHKAN
SQLSTATE: tidak ada yang ditetapkan
Key Vault tidak ditemukan di Azure. Periksa pengaturan kunci yang dikelola pelanggan Anda.
FILES_API_KUNCI_AZURE_KEY_VAULT_TIDAK_DITEMUKAN
SQLSTATE: tidak ada yang ditetapkan
Kunci di Brankas Kunci Azure tidak ditemukan di Azure. Periksa pengaturan kunci yang dikelola pelanggan Anda.
BERKAS_API_AZURE_KEY_VAULT_TIDAK_DITEMUKAN
SQLSTATE: tidak ada yang ditetapkan
Key Vault tidak ditemukan di Azure. Periksa pengaturan kunci yang dikelola pelanggan Anda.
KONEKTOR_AKSES_MI_FILES_API_AZURE_TIDAK_DITEMUKAN
SQLSTATE: tidak ada yang ditetapkan
Kredensial Identitas Terkelola Azure dengan Konektor Akses tidak ditemukan. Ini bisa karena kontrol akses IP menolak permintaan Anda.
FILES_API_AZURE_OPERATION_TIMEOUT
SQLSTATE: tidak ada yang ditetapkan
Operasi tidak dapat diselesaikan dalam waktu yang diizinkan.
JALUR_AZURE_FILES_API_TIDAK_VALID
SQLSTATE: tidak ada yang ditetapkan
Jalur yang diminta tidak valid untuk Azure.
FILES_API_AZURE_PATH_ADALAH_TAK_BERUBAH
SQLSTATE: tidak ada yang ditetapkan
Jalur yang diminta tidak dapat diubah.
FILE_API_AZURE_HEADER_TIDAK_DIDUKUNG
SQLSTATE: tidak ada yang ditetapkan
Salah satu header yang ditentukan dalam operasi tidak didukung.
KATALOG_FILES_API_TIDAK_DITEMUKAN
SQLSTATE: tidak ada yang ditetapkan
<unity_catalog_error_message>
SUMBER_DAYA_AWAN_FILES_API_HABIS
SQLSTATE: tidak ada yang ditetapkan
<message>
FILES_API_TITIK DUA_TIDAK DIDUKUNG_DI_JALUR
SQLSTATE: tidak ada yang ditetapkan
karakter ':' tidak didukung pada jalur
FILES_API_KENDALI_PESAWAT_JARINGAN_ZONE_TIDAK_DIIJINKAN
SQLSTATE: tidak ada yang ditetapkan
Zona jaringan pesawat kendali Databricks tidak diizinkan.
DIREKTORI_FILES_API_TIDAK_DAPAT_MEMILIKI_ISI
SQLSTATE: tidak ada yang ditetapkan
Sebuah isi telah disediakan tetapi direktori tidak dapat memiliki isi berkas
KONFIGURASI_API_DIREKTORI_TIDAK_KOSONG
SQLSTATE: tidak ada yang ditetapkan
Direktori tidak kosong. Operasi ini tidak didukung pada direktori yang tidak kosong.
DIREKTORI_FILES_API_TIDAK_DITEMUKAN
SQLSTATE: tidak ada yang ditetapkan
Direktori yang sedang diakses tidak ditemukan.
FILE_API_DUPLIKAT_HEADER
SQLSTATE: tidak ada yang ditetapkan
Permintaan berisi beberapa salinan header yang hanya diizinkan sekali.
FILES_API_DUPLICATE_QUERY_PARAMETER
SQLSTATE: tidak ada yang ditetapkan
Parameter kueri '<parameter_name>' harus ada tepat sekali tetapi disediakan beberapa kali.
FILES_API_EMPTY_BUCKET_NAME
SQLSTATE: tidak ada yang ditetapkan
Nama wadah DBFS kosong.
Berkas_API_Entity_Terlalu_Besar
SQLSTATE: tidak ada yang ditetapkan
Objek Anda melebihi ukuran objek maksimum yang diizinkan.
WAKTU_KEDALUWARSA_FILES_API_HARUS_ADA
SQLSTATE: tidak ada yang ditetapkan
waktu kedaluwarsa harus ada
TOKEN_KADALUARSA_FILES_API
SQLSTATE: tidak ada yang ditetapkan
Token yang disediakan telah kedaluwarsa.
WAKTU_KADALUWARSA_API_BERKAS_HARUS_DI_MASA_DEPAN
SQLSTATE: tidak ada yang ditetapkan
ExpireTime harus di masa mendatang
WAKTU_KEDALUWARSA_FILES_API_TERLALU_JAUH_DI_MASA_DEPAN
SQLSTATE: tidak ada yang ditetapkan
TTL yang diminta lebih lama dari yang didukung (1 jam)
LOKASI_EKSTERNAL_PATH_OVERLAP_ENTITAS_PENYIMPANAN_UC_LAIN
SQLSTATE: tidak ada yang ditetapkan
<unity_catalog_error_message>
BERKAS_API_BERKAS_SUDAH_ADA
SQLSTATE: tidak ada yang ditetapkan
File yang sedang dibuat sudah ada.
FILES_API_FILE_TIDAK_DITEMUKAN
SQLSTATE: tidak ada yang ditetapkan
File yang sedang diakses tidak ditemukan.
BERKAS_API_BERKAS_ATAU_DIREKTORI_BERAKHIR_DENGAN_TITIK
SQLSTATE: tidak ada yang ditetapkan
File atau direktori yang berakhiran '.' Karakter-karakter ini tidak didukung.
UKURAN_FILE_API_TERLALU_BESAR
SQLSTATE: tidak ada yang ditetapkan
Ukuran file tidak boleh melebihi <max_download_size_in_bytes> byte, tetapi ditemukan ukuran <size_in_bytes> byte.
FILES_API_AKUN_GCP_DINONAKTIFKAN
SQLSTATE: tidak ada yang ditetapkan
Akses ke wadah penyimpanan telah dinonaktifkan di GCP.
Bucket GCP tidak ada
SQLSTATE: tidak ada yang ditetapkan
Wadah penyimpanan tidak ada di GCP.
FILES_API_GCP_DILARANG
SQLSTATE: tidak ada yang ditetapkan
Akses ke wadah dilarang oleh GCP.
FILES_API_KUNCI_GCP_DIMATIKAN_ATAU_DIHANCURKAN
SQLSTATE: tidak ada yang ditetapkan
Kunci enkripsi yang dikelola pelanggan yang dikonfigurasi untuk lokasi tersebut dinonaktifkan atau dihancurkan.
Permintaan FILES_API_GCP dilarang oleh kebijakan
SQLSTATE: tidak ada yang ditetapkan
Permintaan GCP ke bucket diblokir oleh kebijakan, periksa pengaturan layanan VPC.
HOST_FILES_API_SEMENTARA_TIDAK_TERSEDIA
SQLSTATE: tidak ada yang ditetapkan
Host penyedia cloud untuk sementara tidak tersedia; silakan coba lagi nanti.
TOKEN_LANJUTAN_TIDAK_VALID_FILES_API
SQLSTATE: tidak ada yang ditetapkan
Token halaman yang disediakan tidak valid.
Toket Halaman Tidak Valid pada FILES_API
SQLSTATE: tidak ada yang ditetapkan
token halaman tidak valid
FILES_API_INVALID_PATH
SQLSTATE: tidak ada yang ditetapkan
Jalur tidak valid: <validation_error>
FILES_API_RENTANG_TIDAK_VALID
SQLSTATE: tidak ada yang ditetapkan
Header rentang tidak valid.
BERKAS_API_NAMA_SUMBER_TIDAK_VALID
SQLSTATE: tidak ada yang ditetapkan
<unity_catalog_error_message>
FILES_API_INVALID_SESSION_TOKEN
SQLSTATE: tidak ada yang ditetapkan
Token sesi tidak valid
FILES_API_INVALID_SESSION_TOKEN_TYPE - Jenis token sesi tidak valid.
SQLSTATE: tidak ada yang ditetapkan
Jenis token sesi tidak valid. Diharapkan ‘<expected>
’ namun diperoleh ‘<actual>
’.
FILES_API_INVALID_TIMESTAMP
SQLSTATE: tidak ada yang ditetapkan
Tanda waktu tidak valid.
TIPE_PENGUNGGAHAN_TIDAK_VALID_FILES_API
SQLSTATE: tidak ada yang ditetapkan
Jenis unggahan tidak valid. Diharapkan ‘<expected>
’ namun diperoleh ‘<actual>
’.
BERKAS_API_PARAMETER_URL_TIDAK_VALID
SQLSTATE: tidak ada yang ditetapkan
URL yang diteruskan sebagai parameter tidak valid
NILAI_INVALID_UNTUK_PARAMETER_QUERY_OVERWRITE_PADA_API_BERKAS
SQLSTATE: tidak ada yang ditetapkan
Parameter kueri 'overwrite' harus salah satu dari: true, false, tetapi ternyata: <got_values>
Nilai tidak valid untuk parameter kueri di FILES_API
SQLSTATE: tidak ada yang ditetapkan
Parameter kueri '<parameter_name>' harus salah satu dari: <expected>
tetapi adalah: <actual>
BADAN PERMINTAAN FILES_API TIDAK VALID
SQLSTATE: tidak ada yang ditetapkan
Isi permintaan cacat
FITUR KATALOG TERKELOLA FILES_API DIMATIKAN
SQLSTATE: tidak ada yang ditetapkan
<unity_catalog_error_message>
METASTORE_FILE_API_TIDAK_DITEMUKAN
SQLSTATE: tidak ada yang ditetapkan
<unity_catalog_error_message>
METODE_API_FILE_TIDAK_DIIZINKAN_UNTUK_PENYIMPANAN_ARTEFAK_PERHITUNGAN_LATAR_BELAKANG_JOBS
SQLSTATE: tidak ada yang ditetapkan
Metode API File yang diminta tidak didukung untuk Penyimpanan Artefak Komputasi Latar Belakang Pekerjaan.
FILES_API_HILANGI_PANJANG_KONTEN
SQLSTATE: tidak ada yang ditetapkan
Header panjang konten diperlukan dalam permintaan.
FILES_API_PARAMETER_KUERI_HILANG
SQLSTATE: tidak ada yang ditetapkan
Parameter kueri '<parameter_name>' diperlukan tetapi hilang dari permintaan.
FILES_API_PARAMETER_YANG_DIPERLUKAN_HILANG_DALAM_PERMINTAAN
SQLSTATE: tidak ada yang ditetapkan
Permintaan tidak memiliki parameter yang diperlukan.
VERSI_MODEL_FILES_API_BELUM_SIAP
SQLSTATE: tidak ada yang ditetapkan
Versi model belum siap
API_FILES_UPLOAD_MULTIPART_ABORT_URL_PRESIGNED_TIDAK_DIPERBARUI
SQLSTATE: tidak ada yang ditetapkan
URL yang telah ditetapkan sebelumnya untuk membatalkan unggahan multibagian tidak didukung untuk file yang disimpan di <cloud_storage_provider>.
UNGGAH_MULTIPART_FILE_BERKAS_DENGAN_LIST_BAGIAN_KOSONG
SQLSTATE: tidak ada yang ditetapkan
Daftar bagian harus memiliki setidaknya satu elemen tetapi kosong.
Nomor bagian yang tidak valid dalam unggahan multipart FILES_API
SQLSTATE: tidak ada yang ditetapkan
Nomor bagian harus berada dalam batas yang disediakan dalam respons yang diterima setelah memulai unggahan.
FILES_API_UPLOAD_MULTIPART_ETAG_HILANG
SQLSTATE: tidak ada yang ditetapkan
ETag harus disediakan untuk file yang disimpan di <cloud_storage_provider>. Setidaknya satu ETag tidak disediakan atau kosong.
STATUS_ENTITAS_PENYIMPANAN_YANG_DIUBAH_DARI_UPLOAD_MULTIPART_API_BERKAS
SQLSTATE: tidak ada yang ditetapkan
Status internal entitas penyimpanan telah dimodifikasi sejak unggahan dimulai, misalnya karena jalur file tidak menunjuk ke lokasi penyimpanan cloud yang mendasar yang sama. Lanjutkan dengan memulai sesi pengunggahan baru.
FILES_API_MULTIPART_UPLOAD_NON_TRAILING_PARTS_WITH_DIFFERENT_SIZES
SQLSTATE: tidak ada yang ditetapkan
Bagian yang diunggah sebagai bagian dari sesi pengunggahan multibagian harus berukuran sama untuk file yang disimpan di <cloud_storage_provider>, kecuali untuk bagian terakhir yang bisa lebih kecil.
FILES_API_UPLOAD_BERPOTONG_PADA_UKURAN_BAGIAN_DI_LUAR_BATAS
SQLSTATE: tidak ada yang ditetapkan
Ukuran bagian yang diunggah sebagai bagian dari sesi pengunggahan multibagian harus berada dalam batas yang disediakan dalam respons yang diterima setelah memulai unggahan.
SESI_UPLOAD_MULTIPART_API_BERKAS_TIDAK_DITEMUKAN
SQLSTATE: tidak ada yang ditetapkan
Sesi unggahan tidak ditemukan. Mungkin telah dibatalkan atau diselesaikan.
BERKAS_API_MULTIPART_UNGGAH_DAFTAR_BAGIAN_TIDAK_TERURUT
SQLSTATE: tidak ada yang ditetapkan
Daftar bagian harus diurutkan berdasarkan nomor bagian tetapi tidak diurutkan.
FILES_API_TIDAK_DIIJINKAN_UNTUK_TEMPAT
SQLSTATE: tidak ada yang ditetapkan
FILES API untuk <place>
tidak diaktifkan untuk ruang kerja/akun ini
API_FILE_TIDAK_DIDUKUNG_PADA_PENYIMPANAN_RUANG_KERJA_INTERNAL
SQLSTATE: tidak ada yang ditetapkan
Metode FILES API yang diminta tidak didukung untuk Penyimpanan Ruang Kerja Internal
Operasi_API_BERKAS_HARUS_ADA
SQLSTATE: tidak ada yang ditetapkan
operasi harus ada
UKURAN_HALEMAN_FILES_API_HARUS_LEBIH_BESAR_ATAU_SAMA_DENGAN_NOL
SQLSTATE: tidak ada yang ditetapkan
page_size harus lebih besar atau sama dengan 0
PATH_API_FILE_DIHARUSKAN_BERAKHIR_DENGAN_SLASH
SQLSTATE: tidak ada yang ditetapkan
Jalur yang berakhiran karakter '/' mewakili direktori. API ini tidak mendukung operasi pada direktori.
Jalur FILES_API adalah Direktori
SQLSTATE: tidak ada yang ditetapkan
Jalur yang diberikan menunjuk ke direktori yang ada. API ini tidak mendukung operasi pada direktori.
FILES_API_PATH_ADALAH_FILE
SQLSTATE: tidak ada yang ditetapkan
Jalur yang diberikan menunjuk ke file yang ada. API ini tidak mendukung operasi pada file.
JALUR_API_FILE_TIDAK_VALID_SEBAGAI_URL_BERKODE_UTF8
SQLSTATE: tidak ada yang ditetapkan
jalur yang diberikan bukan URL yang dikodekan UTF-8 yang valid
Jalur FILES_API tidak diaktifkan untuk Proxy Dataplane
SQLSTATE: tidak ada yang ditetapkan
Jalur yang diberikan tidak diaktifkan untuk proksi sarana data
FILES_API_PATH_HARUS_ADA
SQLSTATE: tidak ada yang ditetapkan
jalur harus tersedia
JALUR_API_FILE_TIDAK_DIDUKUNG
SQLSTATE: tidak ada yang ditetapkan
<rejection_message>
JALUR_API_FILE_TERLALU_PANJANG
SQLSTATE: tidak ada yang ditetapkan
Jalur file yang disediakan terlalu panjang.
FILES_API_PRECONDITION_FAILED
SQLSTATE: tidak ada yang ditetapkan
Permintaan gagal karena prasyarat.
URL Pra-penandatanganan untuk Model Tidak Didukung di API FILES
SQLSTATE: tidak ada yang ditetapkan
FILE API untuk URL yang telah ditandatangani untuk model tidak didukung saat ini
Kredensial FILES_API_R2 dinonaktifkan
SQLSTATE: tidak ada yang ditetapkan
R2 tidak didukung saat ini.
FILES_API_RANGE_NOT_SATISFIABLE (Rentang berkas tidak dapat dipenuhi)
SQLSTATE: tidak ada yang ditetapkan
Rentang yang diminta tidak terpenuhi.
API_FILES_DAFTAR_REKURSIF_TIDAK_DIDUKUNG
SQLSTATE: tidak ada yang ditetapkan
Mencantumkan file secara rekursif tidak dapat dilakukan.
PERMINTAAN_API_FILE_DIALIHKAN_SECARA_TIDAK_TEPAT
SQLSTATE: tidak ada yang ditetapkan
Permintaan dirutekan dengan tidak benar
Permintaan FILES_API harus menyertakan informasi akun.
SQLSTATE: tidak ada yang ditetapkan
Permintaan harus menyertakan informasi akun
Permintaan FILES_API harus menyertakan informasi pengguna
SQLSTATE: tidak ada yang ditetapkan
Permintaan harus menyertakan informasi pengguna
PERMINTAAN API BERKAS HARUS MENYERTAKAN INFORMASI RUANG KERJA
SQLSTATE: tidak ada yang ditetapkan
Permintaan harus menyertakan informasi ruang kerja
Sumber API BERKAS adalah Read-only
SQLSTATE: tidak ada yang ditetapkan
Sumber daya ini hanya dapat dibaca.
FILES_API_SUMBER_DAYA_TIDAK_DITEMUKAN
SQLSTATE: tidak ada yang ditetapkan
<unity_catalog_error_message>
SKEMA_API_BERKAS_TIDAK_DITEMUKAN
SQLSTATE: tidak ada yang ditetapkan
<unity_catalog_error_message>
FILES_API_URL_AMAN_TIDAK_BISA_DIAKSES
SQLSTATE: tidak ada yang ditetapkan
URL tidak dapat diakses.
Pemeriksaan Tanda Tangan API Berkas Gagal
SQLSTATE: tidak ada yang ditetapkan
Verifikasi tanda tangan gagal.
KONTEKS_PENYIMPANAN_API_BERKAS_BELUM_DISETEL
SQLSTATE: tidak ada yang ditetapkan
Konfigurasi penyimpanan untuk ruang kerja ini tidak dapat diakses.
Kredensial Penyimpanan API Berkas Tidak Ditemukan
SQLSTATE: tidak ada yang ditetapkan
<unity_catalog_error_message>
JENIS_TABEL_FILES_API_TIDAK_DIDUKUNG
SQLSTATE: tidak ada yang ditetapkan
FILES API tidak didukung untuk <table_type>
Peran_Identitas_API_IAM_TIDAK_BISA_MENGGUNAKAN_DIRI_SENDIRI
SQLSTATE: tidak ada yang ditetapkan
<unity_catalog_error_message>
FILES_API_UC_MODEL_KEADAAN_TIDAK_VALID
SQLSTATE: tidak ada yang ditetapkan
<unity_catalog_error_message>
FILES_API_UC_PERMISSION_DENIED
SQLSTATE: tidak ada yang ditetapkan
<unity_catalog_error_message>
FILES_API_UC_SUMBER_DAYA_HABIS
SQLSTATE: tidak ada yang ditetapkan
<message>
FILES_API_UC_KARAKTER_LATIN_TIDAK_DIDUKUNG_DALAM_PATH
SQLSTATE: tidak ada yang ditetapkan
<unity_catalog_error_message>
FILES_API_UC_NAMA_VOLUME_BERUBAH
SQLSTATE: tidak ada yang ditetapkan
<unity_catalog_error_message>
FILES_API_UNEXPECTED_ERROR_WHILE_PARSING_URI
SQLSTATE: tidak ada yang ditetapkan
Kesalahan tak terduga saat mengurai URI
FILES_API_PARAMETER_QUERY_TIDAK_TERDUGA
SQLSTATE: tidak ada yang ditetapkan
Parameter kueri tak terduga: <unexpected_query_parameters>
METODE_TIDAK_DI KETAHUI_FILES_API
SQLSTATE: tidak ada yang ditetapkan
Metode yang tidak diketahui <method>
KESALAHAN_SERVER_TIDAK_DI KENAL_FILES_API
SQLSTATE: tidak ada yang ditetapkan
Kesalahan server tidak diketahui.
FILES_API_TUAN_RUMAH_URL_TIDAK_DI KETAHUI
SQLSTATE: tidak ada yang ditetapkan
Host URL tidak diketahui.
FILES_API_JALUR_TIDAK_DIDUKUNG
SQLSTATE: tidak ada yang ditetapkan
Jalur yang disediakan tidak didukung oleh FILES API. Pastikan jalur yang disediakan tidak berisi kemunculan '../' atau urutan './'. Pastikan jalur yang disediakan tidak menggunakan beberapa garis miring berturut-turut (misalnya '///').
PEMBANGKITAN_URL_API_FILE_NONAKTIF
SQLSTATE: tidak ada yang ditetapkan
Pembuatan URL yang telah ditetapkan sebelumnya tidak diaktifkan untuk <cloud>
.
JENIS_VOLUME_API_FILES_TIDAK_DIDUKUNG
SQLSTATE: tidak ada yang ditetapkan
FILES API tidak didukung untuk <volume_type>.
WORKSPACE_API_FILE_DIBATALKAN
SQLSTATE: tidak ada yang ditetapkan
Ruang kerja telah dibatalkan.
Workspace FILES_API Tidak Ditemukan
SQLSTATE: tidak ada yang ditetapkan
Konfigurasi penyimpanan untuk ruang kerja ini tidak dapat diakses.
Tabel Langsung Delta
UBAH_JADWAL_JADWAL_TIDAK_ADA
Tidak dapat memodifikasi <type>
pada tabel tanpa jadwal atau pemicu yang ada. Tambahkan jadwal atau pemicu ke tabel sebelum mencoba mengubahnya.
Kuota API Terlampaui
Anda telah melebihi kuota API untuk sumber data <sourceName>
.
Untuk informasi selengkapnya, lihat API_QUOTA_EXCEEDED
TERAPKAN_PERUBAHAN_PEMBARUAN_PARUH_TIDAK_DIAKTIFKAN
SQLSTATE: tidak ada yang ditetapkan
Fitur COLUMNS
hingga UPDATE
dalam pratinjau dan tidak diaktifkan untuk ruang kerja Anda. Silakan hubungi perwakilan Databricks Anda untuk mempelajari lebih lanjut tentang fitur ini dan mengakses pratinjau privat.
ARCHITECTURE_MIGRATION_FAILURE
SQLSTATE: tidak ada yang ditetapkan
Untuk informasi lebih lengkap, lihat ARCHITECTURE_MIGRATION_FAILURE
TIDAK_BISA_MENAMBAHKAN_KOLOM_KE_TERMASUK_KOLOM
SQLSTATE: tidak ada yang ditetapkan
Kolom baru (<columnNames>
) ditambahkan ke bidang include_columns dalam definisi alur untuk tabel <qualifiedTableName>
. Silakan refresh penuh tabel untuk menghindari potensi kehilangan data atau menghapus kolom ini dari include_columns.
TIDAK_DAPAT_MENGECUALIKAN_KOLOM_YANG_TIDAK_ADA
SQLSTATE: tidak ada yang ditetapkan
Definisi alur mengecualikan kolom (<columnNames>
) yang tidak ada dalam tabel <qualifiedTableName>
sumber <sourceType>
. Hapus kolom ini dari bidang exclude_columns.
TIDAK_BISA_MENGHAPUS_KOLOM_YANG_DIBUTUHKAN
SQLSTATE: tidak ada yang ditetapkan
Definisi alur tidak menyertakan kolom yang diperlukan (<columnNames>
) dalam tabel <qualifiedTableName>
<sourceType>
sumber untuk penyerapan. Silakan tambahkan mereka ke include_columns atau hapus dari exclude_columns.
TIDAK DAPAT MENYERTAKAN KOLOM YANG TIDAK ADA
SQLSTATE: tidak ada yang ditetapkan
Definisi alur mencakup kolom (<columnNames>
) yang tidak ada dalam tabel <qualifiedTableName>
sumber <sourceType>
. Hapus kolom ini dari bidang include_columns.
TIDAK_BISA_MEMASUKKAN_TABEL_TANPA_KUNCI_UTAMA
SQLSTATE: tidak ada yang ditetapkan
Tabel <qualifiedTableName>
di sumber <sourceType>
tidak memiliki kunci primer.
Tentukan kunci primer dalam konfigurasi konektor untuk menyerap tabel jika ada.
TIDAK DAPAT MENGHAPUS KOLOM DARI KOLOM YANG DIKECUALIKAN
SQLSTATE: tidak ada yang ditetapkan
Kolom (<columnNames>
) dihapus dari bidang exclude_columns dalam definisi alur untuk tabel <qualifiedTableName>
. Silakan refresh penuh tabel untuk menghindari potensi kehilangan data atau menambahkan kolom ini kembali ke exclude_columns.
TIDAK_BISA_MENGATUR_KATALOG_UNTUK_HMS_PIPELINE
SQLSTATE: tidak ada yang ditetapkan
Tidak dapat menambahkan katalog ke alur yang sudah ada dengan lokasi penyimpanan yang ditentukan, jika Anda ingin menggunakan UC buat alur baru dan atur katalog.
Lokasi penyimpanan yang ada: '<storageLocation>
'
Katalog yang diminta: '<catalog>
'
TIDAK_BISA_MENCANTUMKAN_KEDUA_KOLOM_TERMASUK_TERKECUALI
SQLSTATE: tidak ada yang ditetapkan
Definisi pipeline menentukan kolom_include dan kolom_exclude untuk <identifier>
. Silakan hapus salah satunya.
TIDAK_BISA_MEMPERBARUI_KOLOM_PENGELOMPOKAN
SQLSTATE: tidak ada yang ditetapkan
Tidak dapat memperbarui kolom pengklusteran untuk <tableName>
tabel karena menggunakan kolom partisi. Tabel dapat menggunakan kolom partisi atau kolom pengklusteran, tetapi tidak keduanya.
Untuk beralih antara pengklusteran cair dan partisi, picu refresh penuh tabel ini.
TIDAK_DAPAT_MEMPERBARUI_KOLOM_PARTISI
SQLSTATE: tidak ada yang ditetapkan
Tidak dapat memperbarui kolom partisi untuk tabel streaming <tableName>
.
Saat ini: <existingPartitionColumns>
,
Diminta: <requestedPartitionColumns>
Untuk menerapkan perubahan partisi ini, jalankan pembaharuan penuh dari tabel ini dan tabel streaming lainnya yang memiliki kolom partisi yang diperbarui.
Atau kembalikan perubahan ini untuk terus menggunakan kolom partisi yang ada.
Tidak Dapat Memperbarui Skema Tabel
SQLSTATE: tidak ada yang ditetapkan
Gagal menggabungkan skema saat ini dan baru untuk tabel <tableName>
.
Untuk melanjutkan perubahan skema ini, Anda dapat memicu refresh penuh tabel ini.
Bergantung pada kasus penggunaan Anda dan perubahan skema, Anda mungkin dapat mengaburkan perubahan skema - Anda dapat memperbarui kueri Anda sehingga skema output kompatibel dengan skema yang ada (misalnya, dengan secara eksplisit mentransmisikan kolom ke jenis data yang benar).
TIDAK DAPAT MENULIS KE KOLOM YANG TIDAK AKTIF
SQLSTATE: tidak ada yang ditetapkan
Tabel berikut ini di tujuan memiliki kolom tidak aktif yang bertentangan dengan tabel sumber saat ini:
<details>
Kolom ini tetap tidak aktif dalam tabel tujuan karena sebelumnya dihapus dari tabel sumber.
Untuk melanjutkan pembaruan, lakukan FULL REFRESH
pada tabel atau letakkan kolom tidak aktif ini dari tabel tujuan melalui perintah ALTER TABLE DROP COLUMN
, dan coba lagi pembaruan.
TIDAK DAPAT MENULIS KE TABEL NONAKTIF
SQLSTATE: tidak ada yang ditetapkan
Tabel berikut di tujuan tidak aktif dan bertentangan dengan tabel sumber saat ini: <tables>
.
Tabel ini tetap tidak aktif karena sebelumnya dihapus dari sumber atau tidak dipilih dari konektor.
Untuk melanjutkan pembaruan, lakukan FULL REFRESH
pada tabel atau atau letakkan tabel tidak aktif ini dari tujuan di Catalog Explorer atau melalui perintah DROP TABLE
, dan coba lagi pembaruan.
TIDAK_DIPERBOLEHKAN_MENULIS_KE_TABEL_SEMENTARA_MENUNGGU_RESET
SQLSTATE: tidak ada yang ditetapkan
Tabel berikut di tujuan tidak direset dengan benar dalam refresh penuh sebelumnya: <tables>
.
Harap picu refresh penuh untuk memulihkannya.
SPESIFIKASI_KATALOG_TIDAK_DIPERLUKAN
SQLSTATE: tidak ada yang ditetapkan
CatalogSpecs saat ini tidak didukung oleh konektor database. Silakan hapus spesifikasi katalog.
AAPLIKASI_CDC_MEMBUTUHKAN_SEMUA_TABEL_TUJUAN_PENYEGARAN_PENUH
SQLSTATE: tidak ada yang ditetapkan
Refresh penuh pada satu tabel tujuan dan pembaruan reguler pada tabel tujuan lain dari sumber yang sama tidak didukung.
Silakan refresh penuh kedua tabel untuk melanjutkan jika memungkinkan.
Tabel refresh penuh: <fullRefreshTables>
Tabel tujuan untuk sumber <sourceTable>
: <destinationTables>
Skema CDC_applier berubah saat streaming
SQLSTATE: tidak ada yang ditetapkan
Versi skema <dataSchemaVersion>
berbeda dengan versi skema baca <readSchemaVersion>
.
DLT akan mencoba kembali pembaruan.
Perubahan Skema Tidak Kompatibel CDC
SQLSTATE: tidak ada yang ditetapkan
Kami mengalami perubahan skema yang tidak kompatibel (<cause>
) dari versi skema <previousSchemaVersion>
ke <currentSchemaVersion>
.
Oleh karena itu, kami tidak dapat melanjutkan penerapan perubahan untuk <tableName>
. Silakan minta refresh penuh tabel.
Skema sebelumnya: <previousSchema>
Skema saat ini: <currentSchema>
KESENJANGAN_DATA_YANG_POTENSIAL_CDC
SQLSTATE: tidak ada yang ditetapkan
Tabel berikut [<needFullRefreshTableList>
] tidak memiliki pembaruan yang berhasil selama <retention>
hari.
Silakan lakukan refresh penuh pada tabel ini atau seluruh alur.
CDC_SAMA_TABEL_DARI_BEBERAPA_SUMBER
SQLSTATE: tidak ada yang ditetapkan
Menemukan nama tabel yang sama <table>
dari beberapa sumber: <sources>
.
Pisahkan mereka menjadi jalur yang berbeda untuk menghindari konflik.
CDC_TABEL_TIDAK_DITEMUKAN_DALAM_SEMUA_TABEL
SQLSTATE: tidak ada yang ditetapkan
Tabel <table>
tidak ditemukan di rekam jepret semua tabel database sumber.
Detail spesifikasi tabel:
<tableSpec>
PERUBAHAN_PIPA_HMS_KE_UC_TIDAK_DIPERBOLEHKAN
SQLSTATE: tidak ada yang ditetapkan
Mengubah alur HMS ke alur UC tidak diperbolehkan.
PERUBAHAN_UC_PIPELINE_KE_HMS_TIDAK_DIPERBOLEHKAN
SQLSTATE: tidak ada yang ditetapkan
Mengubah alur UC ke alur HMS tidak diperbolehkan.
Mengubah katalog tidak diizinkan
SQLSTATE: tidak ada yang ditetapkan
Tidak dapat mengubah katalog alur yang ada. Katalog yang ada: '<existingCatalog>
'. Katalog yang diminta: '<requestedCatalog>
'.
Perubahan skema target tidak diizinkan
SQLSTATE: tidak ada yang ditetapkan
Mengubah skema target tidak diperbolehkan. Alasan: <reason>
.
KREDIT_PEMBUATAN_KLUSTER_HABIS
Gagal membuat kluster karena kredit Anda yang tersedia telah habis. Tambahkan metode pembayaran untuk meningkatkan akun Anda.
IZIN_PEMBUATAN_CLUSTER_DITOLAK
Anda tidak berwenang untuk membuat kluster. Silakan hubungi administrator Anda.
Masa Percobaan Pembuatan Klaster Berakhir
Gagal membuat atau memulai kluster karena periode uji coba untuk ruang kerja Anda telah kedaluwarsa. Silakan hubungi administrator Anda.
KESALAHAN_KLIEN_PELUNCURAN_GRUP
Gagal meluncurkan kluster alur kerja <clusterId>
: <clusterStateMessage>
Kesalahan ini kemungkinan karena kesalahan konfigurasi dalam alur.
Periksa konfigurasi kluster alur dan kebijakan kluster terkait.
GAGAL_CLUSTER_MELUNCUR_AWAN
Gagal meluncurkan kluster alur <clusterId>
: <clusterStateMessage>
Kesalahan ini bisa bersifat sementara - mulai ulang alur Anda dan laporkan jika Anda masih melihat masalah yang sama.
KEBIJAKAN_KLUSTER_IZIN_DITOLAK
Anda tidak berwenang untuk mengakses kebijakan kluster yang dikonfigurasi untuk alur ini. Silakan hubungi administrator Anda.
CLUSTER_SETUP_CLIENT_ERROR
Untuk informasi lebih lanjut, lihat CLUSTER_SETUP_CLIENT_ERROR
KLASTER_TIDAK_TERJANGKAU
SQLSTATE: tidak ada yang ditetapkan
Komunikasi hilang dengan pengemudi.
<clusterId>
kluster tidak dapat dijangkau selama <timeoutSeconds>
detik.
Kolom_untuk_diperbarui_tidak_ditemukan
SQLSTATE: tidak ada yang ditetapkan
Kolom <column>
yang ditentukan antara COLUMNS
sampai UPDATE
tidak ditemukan di Dataframe sumber.
PEMBARUAN_BERSAMA_GAGAL_MENGHENTIKAN_PEMBARUAN_SEBELUMNYA
SQLSTATE: tidak ada yang ditetapkan
Memulai pembaruan '<upgradedUpdateId>
' untuk peningkatan tetapi gagal menghentikan pembaruan sebelumnya '<oldUpdateId>
'.
Kesalahan ini kemungkinan bersifat sementara. Alur akan dicoba kembali secara otomatis dan masalahnya harus diselesaikan dengan sendirinya.
Laporkan kesalahan ini ke Databricks jika Anda masih melihat masalah yang sama.
Dekorator Dataset Diterapkan Dua Kali
SQLSTATE: tidak ada yang ditetapkan
Himpunan data <datasetName>
sudah ada. Pastikan bahwa fungsi kueri hanya ditandai sebagai tampilan atau tabel sekali.
DATASET_TIDAK_DIDEFINISIKAN (DATASET_NOT_DEFINED)
SQLSTATE: tidak ada yang ditetapkan
Gagal membaca himpunan data '<datasetName>
'. Himpunan data ini tidak ditentukan dalam alur.
Jika tabel ini dikelola oleh alur lain, maka jangan gunakan dlt.read
/ dlt.readStream
untuk membaca tabel atau menambahkan nama dengan kata kunci LIVE.
JADWAL_DROP_JADWAL_TIDAK_ADA
Tidak dapat menghapus SCHEDULE
pada tabel tanpa jadwal atau pemicu yang telah ada.
SPESIFIKASI_TABEL_KONFIGURASI_PENCERNAAN_DUPLIKAT
SQLSTATE: tidak ada yang ditetapkan
Konfigurasi alur penyerapan berisi tabel duplikat. Pastikan bahwa setiap tabel unik.
OBJEK_KONFIGURASI_PEMASUKAN_KOSONG
SQLSTATE: tidak ada yang ditetapkan
Objek konfigurasi ingesti kosong.
Fitur Pemilih Log Acara Tidak Didukung
SQLSTATE: tidak ada yang ditetapkan
Menerbitkan log peristiwa ke Unity Catalog tidak didukung untuk alur ini. Jika ini tidak terduga, silakan hubungi dukungan Databricks.
GAGAL MEMBUAT LOG ACARA
SQLSTATE: tidak ada yang ditetapkan
Gagal membuat log peristiwa pipeline (id=<pipelineId>
) dengan ID <eventLogIdentifier>
. Lihat pengecualian di bawah ini untuk detail selengkapnya.
GAGAL_MEMPERBARUI_LOG_ACARA
SQLSTATE: tidak ada yang ditetapkan
Gagal memperbarui identifikasi log acara pipeline (id=<pipelineId>
) ke <newEventLogIdentifier>
dengan visibilitas <newVisibility>
. Lihat pengecualian di bawah ini untuk detail selengkapnya.
SKEMA_ALIRAN_BERUBAH
SQLSTATE: tidak ada yang ditetapkan
Alur <flowName>
telah dihentikan karena mengalami perubahan skema selama eksekusi.
Perubahan skema kompatibel dengan skema target yang ada dan eksekusi alur berikutnya dapat dilanjutkan dengan skema baru.
SOKET_BATCH_FOREACH_HANYA_DIDUKUNG_DI_SALURAN_PRATINJAU
SQLSTATE: tidak ada yang ditetapkan
DLT ForeachBatch Sink saat ini tidak didukung.
Pratinjau privat untuk sink DLT ForeachBatch memerlukan saluran PREVIEW
.
Sink DLT: <sinkNames>
GATEWAY_PIPELINE_INIT_SCRIPTS_TIDAK_DIIJINKAN
SQLSTATE: tidak ada yang ditetapkan
Alur Gateway tidak mengizinkan skrip init kluster. Silakan hapuskan itu dari <from>
.
KONFIGURASI_SPARK_GATEWAY_PIPELINE_TIDAK_DIPERBOLEHKAN
SQLSTATE: tidak ada yang ditetapkan
Alur Gateway tidak mengizinkan konfigurasi spark [<configs>
]. Silakan hapus mereka dari <from>
.
KOLOM_TIDAK_SAH_UNTUK_MEMPERBARUI_TIPE_DATA
SQLSTATE: tidak ada yang ditetapkan
Jenis data kolom yang ditentukan dalam COLUMNS
TO UPDATE
harus berupa array string tetapi ditemukan <illegalDataType>
.
ILLEGAL_SCHEMA_FIELD_DALAM_SPESIFIKASI_PIPELINE
SQLSTATE: tidak ada yang ditetapkan
Bidang 'skema' yang ditentukan dalam pengaturan pipeline tidak sah. Alasan: <reason>
.
KONFIGURASI_PENGAMBILAN_SKEMA_TERDUPLIKASI
SQLSTATE: tidak ada yang ditetapkan
Konfigurasi alur penyerapan berisi skema duplikat. Pastikan bahwa setiap skema unik.
KEGAGALAN_OTENTIKASI_PINTU_MASUK
SQLSTATE: tidak ada yang ditetapkan
Kegagalan autentikasi
Untuk detail selengkapnya, lihat INGESTION_GATEWAY_AUTHENTICATION_FAILURE
GATEWAY_INGESTION_CDC_TIDAK_DIAKTIFKAN
SQLSTATE: tidak ada yang ditetapkan
CDC tidak diaktifkan pada <entityType>
'<entityName>
'. Pesan kesalahan: '<errorMessage>
'.
INGESTION_GATEWAY_TIDAK_ADA_REFERENSI_KONEKSI
SQLSTATE: tidak ada yang ditetapkan
Konfigurasi gateway penerimaan kehilangan koneksi.
Tambahkan referensi ke koneksi Katalog Unity yang berisi kredensial Anda.
Detail definisi alur gateway penyerapan:
<definition>
GATEWAY_PENCERNAAN_HILANG_KATALOG_PENYIMPANAN_INTERNAL
SQLSTATE: tidak ada yang ditetapkan
Konfigurasi gerbang pemasukan tidak memiliki katalog lokasi penyimpanan internal.
Harap tambahkan katalog lokasi penyimpanan internal.
Detail definisi alur gateway penyerapan:
<definition>
NAME_PENYIMPANAN_INTERNAL_HILANG_PADA_INGESTION_GATEWAY
SQLSTATE: tidak ada yang ditetapkan
Konfigurasi gateway penerimaan tidak memiliki nama lokasi penyimpanan internal.
Harap tambahkan nama lokasi penyimpanan internal.
Detail definisi alur gateway penyerapan:
<definition>
GERBANG_INGESTI_SAKLAR_SKEMA_STORAGE_INTERNAL_HILANG
SQLSTATE: tidak ada yang ditetapkan
Skema lokasi penyimpanan internal tidak ada dalam konfigurasi gateway penerimaan.
Harap tambahkan skema lokasi penyimpanan internal.
Detail definisi jalur pemrosesan gateway penerimaan:
<definition>
INGESTION_GATEWAY_UNREACHABLE_HOST_OR_PORT_FAILURE
SQLSTATE: tidak ada yang ditetapkan
Kegagalan koneksi karena nama host yang salah <host>
dan/atau port <port>
.
Untuk informasi lebih lanjut, lihat INGESTION_GATEWAY_UNREACHABLE_HOST_OR_PORT_FAILURE
Kapasitas Kolam Instansi Terlampaui
Gagal membuat atau memulai kluster karena operasi ini akan melebihi kapasitas kumpulan instans: <errorMessage>
PERINTAH_TIDAK_VALID_MENERAPKAN_PERUBAHAN
SQLSTATE: tidak ada yang ditetapkan
perintah APPLY CHANGES
tidak valid.
<reason>
.
Jenis Argumen Tidak Valid
SQLSTATE: tidak ada yang ditetapkan
Nilai jenis yang tidak valid diteruskan ke parameter '<paramName>
'. Diharapkan <expectedType>
.
<additionalMsg>
.
INVALID_EVENT_LOG_PICKER_CONFIGURATION
SQLSTATE: tidak ada yang ditetapkan
Konfigurasi pemilih log peristiwa yang tidak valid ditemukan dalam spesifikasi alur: <message>
NAMA_TIDAK_VALID_SEDANG_DIGUNAKAN_PERINTAH
SQLSTATE: tidak ada yang ditetapkan
Nama tidak valid '<name>
' dalam perintah <command>
. Alasan: <reason>
PEMILIHAN_PEMBARUAN_TIDAK_VALID
SQLSTATE: tidak ada yang ditetapkan
Parameter pemilihan refresh yang ditentukan untuk pembaruan ini tidak valid karena
Untuk detail selengkapnya, lihat INVALID_REFRESH_SELECTION
INVALID_SCHEMA_NAME [Nama Skema Tidak Sah]
SQLSTATE: tidak ada yang ditetapkan
Skema tidak valid '<schemaName>
' ditentukan dalam pengaturan alur. Alasan: <reason>
.
INVALID_TRIGGER_INTERVAL_FORMAT
SQLSTATE: tidak ada yang ditetapkan
Konfigurasi interval pemicu yang ditentukan dalam <configurationType>
tidak valid
REFERENSI_LANGSUNG_DI_LUAR_DEFINISI_QUERY_KLASIK
SQLSTATE: tidak ada yang ditetapkan
Mereferensikan himpunan data menggunakan skema virtual LIVE
di luar definisi kueri himpunan data (yaitu, anotasi @dlt.table) tidak didukung.
REFERENSI_LANGSUNG_DI_LUAR_DEFINISI_QUERY_DPM
SQLSTATE: tidak ada yang ditetapkan
Mereferensikan himpunan data menggunakan skema virtual LIVE
<identifier>
di luar definisi kueri himpunan data (yaitu, anotasi @dlt.table) tidak didukung.
REFERENSI_LANGSUNG_DI_LUAR_DEFINISI_KUER_I_SPARK_SQL
SQLSTATE: tidak ada yang ditetapkan
Mereferensikan himpunan data menggunakan skema virtual LIVE
di spark.sql(...) API tidak boleh dipanggil di luar definisi kueri himpunan data (yaitu, anotasi @dlt.table). Ini hanya dapat dipanggil dalam definisi kueri himpunan data.
KEGAGALAN_MEMBACA_METADATA_MATERIALIZED_VIEW
SQLSTATE: tidak ada yang ditetapkan
Gagal menyegarkan tabel <tableName>
karena kegagalan pembacaan metadata. Silakan hubungi dukungan Databricks.
Batas maksimum percobaan tercapai sebelum penghitungan ulang enzim
SQLSTATE: tidak ada yang ditetapkan
Jumlah pengulangan maksimal tercapai. Jumlah pengulangan:<flowRetryCount>
. maxFlowFailureRetryCountThreshold:<maxFlowRetryAttempts>
. <message>
Operasi Metastore Melebihi Batas Waktu
SQLSTATE: tidak ada yang ditetapkan
Operasi yang terlibat dalam memperbarui informasi metastore untuk <tableName>
membutuhkan waktu lebih lama dari <timeout>
.
Masalah ini mungkin bersifat sementara atau dapat menunjukkan bug di klien metastore yang dikonfigurasi. Cobalah untuk memulai ulang pipeline Anda dan laporkan masalah ini jika tetap ada.
MISSING_CREATE_SCHEMA_PRIVILEGE
SQLSTATE: tidak ada yang ditetapkan
Pengguna '<userName>
' tidak memiliki izin untuk membuat skema di katalog <catalogName>
Hak istimewa untuk membuat tabel hilang
SQLSTATE: tidak ada yang ditetapkan
Pengguna '<userName>
' tidak memiliki izin untuk membuat tabel dalam skema <schemaName>
KESALAHAN_JALANKAN_SEBAGAI_PENGGUNA
SQLSTATE: tidak ada yang ditetapkan
Tidak ada eksekusi karena pengguna ditentukan untuk pembaruan.
PINDAHKAN_TABEL_ANTARA_PIPA_TUJUAN_PIPA_TIDAK_DITEMUKAN
Alur tujuan <pipelineId>
tidak dapat ditemukan. Pastikan Anda berada di workspace yang sama dengan pipeline, Anda adalah pemilik pipeline tersebut, dan pipeline telah dijalankan setidaknya sekali.
PINDAH_TABEL_ANTARA_PIPA_JALUR_TUJUAN_TIDAK_DALAM_ARSITEKTUR_BARU
Alur tujuan <pipelineId>
tidak menggunakan Mode Penerbitan Langsung. Memindahkan tabel antar alur mengharuskan alur sumber dan tujuan berada dalam Mode Penerbitan Langsung.
Pemindahan Tabel Antara Jalur Destinasi Ditolak Izin
Anda tidak diizinkan untuk melakukan operasi ini, Anda bukan pemilik alur tujuan <pipelineId>
. Hanya pemilik yang dapat memindahkan tabel antar pipeline.
PINDAHKAN_TABEL_ANTAR_PIPA_DESTINASI_JENIS_PIPA_BUKAN_WORKSPACE
Alur tujuan <pipelineId>
bukan alur standar. Kami hanya mendukung pemindahan tabel antar jalur pipa data standar.
FITUR_MEMINDAHKAN_TABEL_ANTAR_PIPA_NON_AKTIF
Memindahkan <tableType>
antar pipa data belum dapat dilakukan.
MOVE_TABLE_BETWEEN_PIPELINES_SOURCE_PIPELINE_NOT_FOUND
Alur sumber <pipelineId>
, mengelola tabel <tableName>
, tidak dapat ditemukan. Pastikan Anda berada di ruang kerja yang sama dengan alur kerja, Anda adalah pemilik alur kerja, dan alur kerja telah berjalan setidaknya sekali.
Pindahkan Tabel Antara Jalur Proses: Jalur Proses Sumber Tidak Dalam Arsitektur Baru
Alur sumber <pipelineId>
, mengelola tabel <tableName>
, tidak menggunakan Mode Penerbitan Langsung. Memindahkan tabel antar alur mengharuskan alur sumber dan tujuan berada dalam Mode Penerbitan Langsung.
MOVE_TABLE_BETWEEN_PIPELINES_SOURCE_PIPELINE_PERMISSION_DENIED
Anda tidak diizinkan untuk melakukan operasi ini, Anda bukan pemilik alur sumber <pipelineId>
, mengelola tabel <tableName>
. Hanya pemilik yang dapat memindahkan tabel antar alur.
PINDAHKAN_TABEL_ANTAR_PIPELINE_Sumber_Jenis_Pipeline_Bukan_Workspace
Alur sumber <pipelineId>
, mengelola tabel <tableName>
, bukan alur standar. Kami hanya mendukung pemindahan tabel antar alur standar.
PINDAHKAN_TABEL_ANTARA_PIPA_TABEL_BERUBAH
Tabel <tableName>
dimodifikasi selama operasi. Silakan coba lagi
PEMBAHARUAN SEDANG BERJALAN UNTUK MEMINDAHKAN TABEL ANTAR PIPA
Alur <pipelineId>
untuk tabel <tableName>
sedang berjalan. Silakan hentikan pipeline sebelum menjalankan operasi.
MUTUALLY_EXCLUSIVE_OPTIONS
SQLSTATE: tidak ada yang ditetapkan
Opsi yang saling eksklusif <options>
. Hapus salah satu opsi ini.
TABEL NON_UC SUDAH DIKELOLA OLEH PIPELINE LAIN
SQLSTATE: tidak ada yang ditetapkan
Tabel '<tableName>
' sudah dikelola oleh alur <otherPipelineId>
.
Jika Anda ingin tabel '<tableName>
' dikelola oleh pipelin ini -
- Hapus tabel dari alur '
<otherPipelineId>
'. - Mulai pembaruan refresh penuh untuk pipa ini.
Jika Anda ingin terus mengelola tabel dari beberapa alur, nonaktifkan pemeriksaan ini dengan mengatur konfigurasi pipelines.tableManagedByMultiplePipelinesCheck.enabled
ke false
di pengaturan alur Anda.
Ini tidak disarankan karena operasi bersamaan pada tabel dapat bertentangan satu sama lain dan menyebabkan hasil yang tidak terduga.
Buku catatan tidak ditemukan
Tidak dapat memuat buku catatan '<notebookPath>
'.
TIDAK_ADA_TABEL_DALAM_ALUR
SQLSTATE: tidak ada yang ditetapkan
Pipelin diharapkan memiliki setidaknya satu tabel yang ditentukan tetapi tidak ada tabel yang ditemukan di pipelin Anda.
Harap verifikasi bahwa Anda telah menyertakan file sumber yang diharapkan, dan bahwa kode sumber Anda menyertakan definisi tabel (misalnya, CREATE <mv>
dalam kode SQL, @dlt.table dalam kode python).
Perhatikan bahwa hanya tabel yang dihitung dalam pemeriksaan ini. Anda mungkin juga mengalami kesalahan ini jika Anda hanya menyertakan pandangan atau alur dalam pipeline.
TIDAK_ADA_LINGKUNGAN_PEKERJA
Gagal membuat atau memulai kluster karena organisasi Anda tidak memiliki lingkungan pekerja apa pun. Silakan hubungi dukungan Databricks.
Analisis Pipeline Non-Retryable
SQLSTATE: tidak ada yang ditetapkan
Pipeline gagal menganalisis tabel sumber (<tables>
) karena kesalahan fatal setelah eksekusi parsial.
Pembaruan alur baru tidak akan dibuat. Silakan periksa log peristiwa dan perbaiki masalah yang sesuai.
PIPELINE_TIDAK_SIAP_UNTUK_PEMBARUAN_TERJADWAL
SQLSTATE: tidak ada yang ditetapkan
Tabel belum siap untuk di-refresh
Untuk detail selengkapnya, lihat PIPELINE_NOT_READY_FOR_SCHEDULED_UPDATE
JENIS_PIPA_KUOTA_DILEWATI
Tidak dapat memulai pembaruan '<updateId>
' karena batas untuk alur aktif jenis '<pipelineType>
' telah tercapai.
KESALAHAN_INSTALASI_PIP
SQLSTATE: tidak ada yang ditetapkan
Terjadi kesalahan saat memanggil penginstalan %pip.
PIP_INSTALL_NOT_AT_TOP_OF_NOTEBOOK
SQLSTATE: tidak ada yang ditetapkan
Ditemukan sel yang berisi instalasi %pip yang tidak berada di bagian atas buku catatan untuk '<notebookPath>
'
Pindahkan semua sel %pip instalasi ke awal buku catatan.
PY4J_BLOCKED_API
SQLSTATE: tidak ada yang ditetapkan
Anda menggunakan Python API yang tidak didukung di lingkungan saat ini.
Silakan periksa dokumentasi Databricks untuk alternatif.
<additionalInfo>
REFERENSI_DLT_DATASET_DI_LUAR_DEFINISI_QUERY
SQLSTATE: tidak ada yang ditetapkan
Mereferensikan himpunan data DLT <identifier>
di luar definisi kueri himpunan data (yaitu, anotasi @dlt.table) tidak didukung. Silakan baca sebagai gantinya di dalam definisi kueri himpunan data.
MODE_PEMBARUAN_SUDAH_ADA
Tidak dapat menambahkan <type>
ke tabel yang sudah memiliki <existingType>
. Silakan hilangkan jadwal yang ada atau gunakan ALTER TABLE
...
ALTER <type>
... untuk mengubahnya.
KATA_KUNCI_CADANGAN_TERPAKAI_KATALOG
SQLSTATE: tidak ada yang ditetapkan
USE CATALOG
"<reservedKeyword>
" tidak sah karena "<reservedKeyword>
" adalah kata kunci cadangan di DLT.
SKEMA_PENGGUNAAN_KATA_KUNCI_CADANGAN
SQLSTATE: tidak ada yang ditetapkan
Penggunaan SCHEMA
'<reservedKeyword>
' tidak sah karena '<reservedKeyword>
' adalah kata kunci yang sudah ditentukan dalam DLT.
PENGGUNA_YANG_DIGUNAKAN_TIDAK_DITEMUKAN
SQLSTATE: tidak ada yang ditetapkan
Pengguna yang ditentukan sebagai '<runAsUserId>
' untuk pembaruan tidak ada di ruang kerja.
KESALAHAN_KONEKSI_SAAS
Gagal membuat koneksi ke sumber <sourceName>
. Kode kesalahan: <saasConnectionErrorCode>
.
Untuk detail selengkapnya, lihat SAAS_CONNECTION_ERROR
SAAS_CONNECTOR_SCHEMA_CHANGE_ERROR
SQLSTATE: tidak ada yang ditetapkan
Perubahan skema telah terjadi dalam tabel <tableName>
sumber <sourceName>
.
Untuk detail selengkapnya, lihat SAAS_CONNECTOR_SCHEMA_CHANGE_ERROR
SAAS_CONNECTOR_SOURCE_API_ERROR
Terjadi kesalahan dalam panggilan API <sourceName>
. Jenis API sumber: <saasSourceApiType>
. Kode kesalahan: <saasSourceApiErrorCode>
.
Coba refresh tabel tujuan. Jika masalah berlanjut, silakan ajukan tiket.
KESALAHAN_SAAS_PENGHUBUNG_TIDAK_DIDUKUNG
Kesalahan yang tidak didukung terjadi di sumber data <sourceName>
.
Untuk detail selengkapnya, lihat SAAS_CONNECTOR_UNSUPPORTED_ERROR
PERUBAHAN_SKEMA_TIDAK_KOMPATIBEL_SAAT_INITИАЛИЗАЦИЯ
SQLSTATE: tidak ada yang ditetapkan
Kami telah mendeteksi perubahan skema yang tidak kompatibel saat menginisialisasi alur:
<details>
Lakukan refresh penuh pada tabel yang terkena dampak.
SKEMA_SAAS_BERBEDA_SAAT_ANALISIS
SQLSTATE: tidak ada yang ditetapkan
Skema yang dianalisis dari tabel sumber (<table>
) telah berbeda dari skema yang diharapkan.
Silakan coba lagi pembaruan alur dan lihat apakah masalah telah diatasi.
Jika masalah ini berlanjut, silakan lakukan refresh penuh pada tabel yang disebutkan di atas
Skema yang diharapkan:
<expectedSchema>
Skema aktual:
<actualSchema>
SAAS_UC_CONNECTION_INACCESSIBLE
SQLSTATE: tidak ada yang ditetapkan
<connectionName>
Koneksi yang disediakan tidak dapat diakses. Silakan periksa koneksi dan coba lagi.
Untuk informasi lebih lanjut, lihat SAAS_UC_CONNECTION_INACCESSIBLE
SCHEMA_SPEC_EMPTY_CATALOG
SQLSTATE: tidak ada yang ditetapkan
SchemaSpec memiliki string kosong di bidang katalog.
Hapus string kosong atau tambahkan nama katalog. (Jika skema ini bukan milik katalog di sumbernya, jangan menetapkan bidang.)
Detail spesifikasi skema:
<schemaSpec>
SKEMA_SPESIFIKASI_SKEMA_KOSONG
SQLSTATE: tidak ada yang ditetapkan
SchemaSpec memiliki string kosong di bidang skema.
Hapus string kosong atau tambahkan nama skema. (Jika tabel ini bukan milik skema di sumber, jangan atur bidang.)
Detail spesifikasi skema:
<schemaSpec>
SKEMA_SPESIFIKASI_HARUS_SATU_DARI_SKEMA_KATALOG
SQLSTATE: tidak ada yang ditetapkan
Setidaknya salah satu katalog sumber dan skema sumber harus ada. Tapi keduanya kosong.
Detail spesifikasi skema:
<schemaSpec>
SERVICENOW_CONNECTOR_INSTANCE_HIBERNATION_ERROR
Terjadi kesalahan di ServiceNow. Jenis API sumber: <saasSourceApiType>
.
Gagal menyambungkan ke instans ServiceNow. Instans tampaknya berhibernasi atau tidak aktif.
Masuk ke portal admin ServiceNow Anda dan tunggu beberapa saat hingga instans sepenuhnya bangun.
Untuk mencoba lagi, jalankan kembali seluruh alur atau refresh tabel tujuan tertentu ini. Jika kesalahan berlanjut, silakan ajukan tiket.
SERVICENOW_CONNECTOR_INVALID_TABLE_ERROR
Terjadi kesalahan di ServiceNow. Jenis API sumber: <saasSourceApiType>
.
Gagal mengkueri skema tabel '<tableName>
'. Tabel tidak ada di akun ServiceNow untuk pengguna ini.
Harap verifikasi nama tabel untuk kesalahan ketik apa pun dan pastikan pengguna memiliki izin yang diperlukan untuk mengakses tabel.
Untuk mencoba lagi, jalankan kembali seluruh alur atau refresh tabel tujuan tertentu ini. Jika kesalahan berlanjut, silakan ajukan tiket.
SERVICENOW_CONNECTOR_MALFORMED_ENDPOINT_URL_ERROR
Terjadi kesalahan di ServiceNow. Jenis API sumber: <saasSourceApiType>
.
URL titik akhir API ServiceNow tidak valid terdeteksi. Struktur URL tidak cocok dengan format ServiceNow yang diharapkan.
Memeriksa konfigurasi instans ServiceNow di dalam kredensial koneksi UC.
Untuk informasi lebih lanjut, lihat SERVICENOW_CONNECTOR_MALFORMED_ENDPOINT_URL_ERROR
SERVICENOW_CONNECTOR_UNAUTHORIZED_ACCESS_ERROR
Terjadi kesalahan di ServiceNow. Jenis API sumber: <saasSourceApiType>
.
Untuk detail selengkapnya, lihat SERVICENOW_CONNECTOR_UNAUTHORIZED_ACCESS_ERROR
Pengaturan properti tabel tidak diizinkan untuk kumpulan data DLT
ALTER <commandTableType>
...
SET TBLPROPERTIES
tidak didukung. Untuk mengubah properti tabel, ubah definisi asli dan jalankan pembaruan.
SFDC_CONNECTOR_BULK_QUERY_JOB_TIDAK_SELESAI
Penyerapan untuk objek <objName>
tidak lengkap karena pekerjaan kueri Salesforce API memakan waktu terlalu lama, gagal, atau dibatalkan secara manual.
Untuk detail selengkapnya, lihat SFDC_CONNECTOR_BULK_QUERY_JOB_INCOMPLETE
SFDC_KONEKTOR_GAGAL_MEMBUAT_PEKERJAAN_PERTANYAAN_BULK
Pemrosesan data untuk objek <objName>
tidak lengkap karena pembuatan pekerjaan kueri API massal Salesforce ini gagal. Kode kesalahan: <saasSourceApiErrorCode>
.
<actionText>
.
PENGHUBUNG_TIDAK_DIDUKUNG_DI_SEG
SQLSTATE: tidak ada yang ditetapkan
Sink DLT tidak didukung di ruang kerja tanpa internet. Wastafel berikut ditemukan: <sinkNames>
Memulai REPL Python Waktu Habis
SQLSTATE: tidak ada yang ditetapkan
Waktu habis saat menunggu Python REPL dimulai. Membutuhkan waktu lebih dari <timeoutSeconds>
detik.
TARGET_STREAMING_TIDAK_DIDEFINISIKAN
SQLSTATE: tidak ada yang ditetapkan
Tidak dapat menemukan <target>
tabel target untuk perintah <command>
. Tabel target <target>
tidak ditentukan dalam pipeline.
SPESIFIKASI_TABEL_MEMERLUKAN_KEDUA_KATALOG_SKEMA
SQLSTATE: tidak ada yang ditetapkan
TableSpec kehilangan salah satu katalog sumber dan/atau skema sumber.
Detail spesifikasi tabel:
<tableSpec>
SPESIFIKASI_TABEL_KATALOG_KOSONG
SQLSTATE: tidak ada yang ditetapkan
TableSpec memiliki string kosong di bidang katalog.
Hapus string kosong atau tambahkan nama katalog. (Jika tabel ini bukan bagian dari katalog di sumbernya, jangan mengatur bidangnya.)
Detail spesifikasi tabel:
<tableSpec>
SKEMA_KOSONG_SPESIFIKASI_TABEL
SQLSTATE: tidak ada yang ditetapkan
TableSpec memiliki string kosong di bidang skema.
Hapus string kosong atau tambahkan nama skema. (Jika tabel ini bukan milik skema di sumber, jangan atur bidang.)
Detail spesifikasi tabel:
<tableSpec>
Tabel_Spesifikasi_Tabel_Kosong
SQLSTATE: tidak ada yang ditetapkan
Nama tabel kosong. Harap berikan nama tabel.
Detail spesifikasi tabel:
<tableSpec>
Token tabel tidak ada untuk evolusi skema pada tabel legacy
SQLSTATE: tidak ada yang ditetapkan
Evolusi skema tidak dapat diaktifkan karena metadata yang hilang. Silakan picu refresh penuh.
Alasan: Token tabel rekam jepret harus ditentukan saat evolusi skema diaktifkan.
Nilai Interval Pemicu Tidak Valid
Interval pemicu harus berupa durasi positif, nilai maksimum yang dapat diterima adalah 2.147.483.647 detik. Diterima: <actual>
detik.
JENIS_SUMBER_PEMICU_TIDAK_DIDUKUNG
Sumber <source>
dengan jenis <type>
saat ini tidak didukung oleh pemicu.
UC_CLEARING_TARGET_SCHEMA_NOT_ALLOWED
SQLSTATE: tidak ada yang ditetapkan
Menghapus bidang skema target di tidak diizinkan untuk alur UC. Alasan: <reason>
.
UC_TARGET_SCHEMA_REQUIRED
SQLSTATE: tidak ada yang ditetapkan
Bidang skema target diperlukan untuk alur kerja UC. Alasan: <reason>
.
KESALAHAN_PERIZINAN_SKEMA_PIPELINE_TAK_TERDUGA
SQLSTATE: tidak ada yang ditetapkan
Kesalahan tak terduga saat memeriksa izin skema untuk alur <pipelineId>
. Silakan hubungi dukungan Databricks.
JALUR_TUJUAN_TIDAK_TERSELESAIKAN
SQLSTATE: tidak ada yang ditetapkan
Jalur penyimpanan untuk sink <identifier>
tidak dapat ditemukan. Silakan hubungi dukungan Databricks.
JALUR_TABEL_TIDAK_TERSELESAIKAN
SQLSTATE: tidak ada yang ditetapkan
Jalur penyimpanan untuk tabel <identifier>
tidak dapat diselesaikan. Silakan hubungi dukungan Databricks.
SALURAN_TIDAK_DIDUKUNG_UNTUK_DPM
SQLSTATE: tidak ada yang ditetapkan
Saluran yang tidak didukung untuk Mode Penerbitan Langsung. Harapkan saluran 'CURRENT
' atau 'PREVIEW
', tetapi mendapat 'PREVIOUS
'
PERINTAH_TIDAK_DIDUKUNG_DI_PIPA_NON_DPM
SQLSTATE: tidak ada yang ditetapkan
<command>
hanya didukung dalam mode penerbitan langsung yang diaktifkan alur DLT
PERINTAH_TIDAK_DIDUKUNG_DALAM_DEFINISI_KUER
SQLSTATE: tidak ada yang ditetapkan
'<command>
' tidak didukung dalam definisi kueri. Silakan pindahkan perintah di luar definisi kueri. Jika ini adalah alur DLT di Python, pindahkan '<command>
' ke luar dari dekorator @dlt.table(/@dlt.view(). Jika ini adalah alur DLT di Scala, pindahkan '<command>
' di luar metode 'query'.
FITUR_TIDAK_DIDUKUNG_UNTUK_RUANG_KERJA
<featureName>
tidak didukung di ruang kerja Anda. Silakan hubungi dukungan Databricks untuk mengaktifkan fitur ini untuk ruang kerja Anda.
UNSUPPORTED_LANGUAGE
Gagal memuat buku catatan <language>
'<notebookPath>
'. Hanya buku catatan <supportedLanguages>
yang didukung saat ini.
JENIS_SUMBER_PENYERAPAN_YANG_DIKELOLA_TIDAK_DIDUKUNG
SQLSTATE: tidak ada yang ditetapkan
Definisi alur penyerapan terkelola tidak valid, jenis sumber yang tidak didukung: <sourceType>
.
UNSUPPORTED_SAAS_INGESTION_TYPE
SQLSTATE: tidak ada yang ditetapkan
Jenis penyerapan yang disediakan <ingestionType>
tidak didukung.
Silakan hubungi dukungan Databricks jika masalah ini berlanjut.
PERINTAH_SPARK_SQL_TIDAK_DIDUKUNG
SQLSTATE: tidak ada yang ditetapkan
'<command>
' tidak didukung di API spark.sql("...") di DLT Python. Perintah yang didukung: <supportedCommands>
.
GUNAKAN_KATALOG_DI_HMS
SQLSTATE: tidak ada yang ditetapkan
USE CATALOG
hanya didukung dalam proses DLT yang didukung UC
LIHAT_TULISAN_TIDAK_TERSIMPAN_DI_UC
SQLSTATE: tidak ada yang ditetapkan
Penyegaran tabel <tableName>
tidak dapat dilakukan karena tidak memiliki kueri yang disimpan di Katalog Unity. Silakan hubungi dukungan Databricks.
WORKDAY_REPORT_URL_EMPTY
SQLSTATE: tidak ada yang ditetapkan
URL laporan Workday kosong. Setidaknya satu laporan harus disediakan.
Kuota Workspace Terlampaui
Tidak dapat memulai pembaruan '<updateId>
' karena sudah ada '<maxActiveUpdates>
' alur aktif yang berjalan di ruang kerja ini.
Lain-lain
Kebijakan Baris Kolom ABAC Tidak Didukung pada Kluster yang Ditugaskan
SQLSTATE: tidak ada yang ditetapkan
Kueri pada tabel <tableFullName>
dengan filter baris atau masker kolom yang ditetapkan melalui aturan kebijakan tidak didukung pada kluster yang ditetapkan.
AZURE_ENTRA_KREDENSIAL_HILANG
SQLSTATE: tidak ada yang ditetapkan
Kredensial Azure Entra (alias Azure Active Directory) hilang.
Pastikan Anda masuk dengan akun Entra Anda
atau telah menyiapkan token akses pribadi (PAT) Azure DevOps di Pengaturan Pengguna untuk Integrasi Git >.
Jika Anda tidak menggunakan PAT dan menggunakan Azure DevOps dengan REPOS API,
Anda harus menggunakan token akses Azure Entra.
Lihat bagianhttps://docs.microsoft.com/azure/databricks/dev-tools/api/latest/aad/app-aad-token untuk langkah-langkah memperoleh token akses Azure Entra.
AZURE_ENTRA_CREDENTIALS_PARSE_FAILURE
SQLSTATE: tidak ada yang ditetapkan
Mengalami kesalahan dengan kredensial Azure Entra (Azure Active Directory) Anda. Silakan coba keluar dari
Entra https://portal.azure.com) dan masuk kembali.
Atau, Anda juga dapat mengunjungi Pengaturan Pengguna > Integrasi Git untuk melakukan pengaturan
menyiapkan token akses pribadi Azure DevOps.
AZURE_ENTRA_LOGIN_ERROR
SQLSTATE: tidak ada yang ditetapkan
Mengalami kesalahan dengan kredensial Azure Active Directory Anda. Silakan coba keluar dari
Azure Active Directory https://portal.azure.com) dan masuk kembali.
ENTITAS_BERSIH_RUANG_DELTA_BAGI_TIDAK_DIAUTORISASI
SQLSTATE: tidak ada yang ditetapkan
Pembuatan kredensial untuk ruang bersih berbagi delta yang aman tidak dapat diminta.
RUANG_BERSIH_TERSEMBUNYI_DAPAT_DIAMANKAN_IZIN_DITOLAK
SQLSTATE: tidak ada yang ditetapkan
<securableName>
yang dapat diamankan dengan jenis <securableType>
dan jenis <securableKind>
dikelola sistem kamar bersih, pengguna tidak memiliki akses.
Kendala sudah ada
SQLSTATE: tidak ada yang ditetapkan
Batasan dengan nama <constraintName>
sudah ada, pilih nama yang berbeda.
KONSTRINSI_TIDAK_ADA
SQLSTATE: tidak ada yang ditetapkan
Batasan <constraintName>
tidak ada.
TIDAK_DAPAT_MEMBACA_REPOSITORI_JARAK_JAUH
SQLSTATE: tidak ada yang ditetapkan
Tidak dapat membaca repositori jarak jauh (<repoUrl>
).
Silakan buka penyedia Git jarak jauh Anda untuk memastikan bahwa:
- URL repositori Git jarak jauh Anda valid.
- Token akses pribadi atau kata sandi aplikasi Anda memiliki akses repositori yang benar.
TIDAK_DAPAT_MENYELESAIKAN_HOST_REPOSITORI
SQLSTATE: tidak ada yang ditetapkan
Tidak dapat menyelesaikan host untuk <repoUrl>
.
CSMS_AWAL_MASA_TIDAK_DIDUKUNG
SQLSTATE: tidak ada yang ditetapkan
Parameter beginning_of_time
tidak boleh benar.
TOKEN_LANJUTAN_CSMS_KADALUARSA
SQLSTATE: tidak ada yang ditetapkan
Objek yang diminta tidak dapat ditemukan untuk token kelanjutan.
CSMS_TOKEN_KELANJUTAN_TIDAK_VALID
SQLSTATE: tidak ada yang ditetapkan
Token kelanjutan tidak valid. Penyebab: <msg>
CSMS_INVALID_MAX_OBJECTS
SQLSTATE: tidak ada yang ditetapkan
Nilai <value>
tidak valid untuk parameter max_objects, nilai yang diharapkan dalam [<minValue>
, <maxValue>
]
Format_URI_Tidak_Sesuai_CSMS
SQLSTATE: tidak ada yang ditetapkan
Format URI tidak valid. Diantisipasi bahwa terdapat volume (misalnya "/Volumes/catalog/schema/volume") atau jalur penyimpanan cloud (misalnya "s3://some-uri")
CSMS_KAFKA_TOPIC_MISSING
SQLSTATE: tidak ada yang ditetapkan
Harus menyediakan topik Kafka
Kesalahan Lokasi CSMS
SQLSTATE: tidak ada yang ditetapkan
Gagal mencantumkan objek. Ada masalah pada lokasi yang perlu diselesaikan. Detail: <msg>
LOKASI_CSMS_TIDAK_DIKETAHUI
SQLSTATE: tidak ada yang ditetapkan
Tidak ada lokasi yang ditemukan untuk uri <path>
CSMS_METASTORE_RESOLUTION_FAILED
SQLSTATE: tidak ada yang ditetapkan
Tidak dapat menentukan metastore untuk permintaan tersebut.
Layanan CSMS Dinonaktifkan
SQLSTATE: tidak ada yang ditetapkan
Layanan dinonaktifkan
Entitas tidak ditemukan dalam Katalog Unity CSMS
SQLSTATE: tidak ada yang ditetapkan
Entitas Katalog Unity tidak ditemukan. Pastikan katalog, skema, volume, dan/atau lokasi eksternal ada.
CSMS_UNITY_CATALOG_EXTERNAL_LOCATION_DOES_NOT_EXIST
SQLSTATE: tidak ada yang ditetapkan
Lokasi eksternal Katalog Unity tidak ditemukan.
TUMPANG TINDIH PENYIMPANAN EKSTERNAL KATALOG UNITY
SQLSTATE: tidak ada yang ditetapkan
URI tumpang tindih dengan volume lain
CSMS_UNITY_KATALOG_METASTORE_TIDAK_ADA
SQLSTATE: tidak ada yang ditetapkan
Tidak dapat menentukan metastore untuk permintaan tersebut. Metastore tidak ada
Izin CSMS_UNITY_CATALOG Ditolak
SQLSTATE: tidak ada yang ditetapkan
Izin ditolak
CSMS_UNITY_CATALOG_TABEL_TIDAK_ADA
SQLSTATE: tidak ada yang ditetapkan
Tabel Katalog Unity tidak ada.
Volume katalog CSMS_Unity tidak ada
SQLSTATE: tidak ada yang ditetapkan
Volume pada Katalog Unity tidak ditemukan.
CSMS_URI_TIDAK_DITEMUKAN
SQLSTATE: tidak ada yang ditetapkan
Harus mengisi URI
Panjang URI pada CSMS terlalu panjang
SQLSTATE: tidak ada yang ditetapkan
URI yang diberikan terlalu panjang. Panjang maksimum yang diizinkan adalah <maxLength>
.
KATALOG_DMK_TIDAK_DIIZINKAN_PADA_KOMPUTER_KLASIK
SQLSTATE: tidak ada yang ditetapkan
Penyimpanan Databricks Default tidak dapat diakses dengan menggunakan Komputasi Klasik. Silakan gunakan komputasi Tanpa Server untuk mengakses data di Penyimpanan Default
GITHUB_APP_TIDAK_BISA_MEMPERBARUI_KREDENSIAL
SQLSTATE: tidak ada yang ditetapkan
Operasi gagal karena kredensial aplikasi GitHub yang ditautkan tidak dapat disegarkan.
Silakan coba lagi atau buka Pengaturan Pengguna > Integrasi Git dan coba menautkan ulang akun penyedia Git Anda.
Jika masalah berlanjut, silakan ajukan tiket dukungan.
AKSES_TIDAK_DIBERIKAN_CREDENTIALS_GITHUB_APP
SQLSTATE: tidak ada yang ditetapkan
Tautan ke akun GitHub Anda tidak memiliki akses. Untuk memperbaiki kesalahan ini:
- Admin repositori harus masuk kehttps://github.com/apps/databricks/installations/new dan menginstal aplikasi Databricks GitHub di repositori.
Atau, pemilik akun GitHub dapat menginstal aplikasi di akun untuk memberikan akses ke repositori akun.
- Jika aplikasi sudah diinstal, minta admin memastikan bahwa jika mereka menggunakan akses tercakup dengan opsi 'Hanya pilih repositori', mereka telah menyertakan akses ke repositori ini dengan memilihnya.
Lihathttps://docs.databricks.com/en/repos/get-access-tokens-from-git-provider.html#link-github-account-using-databricks-github-app untuk informasi selengkapnya.
Jika masalah berlanjut, silakan ajukan tiket dukungan.
Kredensial_GITHUB_APP_Kadaluarsa
SQLSTATE: tidak ada yang ditetapkan
Kredensial aplikasi GitHub tertaut kedaluwarsa setelah 6 bulan tidak aktif karena tidak ada aktivitas.
Buka Pengaturan Pengguna > Integrasi Git dan coba menautkan ulang kredensial Anda.
Jika masalah berlanjut, silakan ajukan tiket dukungan.
Instalasi Aplikasi GitHub pada Akun Pengguna Lain
SQLSTATE: tidak ada yang ditetapkan
Tautan ke akun GitHub Anda tidak memiliki akses. Untuk memperbaiki kesalahan ini:
- Pengguna GitHub
<gitCredentialUsername>
harus pergi kehttps://github.com/apps/databricks/installations/new dan menginstal aplikasi di akun<gitCredentialUsername>
untuk mengizinkan akses. - Jika pengguna
<gitCredentialUsername>
sudah menginstal aplikasi dan mereka menggunakan akses tercakup dengan opsi 'Hanya pilih repositori', mereka harus memastikan mereka telah menyertakan akses ke repositori ini dengan memilihnya.
Lihathttps://docs.databricks.com/en/repos/get-access-tokens-from-git-provider.html#link-github-account-using-databricks-github-app untuk informasi selengkapnya.
Jika masalah berlanjut, silakan ajukan tiket dukungan.
GITHUB_APP_INSTALL_ON_ORGANIZATION
SQLSTATE: tidak ada yang ditetapkan
Tautan ke akun GitHub Anda tidak memiliki akses. Untuk memperbaiki kesalahan ini:
- Pemilik organisasi GitHub
<organizationName>
harus membukahttps://github.com/apps/databricks/installations/new dan menginstal aplikasi di organisasi<organizationName>
untuk mengizinkan akses. - Jika aplikasi sudah diinstal di organisasi GitHub
<organizationName>
, mintalah pemilik organisasi ini memastikan bahwa jika menggunakan akses tercakup dengan opsi 'Hanya pilih repositori', mereka telah menyertakan akses ke repositori ini dengan memilihnya.
Lihathttps://docs.databricks.com/en/repos/get-access-tokens-from-git-provider.html#link-github-account-using-databricks-github-app untuk informasi selengkapnya.
Jika masalah berlanjut, silakan ajukan tiket dukungan.
PEMASANGAN APLIKASI GITHUB PADA AKUN ANDA
SQLSTATE: tidak ada yang ditetapkan
Tautan ke akun GitHub Anda tidak memiliki akses. Untuk memperbaiki kesalahan ini:
- Bukahttps://github.com/apps/databricks/installations/new dan instal aplikasi di akun Anda
<gitCredentialUsername>
untuk mengizinkan akses. - Jika aplikasi sudah diinstal, dan Anda menggunakan akses tercakup dengan opsi 'Hanya pilih repositori', pastikan Anda telah menyertakan akses ke repositori ini dengan memilihnya.
Lihathttps://docs.databricks.com/en/repos/get-access-tokens-from-git-provider.html#link-github-account-using-databricks-github-app untuk informasi selengkapnya.
Jika masalah berlanjut, silakan ajukan tiket dukungan.
Kredensial GIT Umum Tidak Valid
SQLSTATE: tidak ada yang ditetapkan
Kredensial penyedia Git tidak valid untuk URL repositori <repoUrl>
.
Penyedia kredensial Git Anda saat ini <gitCredentialProvider>
dan nama pengguna <gitCredentialUsername>
.
Buka Pengaturan Pengguna > Integrasi Git untuk melihat kredensial Anda.
Silakan buka penyedia Git jarak jauh Anda untuk memastikan bahwa:
- Anda telah memasukkan email pengguna Git atau nama pengguna yang benar dengan kredensial penyedia Git Anda.
- Token atau kata sandi aplikasi Anda memiliki akses repositori yang benar.
- Token Anda belum kedaluwarsa.
- Jika Anda mengaktifkan SSO dengan penyedia Git Anda, pastikan untuk mengotorisasi token Anda.
GIT_CREDENTIAL_INVALID_PAT (Referensi kredensial Git tidak valid)
SQLSTATE: tidak ada yang ditetapkan
Kredensial Token Akses Pribadi penyedia Git tidak valid untuk URL repositori <repoUrl>
.
Penyedia kredensial Git Anda saat ini <gitCredentialProvider>
dan nama pengguna <gitCredentialUsername>
.
Buka Pengaturan Pengguna > Integrasi Git untuk melihat kredensial Anda.
Silakan buka penyedia Git jarak jauh Anda untuk memastikan bahwa:
- Anda telah memasukkan email pengguna Git atau nama pengguna yang benar dengan kredensial penyedia Git Anda.
- Token atau kata sandi aplikasi Anda memiliki akses repositori yang benar.
- Token Anda belum kedaluwarsa.
- Jika Anda mengaktifkan SSO dengan penyedia Git Anda, pastikan untuk mengotorisasi token Anda.
KREDENSIAL_GIT_HILANG
SQLSTATE: tidak ada yang ditetapkan
Tidak ada kredensial Git yang dikonfigurasi, tetapi kredensial diperlukan untuk repositori ini (<repoUrl>
).
Buka Pengaturan Pengguna > Integrasi Git untuk menyiapkan kredensial Git Anda.
GIT_CREDENTIAL_NO_WRITE_PERMISSION
SQLSTATE: tidak ada yang ditetapkan
Akses tulis ke repositori <gitCredentialProvider>
(<repoUrl>
) tidak diberikan.
Pastikan Anda (<gitCredentialUsername>
) memiliki akses tulis ke repositori jarak jauh ini.
GIT_CREDENTIAL_PROVIDER_MISMATCHED
SQLSTATE: tidak ada yang ditetapkan
Penyedia kredensial Git yang salah untuk repositori.
Penyedia kredensial Git Anda saat ini (<gitCredentialProvider>
) tidak cocok dengan penyedia Git repositori <repoUrl>
.
Coba repositori lain atau buka Pengaturan Pengguna > Integrasi Git untuk memperbarui kredensial Git Anda.
GIT_PROXY_CLUSTER_NOT_READY (Cluster Proxy GIT Belum Siap)
SQLSTATE: tidak ada yang ditetapkan
Kluster proksi Git belum siap.
GIT_RAHASIA_DALAM_KODE
SQLSTATE: tidak ada yang ditetapkan
Rahasia ditemukan dalam commit. Detail: <secretDetail>
. Untuk memperbaiki kesalahan ini:
Hapus rahasia dan coba terapkan lagi.
Jika masalah berlanjut, silakan ajukan tiket dukungan.
Namespace Hirarkis Tidak Diaktifkan
SQLSTATE: tidak ada yang ditetapkan
Akun penyimpanan Azure tidak mengaktifkan namespace hierarkis.
Panjang_field_tidak_valid
SQLSTATE: tidak ada yang ditetapkan
<rpcName> <fieldName>
terlalu lama. Panjang maksimum <maxLength>
karakter.
NILAI_PARAMETER_TIDAK_VALID
SQLSTATE: tidak ada yang ditetapkan
<msg>
Untuk detail selengkapnya, lihat INVALID_PARAMETER_VALUE
Output Penjalankan Tugas Kerangka Kerja Tugas Tidak Ditemukan
SQLSTATE: tidak ada yang ditetapkan
Kerangka Kerja Tugas: Hasil Eksekusi untuk tugas dengan runId <runId>
dan orgId <orgId>
tidak dapat ditemukan.
STATUS_PELAKSANAAN_TUGAS_KERANGKA_KERJA_TUGAS_TIDAK_DITEMUKAN
SQLSTATE: tidak ada yang ditetapkan
Kerangka Kerja Tugas: Status Pelaksanaan Tugas dengan runId <runId>
dan orgId <orgId>
tidak dapat ditemukan.
PENGATURAN_CLIENT_TUGAS_DI_REGISTRASI_TUGAS_TIDAK_ADA
SQLSTATE: tidak ada yang ditetapkan
RPC ClientConfig untuk Tugas dengan ID <taskId>
tidak ditemukan.
TUGAS_PENDAFTARAN_PEKERJAAN_TUGAS_TIDAK_ADA
SQLSTATE: tidak ada yang ditetapkan
Tugas dengan ID <taskId>
tidak ada.
TUGAS_PEKERJAAN_REGISTRI_TIDAK_DIDUKUNG
SQLSTATE: tidak ada yang ditetapkan
Registri Tugas: JobTask yang tidak didukung atau tidak diketahui dengan kelas <taskClassName>
.
AKSES_BERDASARKAN_JALUR_TIDAK_DIDUKUNG_UNTUK_KLON_CETEH_EKSTERNAL
SQLSTATE: tidak ada yang ditetapkan
Akses berbasis jalur ke tabel kloning dangkal eksternal <tableFullName>
tidak didukung. Silakan gunakan nama tabel untuk mengakses kloning dangkal sebagai gantinya.
AKSES_BERBASIS_JALUR_TIDAK_DIDUKUNG_UNTUK_FABRIK
SQLSTATE: tidak ada yang ditetapkan
Tabel Fabric yang terletak pada URL '<url>
' tidak ditemukan. Gunakan perintah REFRESH FOREIGN CATALOG
untuk mengisi tabel Fabric.
AKSES_BERBASIS_JALUR_TIDAK_DIDUKUNG_UNTUK_TABEL_DENGAN_KEBIJAKAN_AKSES_KOLOM_BARIS
SQLSTATE: tidak ada yang ditetapkan
Akses berbasis jalur ke tabel <tableFullName>
dengan filter baris atau masker kolom tidak didukung.
Izin Ditolak
SQLSTATE: tidak ada yang ditetapkan
Pengguna tidak memiliki akses ke <msg>
di <resourceType>
'<resourceName>
'.
Penanganan Penghapusan Aset Redash - Masukan Tidak Valid
SQLSTATE: tidak ada yang ditetapkan
Tidak dapat mengurai permintaan hapus objek: <invalidInputMsg>
REDASH_HAPUS_OBJEK_TIDAK_ADA_DI_TEMPAT_SAMPAH
SQLSTATE: tidak ada yang ditetapkan
Tidak dapat menghapus objek <resourceName>
yang tidak ada di tempat sampah
Izin Redash Ditolak
SQLSTATE: tidak ada yang ditetapkan
Tidak dapat menemukan atau memiliki izin untuk mengakses sumber daya <resourceId>
KUERI_REDASH_TIDAK_DITEMUKAN
SQLSTATE: tidak ada yang ditetapkan
Tidak dapat menemukan sumber daya dari id kueri <queryId>
Pembuatan Cuplikan Query Redash Gagal
SQLSTATE: tidak ada yang ditetapkan
Tidak dapat membuat cuplikan kueri baru
Kuota Cuplikan Query Redash Terlampaui
SQLSTATE: tidak ada yang ditetapkan
Kuota untuk jumlah cuplikan kueri telah tercapai. Kuota saat ini <quota>
.
Pemicu Cuplikan Kueri REDASH Sudah Digunakan
SQLSTATE: tidak ada yang ditetapkan
Pemicu yang ditentukan <trigger>
sudah digunakan oleh cuplikan kueri lain di ruang kerja ini.
SUMBER_REDAH_TIDAK_DITEMUKAN
SQLSTATE: tidak ada yang ditetapkan
Sumber daya yang diminta <resourceName>
tidak ada
Penangan Aset Pemulihan Redash: Input Tidak Valid
SQLSTATE: tidak ada yang ditetapkan
Tidak dapat mengurai permintaan hapus objek: <invalidInputMsg>
REDASH_RESTORE_OBJECT_NOT_IN_TRASH
SQLSTATE: tidak ada yang ditetapkan
Tidak dapat memulihkan objek <resourceName>
yang tidak ada di tempat sampah
OBJEK_REDAH_SAMPAH_SUDAH_DI_SAMPAH
SQLSTATE: tidak ada yang ditetapkan
Tidak dapat membuang objek yang sudah dibuang ke tempat sampah <resourceName>
REDASH_TIDAK_BISA_MENGHASILKAN_NAMA_SUMBER_DAYA
SQLSTATE: tidak ada yang ditetapkan
Tidak dapat menghasilkan nama sumber daya dari id <id>
GAGAL_MEMBUAT_VISUALISASI_REDASH
SQLSTATE: tidak ada yang ditetapkan
Tidak dapat membuat visualisasi baru
Visualisasi tidak ditemukan
SQLSTATE: tidak ada yang ditetapkan
Tidak dapat menemukan visualisasi <visualizationId>
Kuota Visualisasi Redash Terlampaui
SQLSTATE: tidak ada yang ditetapkan
Kuota untuk jumlah visualisasi pada kueri <query_id> telah tercapai. Kuota saat ini <quota>
.
URL_REPOSITORI_TIDAK_DITEMUKAN
SQLSTATE: tidak ada yang ditetapkan
Repositori jarak jauh (<repoUrl>
) tidak ditemukan.
Penyedia kredensial Git Anda saat ini <gitCredentialProvider>
dan nama pengguna <gitCredentialUsername>
.
Silakan buka penyedia Git jarak jauh Anda untuk memastikan bahwa:
- URL repositori Git jarak jauh Anda valid.
- Token akses pribadi atau kata sandi aplikasi Anda memiliki akses repositori yang benar.
SUMBER_DAYA_SUDAH_ADA
SQLSTATE: tidak ada yang ditetapkan
<resourceType>
'<resourceIdentifier>
' sudah ada
SUMBER_TIDAK_ADA
SQLSTATE: tidak ada yang ditetapkan
<resourceType>
'<resourceIdentifier>
' tidak ada.
KEBIJAKAN_AKSES_BARIS_KOLOM_TIDAK_DIDUKUNG_PADA_KLASTER_YANG_DITUGASKAN
SQLSTATE: tidak ada yang ditetapkan
Kueri pada tabel <tableFullName>
dengan penyaring baris atau penutup kolom tidak didukung pada kluster yang sudah ditetapkan.
Keamanan Baris Kolom Tidak Didukung dengan Tabel dalam Delta Sharing
SQLSTATE: tidak ada yang ditetapkan
Tabel <tableFullName>
sedang dibagi menggunakan Delta Sharing dan tidak dapat menggunakan keamanan baris/kolom.
Layanan Sementara Tidak Tersedia
SQLSTATE: tidak ada yang ditetapkan
Layanan <serviceName>
sementara dalam pemeliharaan. Silakan coba lagi nanti.
TABEL_DENGAN_KEAMANAN_BARIS_KOLOM_TIDAK_DIDUKUNG_DALAM_MODE_DARING
SQLSTATE: tidak ada yang ditetapkan
Tabel <tableFullName>
tidak dapat memiliki keamanan baris/kolom dan tampilan materialisasi online secara bersamaan.
Terlalu Banyak Baris untuk Diperbarui
SQLSTATE: tidak ada yang ditetapkan
Terlalu banyak baris untuk diperbarui, membatalkan pembaruan.