Databricks Runtime 13.1 (EoS)
إشعار
انتهى دعم إصدار وقت تشغيل Databricks هذا. للحصول على تاريخ انتهاء الدعم، راجع محفوظات انتهاء الدعم. لجميع إصدارات وقت تشغيل Databricks المدعومة، راجع إصدارات ملاحظات إصدار Databricks Runtime والتوافق.
توفر ملاحظات الإصدار التالية معلومات حول Databricks Runtime 13.1، المشغل بواسطة Apache Spark 3.4.0.
أصدرت Databricks هذا الإصدار في مايو 2023.
ميزات وتحسينات جديدة
- دعم نظام المجموعة ل JDK 17 (معاينة عامة)
- إضافة بيانات أو تغييرها أو حذفها في جداول الدفق
- قراءة Kafka باستخدام SQL
- وظائف SQL المضمنة الجديدة
- دعم كتالوج Unity لمكتبات Python ذات نطاق المجموعة
- تمكين افتراضي موسع للكتابات المحسنة في كتالوج Unity
- دعم متقدم للمشغلين المناسبين في أحمال عمل Structured Streaming
- نسخة دلتا ل كتالوج Unity في المعاينة العامة
- دعم Pub/Sub للبث المنظم
- إسقاط التكرارات داخل العلامات المائية في Structured Streaming
- دعم موسع لتحويلات دلتا من جداول Iceberg مع أعمدة أقسام مقتطعة
- تغييرات مخطط الدفق مع تعيين العمود في Delta Lake
- إزالة إصدار البدء
- تعبيرات H3 الجديدة المتوفرة مع Python
دعم نظام المجموعة ل JDK 17 (معاينة عامة)
يوفر Databricks الآن دعم نظام المجموعة ل Java Development Kit (JDK) 17. راجع Databricks SDK ل Java.
إضافة بيانات أو تغييرها أو حذفها في جداول الدفق
يمكنك الآن استخدام عبارات DML لتعديل جداول الدفق المنشورة في كتالوج Unity بواسطة خطوط أنابيب Delta Live Tables. راجع إضافة بيانات أو تغييرها أو حذفها في جدول دفق وإضافة بيانات أو تغييرها أو حذفها في جدول تدفق هدف. يمكنك أيضا استخدام عبارات DML لتعديل جداول الدفق التي تم إنشاؤها في Databricks SQL.
قراءة Kafka باستخدام SQL
يمكنك الآن استخدام الدالة read_kafka
SQL لقراءة بيانات Kafka. يتم دعم الدفق باستخدام SQL فقط في Delta Live Tables أو مع جداول الدفق في Databricks SQL. راجع read_kafka دالة قيم الجدول.
وظائف SQL المضمنة الجديدة
تمت إضافة الدالات التالية:
- array_prepend(array, elem) إرجاع
array
prepended byelem
. - try_aes_decrypt(expr, key [, mode [, padding]]) فك تشفير ثنائي تم إنتاجه باستخدام تشفير AES، ويرجع
NULL
إذا كان هناك خطأ. - sql_keywords() إرجاع جدول الكلمات الأساسية ل Azure Databricks SQL.
دعم كتالوج Unity لمكتبات Python ذات نطاق المجموعة
يحتوي كتالوج Unity على بعض القيود على استخدام المكتبة. في Databricks Runtime 13.1 وما فوق، يتم دعم مكتبات Python ذات نطاق المجموعة، بما في ذلك ملفات عجلة Python التي يتم تحميلها كملفات مساحة عمل. المكتبات التي تتم الإشارة إليها باستخدام مسارات ملفات DBFS غير مدعومة، سواء في جذر DBFS أو موقع خارجي مثبت على DBFS. مكتبات غير Python غير مدعومة. راجع مكتبات نظام المجموعة.
في Databricks Runtime 13.0 وما دونه، لا يتم دعم المكتبات ذات نطاق نظام المجموعة على المجموعات التي تستخدم وضع الوصول المشترك في مساحة عمل ممكنة لكتالوج Unity.
تمكين افتراضي موسع للكتابات المحسنة في كتالوج Unity
تم توسيع دعم الكتابة المحسن الافتراضي لجداول Delta المسجلة في كتالوج Unity ليشمل CTAS
عبارات وعمليات INSERT
للجداول المقسمة. يتوافق هذا السلوك مع الإعدادات الافتراضية في مستودعات SQL. راجع عمليات الكتابة المحسنة ل Delta Lake على Azure Databricks.
دعم متقدم للمشغلين المناسبين في أحمال عمل Structured Streaming
يمكنك الآن ربط عوامل تشغيل متعددة ذات حالة معا، ما يعني أنه يمكنك تغذية إخراج عملية مثل التجميع في نافذة إلى عملية أخرى ذات حالة مثل الصلة. راجع ما هو البث ذي الحالة؟.
نسخة دلتا ل كتالوج Unity في المعاينة العامة
يمكنك الآن استخدام نسخة سطحية لإنشاء جداول مدارة جديدة لكتالوج Unity من الجداول المدارة الموجودة في كتالوج Unity. راجع استنساخ سطحي لجداول كتالوج Unity.
دعم Pub/Sub للبث المنظم
يمكنك الآن استخدام موصل مضمن للاشتراك في Google Pub/Sub باستخدام Structured Streaming. راجع الاشتراك في Google Pub/Sub.
إسقاط التكرارات داخل العلامات المائية في Structured Streaming
يمكنك الآن استخدام dropDuplicatesWithinWatermark
بالاشتراك مع حد علامة مائية محدد لإلغاء تكرار السجلات في Structured Streaming. راجع إسقاط التكرارات داخل العلامة المائية.
دعم موسع لتحويلات دلتا من جداول Iceberg مع أعمدة أقسام مقتطعة
يمكنك الآن استخدام CLONE
و CONVERT TO DELTA
مع جداول Iceberg التي تحتوي على أقسام محددة على أعمدة مقتطعة من الأنواع int
و long
و.string
الأعمدة المقتطعة من النوع decimal
غير معتمدة.
تغييرات مخطط الدفق مع تعيين العمود في Delta Lake
يمكنك الآن توفير موقع تعقب مخطط لتمكين الدفق من جداول Delta مع تمكين تعيين العمود. راجع البث مع تعيين العمود وتغييرات المخطط.
إزالة إصدار البدء
START VERSION
مهمل الآن ل ALTER SHARE
.
تعبيرات H3 الجديدة المتوفرة مع Python
h3_coverash3
تتوفر التعبيرات و h3_coverash3string
مع Python.
إصلاح الأخطاء
لم تعد Parquet failOnUnknownFields تسقط البيانات بصمت عند عدم تطابق النوع
إذا تمت قراءة ملف Parquet مع الخيار فقط failOnUnknownFields
أو مع "المحمل التلقائي" في failOnNewColumns
وضع تطور المخطط، تفشل الأعمدة التي تحتوي على أنواع بيانات مختلفة الآن وتوصي باستخدام rescuedDataColumn
. يقوم برنامج التحميل التلقائي الآن بقراءة أنواع الأعداد الصحيحة أو القصيرة أو البايت ولم يعد يقوم بإنقاذها إذا تم توفير أحد أنواع البيانات هذه. يقترح ملف Parquet أحد النوعين الآخرين.
كسر التغييرات
ترقية إصدار sqlite-jdbc إلى 3.42.0.0 لعنوان CVE-2023-32697
ترقية إصدار sqlite-jdbc من 3.8.11.2 إلى 3.42.0.0. واجهات برمجة التطبيقات للإصدار 3.42.0.0 غير متوافقة تماما مع 3.8.11.2. إذا كنت تستخدم sqlite-jdbc في التعليمات البرمجية الخاصة بك، فتحقق من تقرير توافق sqlite-jdbc للحصول على التفاصيل. إذا قمت بالترحيل إلى 13.1 واستخدام sqlite، فتأكد من أساليبك ونوع الإرجاع في الإصدار 3.42.0.0.
ترقيات المكتبة
- مكتبات Python التي تمت ترقيتها:
- نظرة عامة على الواجهات من 1.0.2 إلى 1.0.3
- filelock من 3.10.7 إلى 3.12.0
- pyarrow من 7.0.0 إلى 8.0.0
- التقارب من 8.0.1 إلى 8.1.0
- مكتبات R التي تمت ترقيتها:
- مكتبات Java التي تمت ترقيتها:
- com.github.ben-manes.الكافيين.الكافيين من 2.3.4 إلى 2.9.3
- io.delta.delta-sharing-spark_2.12 من 0.6.8 إلى 0.6.4
- net.snowflake.snowflake-jdbc من 3.13.29 إلى 3.13.22
- org.checkerframework.checker-qual من 3.5.0 إلى 3.19.0
- org.scalactic.scalactic_2.12 من 3.0.8 إلى 3.2.15
- org.scalatest.scalatest_2.12 من 3.0.8 إلى 3.2.15
- org.xerial.sqlite-jdbc من 3.8.11.2 إلى 3.42.0.0
Apache Spark
يتضمن Databricks Runtime 13.1 Apache Spark 3.4.0. يتضمن هذا الإصدار جميع إصلاحات Spark وتحسيناته المضمنة في Databricks Runtime 13.0 (EoS)، بالإضافة إلى إصلاحات الأخطاء الإضافية والتحسينات التالية التي تم إجراؤها على Spark:
- [SPARK-42719] [DBRRM-199][SC-131578] إرجاع "[SC-125225] 'MapOutputTracker#getMap...
- [SPARK-39696] [DBRRM-166][SC-130056][CORE] العودة [SC-127830]/
- [SPARK-43331] [SC-130064][CONNECT] إضافة Spark Connect SparkSession.interruptAll
- [SPARK-43332] [SC-130051][CONNECT][PYTHON] اجعل من الممكن توسيع ChannelBuilder ل SparkConnectClient
- [SPARK-43323] [SC-129966][SQL][PYTHON] إصلاح DataFrame.toPandas مع تمكين السهم لمعالجة الاستثناءات بشكل صحيح
- [SPARK-42940] [SC-129896][SS][CONNECT] تحسين إدارة الجلسة لتدفق الاستعلامات
- [SPARK-43032] [SC-125756] [CONNECT][SS] إضافة إدارة استعلام البث
- [SPARK-16484] [SC-129975][SQL] إضافة دعم ل Datasketches HllSketch
- [SPARK-43260] [SC-129281][PYTHON] ترحيل أخطاء نوع سهم Spark SQL pandas إلى فئة الخطأ.
- [SPARK-41766] [SC-129964][CORE] معالجة طلب إيقاف التشغيل المرسل قبل تسجيل المنفذ
- [SPARK-43307] [SC-129971][PYTHON] ترحيل أخطاء قيمة PandasUDF إلى فئة الخطأ
- [SPARK-43206] [SC-129903] [SS] [CONNECT] استثناء StreamingQuery() يتضمن تتبع المكدس
- [SPARK-43311] [SC-129905][SS] إضافة تحسينات إدارة ذاكرة موفر مخزن حالة RocksDB
- [SPARK-43237] [SC-129898][CORE] معالجة رسالة الاستثناء الخالية في سجل الأحداث
- [SPARK-43320] [SC-129899][SQL][HIVE] الاتصال مباشرة ب Apache Hive 2.3.9 API
- [SPARK-43270] [SC-129897][PYTHON] تنفيذ
__dir__()
لتضمينpyspark.sql.dataframe.DataFrame
الأعمدة - [SPARK-43183] إرجاع "[SC-128938][SS] تقديم رد اتصال جديد "...
- [SPARK-43143] [SC-129902] [SS] [CONNECT] Scala StreamingQuery في انتظارTermination()
- [SPARK-43257] [SC-129675][SQL] استبدال فئة الخطأ _LEGACY_ERROR_TEMP_2022 بخطأ داخلي
- [SPARK-43198] [SC-129470][CONNECT] إصلاح "تعذر تهيئة ammonite للفئة..." عند استخدام عامل التصفية
- [SPARK-43165] [SC-129777][SQL] نقل canWrite إلى DataTypeUtils
- [SPARK-43298] [SC-129729][PYTHON][ML] فشل predict_batch_udf مع إدخال عددي بحجم دفعة واحدة
- [SPARK-43298] [SC-129700]إرجاع "[PYTHON][ML] فشل predict_batch_udf مع إدخال عددي بحجم دفعة واحدة"
- [SPARK-43052] [SC-129663][CORE] معالجة stacktrace باستخدام اسم ملف فارغ في سجل الأحداث
- [SPARK-43183] [SC-128938][SS] تقديم رد اتصال جديد "onQueryIdle" إلى StreamingQueryListener
- [SPARK-43209] [SC-129190][CONNECT][PYTHON] ترحيل أخطاء التعبير إلى فئة الخطأ
- [SPARK-42151] [SC-128754][SQL] محاذاة تعيينات التحديث مع سمات الجدول
- [SPARK-43134] [SC-129468] [CONNECT] [SS] استثناء عميل JVM StreamingQuery() API
- [SPARK-43298] [SC-129699][PYTHON][ML] فشل predict_batch_udf مع إدخال عددي بحجم دفعة واحدة
- [SPARK-43248] [SC-129660][SQL] تسلسل/إلغاء تسلسل المسار على المتوازي جمع إحصائيات القسم
- [SPARK-43274] [SC-129464][SPARK-43275][PYTHON][CONNECT] قدم
PySparkNotImplementedError
- [SPARK-43146] [SC-128804][CONNECT][PYTHON] تنفيذ تقييم متلهف لإعادة الإنعاش repr_html
- [SPARK-42953] [SC-129469][الاتصال][متابعة] إصلاح إصدار اختبار maven لاختبارات عميل Scala UDF
- [SPARK-43144] [SC-129280] Scala Client DataStreamReader table() API
- [SPARK-43136] [SC-129358][CONNECT] إضافة groupByKey + mapGroup + دوال coGroup
- [SPARK-43156] [SC-129672][SC-128532][SQL] إصلاح
COUNT(*) is null
الخطأ في الاستعلام الفرعي العددي المترابط - [SPARK-43046] [SC-129110] [SS] [الاتصال] تم تنفيذ Python API dropDuplicatesWithinWatermark ل Spark Connect
- [SPARK-43199] [SC-129467][SQL] جعل InlineCTE غير فعال
- [SPARK-43293] [SC-129657][SQL]
__qualified_access_only
يجب تجاهله في الأعمدة العادية - [SPARK-43276] [SC-129461][CONNECT][PYTHON] ترحيل أخطاء نافذة اتصال Spark إلى فئة الخطأ
- [SPARK-43174] [SC-129109][SQL] إصلاح اكتمال SparkSQLCLIDriver
- [SPARK-43084] [SC-128654] [SS] إضافة دعم applyInPandasWithState ل spark connect
- [SPARK-43119] [SC-129040][SQL] دعم الحصول على كلمات SQL الأساسية ديناميكيا من خلال JDBC API وTVF
- [SPARK-43082] [SC-129112][CONNECT][PYTHON] ملفات Python UDF محسنة للسهم في Spark Connect
- [SPARK-43085] [SC-128432][SQL] دعم التعيين الافتراضي للعمود لأسماء الجداول متعددة الأجزاء
- [SPARK-43226] [LC-671] تعريف المستخرجات لبيانات التعريف الثابتة للملف
- [SPARK-43210] [SC-129189][CONNECT][PYTHON] قدم
PySparkAssertionError
- [SPARK-43214] [SC-129199][SQL] نشر مقاييس جانب برنامج التشغيل ل LocalTableScanExec/CommandResultExec
- [SPARK-43285] [SC-129347] إصلاح فشل ReplE2ESuite باستمرار مع JDK 17
- [SPARK-43268] [SC-129249][SQL] استخدام فئات الخطأ المناسبة عند إنشاء استثناءات برسالة
- [SPARK-43142] [SC-129299] إصلاح تعبيرات DSL على السمات ذات الأحرف الخاصة
- [SPARK-43129] [SC-128896] Scala core API لتدفق Spark Connect
- [SPARK-43233] [SC-129250] [SS] إضافة تسجيل ل Kafka Batch Reading لقسم الموضوع ونطاق الإزاحة ومعرف المهمة
- [SPARK-43249] [SC-129195][CONNECT] إصلاح الإحصائيات المفقودة لأمر SQL
- [SPARK-42945] [SC-129188][CONNECT] PYSPARK_JVM_STACKTRACE_ENABLED الدعم في Spark Connect
- [SPARK-43178] [SC-129197][CONNECT][PYTHON] ترحيل أخطاء UDF إلى إطار عمل خطأ PySpark
- [SPARK-43123] [SC-128494][SQL] يجب عدم تسريب بيانات تعريف الحقل الداخلي إلى الكتالوجات
- [SPARK-43217] [SC-129205] التكرار بشكل صحيح في الخرائط/الصفائف المتداخلة في findNestedField
- [SPARK-43243] [SC-129294][PYTHON][CONNECT] إضافة معلمة مستوى إلى printSchema ل Python
- [SPARK-43230] [SC-129191][CONNECT] تبسيط
DataFrameNaFunctions.fillna
- [SPARK-43088] [SC-128403][SQL] الاحترام يتطلبDistributionAndOrdering في CTAS/RTAS
- [SPARK-43234] [SC-129192][CONNECT][PYTHON]
ValueError
الترحيل من Conect DataFrame إلى فئة الخطأ - [SPARK-43212] [SC-129187][SS][PYTHON] ترحيل أخطاء Structured Streaming إلى فئة الخطأ
- [SPARK-43239] [SC-129186][PS] إزالة
null_counts
من المعلومات() - [SPARK-43190] [SC-128930][SQL] يجب أن يكون ListQuery.childOutput متسقا مع الإخراج التابع
- [SPARK-43191] [SC-128924][CORE] استبدال الانعكاس w/ الاتصال المباشر ل Hadoop CallerContext
- [SPARK-43193] [SC-129042][SS] إزالة الحل البديل ل HADOOP-12074
- [SPARK-42657] [SC-128621][CONNECT] دعم البحث عن ملفات فئات REPL من جانب العميل ونقلها إلى الخادم كأجزاء اصطناعية
- [SPARK-43098] [SC-77059][SQL] إصلاح خطأ عدد التصحيحات عندما يحتوي الاستعلام الفرعي العددي على عبارة مجمعة حسب
- [SPARK-43213] [SC-129062][PYTHON] إضافة
DataFrame.offset
إلى Vanilla PySpark - [SPARK-42982] [SC-128400][CONNECT][PYTHON] إصلاح createDataFrame لمراعاة المخطط المحدد ddl
- [SPARK-43124] [SC-129011][SQL] Dataset.show projects CommandResults محليا
- [SPARK-42998] [SC-127422][CONNECT][PYTHON] إصلاح DataFrame.collect باستخدام البنية الخالية
- [SPARK-41498] [SC-125343]Revert " نشر بيانات التعريف من خلال Union"
- [SPARK-42960] [SC-129010] [CONNECT] [SS] إضافة await_termination() وواجهة برمجة تطبيقات exception() لاستعلام البث في Python
- [SPARK-42552] [SC-128824][SQL] تصحيح استراتيجية تحليل مرحلتين من محلل antlr
- [SPARK-43207] [SC-128937][CONNECT] إضافة وظائف المساعد لاستخراج القيمة من التعبير الحرفي
- [SPARK-43186] [SC-128841][SQL][HIVE] إزالة الحل البديل ل FileSinkDesc
- [SPARK-43107] [SC-128533][SQL] دمج المستودعات في الصلة المطبقة على جانب دفق الانضمام إلى البث
- [SPARK-43195] [SC-128922][CORE] إزالة برنامج تضمين غير ضروري قابل للتسلسل في HadoopFSUtils
- [SPARK-43137] [SC-128828][SQL] تحسين ArrayInsert إذا كان الموضع قابلا للطي وإيجابية.
- [SPARK-37829] [SC-128827][SQL] يجب أن ترجع Dataframe.joinWith outer-join قيمة خالية للصف غير المتطابق
- [SPARK-43042] [SC-128602] [SS] [الاتصال] إضافة جدول() دعم واجهة برمجة التطبيقات ل DataStreamReader
- [SPARK-43153] [SC-128753][CONNECT] تخطي تنفيذ Spark عندما يكون إطار البيانات محليا
- [SPARK-43064] [SC-128496][SQL] يجب أن تظهر علامة تبويب Spark SQL CLI SQL مرة واحدة فقط
- [SPARK-43126] [SC-128447][SQL] وضع علامة على تعبيرين من تعبيرات Hive UDF على أنها ذات حالة
- [SPARK-43111] [SC-128750][PS][CONNECT][PYTHON] دمج العبارات المتداخلة
if
في عبارات مفردةif
- [SPARK-43113] [SC-128749][SQL] تقييم المتغيرات من جانب الدفق عند إنشاء تعليمة برمجية لشرط مرتبط
- [SPARK-42895] [SC-127258][CONNECT] تحسين رسائل الخطأ لجلسات Spark المتوقفة
- [SPARK-42884] [SC-126662][CONNECT] إضافة تكامل Ammonite REPL
- [SPARK-43168] [SC-128674][SQL] إزالة أسلوب get PhysicalDataType من فئة Datatype
- [SPARK-43121] [SC-128455][SQL] استخدم
BytesWritable.copyBytes
بدلا من النسخ اليدوي في 'HiveInspectors - [SPARK-42916] [SC-128389][SQL] JDBCTableCatalog يحافظ على تعريف Char/Varchar على جانب القراءة
- [SPARK-43050] [SC-128550][SQL] إصلاح بناء التعبيرات التجميعية عن طريق استبدال دالات التجميع
- [SPARK-43095] [SC-128549][SQL] تجنب بمجرد كسر ديمومة الاستراتيجية للدفعة:
Infer Filters
- [SPARK-43130] [SC-128597][SQL] نقل InternalType إلى PhysicalDataType
- [SPARK-43105] [SC-128456][CONNECT] اختصار وحدات البايت والسلاسل في رسالة proto
- [SPARK-43099] [SC-128596][SQL] استخدم
getName
بدلا منgetCanonicalName
للحصول على اسم فئة المنشئ عند تسجيل udf إلى FunctionRegistry - [SPARK-42994] [SC-128586][التعلم الآلي][CONNECT] يدعم PyTorch Distributor الوضع المحلي
- [SPARK-42859] العودة إلى "[SC-127935][CONNECT][PS] الدعم الأساسي لواجهة برمجة تطبيقات Pandas على Spark Connect"
- [SPARK-43021] [SC-128472][SQL]
CoalesceBucketsInJoin
لا يعمل عند استخدام AQE - [SPARK-43125] [SC-128477][CONNECT] إصلاح تعذر على خادم الاتصال معالجة الاستثناء برسالة فارغة
- [SPARK-43147] [SC-128594] إصلاح flake8 lint للفحص المحلي
- [SPARK-43031] [SC-128360] [SS] [الاتصال] تمكين اختبار الوحدة والمكمل للبث
- [SPARK-43039] [LC-67] دعم الحقول المخصصة في عمود _metadata مصدر الملف.
- [SPARK-43120] [SC-128407][SS] إضافة دعم لتعقب استخدام ذاكرة كتل مثبتة لمخزن حالة RocksDB
- [SPARK-43110] [SC-128381][SQL] نقل asIntegral إلى PhysicalDataType
- [SPARK-43118] [SC-128398][SS] إزالة التأكيد غير الضروري ل UninterruptibleThread في KafkaMicroBatchStream
- [SPARK-43055] [SC-128331][CONNECT][PYTHON] دعم أسماء الحقول المتداخلة المكررة
- [SPARK-42437] [SC-128339][PYTHON][CONNECT] سيسمح PySpark catalog.cacheTable بتحديد مستوى التخزين
- [SPARK-42985] [SC-128332][CONNECT][PYTHON] إصلاح createDataFrame لمراعاة تكوينات SQL
- [SPARK-39696] [SC-127830][CORE] إصلاح تعارض البيانات في الوصول إلى TaskMetrics.externalAccums
- [SPARK-43103] [SC-128335][SQL] نقل متكامل إلى PhysicalDataType
- [SPARK-42741] [SC-125547][SQL] لا تفك تحويلات في مقارنة ثنائية عندما تكون القيمة الحرفية خالية
- [SPARK-43057] [SC-127948][CONNECT][PYTHON] ترحيل أخطاء Spark Connect Column إلى فئة الخطأ
- [SPARK-42859] [SC-127935][CONNECT][PS] الدعم الأساسي لواجهة برمجة تطبيقات pandas على Spark Connect
- [SPARK-43013] [SC-127773][PYTHON]
ValueError
ترحيل من DataFrame إلىPySparkValueError
. - [SPARK-43089] [SC-128051][CONNECT] تنقيح سلسلة تصحيح الأخطاء في واجهة المستخدم
- [SPARK-43028] [SC-128070][SQL] إضافة SQL_CONF_NOT_FOUND فئة الخطأ
- [SPARK-42999] [SC-127842][الاتصال] Dataset#foreach, foreachPartition
- [SPARK-43066] [SC-127937][SQL] إضافة اختبار ل dropDuplicates في JavaDatasetSuite
- [SPARK-43075] [SC-127939][CONNECT] قم بالتغيير
gRPC
إلىgrpcio
عندما لا يكون مثبتا. - [SPARK-42953] [SC-127809][الاتصال] عامل تصفية مكتوب، خريطة، flatMap، mapPartitions
- [SPARK-42597] [SC-125506][SQL] دعم نوع تاريخ فك التفريع إلى نوع الطابع الزمني
- [SPARK-42931] [SC-127933][SS] تقديم dropDuplicatesWithinWatermark
- [SPARK-43073] [SC-127943][CONNECT] إضافة ثوابت أنواع البيانات الأولية
- [SPARK-43077] [SC-128050][SQL] تحسين رسالة الخطأ UNRECOGNIZED_SQL_TYPE
- [SPARK-42951] [SC-128030][SS][الاتصال] واجهات برمجة تطبيقات DataStreamReader
- [SPARK-43049] [SC-127846][SQL] استخدام CLOB بدلا من VARCHAR(255) ل StringType ل Oracle JDBC
- [SPARK-43018] [SC-127762][SQL] إصلاح الخطأ لأوامر INSERT باستخدام القيم الحرفية للطوابع الزمنية
- [SPARK-42855] [SC-127722][SQL] استخدام عمليات التحقق الفارغة لوقت التشغيل في TableOutputResolver
- [SPARK-43030] [SC-127847][SQL] إلغاء تكرار العلاقات مع أعمدة بيانات التعريف
- [SPARK-42993] [SC-127829][التعلم الآلي][CONNECT] جعل موزع PyTorch متوافقا مع Spark Connect
- [SPARK-43058] [SC-128072][SQL] نقل رقمي وكسري إلى PhysicalDataType
- [SPARK-43056] [SC-127946][SS] يجب أن يستمر تثبيت مخزن حالة RocksDB في العمل في الخلفية فقط إذا تم إيقافه مؤقتا
- [SPARK-43059] [SC-127947][CONNECT][PYTHON] ترحيل TypeError من DataFrame(Reader|الكاتب) في فئة الخطأ
- [SPARK-43071] [SC-128018][SQL] دعم SELECT DEFAULT مع ORDER BY و LIMIT و OFFSET لعلاقة مصدر INSERT
- [SPARK-43061] [SC-127956][CORE][SQL] تقديم PartitionEvaluator لتنفيذ عامل تشغيل SQL
- [SPARK-43067] [SC-127938][SS] تصحيح موقع ملف مورد فئة الخطأ في موصل Kafka
- [SPARK-43019] [SC-127844][SQL] نقل Ordering إلى PhysicalDataType
- [SPARK-43010] [SC-127759][PYTHON] ترحيل أخطاء العمود إلى فئة الخطأ
- [SPARK-42840] [SC-127782][SQL] تغيير
_LEGACY_ERROR_TEMP_2004
الخطأ إلى خطأ داخلي - [SPARK-43041] [SC-127765][SQL] استعادة منشئات الاستثناءات للتوافق في واجهة برمجة تطبيقات الموصل
- [SPARK-42939] [SC-127761][SS][CONNECT] واجهة برمجة تطبيقات Python الأساسية المتدفقة ل Spark Connect
- [SPARK-42844] [SC-127766][SQL] تحديث فئة
_LEGACY_ERROR_TEMP_2008
الخطأ إلىINVALID_URL
- [SPARK-42316] [SC-127720][SQL] تعيين اسم إلى _LEGACY_ERROR_TEMP_2044
- [SPARK-42995] [SC-127723][CONNECT][PYTHON] ترحيل أخطاء Spark Connect DataFrame إلى فئة الخطأ
- [SPARK-42983] [SC-127717][CONNECT][PYTHON] إصلاح createDataFrame للتعامل مع صفيف خدر 0 باهت بشكل صحيح
- [SPARK-42955] [SC-127476][SQL] تخطي classifyException والتفاف AnalysisException ل SparkThrowable
- [SPARK-42949] [SC-127255][SQL] تبسيط التعليمات البرمجية ل NAAJ
- [SPARK-43011] [SC-127577][SQL]
array_insert
يجب أن يفشل مع فهرس 0 - [SPARK-42974] [SC-127487][CORE] استعادة
Utils.createTempDir
لاستخدامShutdownHookManager
أسلوب وتنظيفJavaUtils.createTempDir
. - [SPARK-42964] [SC-127585][SQL] PosgresDialect '42P07' يعني أيضا وجود جدول بالفعل
- [SPARK-42978] [SC-127351][SQL] Derby&PG: لا يمكن ل RENAME تأهيل اسم جدول جديد باسم مخطط
- [SPARK-37980] [SC-127668][SQL] الوصول row_index عبر _metadata إن أمكن في الاختبارات
- [SPARK-42655] [SC-127591][SQL] خطأ مرجع عمود غامض غير صحيح
- [SPARK-43009] [SC-127596][SQL] ذات
sql()
معلمات معAny
ثوابت - [SPARK-43026] [SC-127590][SQL] تطبيق AQE مع ذاكرة التخزين المؤقت للجداول غير التبادلية
- [SPARK-42963] [SC-127576][SQL] توسيع SparkSessionExtensions لإدخال القواعد في محسن مرحلة استعلام AQE
- [SPARK-42918] [SC-127357] تعميم معالجة سمات بيانات التعريف في FileSourceStrategy
- [SPARK-42806] [SC-127452][SPARK-42811][CONNECT] إضافة
Catalog
دعم - [SPARK-42997] [SC-127535][SQL] يجب أن يستخدم TableOutputResolver مسارات الأعمدة الصحيحة في رسائل الخطأ للصفائف والخرائط
- [SPARK-43006] [SC-127486][PYSPARK] إصلاح الأخطاء المطبعية في StorageLevel eq()
- [SPARK-43005] [SC-127485][PYSPARK] إصلاح الأخطاء المطبعية في pyspark/pandas/config.py
- [SPARK-43004] [SC-127457][CORE] إصلاح الأخطاء المطبعية في ResourceRequest.equals()
- [SPARK-42907] [SC-126984][CONNECT][PYTHON] تنفيذ وظائف Avro
- [SPARK-42979] [SC-127272][SQL] تعريف الدالات الإنشائية الحرفية ككلمات أساسية
- [SPARK-42946] [SC-127252][SQL] تنقيح البيانات الحساسة المتداخلة بواسطة استبدال المتغير
- [SPARK-42952] [SC-127260][SQL] تبسيط معلمة قاعدة المحلل PreprocessTableCreation وDataSourceAnalysis
- [SPARK-42683] [LC-75] إعادة تسمية أعمدة بيانات التعريف المتعارضة تلقائيا
- [SPARK-42853] [SC-126101][متابعة] إصلاح التعارضات
- [SPARK-42929] [SC-126748][CONNECT] جعل mapInPandas / mapInArrow يدعم "is_barrier"
- [SPARK-42968] [SC-127271][SS] إضافة خيار لتخطي منسق التثبيت كجزء من StreamingWrite API لمصادر/متلقي DSv2
- [SPARK-42954] [SC-127261][PYTHON][CONNECT] إضافة
YearMonthIntervalType
إلى عميل PySpark وSpark Connect Python - [SPARK-41359] [SC-127256][SQL] استخدام
PhysicalDataType
بدلا من DataType في UnsafeRow - [SPARK-42873] [SC-127262][SQL] تعريف أنواع Spark SQL ككلمات أساسية
- [SPARK-42808] [SC-126302][CORE] تجنب الحصول على المعالجات المتوفرة في كل مرة في
MapOutputTrackerMaster#getStatistics
- [SPARK-42937] [SC-126880][SQL]
PlanSubqueries
يجب تعيينInSubqueryExec#shouldBroadcast
إلى true - [SPARK-42896] [SC-126729][SQL][PYTHON] إجراء
mapInPandas
/mapInArrow
تنفيذ وضع حاجز الدعم - [SPARK-42874] [SC-126442][SQL] تمكين إطار عمل اختبار الملف الذهبي الجديد لتحليل جميع ملفات الإدخال
- [SPARK-42922] [SC-126850][SQL] الانتقال من عشوائي إلى SecureRandom
- [SPARK-42753] [SC-126369] إعادة الاستخدام يشير إلى العقد غير الموجودة
- [SPARK-40822] [SC-126274][SQL] الأسماء المستعارة للأعمدة المشتقة الثابتة
- [SPARK-42908] [SC-126856][PYTHON] رفع RuntimeError عندما يكون SparkContext مطلوبا ولكن لم تتم تهيئته
- [SPARK-42779] [SC-126042][SQL] السماح للكتابات V2 بالإشارة إلى حجم قسم التبديل العشوائي الاستشاري
- [SPARK-42914] [SC-126727][PYTHON] إعادة استخدام
transformUnregisteredFunction
لDistributedSequenceID
. - [SPARK-42878] [SC-126882][CONNECT] يمكن أن تقبل واجهة برمجة تطبيقات الجدول في DataFrameReader أيضا الخيارات
- [SPARK-42927] [SC-126883][CORE] تغيير نطاق الوصول إلى
o.a.spark.util.Iterators#size
private[util]
- [SPARK-42943] [SC-126879][SQL] استخدام LONGTEXT بدلا من TEXT ل StringType لطول فعال
- [SPARK-37677] [SC-126855][CORE] يمكن أن يؤدي إلغاء الضغط إلى الاحتفاظ بأذونات الملف
- [SPARK-42891] [13.x][SC-126458][CONNECT][PYTHON] تنفيذ واجهة برمجة تطبيقات خريطة CoGrouped
- [SPARK-41876] [SC-126849][CONNECT][PYTHON] تنفيذ DataFrame.toLocalIterator
- [SPARK-42930] [SC-126761][CORE][SQL] تغيير نطاق
ProtobufSerDe
الوصول إلى التطبيقات ذات الصلة إلىprivate[protobuf]
- [SPARK-42819] [SC-125879][SS] إضافة دعم لإعداد max_write_buffer_number write_buffer_size ل RocksDB المستخدمة في الدفق
- [SPARK-42924] [SC-126737][SQL][CONNECT][PYTHON] توضيح تعليق SQL args ذات المعلمات
- [SPARK-42748] [SC-126455][CONNECT] إدارة البيانات الاصطناعية من جانب الخادم
- [SPARK-42816] [SC-126365][CONNECT] دعم الحد الأقصى لحجم الرسالة حتى 128 ميغابايت
- [SPARK-42850] [SC-126109][SQL] إزالة القاعدة المكررة CombineFilters في Optimizer
- [SPARK-42662] [SC-126355][CONNECT][PS] إضافة رسالة proto لواجهة برمجة تطبيقات pandas على فهرس Spark الافتراضي
- [SPARK-42720] [SC-126136][PS][SQL] يستخدم التعبير للفهرس الافتراضي للتسلسل الموزع بدلا من الخطة
- [SPARK-42790] [SC-126174][SQL] تجريد الأسلوب المستبعد لاختبار أفضل لاختبارات JDBC docker.
- [SPARK-42900] [SC-126473][CONNECT][PYTHON] إصلاح createDataFrame لمراعاة الاستدلال وأسماء الأعمدة
- [SPARK-42917] [SC-126657][SQL] getUpdateColumnNullabilityQuery الصحيح ل DerbyDialect
- [SPARK-42684] [SC-125157][SQL] يجب ألا يسمح كتالوج v2 بالقيمة الافتراضية للعمود بشكل افتراضي
- [SPARK-42861] [SC-126635][SQL] استخدام private[sql] بدلا من protected[sql] لتجنب إنشاء مستند API
- [SPARK-42920] [SC-126728][CONNECT][PYTHON] تمكين اختبارات UDF باستخدام UDT
- [SPARK-42791] [SC-126617][SQL] إنشاء إطار عمل اختبار ملف ذهبي جديد للتحليل
- [SPARK-42911] [SC-126652][PYTHON] تقديم المزيد من الاستثناءات الأساسية
- [SPARK-42904] [SC-126634][SQL] دعم Char/Varchar كتالوج JDBC
- [SPARK-42901] [SC-126459][CONNECT][PYTHON] الانتقال
StorageLevel
إلى ملف منفصل لتجنب الإمكاناتfile recursively imports
- [SPARK-42894] [SC-126451][CONNECT] دعم
cache
unpersist
storageLevel
/persist
//عميل Spark connect jvm - [SPARK-42792] [SC-125852][SS] إضافة دعم WRITE_FLUSH_BYTES ل RocksDB المستخدم في عوامل التشغيل ذات الحالة المتدفقة
- [SPARK-41233] [SC-126441][CONNECT][PYTHON] إضافة array_prepend إلى عميل Spark Connect Python
- [SPARK-42681] [SC-125149][SQL] قيد ترتيب الاسترخاء ل ALTER TABLE ADD|استبدال واصف العمود
- [SPARK-42889] [SC-126367][CONNECT][PYTHON] تنفيذ ذاكرة التخزين المؤقت، والاستمرار، وعدم الاحتفاظ بها، وstorageLevel
- [SPARK-42824] [SC-125985][CONNECT][PYTHON] توفير رسالة خطأ واضحة لسمات JVM غير المدعومة
- [SPARK-42340] [SC-126131][CONNECT][PYTHON] تنفيذ واجهة برمجة تطبيقات الخرائط المجمعة
- [SPARK-42892] [SC-126454][SQL] نقل نفس النوع والأساليب ذات الصلة من DataType
- [SPARK-42827] [SC-126126][CONNECT] دعم
functions#array_prepend
عميل Scala connect - [SPARK-42823] [SC-125987][SQL]
spark-sql
يدعم shell مساحات الأسماء متعددة الأقسام للتهيئة - [SPARK-42817] [SC-125960][CORE] تسجيل اسم خدمة التبديل العشوائي مرة واحدة في ApplicationMaster
- [SPARK-42786] [SC-126438][الاتصال] تحديد مكتوب
- [SPARK-42800] [SC-125868][CONNECT][PYTHON][ML] تنفيذ دالة ml
{array_to_vector, vector_to_array}
- [SPARK-42052] [SC-126439][SQL] دعم Codegen ل HiveSimpleUDF
- [SPARK-41233] [SC-126110][SQL][PYTHON] إضافة
array_prepend
دالة - [SPARK-42864] [SC-126268][التعلم الآلي][3.4] جعل الخاص
IsotonicRegression.PointsAccumulator
- [SPARK-42876] [SC-126281][SQL] يجب أن يكون نوع البيانات المادية ل DataType خاصا [sql]
- [SPARK-42101] [SC-125437][SQL] جعل دعم AQE InMemoryTableScanExec
- [SPARK-41290] [SC-124030][SQL] دعم تعبيرات GENERATED ALWAYS AS للأعمدة في عبارات إنشاء/استبدال الجدول
- [SPARK-42870] [SC-126220][CONNECT] الانتقال
toCatalystValue
إلىconnect-common
- [SPARK-42247] [SC-126107][CONNECT][PYTHON] إصلاح UserDefinedFunction للحصول على returnType
- [SPARK-42875] [SC-126258][CONNECT][PYTHON] إصلاح toPandas للتعامل مع أنواع المنطقة الزمنية والخريطة بشكل صحيح
- [SPARK-42757] [SC-125626][CONNECT] تنفيذ textFile ل DataFrameReader
- [SPARK-42803] [SC-126081][CORE][SQL][ML] استخدام الدالة getParameterCount بدلا من getParameterTypes.length
- [SPARK-42833] [SC-126043][SQL] إعادة بناء التعليمات البرمجية
applyExtensions
فيSparkSession
- [SPARK-41765] إرجاع "[SC-123550][SQL] سحب مقاييس الكتابة v1...
- [SPARK-42848] [SC-126105][CONNECT][PYTHON] تنفيذ DataFrame.registerTempTable
- [SPARK-42020] [SC-126103][CONNECT][PYTHON] دعم UserDefinedType في Spark Connect
- [SPARK-42818] [SC-125861][CONNECT][PYTHON] تنفيذ DataFrameReader/Writer.jdbc
- [SPARK-42812] [SC-125867][CONNECT] إضافة client_type إلى رسالة Protobuf AddArtifactsRequest
- [SPARK-42772] [SC-125860][SQL] تغيير القيمة الافتراضية لخيارات JDBC حول الدفع لأسفل إلى true
- [SPARK-42771] [SC-125855][SQL] إعادة بناء التعليمات البرمجية HiveGenericUDF
- [SPARK-25050] [SC-123839][SQL] Avro: كتابة الاتحادات المعقدة
- [SPARK-42765] [SC-125850][CONNECT][PYTHON] تمكين الاستيراد
pandas_udf
منpyspark.sql.connect.functions
- [SPARK-42719] [SC-125225][CORE]
MapOutputTracker#getMapLocation
يجب أن يحترمspark.shuffle.reduceLocality.enabled
- [SPARK-42480] [SC-125173][SQL] تحسين أداء أقسام الإفلات
- [SPARK-42689] [SC-125195][CORE][SHUFFLE] السماح ل ShuffleDriverComponent بتعريف ما إذا كانت بيانات التبديل العشوائي مخزنة بشكل موثوق
- [SPARK-42726] [SC-125279][CONNECT][PYTHON] أنجز
DataFrame.mapInArrow
- [SPARK-41765] [SC-123550][SQL] سحب مقاييس الكتابة v1 إلى WriteFiles
- [SPARK-41171] [SC-124191][SQL] الاستدلال ودفع حد النافذة لأسفل من خلال النافذة إذا كانت partitionSpec فارغة
- [SPARK-42686] [SC-125292][CORE] تأجيل التنسيق لرسائل تتبع الأخطاء في TaskMemoryManager
- [SPARK-42756] [SC-125443][CONNECT][PYTHON] الدالة Helper لتحويل proto literal إلى قيمة في عميل Python
- [SPARK-42793] [SC-125627][CONNECT]
connect
تتطلب الوحدة النمطيةbuild_profile_flags
- [SPARK-42701] [SC-125192][SQL] إضافة الدالة
try_aes_decrypt()
- [SPARK-42679] [SC-125438][CONNECT][PYTHON] createDataFrame لا يعمل مع مخطط غير يقبل القيم الخالية
- [SPARK-42733] [SC-125542][CONNECT][متابعة] الكتابة بدون مسار أو جدول
- [SPARK-42777] [SC-125525][SQL] دعم تحويل إحصائيات كتالوج TimestampNTZ إلى إحصائيات التخطيط
- [SPARK-42770] [SC-125558][CONNECT] إضافة
truncatedTo(ChronoUnit.MICROS)
لجعلSQLImplicitsTestSuite
في Java 17 يومية اختبار اجتياز مهمة GA - [SPARK-42752] [SC-125550][PYSPARK][SQL] جعل استثناءات PySpark قابلة للطباعة أثناء التهيئة
- [SPARK-42732] [SC-125544][PYSPARK][CONNECT] دعم أسلوب getActiveSession لجلسة اتصال spark
- [SPARK-42755] [SC-125442][CONNECT] تحويل القيمة الحرفية للعامل إلى
connect-common
- [SPARK-42747] [SC-125399][ML] إصلاح الحالة الداخلية غير الصحيحة ل LoR و AFT
- [SPARK-42740] [SC-125439][SQL] إصلاح الخطأ الذي تكون فيه الإزاحة أو الترحيل غير صالح لبعض اللهجات المضمنة
- [SPARK-42745] [SC-125332][SQL] يعمل الاسم المستعار المحسنAwareOutputExpression مع DSv2
- [SPARK-42743] [SC-125330][SQL] دعم تحليل أعمدة TimestampNTZ
- [SPARK-42721] [SC-125371][CONNECT] اعتراض تسجيل RPC
- [SPARK-42691] [SC-125397][CONNECT][PYTHON] تنفيذ Dataset.semanticHash
- [SPARK-42688] [SC-124922][CONNECT] إعادة تسمية client_id طلب proto Connect إلى session_id
- [SPARK-42310] [SC-122792][SQL] تعيين اسم إلى _LEGACY_ERROR_TEMP_1289
- [SPARK-42685] [SC-125339][CORE] تحسين إجراءات Utils.bytesToString
- [SPARK-42725] [SC-125296][CONNECT][PYTHON] جعل معلمات صفيف دعم LiteralExpression
- [SPARK-42702] [SC-125293][SPARK-42623][SQL] دعم الاستعلام ذات المعلمات في الاستعلام الفرعي وCTE
- [SPARK-42697] [SC-125189][WEBUI] إصلاح /api/v1/applications لإرجاع إجمالي وقت التشغيل بدلا من 0 لحقل المدة
- [SPARK-42733] [SC-125278][CONNECT][PYTHON] إصلاح DataFrameWriter.save للعمل بدون معلمة المسار
- [SPARK-42376] [SC-124928][SS] إدخال نشر العلامة المائية بين عوامل التشغيل
- [SPARK-42710] [SC-125205][CONNECT][PYTHON] إعادة تسمية Proto FrameMap إلى MapPartitions
- [SPARK-37099] [SC-123542][SQL] تقديم حد المجموعة ل Window للتصفية المستندة إلى الرتبة لتحسين حساب أعلى k
- [SPARK-42630] [SC-125207][CONNECT][PYTHON] تقديم UnparsedDataType وتأخير تحليل سلسلة DDL حتى يتوفر SparkConnectClient
- [SPARK-42690] [SC-125193][CONNECT] تنفيذ وظائف تحليل CSV/JSON لعميل Scala
- [SPARK-42709] [SC-125172][PYTHON] إزالة افتراض
__file__
توفر - [SPARK-42318] [SC-122648][SPARK-42319][SQL] تعيين الاسم إلى LEGACY_ERROR_TEMP(2123|2125)
- [SPARK-42723] [SC-125183][SQL] دعم نوع بيانات محلل json "timestamp_ltz" ك TimestampType
- [SPARK-42722] [SC-125175][CONNECT][PYTHON] يجب ألا يقوم مخطط Python Connect def() بالتخزين المؤقت للمخطط
- [SPARK-42643] [SC-125152][CONNECT][PYTHON] تسجيل وظائف Java (التجميع) المعرفة من قبل المستخدم
- [SPARK-42656] [SC-125177][CONNECT][متابعة] إصلاح البرنامج النصي spark-connect
- [SPARK-41516] [SC-123899] [SQL] السماح للهجات jdbc بتجاوز الاستعلام المستخدم لإنشاء جدول
- [SPARK-41725] [SC-124396][CONNECT] التنفيذ السريع DF.sql()
- [SPARK-42687] [SC-124896][SS] رسالة خطأ أفضل لعملية عدم الدعم
pivot
في البث - [SPARK-42676] [SC-124809][SS] كتابة نقاط التحقق المؤقتة لاستعلامات الدفق إلى نظام الملفات المحلي حتى إذا تم تعيين FS الافتراضي بشكل مختلف
- [SPARK-42303] [SC-122644][SQL] تعيين اسم إلى _LEGACY_ERROR_TEMP_1326
- [SPARK-42553] [SC-124560][SQL] تأكد من وحدة زمنية واحدة على الأقل بعد "الفاصل الزمني"
- [SPARK-42649] [SC-124576][CORE] إزالة رأس ترخيص Apache القياسي من أعلى ملفات مصدر الجهات الخارجية
- [SPARK-42611] [SC-124395][SQL] إدراج عمليات التحقق من طول الحرف/varchar للحاول الداخلية أثناء الدقة
- [SPARK-42419] [SC-124019][CONNECT][PYTHON] ترحيل إلى إطار خطأ لواجهة برمجة تطبيقات عمود Spark Connect.
- [SPARK-42637] [SC-124522][CONNECT] إضافة SparkSession.stop()
- [SPARK-42647] [SC-124647][PYTHON] تغيير الاسم المستعار للأنوعات المهملة والمزالة
- [SPARK-42616] [SC-124389][SQL] يجب على SparkSQLCLIDriver إغلاق حالة جلسة عمل الخلية التي بدأت فقط
- [SPARK-42593] [SC-124405][PS] إهمال وإزالة واجهات برمجة التطبيقات التي ستتم إزالتها في pandas 2.0.
- [SPARK-41870] [SC-124402][CONNECT][PYTHON] إصلاح createDataFrame لمعالجة أسماء الأعمدة المكررة
- [SPARK-42569] [SC-124379][CONNECT] طرح استثناءات لواجهة برمجة تطبيقات الجلسة غير المدعومة
- [SPARK-42631] [SC-124526][CONNECT] دعم الملحقات المخصصة في عميل Scala
- [SPARK-41868] [SC-124387][CONNECT][PYTHON] إصلاح createDataFrame لدعم المدد
- [SPARK-42572] [SC-124171][SQL][SS] إصلاح سلوك StateStoreProvider.validateStateRowFormat
تحديثات الصيانة
راجع تحديثات صيانة Databricks Runtime 13.1.
بيئة النظام
- نظام التشغيل: Ubuntu 22.04.2 LTS
- Java: Zulu 8.70.0.23-CA-linux64
- Scala: 2.12.15
- Python: 3.10.12
- R: 4.2.2
- Delta Lake: 2.4.0
مكتبات Python المثبتة
مكتبة | إصدار | مكتبة | إصدار | مكتبة | إصدار |
---|---|---|---|---|---|
dirs | 1.4.4 | argon2-cffi | 21.3.0 | روابط argon2-cffi | 21.2.0 |
الرموز المميزة | 2.2.1 | سلاسل السلاسل | 21.4.0 | تثبيت خلفي | 0.2.0 |
beautifulsoup4 | 4.11.1 | black | 22.6.0 | بيض | 4.1.0 |
وامض | 1.4 | boto3 | 1.24.28 | روبوت الدردشة | 1.27.28 |
شهادة | 2022.9.14 | cffi | 1.15.1 | تجزئة | 4.0.0 |
charset-normalizer | 2.0.4 | نقر | 8.0.4 | التشفير | 37.0.1 |
دورة | 0.11.0 | Cython | 0.29.32 | dbus-python | 1.2.18 |
تصحيح الأخطاء | 1.5.1 | ديكور | 5.1.1 | defusedxml | 0.7.1 |
استياء | 0.3.6 | docstring-to-markdown | 0.12 | نقاط الإدخال | 0.4 |
تنفيذ | 1.2.0 | نظرة عامة على الواجهات | 1.0.3 | fastjsonschema | 2.16.3 |
قفل الملف | 3.12.0 | أصوام الخطوط | 4.25.0 | googleapis-common-protos | 1.56.4 |
grpcio | 1.48.1 | حالة grpcio | 1.48.1 | httplib2 | 0.20.2 |
idna | 3.3 | بيانات تعريف importlib | 4.6.4 | ipykernel | 6.17.1 |
ipython | 8.10.0 | ipython-genutils | 0.2.0 | عناوين ipywidgets | 7.7.2 |
jedi | 0.18.1 | سيارة جيب | 0.7.1 | جينجا 2 | 2.11.3 |
مسار jmespath | 0.10.0 | joblib | 1.2.0 | jsonschema | 4.16.0 |
jupyter-client | 7.3.4 | jupyter_core | 4.11.2 | jupyterlab-pygments | 0.1.2 |
jupyterlab-widgets | 1.0.0 | أداة إنشاء المفاتيح | 23.5.0 | kiwisolver | 1.4.2 |
launchpadlib | 1.10.16 | lazr.restfulclient | 0.14.4 | lazr.uri | 1.0.6 |
MarkupSafe | 2.0.1 | matplotlib | 3.5.2 | matplotlib-inline | 0.1.6 |
مكابي | 0.7.0 | سوء الحظ | 0.8.4 | المزيد من التكرارات | 8.10.0 |
mypy-extensions | 0.4.3 | nbclient | 0.5.13 | nbconvert | 6.4.4 |
تنسيق nbformat | 5.5.0 | nest-asyncio | 1.5.5 | nodeenv | 1.7.0 |
notebook | 6.4.12 | numpy | 1.21.5 | أواتهليب | 3.2.0 |
التغليف | 21.3 | pandas | 1.4.4 | عوامل تصفية pandocfilter | 1.5.0 |
parso | 0.8.3 | pathspec | 0.9.0 | بتسي | 0.5.2 |
pexpect | 4.8.0 | pickleshare | 0.7.5 | مخدة | 9.2.0 |
pip | 22.2.2 | المنصات | 2.5.2 | بشكل مخطط | 5.9.0 |
توصيل | 1.0.0 | prometheus-client | 0.14.1 | مجموعة أدوات المطالبة | 3.0.36 |
protobuf | 3.19.4 | psutil | 5.9.0 | psycopg2 | 2.9.3 |
عملية ptyprocess | 0.7.0 | تقييم خالص | 0.2.2 | pyarrow | 8.0.0 |
pycparser | 2.21 | pydantic | 1.10.6 | pyflakes | 3.0.1 |
Pygments | 2.11.2 | PyGObject | 3.42.1 | PyJWT | 2.3.0 |
pyodbc | 4.0.32 | pyparsing | 3.0.9 | تمام | 1.1.294 |
pyrsistent | 0.18.0 | python-dateutil | 2.8.2 | python-lsp-jsonrpc | 1.0.0 |
خادم python-lsp | 1.7.1 | تكوين pytool | 1.2.2 | pytz | 2022.1 |
pyzmq | 23.2.0 | الطلبات | 2.28.1 | حبل | 1.7.0 |
s3transfer | 0.6.0 | scikit-learn | 1.1.1 | شفرة | 1.9.1 |
بحر محمول | 0.11.2 | مخزن البيانات السرية | 3.3.1 | Send2Trash | 1.8.0 |
أدوات الإعداد | 63.4.1 | ستة | 1.16.0 | شوربة الحساء | 2.3.1 |
ssh-import-id | 5.11 | بيانات المكدس | 0.6.2 | نماذج الإحصائيات | 0.13.2 |
مثابره | 8.1.0 | terminado | 0.13.1 | مسار الاختبار | 0.6.0 |
threadpoolctl | 2.2.0 | tokenize-rt | 4.2.1 | tomli | 2.0.1 |
اعصار | 6.1 | سمات السمات | 5.1.1 | typing_extensions | 4.3.0 |
ujson | 5.4.0 | ترقيات غير مراقبة | 0.1 | urllib3 | 1.26.11 |
virtualenv | 20.16.3 | wadllib | 1.3.6 | wcwidth | 0.2.5 |
ترميزات الويب | 0.5.1 | whatthepatch | 1.0.2 | دولاب | 0.37.1 |
عنصر واجهة المستخدم | 3.6.1 | yapf | 0.31.0 | zipp | 1.0.0 |
مكتبات R المثبتة
يتم تثبيت مكتبات R من لقطة Microsoft CRAN على 2023-02-10.
مكتبة | إصدار | مكتبة | إصدار | مكتبة | إصدار |
---|---|---|---|---|---|
سهم | 10.0.1 | askpass | 1.1 | assertthat | 0.2.1 |
backports | 1.4.1 | الأساس | 4.2.2 | base64enc | 0.1-3 |
بت | 4.0.5 | bit64 | 4.0.5 | كائن ثنائي كبير الحجم | 1.2.3 |
boot | 1.3-28 | المشروب | 1.0-8 | بريو | 1.1.3 |
broom | 1.0.3 | bslib | 0.4.2 | ذاكرة التخزين المؤقت | 1.0.6 |
callr | 3.7.3 | علامة إقحام | 6.0-93 | cellranger | 1.1.0 |
كرون | 2.3-59 | فئة | 7.3-21 | cli | 3.6.0 |
clipr | 0.8.0 | ساعة | 0.6.1 | نظام مجموعة | 2.1.4 |
codetools | 0.2-19 | colorspace | 2.1-0 | العلامة الشائعة | 1.8.1 |
compiler | 4.2.2 | config | 0.3.1 | cpp11 | 0.4.3 |
crayon | 1.5.2 | بيانات الاعتماد | 1.3.2 | curl | 5.0.0 |
data.table | 1.14.6 | مجموعات البيانات | 4.2.2 | DBI | 1.1.3 |
dbplyr | 2.3.0 | تنازلي | 1.4.2 | devtools | 2.4.5 |
diffobj | 0.3.5 | digest | 0.6.31 | إضاءة هابطة | 0.4.2 |
dplyr | 1.1.0 | dtplyr | 1.2.2 | e1071 | 1.7-13 |
علامة الحذف | 0.3.2 | التقييم | 0.20 | fansi | 1.0.4 |
مسافة بعيدة | 2.1.1 | خريطة سريعة | 1.1.0 | fontawesome | 0.5.0 |
forcats | 1.0.0 | Foreach | 1.5.2 | foreign | 0.8-82 |
زور | 0.2.0 | fs | 1.6.1 | future | 1.31.0 |
future.apply | 1.10.0 | تغرغر | 1.3.0 | generics | 0.1.3 |
غيرت | 1.9.2 | ggplot2 | 3.4.0 | غ | 1.3.1 |
صور gitcred | 0.1.2 | glmnet | 4.1-6 | عموميات | 0.16.2 |
glue | 1.6.2 | googledrive | 2.0.0 | googlesheets4 | 1.0.1 |
gower | 1.0.1 | graphics | 4.2.2 | grDevices | 4.2.2 |
grid | 4.2.2 | gridExtra | 2.3 | gsubfn | 0.7 |
gtable | 0.3.1 | هاردات | 1.2.0 | haven | 2.5.1 |
highr | 0.10 | hms | 1.1.2 | htmltools | 0.5.4 |
htmlwidgets | 1.6.1 | httpuv | 1.6.8 | httr | 1.4.4 |
ids | 1.0.1 | ini | 0.3.1 | ipred | 0.9-13 |
isoband | 0.2.7 | iterators | 1.0.14 | jquerylib | 0.1.4 |
jsonlite | 1.8.4 | KernSmooth | 2.23-20 | knitr | 1.42 |
labeling | 0.4.2 | فيما بعد | 1.3.0 | lattice | 0.20-45 |
lava | 1.7.1 | دورة الحياة | 1.0.3 | listenv | 0.9.0 |
lubridate | 1.9.1 | magrittr | 2.0.3 | markdown | 1.5 |
MASS | 7.3-58.2 | مصفوفة | 1.5-1 | المذكرة | 2.0.1 |
الأساليب | 4.2.2 | mgcv | 1.8-41 | mime | 0.12 |
واجهة مستخدم مصغرة | 0.1.1.1 | ModelMetrics | 1.2.2.2 | modelr | 0.1.10 |
munsell | 0.5.0 | nlme | 3.1-162 | nnet | 7.3-18 |
numDeriv | 2016.8-1.1 | openssl | 2.0.5 | parallel | 4.2.2 |
بالتوازي | 1.34.0 | pillar | 1.8.1 | pkgbuild | 1.4.0 |
pkgconfig | 2.0.3 | pkgdown | 2.0.7 | pkgload | 1.3.2 |
plogr | 0.2.0 | plyr | 1.8.8 | مدح | 1.0.0 |
prettyunits | 1.1.1 | بروك | 1.18.0 | processx | 3.8.0 |
prodlim | 2019.11.13 | ملفات تعريفية | 0.3.7 | التقدم | 1.2.2 |
متدرج التقدم | 0.13.0 | الوعود | 1.2.0.1 | proto | 1.0.0 |
الوكيل | 0.4-27 | ps | 1.7.2 | purrr | 1.0.1 |
r2d3 | 0.2.6 | R6 | 2.5.1 | رعوج | 1.2.5 |
randomForest | 4.7-1.1 | طيور الراب | 0.3.3 | rcmdcheck | 1.4.0 |
RColorBrewer | 1.1-3 | Rcpp | 1.0.10 | RcppEigen | 0.3.3.9.3 |
readr | 2.1.3 | readxl | 1.4.2 | recipes | 1.0.4 |
rematch | 1.0.1 | إعادة المباراة2 | 2.1.2 | أجهزة التحكم عن بعد | 2.4.2 |
reprex | 2.0.2 | reshape2 | 1.4.4 | rlang | 1.0.6 |
rmarkdown | 2.20 | RODBC | 1.3-20 | roxygen2 | 7.2.3 |
rpart | 4.1.19 | rprojroot | 2.0.3 | Rserve | 1.8-12 |
RSQLite | 2.2.20 | rstudioapi | 0.14 | تحويلات | 2.1.2 |
rvest | 1.0.3 | ساس | 0.4.5 | scales | 1.2.1 |
selectr | 0.4-2 | معلومات الجلسة | 1.2.2 | شكل | 1.4.6 |
بَرَّاق | 1.7.4 | قوالب المصدر | 0.1.7-1 | sparklyr | 1.7.9 |
سبارك | 3.4.0 | spatial | 7.3-15 | splines | 4.2.2 |
sqldf | 0.4-11 | SQUAREM | 2021.1 | stats | 4.2.2 |
stats4 | 4.2.2 | stringi | 1.7.12 | stringr | 1.5.0 |
survival | 3.5-3 | sys | 3.4.1 | الشبكات الأساسية للنظام | 1.0.4 |
tcltk | 4.2.2 | اختبار الذي | 3.1.6 | تشكيل النص | 0.3.6 |
tibble | 3.1.8 | tidyr | 1.3.0 | tidyselect | 1.2.0 |
tidyverse | 1.3.2 | تغيير الوقت | 0.2.0 | timeDate | 4022.108 |
tinytex | 0.44 | الأدوات | 4.2.2 | tzdb | 0.3.0 |
محدد موقع المعلومات (urlchecker) | 1.0.1 | استخدام هذا | 2.1.6 | utf8 | 1.2.3 |
utils | 4.2.2 | uuid | 1.1-0 | vctrs | 0.5.2 |
viridisLite | 0.4.1 | غرفة vroom | 1.6.1 | والدو | 0.4.0 |
whisker | 0.4.1 | withr | 2.5.0 | xfun | 0.37 |
xml2 | 1.3.3 | xopen | 1.0.0 | xtable | 1.8-4 |
yaml | 2.3.7 | zip | 2.2.2 |
مكتبات Java و Scala المثبتة (إصدار مجموعة Scala 2.12)
معرف مجموعة | معرف البيانات الاصطناعية | إصدار |
---|---|---|
antlr | antlr | 2.7.7 |
com.amazonaws | amazon-kinesis-client | 1.12.0 |
com.amazonaws | aws-java-sdk-autoscaling | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudformation | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudfront | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudhsm | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudsearch | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudtrail | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudwatch | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.390 |
com.amazonaws | aws-java-sdk-codedeploy | 1.12.390 |
com.amazonaws | aws-java-sdk-cognitoidentity | 1.12.390 |
com.amazonaws | aws-java-sdk-cognitosync | 1.12.390 |
com.amazonaws | aws-java-sdk-config | 1.12.390 |
com.amazonaws | aws-java-sdk-core | 1.12.390 |
com.amazonaws | aws-java-sdk-datapipeline | 1.12.390 |
com.amazonaws | aws-java-sdk-directconnect | 1.12.390 |
com.amazonaws | aws-java-sdk-directory | 1.12.390 |
com.amazonaws | aws-java-sdk-dynamodb | 1.12.390 |
com.amazonaws | aws-java-sdk-ec2 | 1.12.390 |
com.amazonaws | aws-java-sdk-ecs | 1.12.390 |
com.amazonaws | aws-java-sdk-efs | 1.12.390 |
com.amazonaws | aws-java-sdk-elasticache | 1.12.390 |
com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.12.390 |
com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.12.390 |
com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.390 |
com.amazonaws | aws-java-sdk-emr | 1.12.390 |
com.amazonaws | aws-java-sdk-glacier | 1.12.390 |
com.amazonaws | aws-java-sdk-glue | 1.12.390 |
com.amazonaws | aws-java-sdk-iam | 1.12.390 |
com.amazonaws | aws-java-sdk-importexport | 1.12.390 |
com.amazonaws | aws-java-sdk-kinesis | 1.12.390 |
com.amazonaws | aws-java-sdk-kms | 1.12.390 |
com.amazonaws | aws-java-sdk-lambda | 1.12.390 |
com.amazonaws | aws-java-sdk-logs | 1.12.390 |
com.amazonaws | aws-java-sdk-machinelearning | 1.12.390 |
com.amazonaws | aws-java-sdk-opsworks | 1.12.390 |
com.amazonaws | aws-java-sdk-rds | 1.12.390 |
com.amazonaws | aws-java-sdk-redshift | 1.12.390 |
com.amazonaws | aws-java-sdk-route53 | 1.12.390 |
com.amazonaws | aws-java-sdk-s3 | 1.12.390 |
com.amazonaws | aws-java-sdk-ses | 1.12.390 |
com.amazonaws | aws-java-sdk-simpledb | 1.12.390 |
com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.390 |
com.amazonaws | aws-java-sdk-sns | 1.12.390 |
com.amazonaws | aws-java-sdk-sqs | 1.12.390 |
com.amazonaws | aws-java-sdk-ssm | 1.12.390 |
com.amazonaws | aws-java-sdk-storagegateway | 1.12.390 |
com.amazonaws | aws-java-sdk-sts | 1.12.390 |
com.amazonaws | دعم aws-java-sdk | 1.12.390 |
com.amazonaws | مكتبات aws-java-sdk-swf | 1.11.22 |
com.amazonaws | مساحات عمل aws-java-sdk | 1.12.390 |
com.amazonaws | jmespath-java | 1.12.390 |
com.clearspring.analytics | استدر | 2.9.6 |
com.databricks | Rserve | 1.8-3 |
com.databricks | jets3t | 0.7.1-0 |
com.databricks.scalapb | compilerplugin_2.12 | 0.4.15-10 |
com.databricks.scalapb | scalapb-runtime_2.12 | 0.4.15-10 |
com.esotericsoftware | kryo مظلل | 4.0.2 |
com.esotericsoftware | سجل الحد الأدنى | 1.3.0 |
com.fasterxml | زميل | 1.3.4 |
com.fasterxml.jackson.core | التعليقات التوضيحية ل جاكسون | 2.14.2 |
com.fasterxml.jackson.core | جاكسون النواة | 2.14.2 |
com.fasterxml.jackson.core | جاكسون-databind | 2.14.2 |
com.fasterxml.jackson.dataformat | جاكسون-dataformat-cbor | 2.14.2 |
com.fasterxml.jackson.datatype | جاكسون-datatype-joda | 2.14.2 |
com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.13.4 |
com.fasterxml.jackson.module | jackson-module-paranamer | 2.14.2 |
com.fasterxml.jackson.module | jackson-module-scala_2.12 | 2.14.2 |
com.github.ben-manes.كافيين | كافايين | 2.9.3 |
com.github.fommil | أداة تحميل jniloader | 1.1 |
com.github.fommil.netlib | native_ref-java | 1.1 |
com.github.fommil.netlib | native_ref-java | 1.1 من السكان الأصليين |
com.github.fommil.netlib | native_system-java | 1.1 |
com.github.fommil.netlib | native_system-java | 1.1 من السكان الأصليين |
com.github.fommil.netlib | netlib-native_ref-linux-x86_64 | 1.1 من السكان الأصليين |
com.github.fommil.netlib | netlib-native_system-linux-x86_64 | 1.1 من السكان الأصليين |
com.github.luben | zstd-jni | 1.5.2-5 |
com.github.wendykierp | JTransforms | 3.1 |
com.google.code.findbugs | jsr305 | 3.0.0 |
com.google.code.gson | gson | 2.8.9 |
com.google.crypto.tink | تينك | 1.7.0 |
com.google.errorprone | error_prone_annotations | 2.10.0 |
com.google.flatbuffers | flatbuffers-java | 1.12.0 |
com.google.guava | الجوافه | 15.0 |
com.google.protobuf | protobuf-java | 2.6.1 |
com.h2database | h2 | 2.1.214 |
com.helger | profiler | 1.1.1 |
com.jcraft | jsch | 0.1.55 |
com.jolbox | cp عظمي | 0.8.0.RELEASE |
com.lihaoyi | sourcecode_2.12 | 0.1.9 |
com.microsoft.azure | azure-data-lake-store-sdk | 2.3.9 |
com.microsoft.sqlserver | mssql-jdbc | 11.2.2.jre8 |
com.ning | ضغط lzf | 1.1.2 |
com.sun.mail | javax.mail | 1.5.2 |
com.sun.xml.bind | jaxb-core | 2.2.11 |
com.sun.xml.bind | jaxb-impl | 2.2.11 |
com.tdunning | json | 1.8 |
com.thoughtworks.paranamer | paranamer | 2.8 |
com.trueaccord.lenses | lenses_2.12 | 0.4.12 |
com.twitter | برد-java | 0.10.0 |
com.twitter | chill_2.12 | 0.10.0 |
com.twitter | util-app_2.12 | 7.1.0 |
com.twitter | util-core_2.12 | 7.1.0 |
com.twitter | util-function_2.12 | 7.1.0 |
com.twitter | util-jvm_2.12 | 7.1.0 |
com.twitter | util-lint_2.12 | 7.1.0 |
com.twitter | util-registry_2.12 | 7.1.0 |
com.twitter | util-stats_2.12 | 7.1.0 |
com.typesafe | config | 1.2.1 |
com.typesafe.scala-logging | scala-logging_2.12 | 3.7.2 |
com.uber | h3 | 3.7.0 |
com.univocity | محللات أحادية التكافؤ | 2.9.1 |
com.zaxxer | HikariCP | 4.0.3 |
commons-cli | commons-cli | 1.5.0 |
commons-codec | commons-codec | 1.15 |
المجموعات المشتركة | المجموعات المشتركة | 3.2.2 |
commons-dbcp | commons-dbcp | 1.4 |
commons-fileupload | commons-fileupload | 1.5 |
commons-httpclient | commons-httpclient | 3.1 |
commons-io | commons-io | 2.11.0 |
commons-lang | commons-lang | 2.6 |
تسجيل المشتركات | تسجيل المشتركات | 1.1.3 |
تجمع مشترك | تجمع مشترك | 1.5.4 |
dev.ludovic.netlib | arpack | 3.0.3 |
dev.ludovic.netlib | بلاس | 3.0.3 |
dev.ludovic.netlib | lapack | 3.0.3 |
info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
io.airlift | أداة ضغط الهواء | 0.21 |
io.delta | delta-sharing-spark_2.12 | 0.6.4 |
io.dropwizard.metrics | metrics-core | 4.2.10 |
io.dropwizard.metrics | metrics-graphite | 4.2.10 |
io.dropwizard.metrics | المقاييس-الفحوصات الصحية | 4.2.10 |
io.dropwizard.metrics | metrics-jetty9 | 4.2.10 |
io.dropwizard.metrics | metrics-jmx | 4.2.10 |
io.dropwizard.metrics | metrics-json | 4.2.10 |
io.dropwizard.metrics | metrics-jvm | 4.2.10 |
io.dropwizard.metrics | metrics-servlets | 4.2.10 |
io.netty | netty-all | 4.1.87.Final |
io.netty | netty-buffer | 4.1.87.Final |
io.netty | netty-codec | 4.1.87.Final |
io.netty | netty-codec-http | 4.1.87.Final |
io.netty | netty-codec-http2 | 4.1.87.Final |
io.netty | netty-codec-socks | 4.1.87.Final |
io.netty | netty-common | 4.1.87.Final |
io.netty | معالج netty | 4.1.87.Final |
io.netty | netty-handler-proxy | 4.1.87.Final |
io.netty | محلل netty | 4.1.87.Final |
io.netty | netty-transport | 4.1.87.Final |
io.netty | netty-transport-classes-epoll | 4.1.87.Final |
io.netty | netty-transport-classes-kqueue | 4.1.87.Final |
io.netty | netty-transport-native-epoll | 4.1.87.Final |
io.netty | netty-transport-native-epoll | 4.1.87.Final-linux-aarch_64 |
io.netty | netty-transport-native-epoll | 4.1.87.Final-linux-x86_64 |
io.netty | netty-transport-native-kqueue | 4.1.87.Final-osx-aarch_64 |
io.netty | netty-transport-native-kqueue | 4.1.87.Final-osx-x86_64 |
io.netty | netty-transport-native-unix-common | 4.1.87.Final |
io.prometheus | واجهة سطر الأوامر البسيطة | 0.7.0 |
io.prometheus | simpleclient_common | 0.7.0 |
io.prometheus | simpleclient_dropwizard | 0.7.0 |
io.prometheus | simpleclient_pushgateway | 0.7.0 |
io.prometheus | simpleclient_servlet | 0.7.0 |
io.prometheus.jmx | جامع | 0.12.0 |
jakarta.annotation | jakarta.annotation-api | 1.3.5 |
jakarta.servlet | jakarta.servlet-api | 4.0.3 |
jakarta.validation | jakarta.validation-api | 2.0.2 |
jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
javax.activation | التنشيط | 1.1.1 |
javax.el | javax.el-api | 2.2.4 |
javax.jdo | jdo-api | 3.0.1 |
javax.transaction | jta | 1.1 |
javax.transaction | واجهة برمجة تطبيقات المعاملات | 1.1 |
javax.xml.bind | jaxb-api | 2.2.11 |
التفاف دائري | التفاف دائري | 5.5.1 |
jline | jline | 2.14.6 |
joda-time | joda-time | 2.12.1 |
ml.combust.mleap | mleap-databricks-runtime_2.12 | v0.20.0-db2 |
net.java.dev.jna | jna | 5.8.0 |
net.razorvine | مخلل | 1.3 |
net.sf.jpam | jpam | 1.1 |
net.sf.opencsv | opencsv | 2.3 |
net.sf.supercsv | super-csv | 2.2.0 |
net.snowflake | snowflake-ingest-sdk | 0.9.6 |
net.snowflake | snowflake-jdbc | 3.13.22 |
net.sourceforge.f2j | arpack_combined_all | 0.1 |
org.acplt.remotetea | remotetea-oncrpc | 1.1.2 |
org.antlr | ST4 | 4.0.4 |
org.antlr | وقت تشغيل antlr | 3.5.2 |
org.antlr | وقت تشغيل antlr4 | 4.9.3 |
org.antlr | سلسلة قوالب | 3.2.1 |
org.apache.ant | نمل | 1.9.16 |
org.apache.ant | نملة-jsch | 1.9.16 |
org.apache.ant | ant-launcher | 1.9.16 |
org.apache.سهم | تنسيق السهم | 11.0.0 |
org.apache.سهم | ذاكرة أساسية للسهم | 11.0.0 |
org.apache.سهم | سهم-ذاكرة-netty | 11.0.0 |
org.apache.سهم | خط متجه للسهم | 11.0.0 |
org.apache.avro | avro | 1.11.1 |
org.apache.avro | avro-ipc | 1.11.1 |
org.apache.avro | avro-mapred | 1.11.1 |
org.apache.commons | commons-collections4 | 4.4 |
org.apache.commons | ضغط الشائعات | 1.21 |
org.apache.commons | commons-crypto | 1.1.0 |
org.apache.commons | commons-lang3 | 3.12.0 |
org.apache.commons | commons-math3 | 3.6.1 |
org.apache.commons | commons-text | 1.10.0 |
org.apache.curator | عميل أمين | 2.13.0 |
org.apache.curator | إطار عمل أمين | 2.13.0 |
org.apache.curator | وصفات أمين | 2.13.0 |
org.apache.datasketches | datasketches-java | 3.1.0 |
org.apache.datasketches | datasketches-memory | 2.0.0 |
org.apache.derby | الدربي | 10.14.2.0 |
org.apache.hadoop | وقت تشغيل عميل hadoop | 3.3.4 |
org.apache.hive | hive-beeline | 2.3.9 |
org.apache.hive | hive-cli | 2.3.9 |
org.apache.hive | hive-jdbc | 2.3.9 |
org.apache.hive | عميل hive-llap | 2.3.9 |
org.apache.hive | hive-llap-common | 2.3.9 |
org.apache.hive | hive-serde | 2.3.9 |
org.apache.hive | hive-shims | 2.3.9 |
org.apache.hive | hive-storage-api | 2.8.1 |
org.apache.hive.shims | hive-shims-0.23 | 2.3.9 |
org.apache.hive.shims | hive-shims-common | 2.3.9 |
org.apache.hive.shims | hive-shims-scheduler | 2.3.9 |
org.apache.httpcomponents | httpclient | 4.5.14 |
org.apache.httpcomponents | httpcore | 4.4.16 |
org.apache.ivy | لبلاب | 2.5.1 |
org.apache.logging.log4j | log4j-1.2-api | 2.19.0 |
org.apache.logging.log4j | log4j-api | 2.19.0 |
org.apache.logging.log4j | log4j-core | 2.19.0 |
org.apache.logging.log4j | log4j-slf4j2-impl | 2.19.0 |
org.apache.mesos | mesos | 1.11.0-shaded-protobuf |
org.apache.orc | orc-core | 1.8.3-shaded-protobuf |
org.apache.orc | orc-mapreduce | 1.8.3-shaded-protobuf |
org.apache.orc | orc-shims | 1.8.3 |
org.apache.thrift | libfb303 | 0.9.3 |
org.apache.thrift | libthrift | 0.12.0 |
org.apache.xbean | xbean-asm9-shaded | 4.22 |
org.apache.yetus | التعليقات التوضيحية للجمهور | 0.13.0 |
org.apache.zookeeper | zookeeper | 3.6.3 |
org.apache.zookeeper | zookeeper-jute | 3.6.3 |
org.checkerframework | مدقق كهومي | 3.19.0 |
org.codehaus.jackson | jackson-core-asl | 1.9.13 |
org.codehaus.jackson | جاكسون-mapper-asl | 1.9.13 |
org.codehaus.janino | محول برمجي مشترك | 3.0.16 |
org.codehaus.janino | جانينو | 3.0.16 |
org.datanucleus | datanucleus-api-jdo | 4.2.4 |
org.datanucleus | datanucleus-core | 4.1.17 |
org.datanucleus | datanucleus-rdbms | 4.1.19 |
org.datanucleus | javax.jdo | 3.2.0-m3 |
org.eclipse.jetty | عميل jetty | 9.4.50.v20221201 |
org.eclipse.jetty | متابعة jetty | 9.4.50.v20221201 |
org.eclipse.jetty | jetty-http | 9.4.50.v20221201 |
org.eclipse.jetty | jetty-io | 9.4.50.v20221201 |
org.eclipse.jetty | jetty-jndi | 9.4.50.v20221201 |
org.eclipse.jetty | jetty-plus | 9.4.50.v20221201 |
org.eclipse.jetty | وكيل jetty | 9.4.50.v20221201 |
org.eclipse.jetty | jetty-security | 9.4.50.v20221201 |
org.eclipse.jetty | خادم jetty | 9.4.50.v20221201 |
org.eclipse.jetty | jetty-servlet | 9.4.50.v20221201 |
org.eclipse.jetty | jetty-servlets | 9.4.50.v20221201 |
org.eclipse.jetty | jetty-util | 9.4.50.v20221201 |
org.eclipse.jetty | jetty-util-ajax | 9.4.50.v20221201 |
org.eclipse.jetty | jetty-webapp | 9.4.50.v20221201 |
org.eclipse.jetty | jetty-xml | 9.4.50.v20221201 |
org.eclipse.jetty.websocket | websocket-api | 9.4.50.v20221201 |
org.eclipse.jetty.websocket | عميل websocket | 9.4.50.v20221201 |
org.eclipse.jetty.websocket | websocket-common | 9.4.50.v20221201 |
org.eclipse.jetty.websocket | خادم websocket | 9.4.50.v20221201 |
org.eclipse.jetty.websocket | websocket-servlet | 9.4.50.v20221201 |
org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
org.glassfish.hk2 | hk2-api | 2.6.1 |
org.glassfish.hk2 | محدد موقع hk2 | 2.6.1 |
org.glassfish.hk2 | hk2-utils | 2.6.1 |
org.glassfish.hk2 | osgi-resource-locator | 1.0.3 |
org.glassfish.hk2.external | إعادة حزم الأوبالين | 2.6.1 |
org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
org.glassfish.jersey.containers | جيرسي حاوية-servlet | 2.36 |
org.glassfish.jersey.containers | جيرسي-حاوية-servlet-core | 2.36 |
org.glassfish.jersey.core | جيرسي-العميل | 2.36 |
org.glassfish.jersey.core | جيرسي المشتركة | 2.36 |
org.glassfish.jersey.core | خادم جيرسي | 2.36 |
org.glassfish.jersey.inject | جيرسي-hk2 | 2.36 |
org.hibernate.validator | مدقق الإسبات | 6.1.7.Final |
org.javassist | javassist | 3.25.0-GA |
org.jboss.logging | تسجيل jboss | 3.3.2.Final |
org.jdbi | jdbi | 2.63.1 |
org.jetbrains | التعليقات التوضيحية | 17.0.0 |
org.joda | joda-convert | 1.7 |
org.jodd | jodd-core | 3.5.2 |
org.json4s | json4s-ast_2.12 | 3.7.0-M11 |
org.json4s | json4s-core_2.12 | 3.7.0-M11 |
org.json4s | json4s-jackson_2.12 | 3.7.0-M11 |
org.json4s | json4s-scalap_2.12 | 3.7.0-M11 |
org.lz4 | lz4-java | 1.8.0 |
org.mariadb.jdbc | mariadb-java-client | 2.7.4 |
org.mlflow | mlflow-spark | 2.2.0 |
org.objenesis | داء objenesis | 2.5.1 |
org.postgresql | postgresql | 42.3.8 |
org.roaringbitmap | هديرBitmap | 0.9.39 |
org.roaringbitmap | الحشوات | 0.9.39 |
org.rocksdb | rocksdbjni | 7.8.3 |
org.rosuda.REngine | REngine | 2.1.0 |
org.scala-lang | scala-compiler_2.12 | 2.12.15 |
org.scala-lang | scala-library_2.12 | 2.12.15 |
org.scala-lang | scala-reflect_2.12 | 2.12.15 |
org.scala-lang.modules | scala-collection-compat_2.12 | 2.4.3 |
org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
org.scala-lang.modules | scala-xml_2.12 | 1.2.0 |
org.scala-sbt | واجهة الاختبار | 1.0 |
org.scalacheck | scalacheck_2.12 | 1.14.2 |
org.scalactic | scalactic_2.12 | 3.2.15 |
org.scalanlp | macros_2.12 | 2.1.0 |
org.scalanlp | breeze_2.12 | 2.1.0 |
org.scalatest | المتوافق مع التحجيم | 3.2.15 |
org.scalatest | scalatest-core_2.12 | 3.2.15 |
org.scalatest | scalatest-diagrams_2.12 | 3.2.15 |
org.scalatest | scalatest-featurespec_2.12 | 3.2.15 |
org.scalatest | scalatest-flatspec_2.12 | 3.2.15 |
org.scalatest | scalatest-freespec_2.12 | 3.2.15 |
org.scalatest | scalatest-funspec_2.12 | 3.2.15 |
org.scalatest | scalatest-funsuite_2.12 | 3.2.15 |
org.scalatest | scalatest-matchers-core_2.12 | 3.2.15 |
org.scalatest | scalatest-mustmatchers_2.12 | 3.2.15 |
org.scalatest | scalatest-propspec_2.12 | 3.2.15 |
org.scalatest | scalatest-refspec_2.12 | 3.2.15 |
org.scalatest | scalatest-shouldmatchers_2.12 | 3.2.15 |
org.scalatest | scalatest-wordspec_2.12 | 3.2.15 |
org.scalatest | scalatest_2.12 | 3.2.15 |
org.slf4j | jcl-over-slf4j | 2.0.6 |
org.slf4j | jul-to-slf4j | 2.0.6 |
org.slf4j | slf4j-api | 2.0.6 |
org.threeten | ثلاثتين إضافية | 1.7.1 |
org.tukaani | xz | 1.9 |
مستوى org.typelevel | algebra_2.12 | 2.0.1 |
مستوى org.typelevel | cats-kernel_2.12 | 2.1.1 |
مستوى org.typelevel | spire-macros_2.12 | 0.17.0 |
مستوى org.typelevel | spire-platform_2.12 | 0.17.0 |
مستوى org.typelevel | spire-util_2.12 | 0.17.0 |
مستوى org.typelevel | spire_2.12 | 0.17.0 |
org.wildfly.openssl | wildfly-openssl | 1.1.3.Final |
org.xerial | sqlite-jdbc | 3.42.0.0 |
org.xerial.snappy | snappy-java | 1.1.8.4 |
org.yaml | ثعبان الثعبان | 1.33 |
oro | oro | 2.0.8 |
pl.edu.icm | JLargeArrays | 1.5 |
software.amazon.cryptools | AmazonCorrettoCryptoProvider | 1.6.1-linux-x86_64 |
software.amazon.ion | ion-java | 1.0.2 |
stax | stax-api | 1.0.1 |