مشاركة عبر


تشغيل خلايا دفتر الملاحظات وتصحيحها باستخدام Databricks Connect باستخدام ملحق Databricks ل Visual Studio Code

يمكنك تشغيل دفاتر الملاحظات وتصحيحها، خلية واحدة في كل مرة أو كل الخلايا في وقت واحد، ورؤية نتائجها في واجهة مستخدم Visual Studio Code باستخدام ملحق Databricks لتكامل Visual Studio Code Databricks Connect. يتم تشغيل جميع التعليمات البرمجية محليا، بينما يتم إرسال جميع التعليمات البرمجية التي تتضمن عمليات DataFrame على نظام المجموعة في مساحة عمل Azure Databricks البعيدة واستجابات التشغيل مرة أخرى إلى المتصل المحلي. يتم تصحيح جميع التعليمات البرمجية محليا، بينما يستمر تشغيل جميع التعليمات البرمجية Spark على نظام المجموعة في مساحة عمل Azure Databricks البعيدة. لا يمكن تصحيح أخطاء التعليمات البرمجية لمحرك Spark الأساسي مباشرة من العميل.

إشعار

تعمل هذه الميزة مع Databricks Runtime 13.3 وما فوق.

لتمكين تكامل Databricks Connect لدفاتر الملاحظات في ملحق Databricks ل Visual Studio Code، يجب تثبيت Databricks Connect في ملحق Databricks ل Visual Studio Code. راجع تصحيح التعليمات البرمجية باستخدام Databricks Connect لملحق Databricks ل Visual Studio Code.

تشغيل خلايا دفتر ملاحظات Python

بالنسبة إلى دفاتر الملاحظات ذات أسماء الملفات التي تحتوي على .py ملحق، عند فتح دفتر الملاحظات في Visual Studio Code IDE، تعرض كل خلية أزرار تشغيل الخلية والتشغيل أعلاه وتصحيح أخطاء الخلية . أثناء تشغيل خلية، تظهر نتائجها في علامة تبويب منفصلة في IDE. أثناء تتبع الأخطاء، تعرض الخلية التي يتم تصحيح الأخطاء أزرار المتابعة والإيقاف والخطوة فوق. أثناء تتبع أخطاء خلية، يمكنك استخدام ميزات تصحيح أخطاء Visual Studio Code مثل مشاهدة حالات المتغيرات وعرض مكدس الاستدعاءات ووحدة تحكم التصحيح.

بالنسبة لدفاتر الملاحظات التي تحتوي على أسماء ملفات لها .ipynb ملحق، عند فتح دفتر الملاحظات في Visual Studio Code IDE، يحتوي دفتر الملاحظات وخلاياه على ميزات إضافية. راجع تشغيل الخلايا والعمل مع خلايا التعليمات البرمجية في محرر دفتر الملاحظات.

لمزيد من المعلومات حول تنسيقات دفتر الملاحظات لأسماء الملفات مع .py الملحقات و .ipynb ، راجع تصدير دفاتر ملاحظات Databricks واستيرادها.

تشغيل خلايا Python Jupyter noteboook

لتشغيل أو تصحيح أخطاء دفتر ملاحظات Python Jupyter (.ipynb):

  1. في مشروعك، افتح دفتر ملاحظات Python Jupyter الذي تريد تشغيله أو تصحيح الأخطاء. تأكد من أن ملف Python بتنسيق دفتر ملاحظات Jupyter ولديه الملحق .ipynb.

    تلميح

    يمكنك إنشاء دفتر ملاحظات Python Jupyter جديد عن طريق تشغيل >الأمر Create: New Jupyter Notebook من داخل لوحة الأوامر.

  2. انقر فوق تشغيل كافة الخلايا لتشغيل كافة الخلايا دون تصحيح الأخطاء، أو تنفيذ خلية لتشغيل خلية فردية مطابقة دون تصحيح الأخطاء، أو تشغيل سطرا لتشغيل خلية فردية سطرا تلو سطرا مع تصحيح أخطاء محدود، مع عرض قيم متغيرة في لوحة Jupyter (عرض > عرض عرض مفتوح > Jupyter).

    لتصحيح الأخطاء بالكامل داخل خلية فردية، قم بتعيين نقاط التوقف، ثم انقر فوق تصحيح الخلية في القائمة الموجودة بجانب زر تشغيل الخلية.

    بعد النقر فوق أي من هذه الخيارات، قد تتم مطالبتك بتثبيت تبعيات حزمة دفتر ملاحظات Python Jupyter المفقودة. انقر هنا للتثبيت.

    لمزيد من المعلومات، راجع Jupyter Notebooks في VS Code.

عموميات دفتر الملاحظات

يتم أيضا تمكين عموميات دفتر الملاحظات التالية:

  • spark، الذي يمثل مثيل databricks.connect.DatabricksSession، تم تكوينه مسبقا لإنشاء مثيل DatabricksSession عن طريق الحصول على بيانات اعتماد مصادقة Azure Databricks من الملحق. إذا تم DatabricksSession إنشاء مثيل بالفعل في التعليمات البرمجية لخلية دفتر الملاحظات، يتم استخدام هذه DatabricksSession الإعدادات بدلا من ذلك. راجع أمثلة التعليمات البرمجية ل Databricks Connect ل Python.

  • udf، تم تكوينه مسبقا باعتباره اسما مستعارا ل pyspark.sql.functions.udf، وهو اسم مستعار ل Python UDFs. راجع pyspark.sql.functions.udf.

  • sql، تم تكوينه مسبقا باعتباره اسما مستعارا ل spark.sql. spark، كما هو موضح سابقا، يمثل مثيلا مكونا مسبقا من databricks.connect.DatabricksSession. راجع Spark SQL.

  • dbutils، تم تكوينه مسبقا كمثيل ل Databricks Utilities، والذي يتم استيراده من databricks-sdk ويتم إنشاء مثيل له عن طريق الحصول على بيانات اعتماد مصادقة Azure Databricks من الملحق. راجع استخدام أدوات Databricks المساعدة.

    إشعار

    يتم دعم مجموعة فرعية فقط من أدوات Databricks المساعدة لدفاتر الملاحظات باستخدام Databricks Connect.

    لتمكين dbutils.widgets، يجب أولا تثبيت Databricks SDK ل Python عن طريق تشغيل الأمر التالي في المحطة الطرفية لجهاز التطوير المحلي:

    pip install 'databricks-sdk[notebook]'
    
  • display، تم تكوينه مسبقا باعتباره اسما مستعارا ل Jupyter builtin IPython.display.display. راجع IPython.display.display.

  • displayHTML، تم تكوينه مسبقا على أنه اسم مستعار ل dbruntime.display.displayHTML، وهو اسم مستعار ل display.HTML من ipython. راجع IPython.display.html.

سحر دفتر الملاحظات

يتم أيضا تمكين سحر دفتر الملاحظات التالي:

  • %fs، وهو نفس إجراء dbutils.fs المكالمات. راجع خلط اللغات.

  • %sh، الذي يقوم بتشغيل أمر باستخدام سحر %%script الخلية على الجهاز المحلي. لا يؤدي هذا إلى تشغيل الأمر في مساحة عمل Azure Databricks البعيدة. راجع خلط اللغات.

  • %md و %md-sandbox، الذي يقوم بتشغيل سحر %%markdownالخلية . راجع خلط اللغات.

  • %sql، الذي يعمل spark.sql. راجع خلط اللغات.

  • %pip، الذي يعمل pip install على الجهاز المحلي. لا يتم تشغيل pip install هذا في مساحة عمل Azure Databricks البعيدة. راجع إدارة المكتبات باستخدام أوامر ٪pip.

  • %run، الذي يقوم بتشغيل دفتر ملاحظات آخر. راجع تشغيل دفتر ملاحظات Databricks من دفتر ملاحظات آخر.

    إشعار

    لتمكين %run، يجب أولا تثبيت مكتبة nbformat عن طريق تشغيل الأمر التالي في المحطة الطرفية لجهاز التطوير المحلي:

    pip install nbformat
    

تتضمن الميزات الإضافية التي تم تمكينها ما يلي:

  • يتم تحويل Spark DataFrames إلى Pandas DataFrames، والتي يتم عرضها بتنسيق جدول Jupyter.

القيود

تتضمن قيود تشغيل الخلايا في دفاتر الملاحظات في Visual Studio Code ما يلي:

  • دفاتر الملاحظات سحرية %r %scala وغير مدعومة وتعرض خطأ إذا تم استدعاؤه. راجع خلط اللغات.
  • لا يعتمد سحر %sql دفتر الملاحظات بعض أوامر DML، مثل إظهار الجداول.