مشاركة عبر


دليل مطور Apache Kafka لـ Azure Event Hubs

توفر هذه المقالة ارتباطات إلى المقالات التي تصف كيفية دمج تطبيقات Kafka مع مراكز الأحداث.

نظرة عامة

توفر مراكز الأحداث نقطة نهاية Kafka يمكن للتطبيقات الموجودة المستندة إلى Kafka استخدامها كبديل لتشغيل مجموعة Kafka الخاصة بك. تعمل مراكز الأحداث مع العديد من تطبيقات Kafka الموجودة لديك. لمزيد من المعلومات، راجع Event Hubs لـ Apache Kafka

قوالب التشغيل السريع

يمكنك العثور على التشغيل السريع في GitHub وفي مجموعة المحتوى هذه التي تساعدك على تكثيف نشاطك بسرعة على مراكز الأحداث Kafka.

يمكنك التشغيل السريع في GitHub

راجع التشغيل السريع في مستودع azure-event-hubs-for-kafka:

اللغة العميل / إطار العمل ‏‏الوصف
NET.

يوضح هذا التشغيل السريع كيفية إنشاء نقطة نهاية Kafka لمراكز الأحداث والاتصال بها باستخدام مثال منتج ومستهلك مكتوب بلغة C# باستخدام .NET Core 2.0.

تعتمد هذه العينة على عميل Apache Kafka.NET، تم تعديله للاستخدام مع مراكز الأحداث لـ Kafka.

Java يوضح هذا التشغيل السريع كيفية إنشاء نقطة نهاية Kafka لمراكز الأحداث والاتصال بها باستخدام مثال منتج ومستهلك مكتوب بلغة Java.
Node.js

يوضح هذا التشغيل السريع كيفية إنشاء نقطة نهاية Kafka لمراكز الأحداث والاتصال بها باستخدام مثال منتج ومستهلك مكتوب في Node.

تستخدم هذه العينة المكتبة العقدة-rdkafka.

Python

يوضح هذا التشغيل السريع كيفية إنشاء نقطة نهاية Kafka لمراكز الأحداث والاتصال بها باستخدام مثال للمنتج والمستهلك مكتوب بلغة python.

تعتمد هذه العينة على عميل بيثون Confluent's Apache Kafka، تم تعديله للاستخدام مع مراكز الأحداث لـ Kafka.

ذهب

يوضح هذا التشغيل السريع كيفية إنشاء نقطة نهاية Kafka لمراكز الأحداث والاتصال بها باستخدام مثال منتج ومستهلك مكتوب في Go.

تعتمد هذه العينة على عميل Confluent's Apache Kafka Golang، تم تعديله للاستخدام مع مراكز الأحداث لـ Kafka.

Sarama kafka Go يوضح هذا التشغيل السريع كيفية إنشاء نقطة نهاية Kafka لمراكز الأحداث والاتصال بها باستخدام مثال منتج ومستهلك مكتوب في Go باستخدام مكتبة عميل Sarama Kafka.
كافكا يوضح هذا التشغيل السريع كيفية إنشاء نقطة نهاية Kafka لمراكز الأحداث والاتصال بها باستخدام CLI الذي يأتي مجمعا مع توزيع Apache Kafka.
kcat kcat هو غير JVM سطر الأوامر المستهلك والمنتج على أساس librdkafka، شعبية بسبب سرعتها وبصمة صغيرة. يحتوي التشغيل السريع على تكوين عينة وعدة أوامر kafkacat لعينة بسيطة.

قم بالتشغيل السريع في DOCS

راجع التشغيل السريع: تدفق البيانات باستخدام "مراكز الأحداث" باستخدام بروتوكول Kafka في مجموعة المحتوى هذه، والذي يوفر إرشادات خطوة بخطوة حول كيفية التدفق إلى مراكز الأحداث. ستتعلم كيفية استخدام منتجيك ومستهلكيك للتحدث إلى مراكز أحداث بتغيير تكوين في تطبيقاتك فقط.

البرامج التعليمية

برنامج تعليمي في GitHub

انظر إلى البرنامج تعليمي في GitHub:

برنامج تعليمي ‏‏الوصف
Akka يوضح هذا البرنامج التعليمي كيفية التوصيل Akka في دفق البيانات بمراكز الأحداث التي تدعمها Kafka دون تغيير عملاء البروتوكول أو تشغيل نظام المجموعات الخاصة بك. هناك نوعان من البرامج التعليمية المنفصلة باستخدام JavaوScala لغات الكمبيوتر.
اتصال يرشدك هذا المستند من خلال دمج Kafka Connect مع Azure Event Hubs ونشر موصلات FileStreamSource وFileStreamSink الأساسية. على الرغم من أن هذه الموصلات ليست مخصصة للاستخدام الإنتاجي، فإنها توضح سيناريو Kafka Connect الشامل حيث تتنكر مراكز أحداث Azure كوسيط Kafka.
ملف beat يرشدك هذا المستند من خلال دمج Filebeat ومراكز الأحداث عبر إخراج Kafka ل Filebeat.
وصلة يوضح هذا البرنامج التعليمي كيفية توصيل Apache Flink بمراكز الأحداث التي تدعم Kafka دون تغيير عملاء البروتوكول أو تشغيل أنظمة المجموعات الخاصة بك.
معرف الوصلة يرشدك هذا المستند من خلال دمج Fluentd ومراكز الأحداث باستخدام out_kafka المكون الإضافي للإخراج ل Fluentd.
Interop يوضح لك هذا البرنامج التعليمي طريقة تبادل الأحداث بين المستهلكين والمنتجين باستخدام بروتوكولات مختلفة.
Logstash يرشدك هذا البرنامج التعليمي من خلال دمج Logstash مع مراكز الأحداث التي تدعم Kafka باستخدام المكونات الإضافية لإدخال/إخراج Logstash Kafka.
MirrorMaker يبين هذا البرنامج التعليمي كيف يمكن لمراكز الأحداث وKaka MirrorMaker دمج تدفق Kafka الموجودة في Azure من خلال انعكاس تدفق مدخلات Kafka في خدمة مراكز الأحداث.
NiFi يوضح هذا البرنامج التعليمي كيفية توصيل Apache NiFi بمساحة اسم مراكز الأحداث.
OAuth التشغيل السريع يظهر كيف يتم إنشاء وتعين نقطة نهاية Kafka لمراكز الأحداث باستخدام مثال المنتج والمستهلك مكتوبة في Go ولغة Java.
سجل مخطط Confluent يرشدك هذا البرنامج التعليمي من خلال دمج سجل المخطط ومراكز الأحداث ل Kafka.
شراره يوضح هذا البرنامج التعليمي كيفية توصيل تطبيق Spark بمركز أحداث دون تغيير عملاء البروتوكول أو تشغيل مجموعات Kafka الخاصة بك.

البرنامج التعليمي في DOCS

أيضًا، راجع البرنامج التعليمي:معالجة Apache Kafka لأحداث مراكز الأحداث باستخدام تحليلات التدفقفي مجموعة المحتوى هذه، والتي تبين كيفية دفق البيانات إلى مراكز الأحداث ومعالجتها باستخدام Azure Stream Analytics.

الدلائل الإرشادية

راجع أدلة الإرشادات التالية في وثائقنا:

الفقرة ‏‏الوصف
النسخ المتطابق لوسيط Kafka في مركز أحداث يوضح كيفية عكس وسيط Kafka في مراكز الأحداث باستخدام Kafka MirrorMaker.
توصيل Apache Spark بمركز أحداث يرشدك خلال توصيل تطبيق Spark بمراكز الأحداث للبث في الوقت الحقيقي.
توصيل Apache Flink بمركز أحداث يظهر لك هذا البرنامج التعليمي كيفية توصيل Apache Flink بمركز أحداث دون تغيير عملاء البروتوكول أو تشغيل مجموعاتك الخاصة.
تكامل Apache Kafka Connect مع مراكز الأحداث يرشدك هذا البرنامج التعليمي خلال دمج Kafka Connect مع مراكز الأحداث إلى توزيع موصلات FileStreamSource الأساسية وFileStreamSink.
توصيل تدفقات Akka بمركز الأحداث يظهر لك هذا البرنامج التعليمي كيفية توصيل Apache Flink بمركز أحداث دون تغيير عملاء البروتوكول أو تشغيل نظام مجموعاتك الخاصة.
استخدام بداية التمهيد Apache Kafka مع مراكز الحدث Azure يوضح كيفية تكوين المستندات تيار شبكة النظير المستندة إلى Java التي تم إنشاؤها باستخدام مهيئ التمهيد لاستخدام Apache Kafka مع مراكز أحداث Azure.

الخطوات التالية

مراجعة العينات في GitHub repo azure لمركز الأحداث kafka تحت التشغيل السريع والمجلدات والبرنامج التعليمي.

أيضًا، راجع المقالات التالية: