次の方法で共有


統合の概要

多くのデータ コネクタ、ツール、統合は、インジェスト、オーケストレーション、出力、データ クエリのプラットフォームとシームレスに連携します。 この記事では、使用可能なコネクタ、ツール、および統合の概要について説明します。 コネクタごとに、詳細な情報とその完全なドキュメントへのリンクを確認できます。

特定の種類の統合に関する概要ページの場合は、次のボタンのいずれかを選択します。

比較テーブル

次のテーブルは、各項目の機能をまとめたものです。 コネクタまたはツールと統合に対応するタブを選択します。 各項目の名前は 、その詳細な説明にリンクされます。

次のテーブルは、利用可能なコネクタとその機能をまとめたものです。

名前 取り込み 輸出 調整 Query
Apache Kafka ✔️
Apache Flink ✔️
Apache Log4J 2 ✔️
Apache Spark ✔️ ✔️ ✔️
Azure Cosmos DB ✔️
Azureデータファクトリー ✔️ ✔️
Azure Event Grid ✔️
Azure Event Hubs ✔️
Azure Functions ✔️ ✔️
Azure IoT Hub ✔️
Azure Monitor ✔️
Azure Stream Analytics ✔️
クリブル ストリーム ✔️
Fluent Bit ✔️
JDBC ✔️
ロジック アプリ ✔️ ✔️ ✔️
Logstash ✔️
Matlab ✔️
nLog ✔️
ODBC ✔️
テレメトリを開く ✔️
Power Apps ✔️ ✔️
Power Automate(パワーオートメート) ✔️ ✔️ ✔️
Serilog ✔️
Splunk ✔️
Splunk ユニバーサル フォワーダー ✔️
Telegraf ✔️

詳しい説明

以降のセクションでは、コネクタ、ツール、統合について詳しく説明します。 コネクタまたはツールと統合に対応するタブを選択します。

Apache Kafka

Apache Kafka は、システム間やアプリケーション間で確実にデータを移動するリアルタイム ストリーミング データ パイプラインを構築するための分散ストリーミング プラットフォームです。 Kafka Connect は、Apache Kafka と他のデータ システムとの間でスケーラブルかつ高い信頼性でデータをストリーム配信するためのツールです。 Kafka Sink は Kafka からのコネクタとして機能し、コードを使用する必要はありません。 このコネクタは Confluent によってゴールド認定を受けています。つまり、品質、機能の完全性、標準への準拠、およびパフォーマンスに関する包括的なレビューとテストが行われます。

Apache Flink は、境界なしと境界ありのデータ ストリームに対するステートフルなコンピューティングのためのフレームワークおよび分散処理エンジンです。 コネクタを使用すると、Azure Data Explorer と Flink クラスター間でデータを移動するためのデータ シンクを実装できます。 Azure Data Explorer と Apache Flink を使用すると、データ ドリブン シナリオを対象とする高速でスケーラブルなアプリケーションを構築できます。 たとえば、機械学習 (ML)、ETL (抽出 - 読み込み - 変換)、および Log Analytics などです。

Apache Log4J 2

Log4J は、Apache Foundation によって管理される Java アプリケーションの一般的なログ記録フレームワークです。 Log4j 開発者は、ロガーの名前、ロガー レベル、メッセージ パターンに基づいて、任意の粒度で出力されるログ ステートメントを制御できます。 Apache Log4J 2 シンクを使用すると、ログ データをデータベースにストリーミングして、ログをリアルタイムで分析および視覚化できます。

Apache Spark

Apache Spark は、大規模なデータ処理のための統合された分析エンジンです。 Apache Spark コネクタ は、あらゆる Spark クラスターで実行できるオープン ソース プロジェクトです。 Spark クラスター間でデータを移動するためのデータ ソースとデータ シンクを実装します。 Apache Spark コネクタを使用すると、データドリブン シナリオを対象とする高速でスケーラブルなアプリケーションを構築できます。 たとえば、機械学習 (ML)、ETL (抽出 - 読み込み - 変換)、および Log Analytics などです。 コネクタを使用すると、データベースは、標準的な Spark のソースやシンクの操作、具体的には読み取り、書き込み、および writeStream のための有効なデータストアになります。

Apache Spark for Azure Synapse Analytics

Apache Spark は、ビッグ データ分析アプリケーションのパフォーマンスを向上させるためのメモリ内処理をサポートする並列処理フレームワークです。 Azure Synapse Analytics の Apache Spark は、Microsoft が Apache Spark をクラウドに実装したものです。 Azure Synapse Analytics 用の Apache Spark を使用して、Synapse Studio からデータベースにアクセスできます。

Azure Cosmos DB

Azure Cosmos DB は、Cosmos DB の変更フィードをリッスンし、データをデータベースに取り込むインジェスト パイプラインです。

Azure Data Factory

Azure Data Factory (ADF) は、さまざまなデータ ストアを統合し、データに対するアクティビティを実行するために使用できるクラウドベースのデータ統合サービスです。

Azure Event Grid

Event Grid インジェストは、Azure Storage をリッスンし、サブスクライブされたイベントが発生したときに情報をプルするようにデータベースを更新するパイプラインです。 Azure Storage (Blob Storage と ADLSv2) からの継続的なインジェストを構成するには、BLOB の作成または BLOB 名の変更された通知に 対して Azure Event Grid サブスクリプションを使用し、Azure Event Hubs 経由で通知をストリーミングします。

  • 機能: インジェスト
  • サポート対象のインジェストの種類: バッチ処理、ストリーミング
  • ユース ケース: イベント処理
  • ドキュメント:Event Grid データ接続

Azure Event Hubs

Azure Event Hubs は、ビッグ データのストリーミング プラットフォームであり、イベント インジェスト サービスです。 カスタマー マネージドの Event Hubs から継続的なインジェストを構成できます。

  • 機能: インジェスト
  • サポート対象のインジェストの種類: バッチ処理、ストリーミング
  • ドキュメント:Azure Event Hubs データ接続

Azure Functions

Azure Functions を使用すると、スケジュールに従って、またはイベントに応答して、クラウドでサーバーレス コードを実行できます。 Azure Functions の入力バインドと出力バインドを使用すると、データベースをワークフローに統合してデータを取り込み、データベースに対してクエリを実行できます。

Azure IoT Hub

Azure IoT Hub は、IoT アプリケーションとそれが管理するデバイス間の双方向通信のための中央メッセージ ハブとして機能する、クラウドでホストされるマネージド サービスです。 デバイスからクラウドへのメッセージの Event Hubs と互換性のある組み込みのエンドポイントを使用して、顧客が管理する IoT Hub からの継続的インジェストを構成できます。

  • 機能: インジェスト
  • サポート対象のインジェストの種類: バッチ処理、ストリーミング
  • ユース ケース: IoT データ
  • ドキュメント:IoT Hub データ接続

Azure Monitor

Azure Monitor エージェントは、データ収集規則を使用して、次の仮想マシン データを Azure Data Explorer に送信できます。

  • 性能カウンター
  • IIS ログ
  • Windows イベント ログ
  • Linux システム ログ
  • カスタム文字ログ
  • カスタム JSON ログ

詳細については、「 仮想マシンから Azure Data Explorer へのデータの収集」を参照してください

Azure Stream Analytics

Azure Stream Analytics は、複数のソースからの大量の高速ストリーミング データを同時に処理するように設計された、リアルタイムの分析および複合イベント処理エンジンです。

クリブル ストリーム

Cribl Stream は、あらゆるソースからマシン イベント データを安全に収集、処理、ストリームする処理エンジンです。 これを使用すると、分析対象である任意の宛先のデータを解析して処理できるようになります。

Fluent Bit(フルエントビット)

Fluent Bit は、さまざまなソースからログ、メトリック、トレースを収集するオープンソース エージェントです。 これにより、ストレージに送信する前に、イベント データをフィルター処理、変更、集計することができます。

JDBC

Java Database Connectivity (JDBC) は、データベースへの接続とクエリの実行に使われる Java API です。 JDBC を使って Azure Data Explorer に接続できます。

Logic Apps

Microsoft Logic Apps コネクタを使用すると、スケジュールされたタスクまたはトリガーされたタスクの一部としてクエリとコマンドを自動的に実行できます。

  • 機能: インジェスト、エクスポート
  • サポート対象のインジェストの種類: バッチ処理
  • ユース ケース: データ オーケストレーション
  • ドキュメント:Microsoft Logic Apps と Azure Data Explorer

Logstash

Logstash プラグイン を使用すると、後で分析するために Logstash のイベントを Azure Data Explorer データベースへと処理できます。

Matlab

MATLAB は、データの分析、アルゴリズムの開発、モデルの作成に使用されるプログラミングおよび数値コンピューティング プラットフォームです。 Azure Data Explorer でデータのクエリを実行するための認証トークンを MATLAB で取得できます。

NLog

NLog は、.NET Standard を含むさまざまな .NET プラットフォーム向けの、柔軟で無料のログ記録プラットフォームです。 NLog を使用すると、データベース、ファイル、コンソールなど、複数のターゲットに書き込みを行うことができます。 NLog を使用すると、その場でログ記録の構成を変更できます。 NLog シンクは、ログ メッセージをデータベースに送信できる NLog のターゲットです。 このプラグインにより、ログをクラスターにシンクする効率的な方法が可能になります。

ODBC

Open Database Connectivity (ODBC) は、データベース アクセスのために広く受け入れられているアプリケーション プログラミング インターフェイス (API) です。 Azure Data Explorer は、SQL Server 通信プロトコルのサブセット (MS-TDS) と互換性があります。 この互換性により、SQL Server 向けの ODBC ドライバーを Azure Data Explorer で使用できるようになります。

テレメトリを開く

OpenTelemetry コネクタ では、多くのレシーバーからデータベースへのデータの取り込みがサポートされています。 これは、ニーズに応じてエクスポートされたデータの形式をカスタマイズすることで、オープン テレメトリによって生成されたデータをデータベースに取り込むためのブリッジとして機能します。

Power Apps

Power Apps は、ビジネス データに接続するカスタム アプリを構築するための RAD (Rapid Application Development) 環境を提供する、アプリ、サービス、コネクタ、データ プラットフォームのスイートです。 Power Apps コネクタは、Azure Data Explorer に大規模かつ増大しているストリーミング データのコレクションがあり、このデータを利用するためにロー コードで、高機能なアプリを開発する場合に、特に便利です。

Power Automate

Power Automate は、ビジネス プロセスを自動化するために使用されるオーケストレーション サービスです。 Power Automate (以前の Microsoft Flow) のコネクタを使用すると、フローの調整とスケジュール設定や、通知とアラートの送信を、スケジュール設定されたタスクまたはトリガーされたタスクの一部として実行できます。

  • 機能: インジェスト、エクスポート
  • サポート対象のインジェストの種類: バッチ処理
  • ユース ケース: データ オーケストレーション
  • ドキュメント:Microsoft Power Automate コネクタ

Serilog(セリログ)

Serilog は、.NET アプリケーションの一般的なログ記録フレームワークです。 開発者は Serilog を使用して、ロガーの名前、ロガー レベル、およびメッセージ パターンに基づいて、任意の粒度で出力されるログ ステートメントを制御できます。 アペンダーとも呼ばれる Serilog シンクでは、ログ データをデータベースにストリーミングし、ログをリアルタイムで分析および視覚化できます。

Splunk

Splunk Enterprise は、多数のソースからデータを同時に取り込むことができるソフトウェア プラットフォームです。 Azure Data Explorer アドオン は、Splunk からクラスター内のテーブルにデータを送信します。

Splunk ユニバーサル フォワーダー

Telegraf

Telegraf は、ログ、メトリック、IoT データなどのテレメトリ データを収集、処理、書き込むためのメモリ占有領域を最小限に抑えたオープン ソースの軽量エージェントです。 Telegraf では、数百の入力および出力プラグインがサポートされています。 これは、オープン ソース コミュニティで広く使用され、適切にサポートされています。 出力プラグインは、Telegraf からのコネクタとして機能し、多くの種類の入力プラグインからデータベースへのデータのインジェストをサポートします。