製品をチェック

CData Connect Cloud の詳細情報はこちら。無償トライアルはこちら:

  無償トライアル

データ連携でお困りですか?

お問い合わせ

Azure Data Factory を使用してKafka データをインポート


CData Connect Cloud を使用してAzure Data Factory からKafka に接続し、リアルタイムKafka データをインポートします。


古川えりか
コンテンツスペシャリスト

kafka ロゴ画像

Connect Cloud

cloud ロゴ画像
Azure Data Factory ロゴ画像

Azure Data Factory(ADF)は、フルマネージドのサーバーレスデータ統合サービスです。 CData Connect Cloud と組み合わせると、ADF はデータフローでKafka データにクラウドベースで即座にアクセスできます。 この記事では、Connect Cloud を使用してKafka に接続し、ADF でKafka データにアクセスする方法を紹介します。

CData Connect Cloud は、Kafka にクラウドベースインターフェースを提供し、ネイティブにサポートされているデータベースにデータを複製することなく、Azure Data Factory でのリアルタイムKafka データへのアクセスを実現します。 CData Connect Cloud は、最適化されたデータ処理により、サポートされているすべてのSQL 操作(フィルタ、JOIN など)をKafka に直接プッシュし、サーバー側の処理を利用して要求されたKafka データを高速で返します。

Connect Cloud からKafka への接続

CData Connect Cloud では、直感的なクリック操作ベースのインターフェースを使ってデータソースに接続できます。

  1. Connect Cloud にログインし、 Add Connection をクリックします。
  2. Adding a Connection
  3. Add Connection パネルで「Kafka」を選択します。
  4. Selecting a data source
  5. 必要な認証プロパティを入力し、Kafka に接続します。

    BootstrapServers およびTopic プロパティを設定して、Apache Kafka サーバーのアドレスと、対話するトピックを指定します。

    認可メカニズム

    • SASL PlainUser およびPassword プロパティを指定する必要があります。AuthScheme は'Plain' に設定します。
    • SASL SSLUser およびPassword プロパティを指定する必要があります。AuthScheme は'Scram' に、UseSSL はtrue に設定します。
    • SSLSSLCert およびSSLCertPassword プロパティを指定する必要があります。UseSSL はtrue に設定します。
    • KerberosUser およびPassword プロパティを指定する必要があります。AuthScheme は'Kerberos' に設定します。

    サーバー証明書を信頼する必要がある場合があります。そのような場合は、必要に応じてTrustStorePath およびTrustStorePassword を指定してください。

    Configuring a connection (Salesforce is shown)
  6. Create & Test をクリックします。
  7. Add Kafka Connection ページのPermissions タブに移動し、ユーザーベースのアクセス許可を更新します。 Updating permissions

パーソナルアクセストークンの取得

OAuth 認証をサポートしていないサービス、アプリケーション、プラットフォーム、またはフレームワークから接続する場合は、認証に使用するパーソナルアクセストークン(PAT)を作成できます。 きめ細かなアクセス管理を行うために、サービスごとに個別のPAT を作成するのがベストプラクティスです。

  1. Connect Cloud アプリの右上にあるユーザー名をクリックし、「User Profile」をクリックします。
  2. User Profile ページでPersonal Access Token セクションにスクロールし、 Create PAT をクリックします。
  3. PAT の名前を入力して Create をクリックします。
  4. Creating a new PAT
  5. パーソナルアクセストークンは作成時にしか表示されないため、必ずコピーして安全に保存してください。

接続設定が完了すると、Azure Data Factory からKafka データへ接続できるようになります。

Azure Data Factory からリアルタイムKafka データにアクセス

Azure Data Factory からCData Connect Cloud の仮想SQL Server API への接続を確立するには、以下の手順を実行します。

  1. Azure Data Factory にログインします。
  2. Logging in to ADF
  3. まだData Factory を作成していない場合は、「New -> Dataset」をクリックします。
  4. Creating new data factory
  5. 検索バーにSQL Server と入力し、表示されたら選択します。次の画面で、サーバーの名前を入力します。 Linked service フィールドで「New」を選択します。
  6. Selecting SQL Server
  7. 接続設定を入力します。
    • Name - 任意の名前を入力。
    • Server name - 仮想SQL Server のエンドポイントとポートをカンマで区切って入力。例:tds.cdata.com,14333
    • Database name - 接続したいCData Connect Cloud データソースのConnection Name を入力。例:ApacheKafka1
    • User Name - CData Connect Cloud のユーザー名を入力。ユーザー名はCData Connect Cloud のインターフェースの右上に表示されています。 例:test@cdata.com
    • Password - Password(Azure Key Vault ではありません)を選択してSettings ページで生成したPAT を入力。
    • 「Create」をクリックします。
  8. Configuring new linked service
  9. Set properties で、Name を設定し、続けて先ほど作成したLinked service、利用可能なTable name、Import schema のfrom connection/store を選択します。 「OK」をクリックします。
  10. Setting the properties
  11. リンクされたサービスを作成すると、以下の画面が表示されます。
  12. Displaying the new screen
  13. Preview data をクリックすると、インポートされたKafka テーブルが表示されます。
  14. Previewing the imported table Azure Data Factory でデータフローを作成する際、このデータセットを使用できるようになりました。

CData Connect Cloud の入手

CData Connect Cloud の30日間無償トライアルを利用して、クラウドアプリケーションから直接100を超えるSaaS、ビッグデータ、NoSQL データソースへのSQL アクセスをお試しください!