製品をチェック

Apache Spark Driver の30日間無償トライアルをダウンロード

 30日間の無償トライアルへ

製品の詳細

Apache Spark アイコン Apache Spark JDBC Driver 相談したい

Apache Spark 連携のパワフルなJava アプリケーションを素早く作成して配布。

Mule アプリケーションからSpark データにアクセス:CData JDBC Driver

CData JDBC ドライバとHTTP、SQL を組み合わせれば、Spark データのJSON エンドポイントに接続できるMule アプリケーションを簡単に作成できます。

古川えりか
コンテンツスペシャリスト

最終更新日:2022-07-28
spark ロゴ

CData

jdbc ロゴ画像
MuleSoft Anypoint ロゴ

こんにちは!ドライバー周りのヘルプドキュメントを担当している古川です。

CData JDBC Driver for SparkSQL はSpark データをMule アプリケーションと連携することで、読み、書き、更新、削除といった機能をおなじみのSQL クエリを使って実現します。JDBC ドライバーを使えば、Spark データをバックアップ、変換、レポート作成、分析するMule アプリケーションをユーザーは簡単に作成できます。

本記事では、Mule プロジェクト内でCData JDBC Driver for SparkSQL を使用して、Spark データのWeb インターフェースを作成する方法を紹介します。作成したアプリケーションを使えば、HTTP 経由でSpark データをリクエストして、JSON 形式で結果を取得できます。まったく同様の手順で、すべてのCData JDBC ドライバで250 を超えるデータソースのWeb インターフェースを作成できます。手順は以下のとおりです。

  1. Anypoint Studio で新しいMule プロジェクトを作る。
  2. Message Flow にHTTP コネクタを追加する。
  3. HTTP コネクタのアドレスを設定する。 HTTP コネクタを追加・設定
  4. HTTP コネクタの追加後、Database Select コネクタを同じフローに追加する。
  5. データベースへの新しい接続を作成し(または既存の接続を編集し)、プロパティを設定する。
    • 接続を「Generic Connection」に設定
    • Required Libraries セクションでCData JDBC ドライバのJAR ファイルを指定する(例:cdata.jdbc.sparksql.jar)。 JAR ファイルを追加(Salesforce の場合)。
    • Spark の接続文字列にURL を指定

      SparkSQL への接続

      SparkSQL への接続を確立するには以下を指定します。

      • Server:SparkSQL をホストするサーバーのホスト名またはIP アドレスに設定。
      • Port:SparkSQL インスタンスへの接続用のポートに設定。
      • TransportMode:SparkSQL サーバーとの通信に使用するトランスポートモード。有効な入力値は、BINARY およびHTTP です。デフォルトではBINARY が選択されます。
      • AuthScheme:使用される認証スキーム。有効な入力値はPLAIN、LDAP、NOSASL、およびKERBEROS です。デフォルトではPLAIN が選択されます。

      Databricks への接続

      Databricks クラスターに接続するには、以下の説明に従ってプロパティを設定します。Note:必要な値は、「クラスター」に移動して目的のクラスターを選択し、 「Advanced Options」の下にある「JDBC/ODBC」タブを選択することで、Databricks インスタンスで見つけることができます。

      • Server:Databricks クラスターのサーバーのホスト名に設定。
      • Port:443
      • TransportMode:HTTP
      • HTTPPath:Databricks クラスターのHTTP パスに設定。
      • UseSSL:True
      • AuthScheme:PLAIN
      • User:'token' に設定。
      • Password:パーソナルアクセストークンに設定(値は、Databricks インスタンスの「ユーザー設定」ページに移動して「アクセストークン」タブを選択することで取得できます)。

      組み込みの接続文字列デザイナ

      JDBC 用のURL の作成にサポートが必要な場合は、Spark JDBC Driver に組み込まれた接続文字列デザイナを使用できます。JAR ファイルをダブルクリックするか、コマンドラインからJAR ファイルを実行してください。

      java -jar cdata.jdbc.sparksql.jar

      接続プロパティを入力して、接続文字列をクリップボードにコピーします。

    • Driver クラス名をcdata.jdbc.sparksql.SparkSQLDriver に指定します。 設定したデータベース接続(Salesforce の場合)。
    • 「接続テスト」をクリックします。
  6. SQL Query Text をSpark データをリクエストするためのSQL クエリに設定します。例えば、SELECT City, Balance FROM CustomersSelect オブジェクトを設定(Salesforce の場合)
  7. Transform Message コンポーネントをフローに追加します。
  8. Output スクリプトを次のように設定して、ペイロードをJSON に変換します。
    %dw 2.0
    output application/json
    ---
    payload
            
    Transform Message コンポーネントをフローに追加
  9. Spark データを閲覧するには、HTTP コネクタ用に設定したアドレスに移動します(デフォルトでは、localhost:8081):http://localhost:8081。Web ブラウザおよびJSON エンドポイントを使用可能な他のツール内で、Spark データをJSON として利用できます。

これで、カスタムアプリケーションおよび他のさまざまなBI、帳票、ETL ツールからSpark データを(JSON データとして)扱うための簡易なWeb インターフェースを作成できました。Mule アプリケーションからお好みのデータソースにアクセスできる、JDBC Driver for SparkSQL の30日の無償評価版のダウンロードはこちらから。

関連コンテンツ

トライアル・お問い合わせ

30日間無償トライアルで、CData のリアルタイムデータ連携をフルにお試しいただけます。記事や製品についてのご質問があればお気軽にお問い合わせください。