Magic xpi からCData ODBC Driver for Spark を使ってSpark につないでみた

詳細情報をご希望ですか?

無償トライアル:

ダウンロードへ

製品の詳細情報へ:

Apache Spark ODBC Driver

Apache Spark ODBC Driver は、ODBC 接続をサポートするさまざまなアプリケーションからApache Spark データへの接続を実現するパワフルなツールです。

標準SQL とSpark SQL をマッピングして、SQL-92 で直接Apache Spark にアクセス。



CData ODBC Driver for Spark を使って、Spark へのデータ連携をMagic xpi から行うことができます。Magic xpi の「データマッパー」機能を使って、Spark のデータをMagic xpi で使ってみましょう。

ノーコードでデータを連携・同期・統合するデータ連携(EAI)ツール「Magic xpi」には、ODBC でデータベースへ接続する機能が備わっているので、これを使ってSpark データ連携を行うことが可能です。 通常、Spark などのSaaS として提供されるアプリケーションにはWeb API でアクセスしますが、CData Spark ODBC Driver によって、RDB にアクセスするのと同感覚で、Spark のデータを扱うことができます。


※製品について詳しい情報をご希望の方は以下からお進みください。

プロジェクトの作成、および、ODBCの接続設定

Magic xpi スタジオにてプロジェクトを作成して、ODBC接続設定を行います。

  1. Magic xpi スタジオを起動してメニューバーからファイル > 新規 を選択します。新規プロジェクトウィンドウが起動したらプロジェクト名を指定して新規プロジェクトを作成します。
  2. メニューバーからプロジェクト > リソース を選択します。リソース設定ウィンドウが起動したら左下の「新規」ボタンをクリックします。
  3. 新規リソースウィンドウにて、リソースタイプを「Database」を選択、リソース名にCDataSparkを指定して「OK」ボタンをクリックします。
  4. リソース設定ウィンドウにて、DBMSには「ODBC」、データソース名には、Microsoft ODBC データソースアドミニストレーターのシステムDSNで定義されたデータソース名(DSN)、例えば「CData Spark Source」などを設定します。
    Microsoft ODBC データソースアドミニストレーターを使ってDSN を作成および設定する方法は、CData Sparkのヘルプドキュメントの「はじめに」をご参照ください。

    一般的な接続文字列は次のとおりです:

    • Server
    Microsoft ODBC データソースアドミニストレーターで必要なプロパティを設定する方法は、ヘルプドキュメントの「はじめに」をご参照ください。

    SparkSQL への接続

    SparkSQL への接続を確立するには以下を指定します。

    • Server:SparkSQL をホストするサーバーのホスト名またはIP アドレスに設定。
    • Port:SparkSQL インスタンスへの接続用のポートに設定。
    • TransportMode:SparkSQL サーバーとの通信に使用するトランスポートモード。有効な入力値は、BINARY およびHTTP です。デフォルトではBINARY が選択されます。
    • AuthScheme:使用される認証スキーム。有効な入力値はPLAIN、LDAP、NOSASL、およびKERBEROS です。デフォルトではPLAIN が選択されます。

    Databricks への接続

    Databricks クラスターに接続するには、以下の説明に従ってプロパティを設定します。Note:必要な値は、「クラスター」に移動して目的のクラスターを選択し、 「Advanced Options」の下にある「JDBC/ODBC」タブを選択することで、Databricks インスタンスで見つけることができます。

    • Server:Databricks クラスターのサーバーのホスト名に設定。
    • Port:443
    • TransportMode:HTTP
    • HTTPPath:Databricks クラスターのHTTP パスに設定。
    • UseSSL:True
    • AuthScheme:PLAIN
    • User:'token' に設定。
    • Password:個人用アクセストークンに設定(値は、Databricks インスタンスの「ユーザー設定」ページに移動して「アクセストークン」タブを選択することで取得できます)。

    「検証」ボタンをクリックしてデータベースとの接続が成功することを確認して、リソース設定ウィンドウを「OK」ボタンをクリックして終了します。

Spark データをCSV ファイルへ出力するフローの作成

Magic xpi スタジオにて、データマッパーコンポーネントを使用してSpark データをCSV ファイルへ出力するフローを作成します。

  1. プロジェクト内に作成されたフローを右クリックして、特性を選択します。フロー特性ウィンドウが起動したら自動起動をYesに変更して「OK」ボタンをクリックします。
  2. トリガコンポーネントが「自動起動」に設定されたことを確認します。コンポーネント内のデータマッパーを右側のペインにドラッグ&ドロップします。
  3. データマッパーウィンドウが起動するので「構成」ボタンをクリックします。
  4. 送り元/送り先管理ウィンドウが開くので、送り元のタイプをDatabase、送り先のタイプをフラットファイルに設定します。
  5. 送り元の「特性」ボタンをクリックして、データベーススキーマ特性ウィンドウにてDB オペレーションで「Select」を選択、データベース定義で「CDataSpark」を選択して「ウィザード」ボタンをクリックします。
  6. 使用可能テーブルからテーブルを選択して「追加」ボタンをクリックして選択済テーブルに追加されたことを確認して「次へ」ボタンをクリックします。
  7. データベースウィザードにて出力したいカラムを使用可能カラムから「追加」ボタンをクリックして選択済カラムに追加されたことを確認して「次へ」ボタンをクリックします。 Where 句とOrder By 句の定義ウィンドウが表示されるので必要であれば設定して「次へ」ボタンをクリックします。
  8. ウィザードの結果にてSQL が表示されます。誤りがなければ「終了」ボタンをクリックします。
  9. 次に、送り先の「特性」ボタンをクリックして、フラットファイルウィンドウにてデータの送り先で「ファイル」を選択、右横のウィンドウにパス付の出力ファイル名を入力します。 下段の「新規」ボタンを、出力するカラム数分クリックして出力項目を定義します。出力項目に併せて必要に応じて型や桁数を定義してください。
  10. 送り元/送り先管理ウィンドウに戻り「マップ」ボタンをクリックします。
  11. 「マップ」ウィンドウが起動するので、送り元から送り先の項目へのドラッグ&ドロップ操作で線でつなぎます。「OK」ボタンをクリックします。 送り元/送り先管理ウィンドウに戻り「OK」ボタンをクリックします。

Magic xpi スタジオからのテスト実行

Magic xpi スタジオから作成したフローを実行します。

  1. メニューバーからデバッガ > 開く を選択します。チェック処理が実行され正常に終了すると、メニューバーからデバッガ > 実行 が活性化されるので選択します。
  2. フローが実行されて正常に終了すると送り先のフラットファイルウィンドウで指定したファイルが作成されてSpark 内の指定したカラムのデータが出力されていることを確認できます。