今すぐお試しください!

製品の詳細CData ODBC Driver for Apache Spark を確認して、無償評価版をダウンロード:

今すぐダウンロード

Alteryx DesignerにてSpark データを、データプレパレーション・データブレンディング・分析

セルフサービスデータアナリティクスのためのSpark へのライブ接続のWorkflowを構築

Spark 用のCData ODBCドライバは、ODBC標準のSpark からのライブデータへのアクセスを可能にし、使い慣れたSQL クエリで多種多様なBI、レポート、ETL ツールでSpark を扱うことができます 。 この記事では、セルフサービスBI、データプレパレーション、データブレンディング、アドバンスドアナリティクスを得意とするAlteryx Designer でODBC 接続を使用してSparkに接続して利用する方法を示します。

Spark データへの接続

  1. まだ行っていない場合は、データソース名(DSN)に必要な接続プロパティの値を入力します。 組み込みのMicrosoft ODBC データソースアドミニストレーターを使用してDSN を構成できます。 これは、ドライバのインストールじの最後のステップでも可能です。 Microsoft ODBC データソースアドミニストレータを使用してDSN を作成および設定する方法については、ヘルプドキュメントの「はじめに」の章を参照してください。

    SparkSQL への接続

    SparkSQL への接続を確立するには以下を指定します。

    • Server:SparkSQL をホストするサーバーのホスト名またはIP アドレスに設定。
    • Port:SparkSQL インスタンスへの接続用のポートに設定。
    • TransportMode:SparkSQL サーバーとの通信に使用するトランスポートモード。有効な入力値は、BINARY およびHTTP です。デフォルトではBINARY が選択されます。
    • AuthScheme:使用される認証スキーム。有効な入力値はPLAIN、LDAP、NOSASL、およびKERBEROS です。デフォルトではPLAIN が選択されます。

    Databricks への接続

    Databricks クラスターに接続するには、以下の説明に従ってプロパティを設定します。Note:The needed values can be found in your Databricks instance by navigating to 'Clusters', selecting the desired cluster, and selecting the JDBC/ODBC tab under 'Advanced Options'.

    • Server:Set to the Server Hostname of your Databricks cluster.
    • Port:443
    • TransportMode:HTTP
    • HTTPPath:Set to the HTTP Path of your Databricks cluster.
    • UseSSL:True
    • AuthScheme:PLAIN
    • User:'token' に設定。
    • Password:Set to your personal access token (value can be obtained by navigating to the User Settings page of your Databricks instance and selecting the Access Tokens tab).

  2. Alteryx Designer を開いて新しいワークフローを作成します。
  3. 新しいInput Data ToolをWorkflowにドラッグ&ドロップします。
  4. 新しい input data toolをクリックして、File or Database 下の「Database Connection -> New ODBC Connection...」を選択します。
  5. Alteryx用に定義下設定済みDSNを選択します。
  6. 開かれたウィザードの中で、クエリーに含めたいフィールドを選択します。
  7. Spark 内のデータを要件にあった内容で正確に取得しているかを確認する場合には、SQLEditor を開き、クエリーを手動で変更することができます。

クエリー定義で、Alteryx Designer 内でSpark への接続の準備ができました。

Spark に対するセルフサービス分析の実行

これで、Spark のデータプレパレーション、ブレんディング、分析を行うワークフローを作成する準備が整いました。 以下の例では、データを整理して参照します。

  1. workflow にデータクレンジングツールを追加し、Null テキストフィールドをブランクに置き換え、ヌル数値フィールドを0に置き換えるには、NULL を置き換えるのボックスをオンにします。また、不要な文字を削除するにチェックを入れて先頭と末尾の空白を削除することもできます。
  2. workflow にbrowse data tool を追加します。
  3. run the workflow (CTRL+R) をクリック。
  4. 結果ビューにてクレンジングされたSpark データを確認します。
 
 
ダウンロード