国産RPAツールWinActor でSpark データを連携したワークフローを作成

詳細情報をご希望ですか?

無償トライアル:

ダウンロードへ

製品の詳細情報へ:

Apache Spark ODBC Driver

Apache Spark ODBC Driver は、ODBC 接続をサポートするさまざまなアプリケーションからApache Spark データへの接続を実現するパワフルなツールです。

標準SQL とSpark SQL をマッピングして、SQL-92 で直接Apache Spark にアクセス。



Spark ODBC Driver を使って、WinActor からノーコードで連携シナリオを作成。

WinActor は、企業等の働き方改革・業務効率化に貢献するツールとして注目されているRPA ツールです。WinActor を使うことで、自動化シナリオをフローチャートを描くように開発することが可能です。

WinActor でCData ODBC Driver を使うことで、コーディングなしでWinActor からSpark への連携フローを設定することができます。WinActor は、ODBC Driver に対してSQL を発行し、CData ODBC Driver がSpark へのリアルタイムリクエストに変換、レスポンスをテーブルデータとして取得します。

この記事では、WinActor を使って、Spark に連携するRPA プログラムを作成します。

Spark データへの接続

  1. まずODBN DSN に必要な接続プロパティの値を入力します。 組み込みのMicrosoft ODBC データソースアドミニストレーターを使用してDSN を構成できます。 これは、ドライバのインストール時の最後のステップでも可能です。 Microsoft ODBC データソースアドミニストレータを使用してDSN を作成および設定する方法については、ヘルプドキュメントの「はじめに」の章を参照してください。

    SparkSQL への接続

    SparkSQL への接続を確立するには以下を指定します。

    • Server:SparkSQL をホストするサーバーのホスト名またはIP アドレスに設定。
    • Port:SparkSQL インスタンスへの接続用のポートに設定。
    • TransportMode:SparkSQL サーバーとの通信に使用するトランスポートモード。有効な入力値は、BINARY およびHTTP です。デフォルトではBINARY が選択されます。
    • AuthScheme:使用される認証スキーム。有効な入力値はPLAIN、LDAP、NOSASL、およびKERBEROS です。デフォルトではPLAIN が選択されます。

    Databricks への接続

    Databricks クラスターに接続するには、以下の説明に従ってプロパティを設定します。Note:必要な値は、「クラスター」に移動して目的のクラスターを選択し、 「Advanced Options」の下にある「JDBC/ODBC」タブを選択することで、Databricks インスタンスで見つけることができます。

    • Server:Databricks クラスターのサーバーのホスト名に設定。
    • Port:443
    • TransportMode:HTTP
    • HTTPPath:Databricks クラスターのHTTP パスに設定。
    • UseSSL:True
    • AuthScheme:PLAIN
    • User:'token' に設定。
    • Password:個人用アクセストークンに設定(値は、Databricks インスタンスの「ユーザー設定」ページに移動して「アクセストークン」タブを選択することで取得できます)。

入力後、接続テストが成功すれば設定は完了です。

WinActor でSpark へのDB 接続を構成

続いて WinActor でODBC への接続構成を行います。

  1. WinActor を立ち上げたら「データ一覧」のウインドウで「DB 連携」のボタンをクリックします。
  2. DB 連携ボタンをクリックすると、以下のようにODBC DSN の接続を設定するウインドウが表示されます。先程設定したODBC DSN に合わせて、接続情報を入力します。
  3. なお、テーブル名はODBC DSN 画面の「テーブル」タブで確認することができます。
  4. 接続が完了すると、以下のようにSpark のデータがWinActor に読み込まれます。

Spark のデータをWinActor で扱う

Spark データの取り込み完了後は変数として対象データにアクセスが可能です

  1. 例えば以下のように待機ボックスのアクションを配置し
  2. 変数名として取り込んだデータのカラム名を指定することで、対象のデータにアクセスすることが可能です。