各製品の資料を入手。
詳細はこちら →国産BI ツールのActionista! からSpark に直接連携してビジュアライズ
Actionista! からリアルタイムSpark のデータに直接連携して分析を実施。
最終更新日:2022-07-20
この記事で実現できるSpark 連携のシナリオ
こんにちは!テクニカルディレクターの桑島です。
CData Driver for SparkSQL を使って、国産BIツールのActionista!(https://www.justsystems.com/jp/products/actionista/) からSpark のデータをノーコードで連携して利用できます。この記事では、間にETL/EAI ツールをはさむ方法ではなく、CData JDBC Driver for SparkSQL をActionista! 側に組み込むだけで連携を実現できます。
Actionista! からSpark のデータへの連携を設定
CData JDBC Driver for SparkSQL をActionista! に配置
- CData JDBC Driver for SparkSQL をActionista! と同じマシンにインストールします。
-
次にインストールした.jar ファイルを以下のパスに格納します:
ドライバー.jar ファイルのディレクトリ C:\Program Files\CData\CData JDBC Driver for SparkSQL 2019J\lib\cdata.jdbc.sparksql.jar
Actionista! 側のコピー先ディレクトリ C:\JUST\JustBI\jdbc - 次に、C:\JUST\JustBI\conf にあるdatamanager.properties プロパティファイルに今回使用するSpark のドライバークラスなどを以下のように指定します:
- これでActionista! へのドライバーの配置が完了しました。
# SparkSQL
loader.jdbc.displayName.SparkSQL = SparkSQL
loader.jdbc.initJdbcUrl.SparkSQL = jdbc:sparksql:
loader.jdbc.url.SparkSQL = jdbc:sparksql:
loader.jdbc.driver.SparkSQL = cdata.jdbc.sparksql.SparkSQLDriver
loader.jdbc.dbmsInfo.SparkSQL = cdata.jdbc.sparksql.SparkSQLDriver
Spark のデータをActionista! のキューブに取り込み
Actionista! ではデータの保持をキューブという単位で保存します。また、クエリでデータソースからデータを取得するのではなく、キューブに対してクエリを行います。このステップでは、Spark のデータをキューブに取り込み、分析で使えるようにします。
- Actionista! にログインします。
- 「DataManager」-> 「+キューブの新規作成」をクリックします。
- CData JDBC ドライバはRDB データソースとしてActionista! から利用できるので、「RDB」を選択します。
- 設定情報にSpark への接続に必要なプロパティを入れます:
- RDB の種類:には、上のステップでdisplayName で指定した名前をドロップダウンで選びます。
- 接続URL:Spark に接続するための認証情報をセミコロン区切りで入力します。
SparkSQL への接続
SparkSQL への接続を確立するには以下を指定します。
- Server:SparkSQL をホストするサーバーのホスト名またはIP アドレスに設定。
- Port:SparkSQL インスタンスへの接続用のポートに設定。
- TransportMode:SparkSQL サーバーとの通信に使用するトランスポートモード。有効な入力値は、BINARY およびHTTP です。デフォルトではBINARY が選択されます。
- AuthScheme:使用される認証スキーム。有効な入力値はPLAIN、LDAP、NOSASL、およびKERBEROS です。デフォルトではPLAIN が選択されます。
Databricks への接続
Databricks クラスターに接続するには、以下の説明に従ってプロパティを設定します。Note:必要な値は、「クラスター」に移動して目的のクラスターを選択し、 「Advanced Options」の下にある「JDBC/ODBC」タブを選択することで、Databricks インスタンスで見つけることができます。
- Server:Databricks クラスターのサーバーのホスト名に設定。
- Port:443
- TransportMode:HTTP
- HTTPPath:Databricks クラスターのHTTP パスに設定。
- UseSSL:True
- AuthScheme:PLAIN
- User:'token' に設定。
- Password:パーソナルアクセストークンに設定(値は、Databricks インスタンスの「ユーザー設定」ページに移動して「アクセストークン」タブを選択することで取得できます)。
jdbc:sparksql:Server=127.0.0.1;
- ユーザー名:接続するアカウントのユーザー名(URL に含めることも可)
- パスワード:接続するアカウントのパスワード(URL に含めることも可)
- 「接続」ボタンを押してSpark に接続します。
- Spark への接続が完了すると、JDBC Driver がSpark のスキーマを取得して、テーブル・ビューをプルダウンメニューに表示します。分析キューブで使用するテーブル・ビューを選択して、OK ボタンを押します。
- 選択したオブジェクトのカラムが表示されます。JDBC Driver は、Spark のデータのスキーマを検出してActionista! に渡すので、カラム名だけでなく、データ型の推定がすでになされています。ここで細かい型修正やデータの抽出条件を必要があれば設定して保存します。
- データマネージャー画面でSpark のデータを選択して、「+取り込み」ボタンを押すとデータがキューブに保存されます。これでキューブへのデータ登録が完了です。



Actionista! 上にSpark のデータのダッシュボードを作成する
それでは簡単なダッシュボードを作成していきます。
- 「Dashboard」-> 「ダッシュボードの新規作成」-> 「キューブから作成」をクリックします。
- 先ほど作成したSpark のデータのキューブを選択して、ダッシュボード名を任意で入力して、OK を押します。
- 左側にある明細パネルを右側のエリアにドラッグ&ドロップしますと、明細パネルの作成ウィンドウが表示されるので、Spark キューブから表示させる項目を選択します。
- そのままキューブのデータが表示することができます。ドリルダウンなどを行いたい場合は、サイドメニューにある分析パネルで作成してください。



CData JDBC Driver for SparkSQL をActionista! で使うことで、ノーコードでSpark のデータをビジュアライズできました。ぜひ、30日の無償評価版をお試しください。