今すぐお試しください!

製品の詳細CData JDBC Driver for Apache Spark を確認して、無償評価版をダウンロード:

今すぐダウンロード

Aqua Data Studio からSpark データに連携

Spark データにAqua Data Studio のVisual Query Builder やTable Data Editor からデータ連携。

CData JDBC Driver for Spark は、Aqua Data Studio のようなIDE のウィザード・アナリティクスにSpark データを統合します。本記事では、Spark データをコネクションマネージャーに接続してクエリを実行する手順を説明します。

JDBC Data Source の設定

コネクションマネージャーで、新しいJDBC データソースとして、接続プロパティ設定を行い、保存します。Spark データがAqua Data Studio ツールから使えるようになります。

  1. Aqua Data Studio で、Server メニューから Register Server を選択します。
  2. Register Server フォームで、 'Generic - JDBC' コネクションを選びます。
  3. 次のJDBC 接続プロパティを設定します:
    • Name:任意の名前、データソースの名前など。
    • Driver Location:Browse ボタンをクリックして、インストールディレクトリのlib フォルダの cdata.jdbc.sparksql.jar ファイルを選択します。
    • Driver:クラス名に cdata.jdbc.sparksql.SparkSQLDriver を入力。
    • URL:jdbc:sparksql: から始まるJDBC URL を入力します。接続プロパティをカンマ区切りで書きます。接続プロパティの詳細は、ヘルプドキュメントを参照してください。一般的な接続文字列は:

      jdbc:sparksql:Server=127.0.0.1;
  4. SparkSQL への接続

    SparkSQL への接続を確立するには以下を指定します。

    • Server:SparkSQL をホストするサーバーのホスト名またはIP アドレスに設定。
    • Port:SparkSQL インスタンスへの接続用のポートに設定。
    • TransportMode:SparkSQL サーバーとの通信に使用するトランスポートモード。有効な入力値は、BINARY およびHTTP です。デフォルトではBINARY が選択されます。
    • AuthScheme:使用される認証スキーム。有効な入力値はPLAIN、LDAP、NOSASL、およびKERBEROS です。デフォルトではPLAIN が選択されます。

    Databricks への接続

    Databricks クラスターに接続するには、以下の説明に従ってプロパティを設定します。Note:The needed values can be found in your Databricks instance by navigating to 'Clusters', selecting the desired cluster, and selecting the JDBC/ODBC tab under 'Advanced Options'.

    • Server:Set to the Server Hostname of your Databricks cluster.
    • Port:443
    • TransportMode:HTTP
    • HTTPPath:Set to the HTTP Path of your Databricks cluster.
    • UseSSL:True
    • AuthScheme:PLAIN
    • User:'token' に設定。
    • Password:Set to your personal access token (value can be obtained by navigating to the User Settings page of your Databricks instance and selecting the Access Tokens tab).

Spark データにクエリを実行

接続したテーブルにクエリを実行してみます。

 
 
ダウンロード