Connect to Spark from a Connection Pool in WebLogic

詳細情報をご希望ですか?

無償トライアル:

ダウンロードへ

製品の詳細情報へ:

Apache Spark JDBC Driver

Apache Spark 連携のパワフルなJava アプリケーションを素早く作成して配布。



Use the CData JDBC Driver for Spark to connect to Spark data from Web applications running on WebLogic.

The CData JDBC Driver for Spark enables you to follow standard procedures to integrate Spark data into Java Web applications. This article shows how to deploy the CData JDBC Driver for Spark in WebLogic server.

Install the JDBC Driver in WebLogic Server

Add the driver JAR and license file to the classpath your application will be using. The .lic file must be located in the same folder as the JAR. These files are located in the lib subfolder of the installation directory.

If you want to add the driver to all domains, add the JAR to the WEBLOGIC_CLASSPATH environment variable. add the following line to the commEnv.cmd/sh script in WL_HOME\common\bin\.

set WEBLOGIC_CLASSPATH=your-installation-directory\lib\cdata.jdbc.sparksql.jar;%WEBLOGIC_CLASSPATH%

If you want to add the driver to a specific domain, you will need to add the JAR to the PRE_CLASSPATH environment variable. Add the following line to the setDomainEnv.cmd/sh script in the bin subfolder of the folder for that domain:

set PRE_CLASSPATH=your-installation-directory\lib\cdata.jdbc.sparksql.jar;%PRE_CLASSPATH%

Create a JDBC Data Source for Spark

After installing the driver, create the connection.

  1. In the Domain Structure tree, click Services -> Data Sources -> New -> Generic Data Source.
  2. On the JDBC Data Source Properties page, enter the following information:
    • Name: Enter a user-friendly name; for example, sparksqljdbc.
    • JDBC Name: Enter the path the JDBC data source will be bound to; for example, jdbc/SparkSQL.
    • Database Type: Select Other.

  3. Click Next to use the default options. On the last page, enter the following information and click Test Configuration:

    • Driver Class Name: Enter the driver class, cdata.jdbc.sparksql.SparkSQLDriver, in this property.
    • URL: Enter the JDBC URL. A typical JDBC URL is below:

      jdbc:sparksql:Server=127.0.0.1;

      SparkSQL への接続

      SparkSQL への接続を確立するには以下を指定します。

      • Server:SparkSQL をホストするサーバーのホスト名またはIP アドレスに設定。
      • Port:SparkSQL インスタンスへの接続用のポートに設定。
      • TransportMode:SparkSQL サーバーとの通信に使用するトランスポートモード。有効な入力値は、BINARY およびHTTP です。デフォルトではBINARY が選択されます。
      • AuthScheme:使用される認証スキーム。有効な入力値はPLAIN、LDAP、NOSASL、およびKERBEROS です。デフォルトではPLAIN が選択されます。

      Databricks への接続

      Databricks クラスターに接続するには、以下の説明に従ってプロパティを設定します。Note:必要な値は、「クラスター」に移動して目的のクラスターを選択し、 「Advanced Options」の下にある「JDBC/ODBC」タブを選択することで、Databricks インスタンスで見つけることができます。

      • Server:Databricks クラスターのサーバーのホスト名に設定。
      • Port:443
      • TransportMode:HTTP
      • HTTPPath:Databricks クラスターのHTTP パスに設定。
      • UseSSL:True
      • AuthScheme:PLAIN
      • User:'token' に設定。
      • Password:個人用アクセストークンに設定(値は、Databricks インスタンスの「ユーザー設定」ページに移動して「アクセストークン」タブを選択することで取得できます)。

    • Database User Name: Enter the username, if not specified in the JDBC URL.
    • Password: Enter the password, if not specified in the JDBC URL.

After selecting the server where you want to deploy the JDBC data source, you can now connect to Spark data.

More WebLogic Integration

The steps above show how configure the driver in a simple connection pooling scenario. For more use cases and information, see the JDBC sections in the WebLogic Data Sources chapter of the Oracle Fusion Middleware documentation.