Oracle Data Integrator でSpark をETL

詳細情報をご希望ですか?

無償トライアル:

ダウンロードへ

製品の詳細情報へ:

Apache Spark JDBC Driver

Apache Spark 連携のパワフルなJava アプリケーションを素早く作成して配布。



この記事では、Oracle Data Integrator を使用してSpark をデータウェアハウスに転送する方法を説明します。

JDBC 標準を使用してconnectをSpark に接続することにより、基準のスキルを活用します。 Oracle Data Integrator (ODI) ののようなETL ツールへのドロップイン統合により、CData JDBC Driver for Spark は、リアルタイムSpark をデータウェアハウスやビジネスインテリジェンス、Big Data テクノロジーに接続します。

JDBC 接続により、ODI の他のデータベースと同じようにSpark を操作できます。RDBMS と同様に、フラットファイルを操作する代わりに、ドライバーを使用してSpark API にリアルタイムで直接接続できます。

この記事では、JDBC ベースのSpark データのETL からOracle へのロードまでについてを説明します。Spark エンティティのデータモデルをリバースエンジニアリングした後、マッピングを作成し、データ読み込み戦略を選択します。ドライバーはSQL-92 をサポートしているため、この最後のステップは、組み込みのSQL からSQL Loading Knowledge Module をセンタすることで簡単に実行できます。

ドライバーをインストール

ドライバーをインストールするには、インストールフォルダにあるドライバーJAR を.lic ファイルをODI userlib ディレクトリにコピーします。

Unix: ~/.odi/oracledi/userlib Windows %APPDATA%\Roaming\odi\oracledi\userlib

ODI を再起動してインストールを完了します。

モデルのリバースエンジニアリング

モデルをリバースエンジニアリングすると、Spark のドライバーのリレーショナルビューに関するメタデータが取得されます。リバースエンジニアリング後、リアルタイムのSpark をクエリし、Spark テーブルに基づいてマッピングを作成できます。

  1. ODI でリポジトリに接続し、[New]->[Model and Topology Objects]とクリックします。
  2. 表示されるダイアログの[Model]画面で、以下の情報を入力します。
    • Name:SparkSQL を入力します。
    • Technology:Generic SQL を選択します。(ODI がVersion 12.2+ の場合は、Microsoft SQL ServerW選択します。)
    • Logical Schema:SparkSQL を入力します。
    • Context:[Global]を選択します。
  3. 表示されるダイアログの[Data Server]画面で、以下の情報を入力します。
    • Name:SparkSQL を入力します。
    • Driver List:Oracle JDBC Driver を選択します。
    • Driver:cdata.jdbc.sparksql.SparkSQLDriver と入力します。
    • URL:接続文字列を含むJDBC URL を入力します。

      SparkSQL への接続

      SparkSQL への接続を確立するには以下を指定します。

      • Server:SparkSQL をホストするサーバーのホスト名またはIP アドレスに設定。
      • Port:SparkSQL インスタンスへの接続用のポートに設定。
      • TransportMode:SparkSQL サーバーとの通信に使用するトランスポートモード。有効な入力値は、BINARY およびHTTP です。デフォルトではBINARY が選択されます。
      • AuthScheme:使用される認証スキーム。有効な入力値はPLAIN、LDAP、NOSASL、およびKERBEROS です。デフォルトではPLAIN が選択されます。

      Databricks への接続

      Databricks クラスターに接続するには、以下の説明に従ってプロパティを設定します。Note:必要な値は、「クラスター」に移動して目的のクラスターを選択し、 「Advanced Options」の下にある「JDBC/ODBC」タブを選択することで、Databricks インスタンスで見つけることができます。

      • Server:Databricks クラスターのサーバーのホスト名に設定。
      • Port:443
      • TransportMode:HTTP
      • HTTPPath:Databricks クラスターのHTTP パスに設定。
      • UseSSL:True
      • AuthScheme:PLAIN
      • User:'token' に設定。
      • Password:個人用アクセストークンに設定(値は、Databricks インスタンスの「ユーザー設定」ページに移動して「アクセストークン」タブを選択することで取得できます)。

      ビルトイン接続文字列デザイナ

      JDBC URL の構成については、Spark JDBC Driver に組み込まれている接続文字列デザイナを使用してください。JAR ファイルのダブルクリック、またはコマンドラインからJAR ファイルを実行します。

      java -jar cdata.jdbc.sparksql.jar

      接続プロパティを入力し、接続文字列をクリップボードにコピーします。

      以下は一般的な接続文字列です。

      jdbc:sparksql:Server=127.0.0.1;
  4. [Physical Schema]画面で、以下の情報を入力します。
    • Schema (Schema):SparkSQL を入力します。
    • Schema (Work Schema):SparkSQL を入力します。
  5. 開いたモデルで、[Reverse Engineer]をクリックしてSpark テーブルのメタデータを取得します。

Spark データの編集・保存

リバースエンジニアリング後、ODI でSpark を操作できるようになります。 Spark を表示するには、Designer ナビゲーターでモデルアコーディオンを展開し、テーブルを右クリックして[View data]をクリックします。

ETL プロジェクトの作成

以下のステップに従って、Spark からETL を作成します。Customers エンティティをODI Getting Started VM に含まれているサンプルデータウェアハウスにロードします。

  1. SQL Developer を開き、Oracle データベースに接続します。[Connections]ペインでデータベースのノードを右クリックし、[New SQL Worksheet]をクリックします。

    もしくは、SQLPlus を使用することもできます。コマンドプロンプトから、以下のように入力します。

    sqlplus / as sysdba
  2. 以下のクエリを入力し、ODI_DEMO スキーマにあるサンプルデータウェアハウスに新しいターゲットテーブルを作成します。以下のクエリは、Spark のCustomers テーブルに一致するいくつかのカラムを定義します。 CREATE TABLE ODI_DEMO.TRG_CUSTOMERS (BALANCE NUMBER(20,0),City VARCHAR2(255));
  3. ODI でDesigner ナビゲーターのModels アコーディオンを展開し、ODI_DEMO フォルダのSales Administration ノードをダブルクリックします。Model Editor でモデルが開きます。
  4. [Reverse Engineer]をクリックします。TRG_CUSTOMERS テーブルがモデルに追加されます。
  5. プロジェクトの[Mappings]ノードを右クリックし、[New Mapping]をクリックします。マッピングの名前を入力し、[Create Empty Dataset]オプションを無効にします。[Mapping Editor]が表示されます。
  6. TRG_CUSTOMERS テーブルをSales Administration モデルからマッピングにドラッグします。
  7. Customers テーブルをSpark モデルからマッピングにドラッグします。
  8. ソースコネクタポイントをクリックしてターゲットコネクタポイントにドラッグします。[Attribute Matching]ダイアログが表示されます。ここでは、デフォルトオプションを使用します。その場合、目的の動作はターゲットカラムのプロパティに表示されます。
  9. Mapping Editor の[Physical]タブを開き、TARGET_GROUP のCUSTOMERS_AP をクリックします。
  10. CUSTOMERS_AP プロパティで、[Loading Knowledge Module]タブの[LKM SQL to SQL (Built-In)]を選択します。

これで、マッピングを実行してSpark をOracle にロードできます。