各製品の資料を入手。
詳細はこちら →Oracle Data Integrator でHDFS のデータをETL する方法
この記事では、Oracle Data Integrator を使ってHDFS のデータをデータウェアハウスに転送する方法を説明します。
最終更新日:2022-01-31
この記事で実現できるHDFS 連携のシナリオ
こんにちは!ウェブ担当の加藤です。マーケ関連のデータ分析や整備もやっています。
Oracle Data Integrator(ODI)はOracle エコシステムのハイパフォーマンスなデータ統合プラットフォームです。CData JDBC Driver for HDFS を使えば、OCI をはじめとするETL ツールからHDFS のデータにJDBC 経由で簡単に接続を実現できます。リアルタイムHDFS のデータをデータウェアハウス、BI・帳票ツール、CRM、基幹システムなどに統合すれば、データ活用もぐっと楽に。
CData のコネクタを使えば、HDFS API にリアルタイムで直接接続して、ODI 上で通常のデータベースと同じようにHDFS のデータを操作できます。HDFS エンティティのデータモデルを構築、マッピングを作成し、データの読み込み方法を選択するだけの簡単なステップでHDFS のデータのETL が実現できます。
ドライバーのインストール
ドライバーをインストールするには、インストールフォルダにあるドライバーのJAR ファイルと.lic ファイルをODI の適切なディレクトリにコピーします。
- UNIX/Linux(Agent なし):~/.odi/oracledi/userlib
- UNIX/Linux(Agent):$ODI_HOME/odi/agent/lib
- Windows(Agent なし):%APPDATA%\Roaming\odi\oracledi\userlib
- Windows(Agent):%APPDATA%\Roaming\odi\agent\lib
ODI を再起動してインストールを完了します。
モデルのリバースエンジニアリング
ODI の機能を使ってモデルをリバースエンジニアリングすることで、ドライバー側で取得したHDFS のデータのリレーショナルビューに関するメタデータが取得できます。リバースエンジニアリング後、リアルタイムHDFS のデータにクエリを実行してHDFS テーブルのマッピングを作成できます。
-
ODI でリポジトリに接続し、「New」->「Model and Topology Objects」をクリックします。
- 表示されるダイアログの「Model」画面で、以下の情報を入力します。
- Name:HDFS と入力します。
- Technology:Technology:Generic SQL(ODI がVersion 12.2+ の場合はMicrosoft SQL Server)を選択します。
- Logical Schema:HDFS と入力します。
- Context:Global を選択します。
- 表示されるダイアログの「Data Server」画面で、以下の情報を入力します。
- Name:HDFS と入力します。
- Driver List:Oracle JDBC Driver を選択します。
- Driver:cdata.jdbc.hdfs.HDFSDriver と入力します。
- URL:接続文字列を含むJDBC URL を入力します。
HDFS 接続プロパティの取得・設定方法
HDFS への認証には、次の接続プロパティを設定します。
- Host:HDFS インスタンスのホストに設定してください。
- Port: HDFS インスタンスのポートに設定してください。デフォルトのポートは"50070" です。
組み込みの接続文字列デザイナー
JDBC URL の作成の補助として、HDFS JDBC Driver に組み込まれている接続文字列デザイナーが使用できます。JAR ファイルをダブルクリックするか、コマンドラインからjar ファイルを実行します。
java -jar cdata.jdbc.hdfs.jar
接続プロパティを入力し、接続文字列をクリップボードにコピーします。
一般的な接続文字列は次のとおりです。
jdbc:hdfs:Host=sandbox-hdp.hortonworks.com;Port=50070;Path=/user/root;User=root;
- Physical Schema 画面で、以下の情報を入力します。
- Name:ドロップダウンメニューから選択します。
- Database (Catalog):CData と入力します。
- Owner (Schema):HDFS にSchema を選択した場合は、選択したSchema を入力し、それ以外の場合はHDFS と入力します。
- Database (Work Catalog):CData と入力します。
- Owner (Work Schema):HDFS にSchema を選択した場合は、選択したSchema を入力し、それ以外の場合はHDFS と入力します。
- 開いたモデルで「Reverse Engineer」をクリックしてHDFS テーブルのメタデータを取得します。
HDFS のデータの編集と保存
リバースエンジニアリング後、ODI でHDFS のデータを操作できるようになります。
HDFS のデータを表示するには、Designer ナビゲーターでモデルアコーディオンを展開し、テーブルを右クリックして「View data」をクリックします。
ETL プロジェクトの作成
次の手順に従って、HDFS からETL を作成します。Files エンティティをODI Getting Started VM に含まれているサンプルデータウェアハウスにロードします。
SQL Developer を開き、Oracle データベースに接続します。Connections ぺインでデータベースのノードを右クリックし、「New SQL Worksheet」をクリックします。
もしくは、SQLPlus を使用することもできます。コマンドプロンプトから、以下のように入力します。
sqlplus / as sysdba
- 以下のクエリを入力し、ODI_DEMO スキーマにあるサンプルデータウェアハウスに新しいターゲットテーブルを作成します。以下のクエリは、HDFS のFiles テーブルに一致するいくつかのカラムを定義します。
CREATE TABLE ODI_DEMO.TRG_FILES (CHILDRENNUM NUMBER(20,0),FileId VARCHAR2(255));
- ODI でDesigner ナビゲーターのModels アコーディオンを展開し、ODI_DEMO フォルダの「Sales Administration」ノードをダブルクリックします。Model Editor でモデルが開きます。
- 「Reverse Engineer」をクリックします。TRG_FILES テーブルがモデルに追加されます。
- プロジェクトの「Mappings」ノードを右クリックし、「New Mapping」をクリックします。マッピングの名前を入力し、「Create Empty Dataset」オプションを無効にします。Mapping Editor が表示されます。
- TRG_FILES テーブルをSales Administration モデルからマッピングにドラッグします。
- Files テーブルをHDFS モデルからマッピングにドラッグします。
- ソースコネクタポイントをクリックしてターゲットコネクタポイントにドラッグします。Attribute Matching ダイアログが表示されます。ここでは、デフォルトオプションを使用します。その場合、目的の動作はターゲットカラムのプロパティに表示されます。
- Mapping Editor のPhysical タブを開き、TARGET_GROUP の「FILES_AP」をクリックします。
- FILES_AP プロパティで、Loading Knowledge Module タブの「LKM SQL to SQL (Built-In)」を選択します。
これで、マッピングを実行してHDFS のデータをOracle にロードできます。