各製品の資料を入手。
詳細はこちら →ETL ツールのEmbulk を使ってSpark のデータをDB にロードする方法
OSS のETL ツールEmbulk のJDBC Plugin を使って、Spark のデータを簡単にDB に同期する方法をご紹介します。
最終更新日:2023-10-13
この記事で実現できるSpark 連携のシナリオ
こんにちは!リードエンジニアの杉本です。
Embulk は、大量のデータをDB、クラウドデータストア、DWH にロードできるオープンソースETL ツールです。近頃のトレンドでは1社で複数のオンプレアプリやSaaS を使っており、データ分析にはETL ツールを使ってデータを丸ごとDB/DWH にロードしてから、分析や可視化をすることが主流になっています。Embulk にはいろいろなプラグインがあり、多様なInput とOutput 処理をサポートしています。この記事では、Embulk のJDBC Input Plugin と CData Driver for SparkSQL を使って、Spark のデータを簡単にDB にロードする方法をご紹介します。この例ではロード先のDB にはMySQL を使います。
Embulk でSpark のデータをロード
- CData JDBC Driver for SparkSQL をEmbulk と同じマシンにインストールします。CData JDBC ドライバは30日間の無償トライアルが利用できるので、サイドバーからお気軽にダウンロードしてご利用ください。
-
以下のパスにJDBC Driver がインストールされます。後ほどこのパスを使います。
C:\Program Files\CData\CData JDBC Driver for SparkSQL 2019J\lib\cdata.jdbc.sparksql.jar 次に、EmbulkとCData JDBC Driverをつなぎこむための、JDBC Input Plugin をインストールします。以下のリンクからダウンロードできます。
https://github.com/embulk/embulk-input-jdbc/tree/master/embulk-input-jdbcインストール用のコマンドはこちら:
embulk gem install embulk-input-jdbc
今回はロード先DB としてMySQL を使います。ほかにもSQL Server、PostgreSQL、Google BigQuery などを使うことも可能です。ロードに必要な以下のプラグインをインストールしましょう。
https://github.com/embulk/embulk-output-jdbc/tree/master/embulk-output-mysqlコマンドはこちら。
embulk gem install embulk-output-mysql
- config ファイルを作成し、Spark -> MySQL のジョブを作成します。sparksql-mysql.yml というファイル名で、以下の内容で作成しました。
- JDBC URL の内容は、ご利用の環境や資格情報を入力してください。
SparkSQL への接続
SparkSQL への接続を確立するには以下を指定します。
- Server:SparkSQL をホストするサーバーのホスト名またはIP アドレスに設定。
- Port:SparkSQL インスタンスへの接続用のポートに設定。
- TransportMode:SparkSQL サーバーとの通信に使用するトランスポートモード。有効な入力値は、BINARY およびHTTP です。デフォルトではBINARY が選択されます。
- AuthScheme:使用される認証スキーム。有効な入力値はPLAIN、LDAP、NOSASL、およびKERBEROS です。デフォルトではPLAIN が選択されます。
Databricks への接続
Databricks クラスターに接続するには、以下の説明に従ってプロパティを設定します。Note:必要な値は、「クラスター」に移動して目的のクラスターを選択し、 「Advanced Options」の下にある「JDBC/ODBC」タブを選択することで、Databricks インスタンスで見つけることができます。
- Server:Databricks クラスターのサーバーのホスト名に設定。
- Port:443
- TransportMode:HTTP
- HTTPPath:Databricks クラスターのHTTP パスに設定。
- UseSSL:True
- AuthScheme:PLAIN
- User:'token' に設定。
- Password:パーソナルアクセストークンに設定(値は、Databricks インスタンスの「ユーザー設定」ページに移動して「アクセストークン」タブを選択することで取得できます)。
- テーブル名は取得したいテーブル名を入れます。
- これで準備完了です。あとは「embulk run」で実行するだけです。
- 実行後MySQL Workbenchからテーブルを確認してみると、データが取得できているはずです。
in:
type: jdbc
driver_path: C:\Program Files\CData\CData JDBC Driver for SparkSQL 2025J\lib\cdata.jdbc.sparksql.jar
driver_class: cdata.jdbc.sparksql.SparkSQLDriver
url: jdbc:sparksql:Server=127.0.0.1;
table: "Customers"
out:
type: mysql
host: localhost
database: DatabaseName
user: UserId
password: UserPassword
table: "Customers"
mode: insert
embulk run sparksql-mysql.yml
クエリ条件でフィルタリングしたデータのロード
ちなみに、上記の例ではテーブル名を直接指定しましたが、以下のようにSQL クエリを書いてもいいです。 WHERE 句で作成日や修正日を指定すれば、最新のデータだけを対象にすることも可能です。
in:
type: jdbc
driver_path: C:\Program Files\CData\CData JDBC Driver for SparkSQL 2019J\lib\cdata.jdbc.sparksql.jar
driver_class: cdata.jdbc.sparksql.SparkSQLDriver
url: jdbc:sparksql:Server=127.0.0.1;
query: "SELECT City, Balance FROM Customers WHERE [RecordId] = 1"
out:
type: mysql
host: localhost
database: DatabaseName
user: UserId
password: UserPassword
table: "Customers"
mode: insert
おわりに
CData JDBC Driver for SparkSQL をEmbulk で使うことで、Spark と連携して簡単にデータを取得できます。ぜひ、30日の無償評価版をお試しください。