製品情報をご覧ください

製品情報や無償評価版を製品ページにてご確認いただけます。

製品ページへ

Python でSpark データをETL

CData Python Connector for Spark を使って、Python petl でSpark data のETL 連携・パイプラインアプリケーションを作成。

Pythonエコシステムには、多くのモジュールがあり、システム構築を素早く効率的に行うことができます。CData Python Connector for Spark とpetl フレームワークを使って、Spark に連携するPython アプリや、Spark データをETL することが可能です。本記事では、CData Python Connector をpetl と一緒に使い、ETL 処理を実装します。

CData Python Connector は、ビルトインされた効率的なデータプロセスにより、リアルタイムSpark data データにPython からアクセスし、高いパフォーマンスと接続性を発揮します。Spark に複雑なクエリを投げる際に、ドライバーはフィルタリング、集計などがサポートされている場合、SQL 処理を直接Spark 側に行わせ、サポートされていないSQL 処理については、組み込まれたSQL エンジンによりクライアント側で処理を行います(特にJOIN やSQL 関数など)。

Spark Data への接続

Spark data への連携は、RDB ソースへのアクセスと同感覚で行うことができます。必要な接続プロパティを使って接続文字列を作成します。本記事では、接続文字列をcreate_engine 関数のパラメータとして送ります。

SparkSQL への接続

SparkSQL への接続を確立するには以下を指定します。

  • Server:SparkSQL をホストするサーバーのホスト名またはIP アドレスに設定。
  • Port:SparkSQL インスタンスへの接続用のポートに設定。
  • TransportMode:SparkSQL サーバーとの通信に使用するトランスポートモード。有効な入力値は、BINARY およびHTTP です。デフォルトではBINARY が選択されます。
  • AuthScheme:使用される認証スキーム。有効な入力値はPLAIN、LDAP、NOSASL、およびKERBEROS です。デフォルトではPLAIN が選択されます。

Databricks への接続

Databricks クラスターに接続するには、以下の説明に従ってプロパティを設定します。Note:The needed values can be found in your Databricks instance by navigating to 'Clusters', selecting the desired cluster, and selecting the JDBC/ODBC tab under 'Advanced Options'.

  • Server:Set to the Server Hostname of your Databricks cluster.
  • Port:443
  • TransportMode:HTTP
  • HTTPPath:Set to the HTTP Path of your Databricks cluster.
  • UseSSL:True
  • AuthScheme:PLAIN
  • User:'token' に設定。
  • Password:Set to your personal access token (value can be obtained by navigating to the User Settings page of your Databricks instance and selecting the Access Tokens tab).

CData Spark Connector をインストールしたら、次のように必要なモジュールをインストールし、Python オブジェクトでSpark にアクセスします。

必要なモジュールのインストール

pip で必要なモジュールおよびフレームワークをインストールします:

pip install petl
pip install pandas

Python でSpark データをETL 処理するアプリを構築

モジュールとフレームワークをインストールしたら、ETL アプリケーションを組んでいきます。コードのスニペットは以下の通りです。フルコードは記事の末尾に付いています。

CData Connector を含むモジュールをインポートします:

import petl as etl
import pandas as pd
import cdata.sparksql as mod

接続文字列で接続を確立します。connect 関数を使って、CData Spark Connector からSpark への接続を行います

cnxn = mod.connect("Server=127.0.0.1;")

Spark をクエリするSQL 文の作成

Spark にはSQL でデータアクセスが可能です。Customers エンティティからのデータを読み出します。

sql = "SELECT City, Balance FROM Customers WHERE Country = 'US'"

Spark Data のETL 処理

DataFrame に格納されたクエリ結果を使って、petl でExtract(取得)、Transform(加工)、Load(ロード)を組みます。この例では、Spark data を取得して、Balance カラムでデータをソートして、CSV ファイルにデータをロードします。

table1 = etl.fromdb(cnxn,sql)

table2 = etl.sort(table1,'Balance')

etl.tocsv(table2,'customers_data.csv')

CData Python Connector for Spark を使えば、データベースを扱う場合と同感覚で、Spark data を扱うことができ、petl のようなETL パッケージから直接データにアクセスが可能になります。

製品の無償トライアル情報

Spark Python Connector の30日の無償トライアル をぜひダウンロードして、Spark data への接続をPython アプリやスクリプトから簡単に作成しましょう。



フルソースコード

import petl as etl
import pandas as pd
import cdata.sparksql as mod

cnxn = mod.connect("Server=127.0.0.1;")

sql = "SELECT City, Balance FROM Customers WHERE Country = 'US'"

table1 = etl.fromdb(cnxn,sql)

table2 = etl.sort(table1,'Balance')

etl.tocsv(table2,'customers_data.csv')
 
 
ダウンロード