SQLAlchemy ORM を使って、Python でSpark データに連携

詳細情報をご希望ですか?

無償トライアル:

ダウンロードへ

製品の詳細情報へ:

Apache Spark Python Connector

Apache Spark へのデータ連携用のPython Connecotr ライブラリ。 pandas、SQLAlchemy、Dash、petl などの主要なPython ツールにApache Spark をシームレスに統合。



CData Python Connector for Spark を使って、Python アプリケーションおよびスクリプトからSQLAlchemy 経由でSpark にOR マッピング可能に。

Pythonエコシステムには、多くのモジュールがあり、システム構築を素早く効率的に行うことができます。CData Python Connector for Spark は、pandas、Matplotlib モジュール、SQLAlchemy ツールキットから使用することで Spark にデータ連携するPython アプリケーションを構築し、Spark data をビジュアライズできます。 本記事では、SQLAlchemy でSpark に連携して、データを取得、 する方法を説明します。

CData Python Connector は、ビルトインされた効率的なデータプロセスにより、リアルタイムSpark data データにPython からアクセスし、高いパフォーマンスと接続性を発揮します。Spark に複雑なクエリを投げる際に、ドライバーはフィルタリング、集計などがサポートされている場合、SQL 処理を直接Spark 側に行わせ、サポートされていないSQL 処理については、組み込まれたSQL エンジンによりクライアント側で処理を行います(特にJOIN やSQL 関数など)。

Spark Data への接続

Spark data への連携は、RDB ソースへのアクセスと同感覚で行うことができます。必要な接続プロパティを使って接続文字列を作成します。本記事では、接続文字列をcreate_engine 関数のパラメータとして送ります。

SparkSQL への接続

SparkSQL への接続を確立するには以下を指定します。

  • Server:SparkSQL をホストするサーバーのホスト名またはIP アドレスに設定。
  • Port:SparkSQL インスタンスへの接続用のポートに設定。
  • TransportMode:SparkSQL サーバーとの通信に使用するトランスポートモード。有効な入力値は、BINARY およびHTTP です。デフォルトではBINARY が選択されます。
  • AuthScheme:使用される認証スキーム。有効な入力値はPLAIN、LDAP、NOSASL、およびKERBEROS です。デフォルトではPLAIN が選択されます。

Databricks への接続

Databricks クラスターに接続するには、以下の説明に従ってプロパティを設定します。Note:必要な値は、「クラスター」に移動して目的のクラスターを選択し、 「Advanced Options」の下にある「JDBC/ODBC」タブを選択することで、Databricks インスタンスで見つけることができます。

  • Server:Databricks クラスターのサーバーのホスト名に設定。
  • Port:443
  • TransportMode:HTTP
  • HTTPPath:Databricks クラスターのHTTP パスに設定。
  • UseSSL:True
  • AuthScheme:PLAIN
  • User:'token' に設定。
  • Password:個人用アクセストークンに設定(値は、Databricks インスタンスの「ユーザー設定」ページに移動して「アクセストークン」タブを選択することで取得できます)。

以下の手順でSQLAlchemy をインストールして、Python オブジェクトからSpark に接続します。

必要なモジュールのインストールs

pip でSQLAlchemy ツールキットをインストールします:

pip install sqlalchemy

モジュールのインポートを忘れずに行います:

import sqlalchemy

Python でSpark Data をモデル化します

次は、接続文字列で接続を確立します。create_engine 関数を使って、Spark data に連携するEngne を作成します。

engine = create_engine("sparksql///?Server=127.0.0.1")

Spark Data のマッピングクラスの宣言

接続を確立したら、OR マッパーでモデル化するテーブルのマッピングクラスを宣言します。本記事では、Customers テーブルを使います。sqlalchemy.ext.declarative.declarative_base 関数を使って、新しいクラスにフィールド(カラム)を定義します。

base = declarative_base()
class Customers(base):
	__tablename__ = "Customers"
	City = Column(String,primary_key=True)
	Balance = Column(String)
	...

Spark Data をクエリ

マッピングクラスができたので、セッションオブジェクトを使ってデータソースをクエリすることができます。セッションにEngine をバインドして、セッションのquery メソッドにマッピングクラスを提供します。

query メソッドを使う

engine = create_engine("sparksql///?Server=127.0.0.1")
factory = sessionmaker(bind=engine)
session = factory()
for instance in session.query(Customers).filter_by(Country="US"):
	print("City: ", instance.City)
	print("Balance: ", instance.Balance)
	print("---------")

ほかの方法としては、execute メソッドを適切なテーブルオブジェクトに使うことが可能です。以下のコードはアクティブなsession に対して有効です。

execute メソッドを使う

Customers_table = Customers.metadata.tables["Customers"]
for instance in session.execute(Customers_table.select().where(Customers_table.c.Country == "US")):
	print("City: ", instance.City)
	print("Balance: ", instance.Balance)
	print("---------")

より複雑なクエリとして、JOIN、集計、Limit などが利用可能です。詳細はヘルプドキュメントをご覧ください。

製品の無償トライアル情報

Spark Python Connector の30日の無償トライアル をぜひダウンロードして、Spark data への接続をPython アプリやスクリプトから簡単に作成しましょう。