各製品の資料を入手。
詳細はこちら →Python pandas を使ってSpark のデータを可視化・分析する方法
CData Python Connector を使えば、Python でSpark をpandas などのライブラリで呼び出してデータ分析や可視化を実行できます。
最終更新日:2023-09-23
この記事で実現できるSpark 連携のシナリオ
こんにちは!ウェブ担当の加藤です。マーケ関連のデータ分析や整備もやっています。
Python エコシステムには多くのライブラリがあり、開発やデータ分析を行う際には必須と言っていいライブラリも多く存在します。CData Python Connector for SparkSQL は、pandas、Matplotlib、SQLAlchemy から使用することで Spark にデータ連携するPython アプリケーションを構築したり、Spark のデータの可視化を実現します。本記事では、pandas、SQLAlchemy、およびMatplotlib のビルトイン機能でSpark にリアルタイムアクセスし、クエリを実行して結果を可視化する方法を説明します。
CData Python Connectors の特徴
CData Python Connectors は、以下のような特徴を持った製品です。
- Spark をはじめとする、CRM、MA、会計ツールなど多様なカテゴリの270種類以上のSaaS / オンプレデータソースに対応
- pandas をはじめとする多様なデータ分析・BI ツールにSpark のデータを連携
- ノーコードでの手軽な接続設定
CData Python Connectors では、1.データソースとしてSpark の接続を設定、2.Python からPython Connectors との接続を設定、という2つのステップだけでデータソースに接続できます。以下に具体的な設定手順を説明します。
以下の手順に従い、必要なライブラリをインストールし、Python オブジェクト経由でSpark にアクセスします。
必要なライブラリのインストール
pip で、pandas & Matplotlib ライブラリおよび、SQLAlchemy をインストールします。
pip install pandas pip install matplotlib pip install sqlalchemy
次にライブラリをインポートします。
import pandas import matplotlib.pyplot as plt from sqlalchemy import create_engine
Python でSpark のデータを可視化
次は接続文字列を作成してSpark に接続します。create_engine 関数を使って、Spark に連携するEngne を作成します。以下はサンプルの接続文字列になりますので、環境に応じてクレデンシャル部分を変更してください。
engine = create_engine("sparksql:///?Server=127.0.0.1")
SparkSQL への接続
SparkSQL への接続を確立するには以下を指定します。
- Server:SparkSQL をホストするサーバーのホスト名またはIP アドレスに設定。
- Port:SparkSQL インスタンスへの接続用のポートに設定。
- TransportMode:SparkSQL サーバーとの通信に使用するトランスポートモード。有効な入力値は、BINARY およびHTTP です。デフォルトではBINARY が選択されます。
- AuthScheme:使用される認証スキーム。有効な入力値はPLAIN、LDAP、NOSASL、およびKERBEROS です。デフォルトではPLAIN が選択されます。
Databricks への接続
Databricks クラスターに接続するには、以下の説明に従ってプロパティを設定します。Note:必要な値は、「クラスター」に移動して目的のクラスターを選択し、 「Advanced Options」の下にある「JDBC/ODBC」タブを選択することで、Databricks インスタンスで見つけることができます。
- Server:Databricks クラスターのサーバーのホスト名に設定。
- Port:443
- TransportMode:HTTP
- HTTPPath:Databricks クラスターのHTTP パスに設定。
- UseSSL:True
- AuthScheme:PLAIN
- User:'token' に設定。
- Password:パーソナルアクセストークンに設定(値は、Databricks インスタンスの「ユーザー設定」ページに移動して「アクセストークン」タブを選択することで取得できます)。
Spark にアクセスするSQL を実行
pandas のread_sql 関数を使って好きなSQL を発行して、DataFrame にデータを格納します。
df = pandas.read_sql("""SELECT City, Balance FROM Customers WHERE Country = 'US'""", engine)
Spark のデータを可視化
DataFrame に格納されたクエリ結果に対して、plot 関数をつかって、Spark のデータをグラフ化してみます。
df.plot(kind="bar", x="City", y="Balance") plt.show()

Spark からPython へのデータ連携には、ぜひCData Python Connector をご利用ください
このようにCData Python Connector と併用することで、270を超えるSaaS、NoSQL データをPython からコーディングなしで扱うことができます。30日の無償評価版が利用できますので、ぜひ自社で使っているクラウドサービスやNoSQL と合わせて活用してみてください。
日本のユーザー向けにCData Python Connector は、UI の日本語化、ドキュメントの日本語化、日本語でのテクニカルサポートを提供しています。
ソースコード
import pandas import matplotlib.pyplot as plt from sqlalchemy import create_engin engine = create_engine("sparksql:///?Server=127.0.0.1") df = pandas.read_sql("""SELECT City, Balance FROM Customers WHERE Country = 'US'""", engine) df.plot(kind="bar", x="City", y="Balance") plt.show()