今すぐお試しください!

製品の詳細CData Python Connector for Apache Spark を確認して、無償評価版をダウンロード:

今すぐダウンロード

Python pandas を使ってSpark データをビジュアライズ

CData Python Connector for Spark を使えば、Python でSpark をpandas やその他の標準モジュールでで呼び出し、データ分析やビジュアライズが可能になります。

Pythonエコシステムには、多くのモジュールがあり、システム構築を素早く効率的に行うことができます。CData Python Connector for Spark は、pandas、Matplotlib モジュール、SQLAlchemy ツールキットから使用することで Spark にデータ連携するPython アプリケーションを構築し、Spark をビジュアライズできます。本記事では、pandas、SQLAlchemy、およびMatplotlib のビルトイン機能でSpark にリアルタイムアクセスし、クエリを実行し、結果をビジュアライズする方法を説明します。

CData Python Connector は、ビルトインされた効率的なデータプロセスにより、リアルタイムSpark データにPython からアクセスし、高いパフォーマンスと接続性を発揮します。Spark に複雑なクエリを投げる際に、ドライバーはフィルタリング、集計などがサポートされている場合、SQL 処理を直接Spark 側に行わせ、サポートされていないSQL 処理については、組み込まれたSQL エンジンによりクライアント側で処理を行います(特にJOIN やSQL 関数など)。

Spark データへの接続

Spark への連携は、RDB ソースへのアクセスと同感覚で行うことができます。必要な接続プロパティを使って接続文字列を作成します。本記事では、接続文字列をcreate_engine 関数のパラメータとして送ります。

SparkSQL への接続

SparkSQL への接続を確立するには以下を指定します。

  • Server:SparkSQL をホストするサーバーのホスト名またはIP アドレスに設定。
  • Port:SparkSQL インスタンスへの接続用のポートに設定。
  • TransportMode:SparkSQL サーバーとの通信に使用するトランスポートモード。有効な入力値は、BINARY およびHTTP です。デフォルトではBINARY が選択されます。
  • AuthScheme:使用される認証スキーム。有効な入力値はPLAIN、LDAP、NOSASL、およびKERBEROS です。デフォルトではPLAIN が選択されます。

Databricks への接続

Databricks クラスターに接続するには、以下の説明に従ってプロパティを設定します。Note:The needed values can be found in your Databricks instance by navigating to 'Clusters', selecting the desired cluster, and selecting the JDBC/ODBC tab under 'Advanced Options'.

  • Server:Set to the Server Hostname of your Databricks cluster.
  • Port:443
  • TransportMode:HTTP
  • HTTPPath:Set to the HTTP Path of your Databricks cluster.
  • UseSSL:True
  • AuthScheme:PLAIN
  • User:'token' に設定。
  • Password:Set to your personal access token (value can be obtained by navigating to the User Settings page of your Databricks instance and selecting the Access Tokens tab).

以下の手順に従い、必要なモジュールをインストールし、Python オブジェクト経由でSpark にアクセスします。

必要なモジュールのインストール

pip で、pandas & Matplotlib モジュールおよび、SQLAlchemy ツールキットをインストールします:

pip install pandas
pip install matplotlib
pip install sqlalchemy

以下のようにモジュールをインポートします:

import pandas
import matplotlib.pyplot as plt
from sqlalchemy import create_engine

Python でSpark データをビジュアライズ

次は、接続文字列で接続を確立します。create_engine 関数を使って、Spark に連携するEngne を作成します。.

engine = create_engine("sparksql:///?Server=127.0.0.1")

Spark にアクセスするSQL を実行

pandas のread_sql 関数を使って好きなSQL を発行して、DataFrame にデータを格納します。

df = pandas.read_sql("""SELECT City, Balance FROM Customers WHERE Country = 'US'""", engine)

Spark データをビジュアライズ

DataFrame に格納されたクエリ結果に対して、plot 関数をつかって、Spark data をグラフで表現してみます。show メソッドはグラフを新しいウィンドウに表示します。

df.plot(kind="bar", x="City", y="Balance")
plt.show()

製品の無償トライアル情報

Spark Python Connector の30日の無償トライアル をぜひダウンロードして、Spark への接続をPython アプリやスクリプトから簡単に作成しましょう。



ソースコードe

import pandas
import matplotlib.pyplot as plt
from sqlalchemy import create_engin

engine = create_engine("sparksql:///?Server=127.0.0.1")
df = pandas.read_sql("""SELECT City, Balance FROM Customers WHERE Country = 'US'""", engine)

df.plot(kind="bar", x="City", y="Balance")
plt.show()
 
 
ダウンロード