各製品の資料を入手。
詳細はこちら →SQLAlchemy ORM を使って、Python でHDFS のデータに連携する方法
CData Python Connector を使って、Python アプリケーションおよびスクリプトからSQLAlchemy 経由でHDFS にOR マッピング可能に。
最終更新日:2023-09-23
この記事で実現できるHDFS 連携のシナリオ
こんにちは!ウェブ担当の加藤です。マーケ関連のデータ分析や整備もやっています。
Pythonエコシステムには、多くのモジュールがあり、システム構築を素早く効率的に行うことができます。CData Python Connector for HDFS は、pandas、Matplotlib モジュール、SQLAlchemy ツールキットから使用することで HDFS にデータ連携するPython アプリケーションを構築し、HDFS のデータを可視化できます。 本記事では、SQLAlchemy でHDFS に連携して、データを取得、 する方法を説明します。
CData Python Connectors の特徴
CData Python Connectors は、以下のような特徴を持った製品です。
- HDFS をはじめとする、CRM、MA、会計ツールなど多様なカテゴリの270種類以上のSaaS / オンプレデータソースに対応
- Python をはじめとする多様なデータ分析・BI ツールにHDFS のデータを連携
- ノーコードでの手軽な接続設定
CData Python Connectors では、1.データソースとしてHDFS の接続を設定、2.Python からPython Connectors との接続を設定、という2つのステップだけでデータソースに接続できます。以下に具体的な設定手順を説明します。
必要なモジュールのインストール
pip でSQLAlchemy ツールキットをインストールします:
pip install sqlalchemy
モジュールのインポートを忘れずに行います:
import sqlalchemy
Python でHDFS のデータをモデル化
次は、接続文字列で接続を確立します。create_engine 関数を使って、HDFS のデータに連携するEngne を作成します。
engine = create_engine("hdfs///?Host=sandbox-hdp.hortonworks.com&Port=50070&Path=/user/root&User=root")
HDFS 接続プロパティの取得・設定方法
HDFS への認証には、次の接続プロパティを設定します。
- Host:HDFS インスタンスのホストに設定してください。
- Port: HDFS インスタンスのポートに設定してください。デフォルトのポートは"50070" です。
HDFS のデータのマッピングクラスの宣言
接続を確立したら、OR マッパーでモデル化するテーブルのマッピングクラスを宣言します。本記事では、Files テーブルを使います。sqlalchemy.ext.declarative.declarative_base 関数を使って、新しいクラスにフィールド(カラム)を定義します。
base = declarative_base() class Files(base): __tablename__ = "Files" FileId = Column(String,primary_key=True) ChildrenNum = Column(String) ...
HDFS のデータをクエリ
マッピングクラスができたので、セッションオブジェクトを使ってデータソースをクエリすることができます。セッションにEngine をバインドして、セッションのquery メソッドにマッピングクラスを提供します。
query メソッドを使う
engine = create_engine("hdfs///?Host=sandbox-hdp.hortonworks.com&Port=50070&Path=/user/root&User=root") factory = sessionmaker(bind=engine) session = factory() for instance in session.query(Files).filter_by(FileId="119116"): print("FileId: ", instance.FileId) print("ChildrenNum: ", instance.ChildrenNum) print("---------")
ほかの方法としては、execute メソッドを適切なテーブルオブジェクトに使うことが可能です。以下のコードはアクティブなsession に対して有効です。
execute メソッドを使う
Files_table = Files.metadata.tables["Files"] for instance in session.execute(Files_table.select().where(Files_table.c.FileId == "119116")): print("FileId: ", instance.FileId) print("ChildrenNum: ", instance.ChildrenNum) print("---------")
より複雑なクエリとして、JOIN、集計、Limit などが利用可能です。詳細はヘルプドキュメントをご覧ください。
HDFS からPython へのデータ連携には、ぜひCData Python Connector をご利用ください
このようにCData Python Connector と併用することで、270を超えるSaaS、NoSQL データをPython からコーディングなしで扱うことができます。30日の無償評価版が利用できますので、ぜひ自社で使っているクラウドサービスやNoSQL と合わせて活用してみてください。
日本のユーザー向けにCData Python Connector は、UI の日本語化、ドキュメントの日本語化、日本語でのテクニカルサポートを提供しています。