Python でHive データをETL

詳細情報をご希望ですか?

無償トライアル:

ダウンロードへ

製品の詳細情報へ:

Apache Hive Python Connector

Apache Hive へのデータ連携用のPython Connecotr ライブラリ。 pandas、SQLAlchemy、Dash、petl などの主要なPython ツールにApache Hive をシームレスに統合。



CData Python Connector for Hive を使って、Python petl でHive data のETL 連携・パイプラインアプリケーションを作成。

Pythonエコシステムには、多くのモジュールがあり、システム構築を素早く効率的に行うことができます。CData Python Connector for Hive とpetl フレームワークを使って、Hive に連携するPython アプリや、Hive データをETL することが可能です。本記事では、CData Python Connector をpetl と一緒に使い、ETL 処理を実装します。

CData Python Connector は、ビルトインされた効率的なデータプロセスにより、リアルタイムHive data データにPython からアクセスし、高いパフォーマンスと接続性を発揮します。Hive に複雑なクエリを投げる際に、ドライバーはフィルタリング、集計などがサポートされている場合、SQL 処理を直接Hive 側に行わせ、サポートされていないSQL 処理については、組み込まれたSQL エンジンによりクライアント側で処理を行います(特にJOIN やSQL 関数など)。

Hive Data への接続

Hive data への連携は、RDB ソースへのアクセスと同感覚で行うことができます。必要な接続プロパティを使って接続文字列を作成します。本記事では、接続文字列をcreate_engine 関数のパラメータとして送ります。

Apache Hive への接続を確立するには以下を指定します。

  • Server:HiveServer2 をホストするサーバーのホスト名またはIP アドレスに設定。
  • Port:HiveServer2 インスタンスへの接続用のポートに設定。
  • TransportMode:Hive サーバーとの通信に使用するトランスポートモード。有効な入力値は、BINARY およびHTTP です。デフォルトではBINARY が選択されます。
  • AuthScheme:使用される認証スキーム。有効な入力値はPLAIN、LDAP、NOSASL、およびKERBEROS です。デフォルトではPLAIN が選択されます。
  • 本製品においてTLS/SSL を有効化するには、UseSSL をTrue に設定します

CData Hive Connector をインストールしたら、次のように必要なモジュールをインストールし、Python オブジェクトでHive にアクセスします。

必要なモジュールのインストール

pip で必要なモジュールおよびフレームワークをインストールします:

pip install petl
pip install pandas

Python でHive データをETL 処理するアプリを構築

モジュールとフレームワークをインストールしたら、ETL アプリケーションを組んでいきます。コードのスニペットは以下の通りです。フルコードは記事の末尾に付いています。

CData Connector を含むモジュールをインポートします:

import petl as etl
import pandas as pd
import cdata.apachehive as mod

接続文字列で接続を確立します。connect 関数を使って、CData Hive Connector からHive への接続を行います

cnxn = mod.connect("Server=127.0.0.1;Port=10000;TransportMode=BINARY;")

Hive をクエリするSQL 文の作成

Hive にはSQL でデータアクセスが可能です。Customers エンティティからのデータを読み出します。

sql = "SELECT City, CompanyName FROM Customers WHERE Country = 'US'"

Hive Data のETL 処理

DataFrame に格納されたクエリ結果を使って、petl でExtract(取得)、Transform(加工)、Load(ロード)を組みます。この例では、Hive data を取得して、CompanyName カラムでデータをソートして、CSV ファイルにデータをロードします。

table1 = etl.fromdb(cnxn,sql)

table2 = etl.sort(table1,'CompanyName')

etl.tocsv(table2,'customers_data.csv')

CData Python Connector for Hive を使えば、データベースを扱う場合と同感覚で、Hive data を扱うことができ、petl のようなETL パッケージから直接データにアクセスが可能になります。

製品の無償トライアル情報

Hive Python Connector の30日の無償トライアル をぜひダウンロードして、Hive data への接続をPython アプリやスクリプトから簡単に作成しましょう。



フルソースコード

import petl as etl
import pandas as pd
import cdata.apachehive as mod

cnxn = mod.connect("Server=127.0.0.1;Port=10000;TransportMode=BINARY;")

sql = "SELECT City, CompanyName FROM Customers WHERE Country = 'US'"

table1 = etl.fromdb(cnxn,sql)

table2 = etl.sort(table1,'CompanyName')

etl.tocsv(table2,'customers_data.csv')