製品をチェック

無償トライアル:

無償トライアルへ

製品の情報と無償トライアルへ:

Apache Hive Python Connector

Apache Hive へのデータ連携用のPython Connector ライブラリ。 pandas、SQLAlchemy、Dash、petl などの主要なPython ツールにApache Hive をシームレスに統合。

データ連携でお困りですか?

お問い合わせ

SQLAlchemy ORM を使って、Python でHive データに連携


CData Python Connector for ApacheHive を使って、Python アプリケーションおよびスクリプトからSQLAlchemy 経由でHive にOR マッピング可能に。


hive ロゴ画像
python ロゴ画像

Python

Python ロゴ画像

Pythonエコシステムには、多くのモジュールがあり、システム構築を素早く効率的に行うことができます。CData Python Connector for ApacheHive は、pandas、Matplotlib モジュール、SQLAlchemy ツールキットから使用することで Hive にデータ連携するPython アプリケーションを構築し、Hive data をビジュアライズできます。 本記事では、SQLAlchemy でHive に連携して、データを取得、、更新、挿入、削除 する方法を説明します。

CData Python Connector は、ビルトインされた効率的なデータプロセスにより、リアルタイムHive data データにPython からアクセスし、高いパフォーマンスと接続性を発揮します。Hive に複雑なクエリを投げる際に、ドライバーはフィルタリング、集計などがサポートされている場合、SQL 処理を直接Hive 側に行わせ、サポートされていないSQL 処理については、組み込まれたSQL エンジンによりクライアント側で処理を行います(特にJOIN やSQL 関数など)。

Hive Data への接続

Hive data への連携は、RDB ソースへのアクセスと同感覚で行うことができます。必要な接続プロパティを使って接続文字列を作成します。本記事では、接続文字列をcreate_engine 関数のパラメータとして送ります。

Apache Hive への接続を確立するには以下を指定します。

  • Server:HiveServer2 をホストするサーバーのホスト名またはIP アドレスに設定。
  • Port:HiveServer2 インスタンスへの接続用のポートに設定。
  • TransportMode:Hive サーバーとの通信に使用するトランスポートモード。有効な入力値は、BINARY およびHTTP です。デフォルトではBINARY が選択されます。
  • AuthScheme:使用される認証スキーム。有効な入力値はPLAIN、LDAP、NOSASL、およびKERBEROS です。デフォルトではPLAIN が選択されます。
  • 本製品においてTLS/SSL を有効化するには、UseSSL をTrue に設定します

以下の手順でSQLAlchemy をインストールして、Python オブジェクトからHive に接続します。

必要なモジュールのインストールs

pip でSQLAlchemy ツールキットをインストールします:

pip install sqlalchemy

モジュールのインポートを忘れずに行います:

import sqlalchemy

Python でHive Data をモデル化します

次は、接続文字列で接続を確立します。create_engine 関数を使って、Hive data に連携するEngne を作成します。

engine = create_engine("apachehive///?Server=127.0.0.1&Port=10000&TransportMode=BINARY")

Hive Data のマッピングクラスの宣言

接続を確立したら、OR マッパーでモデル化するテーブルのマッピングクラスを宣言します。本記事では、Customers テーブルを使います。sqlalchemy.ext.declarative.declarative_base 関数を使って、新しいクラスにフィールド(カラム)を定義します。

base = declarative_base()
class Customers(base):
	__tablename__ = "Customers"
	City = Column(String,primary_key=True)
	CompanyName = Column(String)
	...

Hive Data をクエリ

マッピングクラスができたので、セッションオブジェクトを使ってデータソースをクエリすることができます。セッションにEngine をバインドして、セッションのquery メソッドにマッピングクラスを提供します。

query メソッドを使う

engine = create_engine("apachehive///?Server=127.0.0.1&Port=10000&TransportMode=BINARY")
factory = sessionmaker(bind=engine)
session = factory()
for instance in session.query(Customers).filter_by(Country="US"):
	print("City: ", instance.City)
	print("CompanyName: ", instance.CompanyName)
	print("---------")

ほかの方法としては、execute メソッドを適切なテーブルオブジェクトに使うことが可能です。以下のコードはアクティブなsession に対して有効です。

execute メソッドを使う

Customers_table = Customers.metadata.tables["Customers"]
for instance in session.execute(Customers_table.select().where(Customers_table.c.Country == "US")):
	print("City: ", instance.City)
	print("CompanyName: ", instance.CompanyName)
	print("---------")

より複雑なクエリとして、JOIN、集計、Limit などが利用可能です。詳細はヘルプドキュメントをご覧ください。

Hive Data の挿入(INSERT)

Hive data への挿入には、マップされたクラスのインスタンスを定義し、アクティブな session に追加します。commit 関数を呼び出して、Hive にすべての追加インスタンスを送ります。

new_rec = Customers(City="placeholder", Country="US")
session.add(new_rec)
session.commit()

Hive Data を更新(UPDATE)

Hive data の更新には、更新するレコードをフィルタクエリとともにフェッチします。そして、フィールドの値を変更し、セッションでcommit 関数を呼んで、Hive にレコードを追加します。

updated_rec = session.query(Customers).filter_by(SOME_ID_COLUMN="SOME_ID_VALUE").first()
updated_rec.Country = "US"
session.commit()

Hive Data を削除(DELETE)

Hive data の削除には、フィルタクエリと一緒に対象となるレコードをフェッチします。そして、アクティブsession でレコードを削除し、セッションでcommit 関数を呼び出して、該当するレコードの削除を実行します。

deleted_rec = session.query(Customers).filter_by(SOME_ID_COLUMN="SOME_ID_VALUE").first()
session.delete(deleted_rec)
session.commit()

製品の無償トライアル情報

Hive Python Connector の30日の無償トライアル をぜひダウンロードして、Hive data への接続をPython アプリやスクリプトから簡単に作成しましょう。