SQLAlchemy ORM を使って、Python でAzure Data Lake Storage データに連携

詳細情報をご希望ですか?

無償トライアル:

ダウンロードへ

製品の詳細情報へ:

Azure Data Lake Storage Python Connector

Azure Data Lake Storage データ連携用のPython コネクタライブラリ。Azure Data Lake Storage データをpandas、SQLAlchemy、Dash、petl などの人気のPython ツールにシームレスに統合。



CData Python Connector for Azure Data Lake Storage を使って、Python アプリケーションおよびスクリプトからSQLAlchemy 経由でAzure Data Lake Storage にOR マッピング可能に。

Pythonエコシステムには、多くのモジュールがあり、システム構築を素早く効率的に行うことができます。CData Python Connector for Azure Data Lake Storage は、pandas、Matplotlib モジュール、SQLAlchemy ツールキットから使用することで Azure Data Lake Storage にデータ連携するPython アプリケーションを構築し、Azure Data Lake Storage data をビジュアライズできます。 本記事では、SQLAlchemy でAzure Data Lake Storage に連携して、データを取得、 する方法を説明します。

CData Python Connector は、ビルトインされた効率的なデータプロセスにより、リアルタイムAzure Data Lake Storage data データにPython からアクセスし、高いパフォーマンスと接続性を発揮します。Azure Data Lake Storage に複雑なクエリを投げる際に、ドライバーはフィルタリング、集計などがサポートされている場合、SQL 処理を直接Azure Data Lake Storage 側に行わせ、サポートされていないSQL 処理については、組み込まれたSQL エンジンによりクライアント側で処理を行います(特にJOIN やSQL 関数など)。

Azure Data Lake Storage Data への接続

Azure Data Lake Storage data への連携は、RDB ソースへのアクセスと同感覚で行うことができます。必要な接続プロパティを使って接続文字列を作成します。本記事では、接続文字列をcreate_engine 関数のパラメータとして送ります。

Authenticating to a Gen 1 DataLakeStore Account

Gen 1 uses OAuth 2.0 in Azure AD for authentication.

For this, an Active Directory web application is required. You can create one as follows:

  1. Sign in to your Azure Account through the .
  2. Select "Azure Active Directory".
  3. Select "App registrations".
  4. Select "New application registration".
  5. Provide a name and URL for the application. Select Web app for the type of application you want to create.
  6. Select "Required permissions" and change the required permissions for this app. At a minimum, "Azure Data Lake" and "Windows Azure Service Management API" are required.
  7. Select "Key" and generate a new key. Add a description, a duration, and take note of the generated key. You won't be able to see it again.

To authenticate against a Gen 1 DataLakeStore account, the following properties are required:

  • Schema: Set this to ADLSGen1.
  • Account: Set this to the name of the account.
  • OAuthClientId: Set this to the application Id of the app you created.
  • OAuthClientSecret: Set this to the key generated for the app you created.
  • TenantId: Set this to the tenant Id. See the property for more information on how to acquire this.
  • Directory: Set this to the path which will be used to store the replicated file. If not specified, the root directory will be used.

Authenticating to a Gen 2 DataLakeStore Account

To authenticate against a Gen 2 DataLakeStore account, the following properties are required:

  • Schema: Set this to ADLSGen2.
  • Account: Set this to the name of the account.
  • FileSystem: Set this to the file system which will be used for this account.
  • AccessKey: Set this to the access key which will be used to authenticate the calls to the API. See the property for more information on how to acquire this.
  • Directory: Set this to the path which will be used to store the replicated file. If not specified, the root directory will be used.

以下の手順でSQLAlchemy をインストールして、Python オブジェクトからAzure Data Lake Storage に接続します。

必要なモジュールのインストールs

pip でSQLAlchemy ツールキットをインストールします:

pip install sqlalchemy

モジュールのインポートを忘れずに行います:

import sqlalchemy

Python でAzure Data Lake Storage Data をモデル化します

次は、接続文字列で接続を確立します。create_engine 関数を使って、Azure Data Lake Storage data に連携するEngne を作成します。

engine = create_engine("adls///?Schema=ADLSGen2&Account=myAccount&FileSystem=myFileSystem&AccessKey=myAccessKey&InitiateOAuth=GETANDREFRESH&OAuthSettingsLocation=/PATH/TO/OAuthSettings.txt")

Azure Data Lake Storage Data のマッピングクラスの宣言

接続を確立したら、OR マッパーでモデル化するテーブルのマッピングクラスを宣言します。本記事では、Resources テーブルを使います。sqlalchemy.ext.declarative.declarative_base 関数を使って、新しいクラスにフィールド(カラム)を定義します。

base = declarative_base()
class Resources(base):
	__tablename__ = "Resources"
	FullPath = Column(String,primary_key=True)
	Permission = Column(String)
	...

Azure Data Lake Storage Data をクエリ

マッピングクラスができたので、セッションオブジェクトを使ってデータソースをクエリすることができます。セッションにEngine をバインドして、セッションのquery メソッドにマッピングクラスを提供します。

query メソッドを使う

engine = create_engine("adls///?Schema=ADLSGen2&Account=myAccount&FileSystem=myFileSystem&AccessKey=myAccessKey&InitiateOAuth=GETANDREFRESH&OAuthSettingsLocation=/PATH/TO/OAuthSettings.txt")
factory = sessionmaker(bind=engine)
session = factory()
for instance in session.query(Resources).filter_by(Type="FILE"):
	print("FullPath: ", instance.FullPath)
	print("Permission: ", instance.Permission)
	print("---------")

ほかの方法としては、execute メソッドを適切なテーブルオブジェクトに使うことが可能です。以下のコードはアクティブなsession に対して有効です。

execute メソッドを使う

Resources_table = Resources.metadata.tables["Resources"]
for instance in session.execute(Resources_table.select().where(Resources_table.c.Type == "FILE")):
	print("FullPath: ", instance.FullPath)
	print("Permission: ", instance.Permission)
	print("---------")

より複雑なクエリとして、JOIN、集計、Limit などが利用可能です。詳細はヘルプドキュメントをご覧ください。

製品の無償トライアル情報

Azure Data Lake Storage Python Connector の30日の無償トライアル をぜひダウンロードして、Azure Data Lake Storage data への接続をPython アプリやスクリプトから簡単に作成しましょう。