製品をチェック

Azure Data Lake Storage Connector の30日間無償トライアルをダウンロード

 30日間の無償トライアルへ

製品の詳細

Azure Data Lake Storage アイコン Azure Data Lake Storage Python Connector 相談したい

Azure Data Lake Storage データ連携用のPython コネクタライブラリ。Azure Data Lake Storage データをpandas、SQLAlchemy、Dash、petl などの人気のPython ツールにシームレスに統合。

SQLAlchemy ORM を使って、Python でAzure Data Lake Storage データに連携する方法

CData Python Connector を使って、Python アプリケーションおよびスクリプトからSQLAlchemy 経由でAzure Data Lake Storage にOR マッピング可能に。

加藤龍彦
ウェブデベロッパー

最終更新日:2023-09-23
azuredatalake ロゴ

CData

python ロゴ画像
Python ロゴ

こんにちは!ウェブ担当の加藤です。マーケ関連のデータ分析や整備もやっています。

Pythonエコシステムには、多くのモジュールがあり、システム構築を素早く効率的に行うことができます。CData Python Connector for ADLS は、pandas、Matplotlib モジュール、SQLAlchemy ツールキットから使用することで Azure Data Lake Storage にデータ連携するPython アプリケーションを構築し、Azure Data Lake Storage データを可視化できます。 本記事では、SQLAlchemy でAzure Data Lake Storage に連携して、データを取得、 する方法を説明します。

CData Python Connectors の特徴

CData Python Connectors は、以下のような特徴を持った製品です。

  1. Azure Data Lake Storage をはじめとする、CRM、MA、会計ツールなど多様なカテゴリの270種類以上のSaaS / オンプレデータソースに対応
  2. Python をはじめとする多様なデータ分析・BI ツールにAzure Data Lake Storage データを連携
  3. ノーコードでの手軽な接続設定

CData Python Connectors では、1.データソースとしてAzure Data Lake Storage の接続を設定、2.Python からPython Connectors との接続を設定、という2つのステップだけでデータソースに接続できます。以下に具体的な設定手順を説明します。

必要なモジュールのインストール

pip でSQLAlchemy ツールキットをインストールします:

pip install sqlalchemy

モジュールのインポートを忘れずに行います:

import sqlalchemy

Python でAzure Data Lake Storage データをモデル化

次は、接続文字列で接続を確立します。create_engine 関数を使って、Azure Data Lake Storage データに連携するEngne を作成します。

engine = create_engine("adls///?Schema=ADLSGen2&Account=myAccount&FileSystem=myFileSystem&AccessKey=myAccessKey&InitiateOAuth=GETANDREFRESH&OAuthSettingsLocation=/PATH/TO/OAuthSettings.txt")

Azure DataLakeStorage 接続プロパティの取得・設定方法

Azure DataLakeStorage Gen 1 への接続

Gen 1 DataLakeStorage アカウントに接続するには、はじめに以下のプロパティを設定します。

  • SchemaADLSGen1 を指定。
  • Account:アカウント名に設定。
  • AzureTenant:テナントId に設定。Azure Portal 内のAzure Data Lake プロパティから取得できます。
  • Directory:(オプション)複製したファイルを格納するためのパスを設定。指定しない場合は、ルートディレクトリが使用されます。

Azure DataLakeStorage Gen 1 への認証

Gen 1 は、認証方法としてAzure Active Directory OAuth(AzureAD)およびマネージドサービスID(AzureMSI)をサポートしています。認証方法は、ヘルプドキュメントの「Azure DataLakeStorage Gen 1 への認証」セクションを参照してください。

Azure DataLakeStorage Gen 2 への接続

Gen 2 DataLakeStorage アカウントに接続するには、はじめに以下のプロパティを設定します。

  • SchemaADLSGen2 に設定。
  • Account:ストレージアカウント名に設定。
  • FileSystem:このアカウントで使用するファイルシステム名に設定。例えば、Azure Blob コンテナ名など。
  • Directory:(オプション)複製したファイルを格納するためのパスを設定。指定しない場合は、ルートディレクトリが使用されます。

Azure DataLakeStorage Gen 2 への認証

Gen 2は、認証方法としてアクセスキー、共有アクセス署名(SAS)、Azure Active Directory OAuth(AzureAD)、マネージドサービスID(AzureMSI)など多様な方法をサポートしています。AzureAD、AzureMSI での認証方法は、ヘルプドキュメントの「Azure DataLakeStorage Gen 2 への認証」セクションを参照してください。

アクセスキーを使用した認証

アクセスキーを使用して接続するには、AccessKey プロパティを取得したアクセスキーの値に、AuthScheme を「AccessKey」に設定します。

Azure ポータルからADLS Gen2 ストレージアカウントのアクセスキーを取得できます。

  1. Azure ポータルのADLS Gen2 ストレージアカウントにアクセスします。
  2. 設定で「アクセスキー」を選択します。
  3. 利用可能なアクセスキーの1つの値を「AccessKey」接続プロパティにコピーします。

共有アクセス署名(SAS)

共有アクセス署名を使用して接続するには、SharedAccessSignature プロパティを接続先リソースの有効な署名に設定して、AuthScheme を「SAS」に設定します。 共有アクセス署名は、Azure Storage Explorer などのツールで生成できます。

Azure Data Lake Storage データのマッピングクラスの宣言

接続を確立したら、OR マッパーでモデル化するテーブルのマッピングクラスを宣言します。本記事では、Resources テーブルを使います。sqlalchemy.ext.declarative.declarative_base 関数を使って、新しいクラスにフィールド(カラム)を定義します。

base = declarative_base()
class Resources(base):
	__tablename__ = "Resources"
	FullPath = Column(String,primary_key=True)
	Permission = Column(String)
	...

Azure Data Lake Storage データをクエリ

マッピングクラスができたので、セッションオブジェクトを使ってデータソースをクエリすることができます。セッションにEngine をバインドして、セッションのquery メソッドにマッピングクラスを提供します。

query メソッドを使う

engine = create_engine("adls///?Schema=ADLSGen2&Account=myAccount&FileSystem=myFileSystem&AccessKey=myAccessKey&InitiateOAuth=GETANDREFRESH&OAuthSettingsLocation=/PATH/TO/OAuthSettings.txt")
factory = sessionmaker(bind=engine)
session = factory()
for instance in session.query(Resources).filter_by(Type="FILE"):
	print("FullPath: ", instance.FullPath)
	print("Permission: ", instance.Permission)
	print("---------")

ほかの方法としては、execute メソッドを適切なテーブルオブジェクトに使うことが可能です。以下のコードはアクティブなsession に対して有効です。

execute メソッドを使う

Resources_table = Resources.metadata.tables["Resources"]
for instance in session.execute(Resources_table.select().where(Resources_table.c.Type == "FILE")):
	print("FullPath: ", instance.FullPath)
	print("Permission: ", instance.Permission)
	print("---------")

より複雑なクエリとして、JOIN、集計、Limit などが利用可能です。詳細はヘルプドキュメントをご覧ください。

Azure Data Lake Storage からPython へのデータ連携には、ぜひCData Python Connector をご利用ください

このようにCData Python Connector と併用することで、270を超えるSaaS、NoSQL データをPython からコーディングなしで扱うことができます。30日の無償評価版が利用できますので、ぜひ自社で使っているクラウドサービスやNoSQL と合わせて活用してみてください。

日本のユーザー向けにCData Python Connector は、UI の日本語化、ドキュメントの日本語化、日本語でのテクニカルサポートを提供しています。

関連コンテンツ

トライアル・お問い合わせ

30日間無償トライアルで、CData のリアルタイムデータ連携をフルにお試しいただけます。記事や製品についてのご質問があればお気軽にお問い合わせください。