ノーコードでクラウド上のデータとの連携を実現。
詳細はこちら →Azure Data Lake Storage Connector の30日間無償トライアルをダウンロード
30日間の無償トライアルへ製品の詳細
Azure Data Lake Storage Python Connector 相談したいAzure Data Lake Storage データ連携用のPython コネクタライブラリ。Azure Data Lake Storage データをpandas、SQLAlchemy、Dash、petl などの人気のPython ツールにシームレスに統合。
CData
こんにちは!ウェブ担当の加藤です。マーケ関連のデータ分析や整備もやっています。
Pythonエコシステムには多くのモジュールがあり、システム構築を素早く効率的に行うことができます。本記事では、CData Python Connector for ADLS とpetl フレームワークを使って、Azure Data Lake Storage データにPython から接続してデータを変換、CSV に出力するETL 変換を実装してみます。
CData Python Connector は効率的なデータ処理によりAzure Data Lake Storage データ にPython から接続し、高いパフォーマンスを発揮します。Azure Data Lake Storage にデータをクエリする際、ドライバーはフィルタリング、集計などがサポートされている場合SQL 処理を直接Azure Data Lake Storage 側に行わせ、サポートされていないSQL 処理については、組み込みのSQL エンジンによりクライアント側で処理を行います(JOIN やSQL 関数など)。
pip で必要なモジュールおよびフレームワークをインストールします:
pip install petl pip install pandas
モジュールとフレームワークをインストールしたら、ETL アプリケーションを組んでいきます。コードのスニペットは以下の通りです。フルコードは記事の末尾に付いています。
CData Connector を含むモジュールをインポートします。
import petl as etl import pandas as pd import cdata.adls as mod
接続文字列で接続を確立します。connect 関数を使って、CData Azure Data Lake Storage Connector からAzure Data Lake Storage への接続を行います
cnxn = mod.connect("Schema=ADLSGen2;Account=myAccount;FileSystem=myFileSystem;AccessKey=myAccessKey;InitiateOAuth=GETANDREFRESH;OAuthSettingsLocation=/PATH/TO/OAuthSettings.txt")")
Gen 1 DataLakeStorage アカウントに接続するには、はじめに以下のプロパティを設定します。
Gen 1 は、認証方法としてAzure Active Directory OAuth(AzureAD)およびマネージドサービスID(AzureMSI)をサポートしています。認証方法は、ヘルプドキュメントの「Azure DataLakeStorage Gen 1 への認証」セクションを参照してください。
Gen 2 DataLakeStorage アカウントに接続するには、はじめに以下のプロパティを設定します。
Gen 2は、認証方法としてアクセスキー、共有アクセス署名(SAS)、Azure Active Directory OAuth(AzureAD)、マネージドサービスID(AzureMSI)など多様な方法をサポートしています。AzureAD、AzureMSI での認証方法は、ヘルプドキュメントの「Azure DataLakeStorage Gen 2 への認証」セクションを参照してください。
アクセスキーを使用して接続するには、AccessKey プロパティを取得したアクセスキーの値に、AuthScheme を「AccessKey」に設定します。
Azure ポータルからADLS Gen2 ストレージアカウントのアクセスキーを取得できます。
共有アクセス署名を使用して接続するには、SharedAccessSignature プロパティを接続先リソースの有効な署名に設定して、AuthScheme を「SAS」に設定します。 共有アクセス署名は、Azure Storage Explorer などのツールで生成できます。
Azure Data Lake Storage にはSQL でデータアクセスが可能です。Resources エンティティからのデータを読み出します。
sql = "SELECT FullPath, Permission FROM Resources WHERE Type = 'FILE'"
DataFrame に格納されたクエリ結果を使って、petl でETL(抽出・変換・ロード)パイプラインを組みます。この例では、Azure Data Lake Storage データ を取得して、Permission カラムでデータをソートして、CSV ファイルにデータをロードします。
table1 = etl.fromdb(cnxn,sql) table2 = etl.sort(table1,'Permission') etl.tocsv(table2,'resources_data.csv')
CData Python Connector for ADLS を使えば、データベースを扱う場合と同感覚で、Azure Data Lake Storage データ を扱うことができ、petl のようなETL パッケージから直接データにアクセスが可能になります。
Azure Data Lake Storage Python Connector の30日の無償トライアル をぜひダウンロードして、Azure Data Lake Storage データ への接続をPython アプリやスクリプトから簡単に作成しましょう。
import petl as etl import pandas as pd import cdata.adls as mod cnxn = mod.connect("Schema=ADLSGen2;Account=myAccount;FileSystem=myFileSystem;AccessKey=myAccessKey;InitiateOAuth=GETANDREFRESH;OAuthSettingsLocation=/PATH/TO/OAuthSettings.txt")") sql = "SELECT FullPath, Permission FROM Resources WHERE Type = 'FILE'" table1 = etl.fromdb(cnxn,sql) table2 = etl.sort(table1,'Permission') etl.tocsv(table2,'resources_data.csv')