本記事では CData サポート担当からこんなことを聞かれたらどこを確認すべきか?という観点で、よく頂くお問合せ内容をご紹介します。
記事はこちら →Pythonエコシステムには、多くのモジュールがあり、システム構築を素早く効率的に行うことができます。CData Python Connector for ADLS とpetl フレームワークを使って、Azure Data Lake Storage に連携するPython アプリや、Azure Data Lake Storage データをETL することが可能です。本記事では、CData Python Connector をpetl と一緒に使い、ETL 処理を実装します。
CData Python Connector は、ビルトインされた効率的なデータプロセスにより、リアルタイムAzure Data Lake Storage data データにPython からアクセスし、高いパフォーマンスと接続性を発揮します。Azure Data Lake Storage に複雑なクエリを投げる際に、ドライバーはフィルタリング、集計などがサポートされている場合、SQL 処理を直接Azure Data Lake Storage 側に行わせ、サポートされていないSQL 処理については、組み込まれたSQL エンジンによりクライアント側で処理を行います(特にJOIN やSQL 関数など)。
Azure Data Lake Storage data への連携は、RDB ソースへのアクセスと同感覚で行うことができます。必要な接続プロパティを使って接続文字列を作成します。本記事では、接続文字列をcreate_engine 関数のパラメータとして送ります。
Gen 1 uses OAuth 2.0 in Azure AD for authentication.
For this, an Active Directory web application is required. You can create one as follows:
To authenticate against a Gen 1 DataLakeStore account, the following properties are required:
To authenticate against a Gen 2 DataLakeStore account, the following properties are required:
CData Azure Data Lake Storage Connector をインストールしたら、次のように必要なモジュールをインストールし、Python オブジェクトでAzure Data Lake Storage にアクセスします。
pip で必要なモジュールおよびフレームワークをインストールします:
pip install petl pip install pandas
モジュールとフレームワークをインストールしたら、ETL アプリケーションを組んでいきます。コードのスニペットは以下の通りです。フルコードは記事の末尾に付いています。
CData Connector を含むモジュールをインポートします:
import petl as etl import pandas as pd import cdata.adls as mod
接続文字列で接続を確立します。connect 関数を使って、CData Azure Data Lake Storage Connector からAzure Data Lake Storage への接続を行います
cnxn = mod.connect("Schema=ADLSGen2;Account=myAccount;FileSystem=myFileSystem;AccessKey=myAccessKey;InitiateOAuth=GETANDREFRESH;OAuthSettingsLocation=/PATH/TO/OAuthSettings.txt")")
Azure Data Lake Storage にはSQL でデータアクセスが可能です。Resources エンティティからのデータを読み出します。
sql = "SELECT FullPath, Permission FROM Resources WHERE Type = 'FILE'"
DataFrame に格納されたクエリ結果を使って、petl でExtract(取得)、Transform(加工)、Load(ロード)を組みます。この例では、Azure Data Lake Storage data を取得して、Permission カラムでデータをソートして、CSV ファイルにデータをロードします。
table1 = etl.fromdb(cnxn,sql) table2 = etl.sort(table1,'Permission') etl.tocsv(table2,'resources_data.csv')
CData Python Connector for ADLS を使えば、データベースを扱う場合と同感覚で、Azure Data Lake Storage data を扱うことができ、petl のようなETL パッケージから直接データにアクセスが可能になります。
Azure Data Lake Storage Python Connector の30日の無償トライアル をぜひダウンロードして、Azure Data Lake Storage data への接続をPython アプリやスクリプトから簡単に作成しましょう。
import petl as etl import pandas as pd import cdata.adls as mod cnxn = mod.connect("Schema=ADLSGen2;Account=myAccount;FileSystem=myFileSystem;AccessKey=myAccessKey;InitiateOAuth=GETANDREFRESH;OAuthSettingsLocation=/PATH/TO/OAuthSettings.txt")") sql = "SELECT FullPath, Permission FROM Resources WHERE Type = 'FILE'" table1 = etl.fromdb(cnxn,sql) table2 = etl.sort(table1,'Permission') etl.tocsv(table2,'resources_data.csv')