本記事では CData サポート担当からこんなことを聞かれたらどこを確認すべきか?という観点で、よく頂くお問合せ内容をご紹介します。
記事はこちら →Pythonエコシステムには、多くのモジュールがあり、システム構築を素早く効率的に行うことができます。CData Python Connector for AmazonS3 とpetl フレームワークを使って、Amazon S3 に連携するPython アプリや、Amazon S3 データをETL することが可能です。本記事では、CData Python Connector をpetl と一緒に使い、ETL 処理を実装します。
CData Python Connector は、ビルトインされた効率的なデータプロセスにより、リアルタイムAmazon S3 data データにPython からアクセスし、高いパフォーマンスと接続性を発揮します。Amazon S3 に複雑なクエリを投げる際に、ドライバーはフィルタリング、集計などがサポートされている場合、SQL 処理を直接Amazon S3 側に行わせ、サポートされていないSQL 処理については、組み込まれたSQL エンジンによりクライアント側で処理を行います(特にJOIN やSQL 関数など)。
Amazon S3 data への連携は、RDB ソースへのアクセスと同感覚で行うことができます。必要な接続プロパティを使って接続文字列を作成します。本記事では、接続文字列をcreate_engine 関数のパラメータとして送ります。
Amazon S3 リクエストを認可するには、管理者アカウントまたはカスタム権限を持つIAM ユーザーの認証情報を入力します。AccessKey をアクセスキーID に設定します。SecretKey をシークレットアクセスキーに設定します。
Note: AWS アカウント管理者として接続できますが、AWS サービスにアクセスするにはIAM ユーザー認証情報を使用することをお勧めします。
尚、本製品はAmazon S3 のファイルの一覧表示やユーザー管理情報の取得用です。S3 に保管されているExcel、CSV、JSON などのファイル内のデータを読み込みたい場合には、Excel Driver、CSV Driver、JSON Driver をご利用ください。
IAM ユーザーの資格情報を取得するには:
AWS ルートアカウントの資格情報を取得するには:
多くの場合、認証にはAWS ルートユーザーのダイレクトなセキュリティ認証情報ではなく、IAM ロールを使用することをお勧めします。RoleARN を指定することでAWS ロールを代わりに使用できます。これにより、本製品は指定されたロールの資格情報を取得しようと試みます。
(すでにEC2 インスタンスなどで接続されているのではなく)AWS に接続している場合は、ロールを引き受けるIAM ユーザーのAccessKey とSecretKey を追加で指定する必要があります。AWS ルートユーザーのAccessKey および SecretKey を指定する場合、ロールは使用できません。
SSO 認証を必要とするユーザーおよびロールには、RoleARN およびPrincipalArn 接続プロパティを指定してください。各Identity Provider に固有のSSOProperties を指定し、AccessKey とSecretKey を空のままにする必要があります。これにより、本製品は一時的な認証資格情報を取得するために、リクエストでSSO 認証情報を送信します。
CData Amazon S3 Connector をインストールしたら、次のように必要なモジュールをインストールし、Python オブジェクトでAmazon S3 にアクセスします。
pip で必要なモジュールおよびフレームワークをインストールします:
pip install petl pip install pandas
モジュールとフレームワークをインストールしたら、ETL アプリケーションを組んでいきます。コードのスニペットは以下の通りです。フルコードは記事の末尾に付いています。
CData Connector を含むモジュールをインポートします:
import petl as etl import pandas as pd import cdata.amazons3 as mod
接続文字列で接続を確立します。connect 関数を使って、CData Amazon S3 Connector からAmazon S3 への接続を行います
cnxn = mod.connect("AccessKey=a123;SecretKey=s123;")
Amazon S3 にはSQL でデータアクセスが可能です。ObjectsACL エンティティからのデータを読み出します。
sql = "SELECT Name, OwnerId FROM ObjectsACL WHERE Name = 'TestBucket'"
DataFrame に格納されたクエリ結果を使って、petl でExtract(取得)、Transform(加工)、Load(ロード)を組みます。この例では、Amazon S3 data を取得して、OwnerId カラムでデータをソートして、CSV ファイルにデータをロードします。
table1 = etl.fromdb(cnxn,sql) table2 = etl.sort(table1,'OwnerId') etl.tocsv(table2,'objectsacl_data.csv')
CData Python Connector for AmazonS3 を使えば、データベースを扱う場合と同感覚で、Amazon S3 data を扱うことができ、petl のようなETL パッケージから直接データにアクセスが可能になります。
Amazon S3 Python Connector の30日の無償トライアル をぜひダウンロードして、Amazon S3 data への接続をPython アプリやスクリプトから簡単に作成しましょう。
import petl as etl import pandas as pd import cdata.amazons3 as mod cnxn = mod.connect("AccessKey=a123;SecretKey=s123;") sql = "SELECT Name, OwnerId FROM ObjectsACL WHERE Name = 'TestBucket'" table1 = etl.fromdb(cnxn,sql) table2 = etl.sort(table1,'OwnerId') etl.tocsv(table2,'objectsacl_data.csv')