今すぐお試しください!

製品の詳細CData Python Connector for Amazon S3 を確認して、無償評価版をダウンロード:

今すぐダウンロード

Python でAmazon S3 データをETL

CData Python Connector for Amazon S3 を使って、Python petl でAmazon S3 data のETL 連携・パイプラインアプリケーションを作成。

Pythonエコシステムには、多くのモジュールがあり、システム構築を素早く効率的に行うことができます。CData Python Connector for Amazon S3 とpetl フレームワークを使って、Amazon S3 に連携するPython アプリや、Amazon S3 データをETL することが可能です。本記事では、CData Python Connector をpetl と一緒に使い、ETL 処理を実装します。

CData Python Connector は、ビルトインされた効率的なデータプロセスにより、リアルタイムAmazon S3 data データにPython からアクセスし、高いパフォーマンスと接続性を発揮します。Amazon S3 に複雑なクエリを投げる際に、ドライバーはフィルタリング、集計などがサポートされている場合、SQL 処理を直接Amazon S3 側に行わせ、サポートされていないSQL 処理については、組み込まれたSQL エンジンによりクライアント側で処理を行います(特にJOIN やSQL 関数など)。

Amazon S3 Data への接続

Amazon S3 data への連携は、RDB ソースへのアクセスと同感覚で行うことができます。必要な接続プロパティを使って接続文字列を作成します。本記事では、接続文字列をcreate_engine 関数のパラメータとして送ります。

Amazon S3 リクエストを認可するには、管理者アカウントまたはカスタム権限を持つIAM ユーザーの認証情報を入力します。AccessKey をアクセスキーID に設定します。SecretKey をシークレットアクセスキーに設定します。

Note: AWS アカウント管理者として接続できますが、AWS サービスにアクセスするにはIAM ユーザー認証情報を使用することをお勧めします。

アクセスキーの取得

IAM ユーザーの資格情報を取得するには:

  1. IAM コンソールにサインインします。
  2. ナビゲーションペインで[ユーザー]を選択します。
  3. ユーザーのアクセスキーを作成または管理するには、ユーザーを選択してから[セキュリティ認証情報]タブを選択します。

AWS ルートアカウントの資格情報を取得するには:

  1. ルートアカウントの資格情報を使用してAWS 管理コンソールにサインインします。
  2. アカウント名または番号を選択し、表示されたメニューで[My Security Credentials]を選択します。
  3. [Continue to Security Credentials]をクリックし、[Access Keys]セクションを展開して、ルートアカウントのアクセスキーを管理または作成します。

AWS ロールとして認証

多くの場合、認証にはAWS ルートユーザーのダイレクトなセキュリティ認証情報ではなく、IAM ロールを使用することをお勧めします。RoleARN を指定することでAWS ロールを代わりに使用できます。これにより、本製品は指定されたロールの資格情報を取得しようと試みます。

(すでにEC2 インスタンスなどで接続されているのではなく)AWS に接続している場合は、ロールを引き受けるIAM ユーザーのAccessKey とSecretKey を追加で指定する必要があります。AWS ルートユーザーのAccessKey および SecretKey を指定する場合、ロールは使用できません。

SSO 認証

SSO 認証を必要とするユーザーおよびロールには、RoleARN およびPrincipalArn 接続プロパティを指定してください。各Identity Provider に固有のSSOProperties を指定し、AccessKey とSecretKey を空のままにする必要があります。これにより、本製品は一時的な認証資格情報を取得するために、リクエストでSSO 認証情報を送信します。

CData Amazon S3 Connector をインストールしたら、次のように必要なモジュールをインストールし、Python オブジェクトでAmazon S3 にアクセスします。

必要なモジュールのインストール

pip で必要なモジュールおよびフレームワークをインストールします:

pip install petl
pip install pandas

Python でAmazon S3 データをETL 処理するアプリを構築

モジュールとフレームワークをインストールしたら、ETL アプリケーションを組んでいきます。コードのスニペットは以下の通りです。フルコードは記事の末尾に付いています。

CData Connector を含むモジュールをインポートします:

import petl as etl
import pandas as pd
import cdata.amazons3 as mod

接続文字列で接続を確立します。connect 関数を使って、CData Amazon S3 Connector からAmazon S3 への接続を行います

cnxn = mod.connect("AccessKey=a123;SecretKey=s123;")

Amazon S3 をクエリするSQL 文の作成

Amazon S3 にはSQL でデータアクセスが可能です。ObjectsACL エンティティからのデータを読み出します。

sql = "SELECT Name, OwnerId FROM ObjectsACL WHERE Name = 'TestBucket'"

Amazon S3 Data のETL 処理

DataFrame に格納されたクエリ結果を使って、petl でExtract(取得)、Transform(加工)、Load(ロード)を組みます。この例では、Amazon S3 data を取得して、OwnerId カラムでデータをソートして、CSV ファイルにデータをロードします。

table1 = etl.fromdb(cnxn,sql)

table2 = etl.sort(table1,'OwnerId')

etl.tocsv(table2,'objectsacl_data.csv')

CData Python Connector for Amazon S3 を使えば、データベースを扱う場合と同感覚で、Amazon S3 data を扱うことができ、petl のようなETL パッケージから直接データにアクセスが可能になります。

製品の無償トライアル情報

Amazon S3 Python Connector の30日の無償トライアル をぜひダウンロードして、Amazon S3 data への接続をPython アプリやスクリプトから簡単に作成しましょう。



フルソースコード

import petl as etl
import pandas as pd
import cdata.amazons3 as mod

cnxn = mod.connect("AccessKey=a123;SecretKey=s123;")

sql = "SELECT Name, OwnerId FROM ObjectsACL WHERE Name = 'TestBucket'"

table1 = etl.fromdb(cnxn,sql)

table2 = etl.sort(table1,'OwnerId')

etl.tocsv(table2,'objectsacl_data.csv')
 
 
ダウンロード