Python でRedshift データをETL

詳細情報をご希望ですか?

無償トライアル:

ダウンロードへ

製品の詳細情報へ:

Amazon Redshift Python Connector

Amazon Redshift へのデータ連携用のPython Connecotr ライブラリ。 pandas、SQLAlchemy、Dash、petl などの主要なPython ツールにAmazon Redshift をシームレスに統合。



CData Python Connector for Redshift を使って、Python petl でRedshift data のETL 連携・パイプラインアプリケーションを作成。

Pythonエコシステムには、多くのモジュールがあり、システム構築を素早く効率的に行うことができます。CData Python Connector for Redshift とpetl フレームワークを使って、Redshift に連携するPython アプリや、Redshift データをETL することが可能です。本記事では、CData Python Connector をpetl と一緒に使い、ETL 処理を実装します。

CData Python Connector は、ビルトインされた効率的なデータプロセスにより、リアルタイムRedshift data データにPython からアクセスし、高いパフォーマンスと接続性を発揮します。Redshift に複雑なクエリを投げる際に、ドライバーはフィルタリング、集計などがサポートされている場合、SQL 処理を直接Redshift 側に行わせ、サポートされていないSQL 処理については、組み込まれたSQL エンジンによりクライアント側で処理を行います(特にJOIN やSQL 関数など)。

Redshift Data への接続

Redshift data への連携は、RDB ソースへのアクセスと同感覚で行うことができます。必要な接続プロパティを使って接続文字列を作成します。本記事では、接続文字列をcreate_engine 関数のパラメータとして送ります。

Redshift への接続には次を設定します:

  • Server: 接続するデータベースをホストしているクラスタのホスト名およびIP アドレス。
  • Port: クラスタのポート。
  • Database: データベース名、ブランクの場合ユーザーのデフォルトデータベースになります。
  • User: ユーザー名。
  • Password: ユーザーのパスワード。

Server およびPort の値はAWS の管理コンソールで取得可能です:

  1. Amazon Redshift console (http://console.aws.amazon.com/redshift) を開く。
  2. Clusters ページで、クラスタ名をクリック。
  3. クラスタのConfiguration タブで、表示された接続文字列からクラスタのURL をコピーします。

    CData Redshift Connector をインストールしたら、次のように必要なモジュールをインストールし、Python オブジェクトでRedshift にアクセスします。

    必要なモジュールのインストール

    pip で必要なモジュールおよびフレームワークをインストールします:

    pip install petl
    pip install pandas

    Python でRedshift データをETL 処理するアプリを構築

    モジュールとフレームワークをインストールしたら、ETL アプリケーションを組んでいきます。コードのスニペットは以下の通りです。フルコードは記事の末尾に付いています。

    CData Connector を含むモジュールをインポートします:

    import petl as etl
    import pandas as pd
    import cdata.redshift as mod
    

    接続文字列で接続を確立します。connect 関数を使って、CData Redshift Connector からRedshift への接続を行います

    cnxn = mod.connect("User=admin;Password=admin;Database=dev;Server=examplecluster.my.us-west-2.redshift.amazonaws.com;Port=5439;")
    

    Redshift をクエリするSQL 文の作成

    Redshift にはSQL でデータアクセスが可能です。Orders エンティティからのデータを読み出します。

    sql = "SELECT ShipName, ShipCity FROM Orders WHERE ShipCountry = 'USA'"
    

    Redshift Data のETL 処理

    DataFrame に格納されたクエリ結果を使って、petl でExtract(取得)、Transform(加工)、Load(ロード)を組みます。この例では、Redshift data を取得して、ShipCity カラムでデータをソートして、CSV ファイルにデータをロードします。

    table1 = etl.fromdb(cnxn,sql)
    
    table2 = etl.sort(table1,'ShipCity')
    
    etl.tocsv(table2,'orders_data.csv')
    

    CData Python Connector for Redshift を使えば、データベースを扱う場合と同感覚で、Redshift data を扱うことができ、petl のようなETL パッケージから直接データにアクセスが可能になります。

    製品の無償トライアル情報

    Redshift Python Connector の30日の無償トライアル をぜひダウンロードして、Redshift data への接続をPython アプリやスクリプトから簡単に作成しましょう。



    フルソースコード

    import petl as etl
    import pandas as pd
    import cdata.redshift as mod
    
    cnxn = mod.connect("User=admin;Password=admin;Database=dev;Server=examplecluster.my.us-west-2.redshift.amazonaws.com;Port=5439;")
    
    sql = "SELECT ShipName, ShipCity FROM Orders WHERE ShipCountry = 'USA'"
    
    table1 = etl.fromdb(cnxn,sql)
    
    table2 = etl.sort(table1,'ShipCity')
    
    etl.tocsv(table2,'orders_data.csv')