製品をチェック

Amazon Redshift Connector の30日間無償トライアルをダウンロード

 30日間の無償トライアルへ

製品の詳細

Amazon Redshift アイコン Amazon Redshift Python Connector 相談したい

Amazon Redshift へのデータ連携用のPython Connecotr ライブラリ。 pandas、SQLAlchemy、Dash、petl などの主要なPython ツールにAmazon Redshift をシームレスに統合。

Python でRedshift データを変換・出力するETL 処理を作る方法

CData Python Connector とpetl モジュールを使って、Redshift データを変換後にCSV ファイルに吐き出すETL 処理を実装します。

加藤龍彦
ウェブデベロッパー

最終更新日:2023-09-23
redshift ロゴ

CData

python ロゴ画像
Python ロゴ

こんにちは!ウェブ担当の加藤です。マーケ関連のデータ分析や整備もやっています。

Pythonエコシステムには多くのモジュールがあり、システム構築を素早く効率的に行うことができます。本記事では、CData Python Connector for Redshift とpetl フレームワークを使って、Redshift データにPython から接続してデータを変換、CSV に出力するETL 変換を実装してみます。

CData Python Connector は効率的なデータ処理によりRedshift データ にPython から接続し、高いパフォーマンスを発揮します。Redshift にデータをクエリする際、ドライバーはフィルタリング、集計などがサポートされている場合SQL 処理を直接Redshift 側に行わせ、サポートされていないSQL 処理については、組み込みのSQL エンジンによりクライアント側で処理を行います(JOIN やSQL 関数など)。

必要なモジュールのインストール

pip で必要なモジュールおよびフレームワークをインストールします:

pip install petl
pip install pandas

Python でRedshift データをETL 処理するアプリを構築

モジュールとフレームワークをインストールしたら、ETL アプリケーションを組んでいきます。コードのスニペットは以下の通りです。フルコードは記事の末尾に付いています。

CData Connector を含むモジュールをインポートします。

import petl as etl
import pandas as pd
import cdata.redshift as mod

接続文字列で接続を確立します。connect 関数を使って、CData Redshift Connector からRedshift への接続を行います

cnxn = mod.connect("User=admin;Password=admin;Database=dev;Server=examplecluster.my.us-west-2.redshift.amazonaws.com;Port=5439;")

Redshift への接続には次を設定します:

  • Server: 接続するデータベースをホストしているクラスタのホスト名およびIP アドレス。
  • Port: クラスタのポート。
  • Database: データベース名、ブランクの場合ユーザーのデフォルトデータベースになります。
  • User: ユーザー名。
  • Password: ユーザーのパスワード。

Server およびPort の値はAWS の管理コンソールで取得可能です:

  1. Amazon Redshift console (http://console.aws.amazon.com/redshift) を開く。
  2. Clusters ページで、クラスタ名をクリック。
  3. クラスタのConfiguration タブで、表示された接続文字列からクラスタのURL をコピーします。

    Redshift をクエリするSQL 文の作成

    Redshift にはSQL でデータアクセスが可能です。Orders エンティティからのデータを読み出します。

    sql = "SELECT ShipName, ShipCity FROM Orders WHERE ShipCountry = 'USA'"
    

    Redshift データ のETL 処理

    DataFrame に格納されたクエリ結果を使って、petl でETL(抽出・変換・ロード)パイプラインを組みます。この例では、Redshift データ を取得して、ShipCity カラムでデータをソートして、CSV ファイルにデータをロードします。

    table1 = etl.fromdb(cnxn,sql)
    
    table2 = etl.sort(table1,'ShipCity')
    
    etl.tocsv(table2,'orders_data.csv')
    

    CData Python Connector for Redshift を使えば、データベースを扱う場合と同感覚で、Redshift データ を扱うことができ、petl のようなETL パッケージから直接データにアクセスが可能になります。

    おわりに

    Redshift Python Connector の30日の無償トライアル をぜひダウンロードして、Redshift データ への接続をPython アプリやスクリプトから簡単に作成しましょう。



    フルソースコード

    import petl as etl
    import pandas as pd
    import cdata.redshift as mod
    
    cnxn = mod.connect("User=admin;Password=admin;Database=dev;Server=examplecluster.my.us-west-2.redshift.amazonaws.com;Port=5439;")
    
    sql = "SELECT ShipName, ShipCity FROM Orders WHERE ShipCountry = 'USA'"
    
    table1 = etl.fromdb(cnxn,sql)
    
    table2 = etl.sort(table1,'ShipCity')
    
    etl.tocsv(table2,'orders_data.csv')
    

関連コンテンツ

トライアル・お問い合わせ

30日間無償トライアルで、CData のリアルタイムデータ連携をフルにお試しいただけます。記事や製品についてのご質問があればお気軽にお問い合わせください。