ノーコードでクラウド上のデータとの連携を実現。
詳細はこちら →Google BigQuery Connector の30日間無償トライアルをダウンロード
30日間の無償トライアルへ製品の詳細
Google BigQuery Python Connector 相談したいGoogle BigQuery へのデータ連携用のPython Connector ライブラリ。pandas、SQLAlchemy、Dash、petl などの主要なPython ツールにGoogle BigQuery をシームレスに統合。
CData
こんにちは!ウェブ担当の加藤です。マーケ関連のデータ分析や整備もやっています。
Pythonエコシステムには多くのモジュールがあり、システム構築を素早く効率的に行うことができます。本記事では、CData Python Connector for GoogleBigQuery とpetl フレームワークを使って、BigQuery データにPython から接続してデータを変換、CSV に出力するETL 変換を実装してみます。
CData Python Connector は効率的なデータ処理によりBigQuery データ にPython から接続し、高いパフォーマンスを発揮します。BigQuery にデータをクエリする際、ドライバーはフィルタリング、集計などがサポートされている場合SQL 処理を直接BigQuery 側に行わせ、サポートされていないSQL 処理については、組み込みのSQL エンジンによりクライアント側で処理を行います(JOIN やSQL 関数など)。
pip で必要なモジュールおよびフレームワークをインストールします:
pip install petl pip install pandas
モジュールとフレームワークをインストールしたら、ETL アプリケーションを組んでいきます。コードのスニペットは以下の通りです。フルコードは記事の末尾に付いています。
CData Connector を含むモジュールをインポートします。
import petl as etl import pandas as pd import cdata.googlebigquery as mod
接続文字列で接続を確立します。connect 関数を使って、CData BigQuery Connector からBigQuery への接続を行います
cnxn = mod.connect("DataSetId=MyDataSetId;ProjectId=MyProjectId;InitiateOAuth=GETANDREFRESH;OAuthSettingsLocation=/PATH/TO/OAuthSettings.txt")")
Google BigQuery はOAuth 認証標準を使用します。個々のユーザーとしてGoogle API にアクセスするには、組み込みクレデンシャルを使うか、OAuth アプリを作成します。
OAuth では、Google Apps ドメインのユーザーとしてサービスアカウントを使ってアクセスすることもできます。サービスカウントでの認証では、OAuth JWT を取得するためのアプリケーションを登録する必要があります。
OAuth 値に加え、DatasetId、ProjectId を設定する必要があります。詳細はヘルプドキュメントの「はじめに」を参照してください。
BigQuery にはSQL でデータアクセスが可能です。Orders エンティティからのデータを読み出します。
sql = "SELECT OrderName, Freight FROM Orders WHERE ShipCity = 'New York'"
DataFrame に格納されたクエリ結果を使って、petl でETL(抽出・変換・ロード)パイプラインを組みます。この例では、BigQuery データ を取得して、Freight カラムでデータをソートして、CSV ファイルにデータをロードします。
table1 = etl.fromdb(cnxn,sql) table2 = etl.sort(table1,'Freight') etl.tocsv(table2,'orders_data.csv')
CData Python Connector for GoogleBigQuery を使えば、データベースを扱う場合と同感覚で、BigQuery データ を扱うことができ、petl のようなETL パッケージから直接データにアクセスが可能になります。
BigQuery Python Connector の30日の無償トライアル をぜひダウンロードして、BigQuery データ への接続をPython アプリやスクリプトから簡単に作成しましょう。
import petl as etl import pandas as pd import cdata.googlebigquery as mod cnxn = mod.connect("DataSetId=MyDataSetId;ProjectId=MyProjectId;InitiateOAuth=GETANDREFRESH;OAuthSettingsLocation=/PATH/TO/OAuthSettings.txt")") sql = "SELECT OrderName, Freight FROM Orders WHERE ShipCity = 'New York'" table1 = etl.fromdb(cnxn,sql) table2 = etl.sort(table1,'Freight') etl.tocsv(table2,'orders_data.csv')