各製品の資料を入手。
詳細はこちら →AWS Glue ジョブからAlloyDB のデータにJDBC 経由で接続
Amazon S3 でホストされているCData JDBC ドライバーを使用してAWS Glue ジョブからAlloyDB にデータ連携。
最終更新日:2023-09-07
この記事で実現できるAlloyDB 連携のシナリオ
こんにちは!ウェブ担当の加藤です。マーケ関連のデータ分析や整備もやっています。
AWS Glue はAmazon のETL サービスであり、簡単にデータプレパレーションを実行してストレージおよび分析用に読み込むことができます。AWS Glue と一緒にPySpark モジュールを使用すると、JDBC 接続経由でデータを処理するジョブを作成し、そのデータをAWS データストアに直接読み込むことができます。ここでは、CData JDBC Driver for AlloyDB をAmazon S3 バケットにアップロードし、AlloyDB からデータを抽出してCSV ファイルとしてS3 に保存するためのAWS Glue ジョブを作成・実行する方法について説明します。
CData JDBC Driver for AlloyDB をAmazon S3 バケットにアップロード
CData JDBC Driver for AlloyDB をAWS Glue から使用するには、ドライバーの.jar ファイル(および必要なライセンスファイル)をAmazon S3 のバケットに配置する必要があります。
- Amazon S3 コンソールを開きます。
- バケットを選択、もしくは作成します。
- [アップロード]をクリックします。
- JDBC Driver の.jar ファイル(cdata.jdbc.alloydb.jar) をインストールディレクトリのlib フォルダから選択してアップロードします。
Amazon Glue Job を設定
- [分析]->[AWS Glue]をクリックします。
- AWS Glue コンソールで、[ETL]->[ジョブ]をクリックします。
- [ジョブの追加]をクリックして新しいGlue ジョブを作成します。
- ジョブのプロパティを設定します:
- 名前: AlloyDBGlueJob など任意のジョブ名
- IAM ロール: AWSGlueServiceRole もしくは AmazonS3FullAccessSelect の権限があるIAM ロールを設定(JDBC Driver がAmazon S3 バケットにあるため)。
- Type: [Spark]を選択。
- Glue version: ドロップダウンからバージョンを選択。
- このジョブ実行: [ユーザーが作成する新しいスクリプト]を選択。
スクリプトプロパティの設定: - スクリプトファイル名: GlueAlloyDBJDBC などのスクリプトファイル名。
- スクリプトが保存されているS3 パス: S3 バケットを入力もしくは選択。
- 一時ディレクトリ: S3 バケットを入力もしくは選択
- ETL 言語: [Python]を選択
- セキュリティ設定、スクリプトライブラリおよびジョブパラメータを展開。依存JARS パスは、JDBC の.jar ファイルをアップロードしたS3 バケットに設定。.jar ファイル名 s3://mybucket/cdata.jdbc.alloydb.jar も含めます。
- [次へ]をクリックすると、ほかのAWS エンドポイントへの接続オプション追加ができます。Redshift、MySQL などに接続する際にはここで接続を作成できます。
- [ジョブの保存とスクリプトの編集]をクリックします。
- 開いたエディタで、Python スクリプトを記述します。サンプルは以下です。
サンプルGlue スクリプト
CData JDBC driver でAlloyDB に接続するには、JDBC URL を作成します。さらにライセンスとしてJDBC URL にRTK プロパティを設定する必要があります。RTK は通常のライセンスと異なりますので、CData まで直接ご連絡をください。
AlloyDB 接続プロパティの取得・設定方法
AlloyDB に接続するには、次の接続プロパティが必要です。
- Server:AlloyDB データベースをホスティングしているサーバーのホスト名またはIP アドレス。
- Port(オプション):AlloyDB データベースをホスティングしているサーバーのポート。このプロパティはデフォルトで5432に設定されます。
- User:AlloyDB サーバーに認証する際に使われるユーザー。
- Password:AlloyDB サーバーに認証する際に使われるパスワード。
- Database(オプション):AlloyDB サーバーに接続する場合のデータベース。設定されていない場合は、ユーザーのデフォルトデータベースが使用されます。
AlloyDB への認証
標準認証
標準認証(事前に提供されたユーザーとパスワードの組み合わせを使用)は、デフォルトの認証形式です。標準認証で接続する場合は、これ以上のアクションは必要ありません。
pg_hba.conf 認証スキーム
CData 製品がサポートしている他の認証方法では、AlloyDB サーバー上のpg_hba.conf ファイルで有効化する必要があります。
AlloyDB サーバーでの認証の設定については、こちらを参照してください。
MD5
pg_hba.conf ファイルのauth-method をmd5 に設定すると、MD5 パスワード検証を使用して認証できます。
SASL
CData 製品は、SASL(特にSCRAM-SHA-256)でパスワードを検証することで認証できます。
この認証方法を使用するには、pg_hba.conf ファイルのauth-method をscram-sha-256 に設定します。
Kerberos
Kerberos 認証は、CData 製品が接続を試行している際にAlloyDB サーバーで開始されます。この認証方法を有効化するには、AlloyDB サーバーでKerberos を設定します。AlloyDB サーバーでのKerberos 認証の設定を完了したら、CData 製品からKerberos 認証を行う方法については、ヘルプドキュメントの「Kerberos の使用」セクションを参照してください。
ビルトイン接続文字列デザイナー
JDBC URL の作成をサポートするビルトインの接続文字列デザイナーがあります。ドライバーの.jar ファイルをダブルクリックするか、コマンドラインで.jar ファイルを実行するとデザイナーが開きます。
java -jar cdata.jdbc.alloydb.jar
必要項目を入力すると、デザインs-下部に接続文字列が生成されますのでクリップボードにコピーして使います。

CData JDBC driver をPySpark で使用して、AWS Glue モジュールでAlloyDB のデータを取得して、S3 にCSV 形式で保存するシンプルなスクリプト例は以下です。
import sys
from awsglue.transforms import *
from awsglue.utils import getResolvedOptions
from pyspark.context import SparkContext
from awsglue.context import GlueContext
from awsglue.dynamicframe import DynamicFrame
from awsglue.job import Job
args = getResolvedOptions(sys.argv, ['JOB_NAME'])
sparkContext = SparkContext()
glueContext = GlueContext(sparkContext)
sparkSession = glueContext.spark_session
##Use the CData JDBC driver to read AlloyDB データ from the Orders table into a DataFrame
##Note the populated JDBC URL and driver class name
source_df = sparkSession.read.format("jdbc").option("url","jdbc:alloydb:RTK=5246...;User=alloydb;Password=admin;Database=alloydb;Server=127.0.0.1;Port=5432").option("dbtable","Orders").option("driver","cdata.jdbc.alloydb.AlloyDBDriver").load()
glueJob = Job(glueContext)
glueJob.init(args['JOB_NAME'], args)
##Convert DataFrames to AWS Glue's DynamicFrames Object
dynamic_dframe = DynamicFrame.fromDF(source_df, glueContext, "dynamic_df")
##Write the DynamicFrame as a file in CSV format to a folder in an S3 bucket.
##It is possible to write to any Amazon data store (SQL Server, Redshift, etc) by using any previously defined connections.
retDatasink4 = glueContext.write_dynamic_frame.from_options(frame = dynamic_dframe, connection_type = "s3", connection_options = {"path": "s3://mybucket/outfiles"}, format = "csv", transformation_ctx = "datasink4")
glueJob.commit()
Glueジョブを実行する
スクリプト記述後、Glue ジョブを実行します。実行した取得/ロードのジョブが完了するとAWS Glue コンソールのジョブページでステータスが確認できます。成功するとS3 バケットにAlloyDB のデータのCSV ファイルが生成されています。
このようにCData JDBC Driver for AlloyDB をAWS Glue で使用することで、AlloyDB のデータをAWS Glue で自在に扱うことができます。Glue の外部データへの接続性を拡張するJDBC Driver を是非お試しください。