全文検索のElasticsearch のETL/ELT モジュールのLogstash とJDBC Driver を使い、Amazon S3 データを簡単にロードする方法。
Elasticsearch は、人気の分散型の全文検索エンジンです。データを一元的に格納することで、超高速検索や、関連性の細かな調整、パワフルな分析が大規模に、手軽に実行可能になります。Elasticsearch にはデータのローディングを行うパイプラインツール「Logstash」があります。CData Drivers を利用することができるので、CData JDBC Drivers の対応するあらゆるデータソースを簡単にElasticsearch に取り込んで検索・分析を行うことができます。
この記事では、CData Drivers for Amazon S3 を使って、Amazon S3 のデータをLogstash 経由でElasticsearch にロードする手順を説明します。

Elasticsearch Logstash でCData JDBC Driver for Amazon S3 を使用
- CData JDBC Driver for Amazon S3 をLogstash が稼働するマシンにインストールします。
-
以下のパスにJDBC Driver がインストールされます。後ほどこのパスを使います。この.jar ファイルと製品版の場合は.lic ファイルをLogstash に配置して使います。
C:\Program Files\CData\CData JDBC Driver for Amazon S3 2019J\lib\cdata.jdbc.amazons3.jar
- 次に、Logstash とCData JDBC Driver をつなぐ、JDBC Input Plugin をインストールします。JDBC Plugin は最新のLogstash だとデフォルトでついてきますが、バージョンによっては追加する必要があります。
https://www.elastic.co/guide/en/logstash/5.4/plugins-inputs-jdbc.html - CData JDBC Driver の.jar ファイルと.lic ファイルを、Logstashの「/logstash-core/lib/jars/」に移動します。
Logstash でElasticsearch にAmazon S3 データを送る
それでは、LogstashでElasticsearch にAmazon S3 データ転送を行うための設定ファイルを作成していきます。
- Logstash のデータ処理定義であるlogstash.conf ファイルにAmazon S3 データを取得する処理書きます。Input はJDBC、Output はElasticsearch にします。データローディングジョブの起動間隔は30秒に設定しています。
- CData JDBC Driver の.jar をjdbc driver ライブラリにして、クラス名を設定、Amazon S3 への接続プロパティをJDBC URL の形でせっていします。JDBC URL ではほかにも詳細な設定を行うことができるので、細かくは製品ドキュメントをご覧ください。
- IAM コンソールにサインインします。
- ナビゲーションペインで[ユーザー]を選択します。
- ユーザーのアクセスキーを作成または管理するには、ユーザーを選択してから[セキュリティ認証情報]タブを選択します。
- ルートアカウントの資格情報を使用してAWS 管理コンソールにサインインします。
- アカウント名または番号を選択し、表示されたメニューで[My Security Credentials]を選択します。
- [Continue to Security Credentials]をクリックし、[Access Keys]セクションを展開して、ルートアカウントのアクセスキーを管理または作成します。
Amazon S3 リクエストを認可するには、管理者アカウントまたはカスタム権限を持つIAM ユーザーの認証情報を入力します。AccessKey をアクセスキーID に設定します。SecretKey をシークレットアクセスキーに設定します。
Note: AWS アカウント管理者として接続できますが、AWS サービスにアクセスするにはIAM ユーザー認証情報を使用することをお勧めします。
アクセスキーの取得
IAM ユーザーの資格情報を取得するには:
AWS ルートアカウントの資格情報を取得するには:
AWS ロールとして認証
多くの場合、認証にはAWS ルートユーザーのダイレクトなセキュリティ認証情報ではなく、IAM ロールを使用することをお勧めします。RoleARN を指定することでAWS ロールを代わりに使用できます。これにより、本製品は指定されたロールの資格情報を取得しようと試みます。
(すでにEC2 インスタンスなどで接続されているのではなく)AWS に接続している場合は、ロールを引き受けるIAM ユーザーのAccessKey とSecretKey を追加で指定する必要があります。AWS ルートユーザーのAccessKey および SecretKey を指定する場合、ロールは使用できません。
SSO 認証
SSO 認証を必要とするユーザーおよびロールには、RoleARN およびPrincipalArn 接続プロパティを指定してください。各Identity Provider に固有のSSOProperties を指定し、AccessKey とSecretKey を空のままにする必要があります。これにより、本製品は一時的な認証資格情報を取得するために、リクエストでSSO 認証情報を送信します。
input {
jdbc {
jdbc_driver_library => "../logstash-core/lib/jars/cdata.jdbc.amazons3.jar"
jdbc_driver_class => "Java::cdata.jdbc.amazons3.AmazonS3Driver"
jdbc_connection_string => "jdbc:amazons3:AccessKey=a123;SecretKey=s123;"
jdbc_user => ""
jdbc_password => ""
schedule => "*/30 * * * * *"
statement => "SELECT Name, OwnerId FROM ObjectsACL WHERE Name = 'TestBucket'"
}
}
output {
Elasticsearch {
index => "amazons3_ObjectsACL"
document_id => "xxxx"
}
}
Logstash でAmazon S3 のローディングを実行
それでは作成した「logstash.conf」ファイルを元にLogstash を実行してみます。
> logstash-7.8.0\bin\logstash -f logstash.conf
成功した旨のログが出ます。これでAmazon S3 データがElasticsearch にロードされました。
例えばKibana で実際にElasticsearch に転送されたデータを見てみます。
GET amazons3_ObjectsACL/_search
{
"query": {
"match_all": {}
}
}

データがElasticsearch に格納されていることが確認できました。

CData JDBC Driver for Amazon S3 をLogstash で使うことで、Amazon S3 コネクタとして機能し、簡単にデータをElasticsearch にロードすることができました。ぜひ、30日の無償評価版 をお試しください。