Elasticsearch へLogstash 経由でKafka データをロードする方法

詳細情報をご希望ですか?

無償トライアル:

ダウンロードへ

製品の詳細情報へ:

Apache Kafka JDBC Driver

Apache Kafka データに連携するJava アプリケーションを素早く、簡単に開発できる便利なドライバー。



全文検索のElasticsearch のETL/ELT モジュールのLogstash とJDBC Driver を使い、Kafka データを簡単にロードする方法。

Elasticsearch は、人気の分散型の全文検索エンジンです。データを一元的に格納することで、超高速検索や、関連性の細かな調整、パワフルな分析が大規模に、手軽に実行可能になります。Elasticsearch にはデータのローディングを行うパイプラインツール「Logstash」があります。CData Drivers を利用することができるので、CData JDBC Drivers の対応するあらゆるデータソースを簡単にElasticsearch に取り込んで検索・分析を行うことができます。

この記事では、CData Drivers for Kafka を使って、Kafka のデータをLogstash 経由でElasticsearch にロードする手順を説明します。

Elasticsearch Logstash でCData JDBC Driver for Kafka を使用

  • CData JDBC Driver for Kafka をLogstash が稼働するマシンにインストールします。
  • 以下のパスにJDBC Driver がインストールされます。後ほどこのパスを使います。この.jar ファイルと製品版の場合は.lic ファイルをLogstash に配置して使います。
    C:\Program Files\CData\CData JDBC Driver for Kafka 2019J\lib\cdata.jdbc.apachekafka.jar
  • 次に、Logstash とCData JDBC Driver をつなぐ、JDBC Input Plugin をインストールします。JDBC Plugin は最新のLogstash だとデフォルトでついてきますが、バージョンによっては追加する必要があります。
    https://www.elastic.co/guide/en/logstash/5.4/plugins-inputs-jdbc.html
  • CData JDBC Driver の.jar ファイルと.lic ファイルを、Logstashの「/logstash-core/lib/jars/」に移動します。

Logstash でElasticsearch にKafka データを送る

それでは、LogstashでElasticsearch にKafka データ転送を行うための設定ファイルを作成していきます。

  • Logstash のデータ処理定義であるlogstash.conf ファイルにKafka データを取得する処理書きます。Input はJDBC、Output はElasticsearch にします。データローディングジョブの起動間隔は30秒に設定しています。
  • CData JDBC Driver の.jar をjdbc driver ライブラリにして、クラス名を設定、Kafka への接続プロパティをJDBC URL の形でせっていします。JDBC URL ではほかにも詳細な設定を行うことができるので、細かくは製品ドキュメントをご覧ください。
  • BootstrapServers およびTopic プロパティを設定して、Apache Kafka サーバーのアドレスと、対話するトピックを指定します。

    認可メカニズム

    • SASL PlainUser およびPassword プロパティを指定する必要があります。AuthScheme は'Plain' に設定します。
    • SASL SSLUser およびPassword プロパティを指定する必要があります。AuthScheme は'Scram' に、UseSSL はtrue に設定します。
    • SSLSSLCert およびSSLCertPassword プロパティを指定する必要があります。UseSSL はtrue に設定します。
    • KerberosUser およびPassword プロパティを指定する必要があります。AuthScheme は'Kerberos' に設定します。

    サーバー証明書を信頼する必要がある場合があります。そのような場合は、必要に応じてTrustStorePath およびTrustStorePassword を指定してください。

                
                    input {
                        jdbc {
                          jdbc_driver_library => "../logstash-core/lib/jars/cdata.jdbc.apachekafka.jar"
                          jdbc_driver_class => "Java::cdata.jdbc.apachekafka.ApacheKafkaDriver"
                          jdbc_connection_string => "jdbc:apachekafka:User=admin;Password=pass;BootStrapServers=https://localhost:9091;Topic=MyTopic;"
                          jdbc_user => ""
                          jdbc_password => ""
                          schedule => "*/30 * * * * *"
                          statement => "SELECT Id, Column1 FROM SampleTable_1 WHERE Column2 = '100'"
                        }
                      }
                      
                     
                      output {
                        Elasticsearch {
                            index => "apachekafka_SampleTable_1"
                            document_id => "xxxx"
                        }
                      }
                
            

Logstash でKafka のローディングを実行

それでは作成した「logstash.conf」ファイルを元にLogstash を実行してみます。

> logstash-7.8.0\bin\logstash -f logstash.conf

成功した旨のログが出ます。これでKafka データがElasticsearch にロードされました。

例えばKibana で実際にElasticsearch に転送されたデータを見てみます。

        
            GET apachekafka_SampleTable_1/_search
            {
            "query": {
                "match_all": {}
            }
            }
        
    

データがElasticsearch に格納されていることが確認できました。

CData JDBC Driver for Kafka をLogstash で使うことで、Kafka コネクタとして機能し、簡単にデータをElasticsearch にロードすることができました。ぜひ、30日の無償評価版 をお試しください。