ノーコードでクラウド上のデータとの連携を実現。
詳細はこちら →Apache Kafka Driver の30日間無償トライアルをダウンロード
30日間のトライアルで試してみるCData
こんにちは!ウェブ担当の加藤です。マーケ関連のデータ分析や整備もやっています。
Elasticsearch は、人気の分散型全文検索エンジンです。データを一元的に格納することで、超高速検索や、関連性の細かな調整、パワフルな分析が大規模に、手軽に実行可能になります。Elasticsearch にはデータのローディングを行うパイプラインツール「Logstash」があります。CData Drivers を利用することができるので、30日の無償評価版をダウンロードしてあらゆるデータソースを簡単にElasticsearch に取り込んで検索・分析を行うことができます。
この記事では、CData Driver for ApacheKafka を使って、Kafka のデータをLogstash 経由でElasticsearch にロードする手順を説明します。
それでは、Logstash でElasticsearch にKafka データの転送を行うための設定ファイルを作成していきます。
BootstrapServers およびTopic プロパティを設定して、Apache Kafka サーバーのアドレスと、対話するトピックを指定します。
サーバー証明書を信頼する必要がある場合があります。そのような場合は、必要に応じてTrustStorePath およびTrustStorePassword を指定してください。
input { jdbc { jdbc_driver_library => "../logstash-core/lib/jars/cdata.jdbc.apachekafka.jar" jdbc_driver_class => "Java::cdata.jdbc.apachekafka.ApacheKafkaDriver" jdbc_connection_string => "jdbc:apachekafka:User=admin;Password=pass;BootStrapServers=https://localhost:9091;Topic=MyTopic;" jdbc_user => "" jdbc_password => "" schedule => "*/30 * * * * *" statement => "SELECT Id, Column1 FROM SampleTable_1 WHERE Column2 = '100'" } } output { Elasticsearch { index => "apachekafka_SampleTable_1" document_id => "xxxx" } }
それでは作成した「logstash.conf」ファイルを元にLogstash を実行してみます。
> logstash-7.8.0\bin\logstash -f logstash.conf
成功した旨のログが出ます。これでKafka データがElasticsearch にロードされました。
例えばKibana で実際にElasticsearch に転送されたデータを見てみます。
GET apachekafka_SampleTable_1/_search { "query": { "match_all": {} } }
データがElasticsearch に格納されていることが確認できました。
CData JDBC Driver for ApacheKafka をLogstash で使うことで、Kafka コネクタとして機能し、簡単にデータをElasticsearch にロードすることができました。ぜひ、30日の無償評価版をお試しください。