エンタープライズサーチのNeuron にKafka データを取り込んで検索利用

詳細情報をご希望ですか?

無償トライアル:

ダウンロードへ

製品の詳細情報へ:

Apache Kafka JDBC Driver

Apache Kafka データに連携するJava アプリケーションを素早く、簡単に開発できる便利なドライバー。



企業内検索エンジンサービスの Neuron にKafka のデータを取り込んで検索する方法:CData JDBC Driver。

ブレインズテクノロジー社のNeuron は、先端OSS 技術(Apache Solr)を活用したエンタープライズサーチ(企業内検索エンジン)サービスです。Apache Solr は、エンタープライズサーチ機能をAPI として提供してくれますが、Neuron はApache Solr に企業ユーザーがデータを探索するためのシンプルかつ使いやすいユーザーインターフェースと管理画面・運用機能を提供してくれます。これによりエンドユーザーが簡単にエンタープライズサーチを利用することができます。管理画面では、ファイルやデータのクローリング設定がUI で行えるようになっています。この記事では、Neuron に備わっているJDBC インターフェース経由で、CData JDBC Driver for Kafka を利用することでNeuron にKafka データを取り込んで検索で利用できるようにします。

Neuron にCData JDBC Driver for Kafka データをロード

CData JDBC Driver for Kafka のインストールと.jar ファイルの配置

  • CData JDBC Driver for Kafka をNeuron と同じマシンにインストールします。
  • 以下のパスにJDBC Driver がインストールされます。
    C:\Program Files\CData\CData JDBC Driver for Kafka 20xxJ\lib\cdata.jdbc.apachekafka.jar
  • このcdata.jdbc.apachekafka.jar とcdata.jdbc.apachekafka.lic ファイルをコピーして、Neuron のC:\APP cf\lib フォルダに配置します。

Neuron CF でのKafka データを扱うリポジトリの作成

  • Neuron CF でクローラーの設定をGUI で行います。JDBC を読み取るためのリポジトリを作成します。Neuron の管理画面にログインし、[リポジトリ]→[リポジトリコレクション一覧]→[新規]をクリックします。
  • 任意のリポジトリ名を入力します。タイプは[JDBC]を選択します。
  • 次に、ドライバーのクラス名とJDBC 接続文字列でKafka への接続を行います。

    BootstrapServers およびTopic プロパティを設定して、Apache Kafka サーバーのアドレスと、対話するトピックを指定します。

    認可メカニズム

    • SASL PlainUser およびPassword プロパティを指定する必要があります。AuthScheme は'Plain' に設定します。
    • SASL SSLUser およびPassword プロパティを指定する必要があります。AuthScheme は'Scram' に、UseSSL はtrue に設定します。
    • SSLSSLCert およびSSLCertPassword プロパティを指定する必要があります。UseSSL はtrue に設定します。
    • KerberosUser およびPassword プロパティを指定する必要があります。AuthScheme は'Kerberos' に設定します。

    サーバー証明書を信頼する必要がある場合があります。そのような場合は、必要に応じてTrustStorePath およびTrustStorePassword を指定してください。


    ドライバクラス名:cdata.jdbc.apachekafka.ApacheKafkaDriver
    接続文字列:jdbc:apachekafka:User=admin;Password=pass;BootStrapServers=https://localhost:9091;Topic=MyTopic;
  • [更新]をクリックして、Kafka に接続するリポジトリコレクションができました。

Neuron でKafka のデータをクローリングするジョブを作成

続いて、Kafka のどのデータをどのようにクローリングするのかをジョブで定義していきます。

  • 管理画面で[ジョブ]→[ジョブ一覧]→[新規]とクリックします。
  • 任意のジョブ名を入力します。出力先にはSolr を選択します。リポジトリは先ほど作成したKafka に接続するリポジトリコレクションを選びます。
  • 次に基本タブからジョブ実行を手動にするか、定期実行するかを自由に設定します。
  • SQL タブでは、どんなデータを取得するのか、テーブル名やカラム、フィルタリング条件などを設定できます。CData JDBC Driver がKafka データをテーブルにモデル化しているので、標準SQL でKafka をクエリすることができます。
    • SQL文:SELECT Id, Column1 FROM SampleTable_1
    • キーカラム:Id など取得テーブルのキーとなるカラム
    • 検索対象カラム:検索の対象とするカラム
    • タイトルカラム:検索結果のタイトルとするカラム
    • タイムスタンプカラム:タイムスタンプとなるカラムがあれば、ここで指定します
  • リクエストパラメータでは、検索結果レコードのURL (があれば)を設定することもできます。URL を表示できると表示された検索結果からレコードに簡単に移動できます。
  • 取得元では、ラベルを設定しておきます。[更新]をクリックして、クローラージョブの設定を完了します。

Neuron でKafka データをクロールするジョブを実行

実際にNeuron で作成したジョブを実行します。[ジョブ]→[状態とジョブ管理]をクリックし、作成したジョブの[Start]をクリックします。

ジョブが正常完了すると、[Done]がステータスとして表示されます。

Neuron 上でのKafka データの検索の実施

実際にNeuron 上で検索ができるか確認してみます。取得元を絞り込むこと、内容やファイル名での検索、ファイルサイズやファイル更新日の絞り込み、部分一致や全部一致で検索が可能です。 検索をかけてみると、以下のようにデータを取得できました。

CData JDBC Driver for Kafka をNeuron で使うことで、Kafka コネクタとして機能し、簡単にデータを取得して同期することができました。ぜひ、30日の無償評価版 をお試しください。