エンタープライズサーチのNeuron にAzure Data Lake Storage データを取り込んで検索利用

詳細情報をご希望ですか?

無償トライアル:

ダウンロードへ

製品の詳細情報へ:

Azure Data Lake Storage JDBC Driver

Azure Data Lake Storage データに連携するJava アプリケーションを素早く、簡単に開発できる便利なドライバー。



企業内検索エンジンサービスの Neuron にAzure Data Lake Storage のデータを取り込んで検索する方法:CData JDBC Driver。

ブレインズテクノロジー社のNeuron は、先端OSS 技術(Apache Solr)を活用したエンタープライズサーチ(企業内検索エンジン)サービスです。Apache Solr は、エンタープライズサーチ機能をAPI として提供してくれますが、Neuron はApache Solr に企業ユーザーがデータを探索するためのシンプルかつ使いやすいユーザーインターフェースと管理画面・運用機能を提供してくれます。これによりエンドユーザーが簡単にエンタープライズサーチを利用することができます。管理画面では、ファイルやデータのクローリング設定がUI で行えるようになっています。この記事では、Neuron に備わっているJDBC インターフェース経由で、CData JDBC Driver for Azure Data Lake Storage を利用することでNeuron にAzure Data Lake Storage データを取り込んで検索で利用できるようにします。

Neuron にCData JDBC Driver for Azure Data Lake Storage データをロード

CData JDBC Driver for Azure Data Lake Storage のインストールと.jar ファイルの配置

  • CData JDBC Driver for Azure Data Lake Storage をNeuron と同じマシンにインストールします。
  • 以下のパスにJDBC Driver がインストールされます。
    C:\Program Files\CData\CData JDBC Driver for Azure Data Lake Storage 20xxJ\lib\cdata.jdbc.adls.jar
  • このcdata.jdbc.adls.jar とcdata.jdbc.adls.lic ファイルをコピーして、Neuron のC:\APP cf\lib フォルダに配置します。

Neuron CF でのAzure Data Lake Storage データを扱うリポジトリの作成

  • Neuron CF でクローラーの設定をGUI で行います。JDBC を読み取るためのリポジトリを作成します。Neuron の管理画面にログインし、[リポジトリ]→[リポジトリコレクション一覧]→[新規]をクリックします。
  • 任意のリポジトリ名を入力します。タイプは[JDBC]を選択します。
  • 次に、ドライバーのクラス名とJDBC 接続文字列でAzure Data Lake Storage への接続を行います。

    Authenticating to a Gen 1 DataLakeStore Account

    Gen 1 uses OAuth 2.0 in Azure AD for authentication.

    For this, an Active Directory web application is required. You can create one as follows:

    1. Sign in to your Azure Account through the .
    2. Select "Azure Active Directory".
    3. Select "App registrations".
    4. Select "New application registration".
    5. Provide a name and URL for the application. Select Web app for the type of application you want to create.
    6. Select "Required permissions" and change the required permissions for this app. At a minimum, "Azure Data Lake" and "Windows Azure Service Management API" are required.
    7. Select "Key" and generate a new key. Add a description, a duration, and take note of the generated key. You won't be able to see it again.

    To authenticate against a Gen 1 DataLakeStore account, the following properties are required:

    • Schema: Set this to ADLSGen1.
    • Account: Set this to the name of the account.
    • OAuthClientId: Set this to the application Id of the app you created.
    • OAuthClientSecret: Set this to the key generated for the app you created.
    • TenantId: Set this to the tenant Id. See the property for more information on how to acquire this.
    • Directory: Set this to the path which will be used to store the replicated file. If not specified, the root directory will be used.

    Authenticating to a Gen 2 DataLakeStore Account

    To authenticate against a Gen 2 DataLakeStore account, the following properties are required:

    • Schema: Set this to ADLSGen2.
    • Account: Set this to the name of the account.
    • FileSystem: Set this to the file system which will be used for this account.
    • AccessKey: Set this to the access key which will be used to authenticate the calls to the API. See the property for more information on how to acquire this.
    • Directory: Set this to the path which will be used to store the replicated file. If not specified, the root directory will be used.

    ドライバクラス名:cdata.jdbc.adls.ADLSDriver
    接続文字列:jdbc:adls:Schema=ADLSGen2;Account=myAccount;FileSystem=myFileSystem;AccessKey=myAccessKey;InitiateOAuth=REFRESH
  • [更新]をクリックして、Azure Data Lake Storage に接続するリポジトリコレクションができました。

Neuron でAzure Data Lake Storage のデータをクローリングするジョブを作成

続いて、Azure Data Lake Storage のどのデータをどのようにクローリングするのかをジョブで定義していきます。

  • 管理画面で[ジョブ]→[ジョブ一覧]→[新規]とクリックします。
  • 任意のジョブ名を入力します。出力先にはSolr を選択します。リポジトリは先ほど作成したAzure Data Lake Storage に接続するリポジトリコレクションを選びます。
  • 次に基本タブからジョブ実行を手動にするか、定期実行するかを自由に設定します。
  • SQL タブでは、どんなデータを取得するのか、テーブル名やカラム、フィルタリング条件などを設定できます。CData JDBC Driver がAzure Data Lake Storage データをテーブルにモデル化しているので、標準SQL でAzure Data Lake Storage をクエリすることができます。
    • SQL文:SELECT FullPath, Permission FROM Resources
    • キーカラム:Id など取得テーブルのキーとなるカラム
    • 検索対象カラム:検索の対象とするカラム
    • タイトルカラム:検索結果のタイトルとするカラム
    • タイムスタンプカラム:タイムスタンプとなるカラムがあれば、ここで指定します
  • リクエストパラメータでは、検索結果レコードのURL (があれば)を設定することもできます。URL を表示できると表示された検索結果からレコードに簡単に移動できます。
  • 取得元では、ラベルを設定しておきます。[更新]をクリックして、クローラージョブの設定を完了します。

Neuron でAzure Data Lake Storage データをクロールするジョブを実行

実際にNeuron で作成したジョブを実行します。[ジョブ]→[状態とジョブ管理]をクリックし、作成したジョブの[Start]をクリックします。

ジョブが正常完了すると、[Done]がステータスとして表示されます。

Neuron 上でのAzure Data Lake Storage データの検索の実施

実際にNeuron 上で検索ができるか確認してみます。取得元を絞り込むこと、内容やファイル名での検索、ファイルサイズやファイル更新日の絞り込み、部分一致や全部一致で検索が可能です。 検索をかけてみると、以下のようにデータを取得できました。

CData JDBC Driver for Azure Data Lake Storage をNeuron で使うことで、Azure Data Lake Storage コネクタとして機能し、簡単にデータを取得して同期することができました。ぜひ、30日の無償評価版 をお試しください。