製品をチェック

Azure Data Lake Storage Driver の30日間無償トライアルをダウンロード

 30日間の無償トライアルへ

製品の詳細

Azure Data Lake Storage アイコン Azure Data Lake Storage JDBC Driver 相談したい

Azure Data Lake Storage データに連携するJava アプリケーションを素早く、簡単に開発できる便利なドライバー。

Elasticsearch へLogstash 経由でAzure Data Lake Storage データをロードする方法

全文検索サービスElasticsearch のETL モジュール「Logstash」とCData JDBC ドライバを使って、Azure Data Lake Storage データを簡単にロードする方法をご紹介。

加藤龍彦
デジタルマーケティング

最終更新日:2022-07-22
azuredatalake ロゴ

CData

jdbc ロゴ画像
Elasticsearch Logstash ロゴ

こんにちは!ウェブ担当の加藤です。マーケ関連のデータ分析や整備もやっています。

Elasticsearch は、人気の分散型全文検索エンジンです。データを一元的に格納することで、超高速検索や、関連性の細かな調整、パワフルな分析が大規模に、手軽に実行可能になります。Elasticsearch にはデータのローディングを行うパイプラインツール「Logstash」があります。CData Drivers を利用することができるので、30日の無償評価版をダウンロードしてあらゆるデータソースを簡単にElasticsearch に取り込んで検索・分析を行うことができます。

この記事では、CData Driver for ADLS を使って、Azure Data Lake Storage のデータをLogstash 経由でElasticsearch にロードする手順を説明します。

Elasticsearch Logstash でCData JDBC Driver for ADLS を使用

  • CData JDBC Driver for ADLS をLogstash が稼働するマシンにインストールします。
  • 以下のパスにJDBC Driver がインストールされます(2022J の部分はご利用される製品バージョンによって異なります)。後ほどこのパスを使います。この.jar ファイル(製品版の場合は.lic ファイルも)をLogstash に配置します。
    C:\Program Files\CData\CData JDBC Driver for ADLS 2022J\lib\cdata.jdbc.adls.jar
  • 次に、Logstash とCData JDBC ドライバをつなぐ、JDBC Input Plugin をインストールします。JDBC Plugin は最新のLogstash だとデフォルトでついてきますが、バージョンによっては追加する必要があります。
    https://www.elastic.co/guide/en/logstash/5.4/plugins-inputs-jdbc.html
  • CData JDBC ドライバの.jar ファイルと.lic ファイルを、Logstashの「/logstash-core/lib/jars/」に移動します。

Logstash でElasticsearch にAzure Data Lake Storage データを送る

それでは、Logstash でElasticsearch にAzure Data Lake Storage データの転送を行うための設定ファイルを作成していきます。

  • Logstash のデータ処理定義であるlogstash.conf ファイルにAzure Data Lake Storage データを取得する処理を書きます。Input はJDBC、Output はElasticsearch にします。データローディングジョブの起動間隔は30秒に設定しています。
  • CData JDBC ドライバの.jar をjdbc driver ライブラリにして、クラス名を設定、Azure Data Lake Storage への接続プロパティをJDBC URL の形でせっていします。JDBC URL ではほかにも詳細な設定を行うことができるので、細かくは製品ドキュメントをご覧ください。
  • Azure DataLakeStorage 接続プロパティの取得・設定方法

    Azure DataLakeStorage Gen 1 への接続

    Gen 1 DataLakeStorage アカウントに接続するには、はじめに以下のプロパティを設定します。

    • SchemaADLSGen1 を指定。
    • Account:アカウント名に設定。
    • AzureTenant:テナントId に設定。Azure Portal 内のAzure Data Lake プロパティから取得できます。
    • Directory:(オプション)複製したファイルを格納するためのパスを設定。指定しない場合は、ルートディレクトリが使用されます。

    Azure DataLakeStorage Gen 1 への認証

    Gen 1 は、認証方法としてAzure Active Directory OAuth(AzureAD)およびマネージドサービスID(AzureMSI)をサポートしています。認証方法は、ヘルプドキュメントの「Azure DataLakeStorage Gen 1 への認証」セクションを参照してください。

    Azure DataLakeStorage Gen 2 への接続

    Gen 2 DataLakeStorage アカウントに接続するには、はじめに以下のプロパティを設定します。

    • SchemaADLSGen2 に設定。
    • Account:ストレージアカウント名に設定。
    • FileSystem:このアカウントで使用するファイルシステム名に設定。例えば、Azure Blob コンテナ名など。
    • Directory:(オプション)複製したファイルを格納するためのパスを設定。指定しない場合は、ルートディレクトリが使用されます。

    Azure DataLakeStorage Gen 2 への認証

    Gen 2は、認証方法としてアクセスキー、共有アクセス署名(SAS)、Azure Active Directory OAuth(AzureAD)、マネージドサービスID(AzureMSI)など多様な方法をサポートしています。AzureAD、AzureMSI での認証方法は、ヘルプドキュメントの「Azure DataLakeStorage Gen 2 への認証」セクションを参照してください。

    アクセスキーを使用した認証

    アクセスキーを使用して接続するには、AccessKey プロパティを取得したアクセスキーの値に、AuthScheme を「AccessKey」に設定します。

    Azure ポータルからADLS Gen2 ストレージアカウントのアクセスキーを取得できます。

    1. Azure ポータルのADLS Gen2 ストレージアカウントにアクセスします。
    2. 設定で「アクセスキー」を選択します。
    3. 利用可能なアクセスキーの1つの値を「AccessKey」接続プロパティにコピーします。

    共有アクセス署名(SAS)

    共有アクセス署名を使用して接続するには、SharedAccessSignature プロパティを接続先リソースの有効な署名に設定して、AuthScheme を「SAS」に設定します。 共有アクセス署名は、Azure Storage Explorer などのツールで生成できます。

                input {
                    jdbc {
                        jdbc_driver_library => "../logstash-core/lib/jars/cdata.jdbc.adls.jar"
                        jdbc_driver_class => "Java::cdata.jdbc.adls.ADLSDriver"
                        jdbc_connection_string => "jdbc:adls:Schema=ADLSGen2;Account=myAccount;FileSystem=myFileSystem;AccessKey=myAccessKey;InitiateOAuth=REFRESH"
                        jdbc_user => ""
                        jdbc_password => ""
                        schedule => "*/30 * * * * *"
                        statement => "SELECT FullPath, Permission FROM Resources WHERE Type = 'FILE'"
                    }
                }
                    
                    
                output {
                    Elasticsearch {
                        index => "adls_Resources"
                        document_id => "xxxx"
                    }
                }
            

Logstash でAzure Data Lake Storage のローディングを実行

それでは作成した「logstash.conf」ファイルを元にLogstash を実行してみます。

> logstash-7.8.0\bin\logstash -f logstash.conf

成功した旨のログが出ます。これでAzure Data Lake Storage データがElasticsearch にロードされました。

例えばKibana で実際にElasticsearch に転送されたデータを見てみます。

        GET adls_Resources/_search
        {
            "query": {
                "match_all": {}
            }
        }
    
Elasticsearch にロードされたAzure Data Lake Storage データをクエリ

データがElasticsearch に格納されていることが確認できました。

Elasticsearch にロードされたAzure Data Lake Storage データを確認

CData JDBC Driver for ADLS をLogstash で使うことで、Azure Data Lake Storage コネクタとして機能し、簡単にデータをElasticsearch にロードすることができました。ぜひ、30日の無償評価版をお試しください。

関連コンテンツ

トライアル・お問い合わせ

30日間無償トライアルで、CData のリアルタイムデータ連携をフルにお試しいただけます。記事や製品についてのご質問があればお気軽にお問い合わせください。