今すぐお試しください!

製品の詳細CData JDBC Driver for SQL Analysis Services を確認して、無償評価版をダウンロード:

今すぐダウンロード

Elasticsearch へLogstash 経由でSQL Analysis Services データをロードする方法

全文検索のElasticsearch のETL/ELT モジュールのLogstash とJDBC Driver を使い、SQL Analysis Services データを簡単にロードする方法。

Elasticsearch は、人気の分散型の全文検索エンジンです。データを一元的に格納することで、超高速検索や、関連性の細かな調整、パワフルな分析が大規模に、手軽に実行可能になります。Elasticsearch にはデータのローディングを行うパイプラインツール「Logstash」があります。CData Drivers を利用することができるので、CData JDBC Drivers の対応するあらゆるデータソースを簡単にElasticsearch に取り込んで検索・分析を行うことができます。

この記事では、CData Drivers for SQL Analysis Services を使って、SQL Analysis Services のデータをLogstash 経由でElasticsearch にロードする手順を説明します。

Elasticsearch Logstash でCData JDBC Driver for SQL Analysis Services を使用

  • CData JDBC Driver for SQL Analysis Services をLogstash が稼働するマシンにインストールします。
  • 以下のパスにJDBC Driver がインストールされます。後ほどこのパスを使います。この.jar ファイルと製品版の場合は.lic ファイルをLogstash に配置して使います。
    C:\Program Files\CData\CData JDBC Driver for SQL Analysis Services 2019J\lib\cdata.jdbc.ssas.jar
  • 次に、Logstash とCData JDBC Driver をつなぐ、JDBC Input Plugin をインストールします。JDBC Plugin は最新のLogstash だとデフォルトでついてきますが、バージョンによっては追加する必要があります。
    https://www.elastic.co/guide/en/logstash/5.4/plugins-inputs-jdbc.html
  • CData JDBC Driver の.jar ファイルと.lic ファイルを、Logstashの「/logstash-core/lib/jars/」に移動します。

Logstash でElasticsearch にSQL Analysis Services データを送る

それでは、LogstashでElasticsearch にSQL Analysis Services データ転送を行うための設定ファイルを作成していきます。

  • Logstash のデータ処理定義であるlogstash.conf ファイルにSQL Analysis Services データを取得する処理書きます。Input はJDBC、Output はElasticsearch にします。データローディングジョブの起動間隔は30秒に設定しています。
  • CData JDBC Driver の.jar をjdbc driver ライブラリにして、クラス名を設定、SQL Analysis Services への接続プロパティをJDBC URL の形でせっていします。JDBC URL ではほかにも詳細な設定を行うことができるので、細かくは製品ドキュメントをご覧ください。
  • 接続するには、Url プロパティを有効なSQL Server Analysis Services エンドポイントに設定して認証を提供します。XMLA アクセスを使用して、HTTP 経由でホストされているSQL Server Analysis Services インスタンスに接続できます。 Microsoft ドキュメント configure HTTP access を参照してSQL Server Analysis Services に接続してください。

    SQL をSQL Server Analysis Services に実行するには、ヘルプドキュメントの「Analysis Services データの取得」を参照してください。接続ごとにメタデータを取得する代わりに、CacheLocation を設定できます。

    • HTTP 認証

      AuthScheme を"Basic" または"Digest" に設定してUser とPassword を設定します。CustomHeaders に他の認証値を指定します。

    • Windows (NTLM)

      Windows のUser とPassword を設定して、AuthScheme をNTLM に設定します。

    • Kerberos およびKerberos Delegation

      Kerberos を認証するには、AuthScheme をNEGOTIATE に設定します。Kerberos 委任を使うには、AuthScheme をKERBEROSDELEGATION に設定します。必要があれば、User、Password およびKerberosSPN を設定します。デフォルトでは、本製品は指定されたUrl でSPN と通信しようと試みます。

    • SSL/TLS:

      デフォルトでは、本製品はサーバーの証明書をシステムの信頼できる証明書ストアと照合してSSL/TLS のネゴシエーションを試みます。別の証明書を指定するには、利用可能なフォーマットについてヘルプドキュメントの「SSLServerCert」プロパティを参照してください。

    You can then access any cube as a relational table: When you connect the data provider retrieves SSAS metadata and dynamically updates the table schemas. Instead of retrieving metadata every connection, you can set the CacheLocation property to automatically cache to a simple file-based store.

    See the Getting Started section of the CData documentation, under Retrieving Analysis Services Data, to execute SQL-92 queries to the cubes.

                
                    input {
                        jdbc {
                          jdbc_driver_library => "../logstash-core/lib/jars/cdata.jdbc.ssas.jar"
                          jdbc_driver_class => "Java::cdata.jdbc.ssas.SSASDriver"
                          jdbc_connection_string => "jdbc:ssas:User=myuseraccount;Password=mypassword;URL=http://localhost/OLAP/msmdpump.dll;"
                          jdbc_user => ""
                          jdbc_password => ""
                          schedule => "*/30 * * * * *"
                          statement => "SELECT Fiscal_Year, Sales_Amount FROM Adventure_Works"
                        }
                      }
                      
                     
                      output {
                        Elasticsearch {
                            index => "ssas_Adventure_Works"
                            document_id => "xxxx"
                        }
                      }
                
            

Logstash でSQL Analysis Services のローディングを実行

それでは作成した「logstash.conf」ファイルを元にLogstash を実行してみます。

> logstash-7.8.0\bin\logstash -f logstash.conf

成功した旨のログが出ます。これでSQL Analysis Services データがElasticsearch にロードされました。

例えばKibana で実際にElasticsearch に転送されたデータを見てみます。

        
            GET ssas_Adventure_Works/_search
            {
            "query": {
                "match_all": {}
            }
            }
        
    

データがElasticsearch に格納されていることが確認できました。

CData JDBC Driver for SQL Analysis Services をLogstash で使うことで、SQL Analysis Services コネクタとして機能し、簡単にデータをElasticsearch にロードすることができました。ぜひ、30日の無償評価版 をお試しください。

 
 
ダウンロード