製品をチェック

SASxpt Driver の30日間無償トライアルをダウンロード

 30日間の無償トライアルへ

製品の詳細

SAS XPORT files アイコン SASxpt JDBC Driver 相談したい

SAS xpt (XPORT) ファイルデータを組み込んだパワフルなJava アプリケーションを短時間・低コストで作成して配布できます。

Elasticsearch へLogstash 経由でSAS xpt データをロードする方法

全文検索サービスElasticsearch のETL モジュール「Logstash」とCData JDBC ドライバを使って、SAS xpt データを簡単にロードする方法をご紹介。

加藤龍彦
デジタルマーケティング

最終更新日:2022-07-22
sasxpt ロゴ

CData

jdbc ロゴ画像
Elasticsearch Logstash ロゴ

こんにちは!ウェブ担当の加藤です。マーケ関連のデータ分析や整備もやっています。

Elasticsearch は、人気の分散型全文検索エンジンです。データを一元的に格納することで、超高速検索や、関連性の細かな調整、パワフルな分析が大規模に、手軽に実行可能になります。Elasticsearch にはデータのローディングを行うパイプラインツール「Logstash」があります。CData Drivers を利用することができるので、30日の無償評価版をダウンロードしてあらゆるデータソースを簡単にElasticsearch に取り込んで検索・分析を行うことができます。

この記事では、CData Driver for SASXpt を使って、SAS xpt のデータをLogstash 経由でElasticsearch にロードする手順を説明します。

Elasticsearch Logstash でCData JDBC Driver for SASXpt を使用

  • CData JDBC Driver for SASXpt をLogstash が稼働するマシンにインストールします。
  • 以下のパスにJDBC Driver がインストールされます(2022J の部分はご利用される製品バージョンによって異なります)。後ほどこのパスを使います。この.jar ファイル(製品版の場合は.lic ファイルも)をLogstash に配置します。
    C:\Program Files\CData\CData JDBC Driver for SASXpt 2022J\lib\cdata.jdbc.sasxpt.jar
  • 次に、Logstash とCData JDBC ドライバをつなぐ、JDBC Input Plugin をインストールします。JDBC Plugin は最新のLogstash だとデフォルトでついてきますが、バージョンによっては追加する必要があります。
    https://www.elastic.co/guide/en/logstash/5.4/plugins-inputs-jdbc.html
  • CData JDBC ドライバの.jar ファイルと.lic ファイルを、Logstashの「/logstash-core/lib/jars/」に移動します。

Logstash でElasticsearch にSAS xpt データを送る

それでは、Logstash でElasticsearch にSAS xpt データの転送を行うための設定ファイルを作成していきます。

  • Logstash のデータ処理定義であるlogstash.conf ファイルにSAS xpt データを取得する処理を書きます。Input はJDBC、Output はElasticsearch にします。データローディングジョブの起動間隔は30秒に設定しています。
  • CData JDBC ドライバの.jar をjdbc driver ライブラリにして、クラス名を設定、SAS xpt への接続プロパティをJDBC URL の形でせっていします。JDBC URL ではほかにも詳細な設定を行うことができるので、細かくは製品ドキュメントをご覧ください。
  • ローカルSASXpt ファイルへの接続

    URI をSASXpt ファイルを格納しているフォルダに設定すると、ローカルのSASXpt ファイルに接続できます。

    S3 データソースへの接続

    Amazon S3 ソースに接続してSASXpt ファイルを読み込むことができます。以下のプロパティを設定して接続します:

    • URI:接続するバケット内のフォルダに設定。
    • AWSAccessKey:AWS アカウントのアクセスキーに設定。
    • AWSSecretKey:AWS アカウントのシークレットキーに設定。
    • TemporaryLocalFolder:SASXptファイルを一時的にダウンロードするために使用するフォルダへのパス、またはURI に設定。

    Azure Data Lake Storage Gen2 への接続

    ADLS Gen2 に接続してSASXpt ファイルを読み込むことができます。以下のプロパティを設定して接続します:

    • URI:ファイルシステムの名前およびSASXpt ファイルにコンタクトするフォルダの名前に設定。
    • AzureAccount:Azure Data Lake storage アカウントの名前に設定。
    • AzureAccessKey:Azure Data Lake storage Gen 2 ストレージアカウントのアクセスキーに設定。
    • TemporaryLocalFolder:SASXptファイルを一時的にダウンロードするために使用するフォルダへのパス、またはURI に設定。

                input {
                    jdbc {
                        jdbc_driver_library => "../logstash-core/lib/jars/cdata.jdbc.sasxpt.jar"
                        jdbc_driver_class => "Java::cdata.jdbc.sasxpt.SASXptDriver"
                        jdbc_connection_string => "jdbc:sasxpt:URI=C:/folder;"
                        jdbc_user => ""
                        jdbc_password => ""
                        schedule => "*/30 * * * * *"
                        statement => "SELECT Id, Column1 FROM SampleTable_1 WHERE Column2 = '100'"
                    }
                }
                    
                    
                output {
                    Elasticsearch {
                        index => "sasxpt_SampleTable_1"
                        document_id => "xxxx"
                    }
                }
            

Logstash でSAS xpt のローディングを実行

それでは作成した「logstash.conf」ファイルを元にLogstash を実行してみます。

> logstash-7.8.0\bin\logstash -f logstash.conf

成功した旨のログが出ます。これでSAS xpt データがElasticsearch にロードされました。

例えばKibana で実際にElasticsearch に転送されたデータを見てみます。

        GET sasxpt_SampleTable_1/_search
        {
            "query": {
                "match_all": {}
            }
        }
    
Elasticsearch にロードされたSAS xpt データをクエリ

データがElasticsearch に格納されていることが確認できました。

Elasticsearch にロードされたSAS xpt データを確認

CData JDBC Driver for SASXpt をLogstash で使うことで、SAS xpt コネクタとして機能し、簡単にデータをElasticsearch にロードすることができました。ぜひ、30日の無償評価版をお試しください。

関連コンテンツ

トライアル・お問い合わせ

30日間無償トライアルで、CData のリアルタイムデータ連携をフルにお試しいただけます。記事や製品についてのご質問があればお気軽にお問い合わせください。