製品をチェック

CSV Driver の30日間無償トライアルをダウンロード

 30日間の無償トライアルへ

製品の詳細

CSV/TSV Files アイコン CSV JDBC Driver 相談したい

CSV & TSV 連携のパワフルなJava アプリケーションを素早く作成して配布。

Elasticsearch へLogstash 経由でCSV データをロードする方法

全文検索サービスElasticsearch のETL モジュール「Logstash」とCData JDBC ドライバを使って、CSV データを簡単にロードする方法をご紹介。

加藤龍彦
ウェブデベロッパー

最終更新日:2022-07-22
csv ロゴ

CData

jdbc ロゴ画像
Elasticsearch Logstash ロゴ

こんにちは!ウェブ担当の加藤です。マーケ関連のデータ分析や整備もやっています。

Elasticsearch は、人気の分散型全文検索エンジンです。データを一元的に格納することで、超高速検索や、関連性の細かな調整、パワフルな分析が大規模に、手軽に実行可能になります。Elasticsearch にはデータのローディングを行うパイプラインツール「Logstash」があります。CData Drivers を利用することができるので、30日の無償評価版をダウンロードしてあらゆるデータソースを簡単にElasticsearch に取り込んで検索・分析を行うことができます。

この記事では、CData Driver for CSV を使って、CSV のデータをLogstash 経由でElasticsearch にロードする手順を説明します。

Elasticsearch Logstash でCData JDBC Driver for CSV を使用

  • CData JDBC Driver for CSV をLogstash が稼働するマシンにインストールします。
  • 以下のパスにJDBC Driver がインストールされます(2022J の部分はご利用される製品バージョンによって異なります)。後ほどこのパスを使います。この.jar ファイル(製品版の場合は.lic ファイルも)をLogstash に配置します。
    C:\Program Files\CData\CData JDBC Driver for CSV 2022J\lib\cdata.jdbc.csv.jar
  • 次に、Logstash とCData JDBC ドライバをつなぐ、JDBC Input Plugin をインストールします。JDBC Plugin は最新のLogstash だとデフォルトでついてきますが、バージョンによっては追加する必要があります。
    https://www.elastic.co/guide/en/logstash/5.4/plugins-inputs-jdbc.html
  • CData JDBC ドライバの.jar ファイルと.lic ファイルを、Logstashの「/logstash-core/lib/jars/」に移動します。

Logstash でElasticsearch にCSV データを送る

それでは、Logstash でElasticsearch にCSV データの転送を行うための設定ファイルを作成していきます。

  • Logstash のデータ処理定義であるlogstash.conf ファイルにCSV データを取得する処理を書きます。Input はJDBC、Output はElasticsearch にします。データローディングジョブの起動間隔は30秒に設定しています。
  • CData JDBC ドライバの.jar をjdbc driver ライブラリにして、クラス名を設定、CSV への接続プロパティをJDBC URL の形でせっていします。JDBC URL ではほかにも詳細な設定を行うことができるので、細かくは製品ドキュメントをご覧ください。
  • CSV 接続プロパティの取得・設定方法

    DataSource プロパティにローカルフォルダ名を設定します。

    .csv、.tab、.txt ではない拡張子のファイルを扱う場合には、IncludeFiles 使用する拡張子をカンマ区切りで設定します。Microsoft Jet OLE DB 4.0 driver 準拠の場合にはExtended Properties を設定することができます。別の方法として、Schema.ini ファイルにファイル形式を記述することも可能です。

    CSV ファイルの削除や更新を行う場合には、UseRowNumbers をTRUE に設定します。RowNumber はテーブルKey として扱われます。

    Amazon S3 内のCSV への接続

    URI をバケットおよびフォルダに設定します。さらに、次のプロパティを設定して認証します。

    • AWSAccessKey:AWS アクセスキー(username)に設定。
    • AWSSecretKey:AWS シークレットキーに設定。

    Box 内のCSV への接続

    URI をCSV ファイルを含むフォルダへのパスに設定します。Box へ認証するには、OAuth 認証標準を使います。 認証方法については、Box への接続 を参照してください。

    Dropbox 内のCSV への接続

    URI をCSV ファイルを含むフォルダへのパスに設定します。Dropbox へ認証するには、OAuth 認証標準を使います。 認証方法については、Dropbox への接続 を参照してください。ユーザーアカウントまたはサービスアカウントで認証できます。ユーザーアカウントフローでは、以下の接続文字列で示すように、ユーザー資格情報の接続プロパティを設定する必要はありません。

    SharePoint Online SOAP 内のCSV への接続

    URI をCSV ファイルを含むドキュメントライブラリに設定します。認証するには、User、Password、およびStorageBaseURL を設定します。

    SharePoint Online REST 内のCSV への接続

    URI をCSV ファイルを含むドキュメントライブラリに設定します。StorageBaseURL は任意です。指定しない場合、ドライバーはルートドライブで動作します。 認証するには、OAuth 認証標準を使用します。

    FTP 内のCSV への接続

    URI をルートフォルダとして使用されるフォルダへのパスが付いたサーバーのアドレスに設定します。認証するには、User およびPassword を設定します。

    Google Drive 内のCSV への接続

    デスクトップアプリケーションからのGoogle への認証には、InitiateOAuth をGETANDREFRESH に設定して、接続してください。詳細はドキュメントの「Google Drive への接続」を参照してください。

                input {
                    jdbc {
                        jdbc_driver_library => "../logstash-core/lib/jars/cdata.jdbc.csv.jar"
                        jdbc_driver_class => "Java::cdata.jdbc.csv.CSVDriver"
                        jdbc_connection_string => "jdbc:csv:DataSource=MyCSVFilesFolder;"
                        jdbc_user => ""
                        jdbc_password => ""
                        schedule => "*/30 * * * * *"
                        statement => "SELECT City, SUM(TotalDue) FROM Customer GROUP BY City"
                    }
                }
                    
                    
                output {
                    Elasticsearch {
                        index => "csv_Customer"
                        document_id => "xxxx"
                    }
                }
            

Logstash でCSV のローディングを実行

それでは作成した「logstash.conf」ファイルを元にLogstash を実行してみます。

> logstash-7.8.0\bin\logstash -f logstash.conf

成功した旨のログが出ます。これでCSV データがElasticsearch にロードされました。

例えばKibana で実際にElasticsearch に転送されたデータを見てみます。

        GET csv_Customer/_search
        {
            "query": {
                "match_all": {}
            }
        }
    
Elasticsearch にロードされたCSV データをクエリ

データがElasticsearch に格納されていることが確認できました。

Elasticsearch にロードされたCSV データを確認

CData JDBC Driver for CSV をLogstash で使うことで、CSV コネクタとして機能し、簡単にデータをElasticsearch にロードすることができました。ぜひ、30日の無償評価版をお試しください。

関連コンテンツ

トライアル・お問い合わせ

30日間無償トライアルで、CData のリアルタイムデータ連携をフルにお試しいただけます。記事や製品についてのご質問があればお気軽にお問い合わせください。