全文検索のElasticsearch のETL/ELT モジュールのLogstash とJDBC Driver を使い、PCA Accounting データを簡単にロードする方法。
Elasticsearch は、人気の分散型の全文検索エンジンです。データを一元的に格納することで、超高速検索や、関連性の細かな調整、パワフルな分析が大規模に、手軽に実行可能になります。Elasticsearch にはデータのローディングを行うパイプラインツール「Logstash」があります。CData Drivers を利用することができるので、CData JDBC Drivers の対応するあらゆるデータソースを簡単にElasticsearch に取り込んで検索・分析を行うことができます。
この記事では、CData Drivers for PCA Accounting を使って、PCA Accounting のデータをLogstash 経由でElasticsearch にロードする手順を説明します。

Elasticsearch Logstash でCData JDBC Driver for PCA Accounting を使用
- CData JDBC Driver for PCA Accounting をLogstash が稼働するマシンにインストールします。
-
以下のパスにJDBC Driver がインストールされます。後ほどこのパスを使います。この.jar ファイルと製品版の場合は.lic ファイルをLogstash に配置して使います。
C:\Program Files\CData\CData JDBC Driver for PCA Accounting 2019J\lib\cdata.jdbc.pcaaccounting.jar
- 次に、Logstash とCData JDBC Driver をつなぐ、JDBC Input Plugin をインストールします。JDBC Plugin は最新のLogstash だとデフォルトでついてきますが、バージョンによっては追加する必要があります。
https://www.elastic.co/guide/en/logstash/5.4/plugins-inputs-jdbc.html - CData JDBC Driver の.jar ファイルと.lic ファイルを、Logstashの「/logstash-core/lib/jars/」に移動します。
Logstash でElasticsearch にPCA Accounting データを送る
それでは、LogstashでElasticsearch にPCA Accounting データ転送を行うための設定ファイルを作成していきます。
- Logstash のデータ処理定義であるlogstash.conf ファイルにPCA Accounting データを取得する処理書きます。Input はJDBC、Output はElasticsearch にします。データローディングジョブの起動間隔は30秒に設定しています。
- CData JDBC Driver の.jar をjdbc driver ライブラリにして、クラス名を設定、PCA Accounting への接続プロパティをJDBC URL の形でせっていします。JDBC URL ではほかにも詳細な設定を行うことができるので、細かくは製品ドキュメントをご覧ください。
- InitiateOAuth:GETANDREFRESH に設定。InitiateOAuth を使って、OAuth 交換や、手動での接続文字列のアクセストークン設定の繰り返しを避けられます。
- OAuthClientId:アプリケーション設定のクライアントId に設定。
- OAuthClientSecret:アプリケーション設定のクライアントシークレットに設定。
- CallbackURL:アプリケーション設定のリダイレクトURL に設定。
- ApiVersion:接続するPCA API Server バージョンを設定。
- DefaultDataArea:接続するデータ領域を設定。
- DataCenter:接続するサーバーのDataCenter 名を設定。
- ProductCode:PCA 製品コード名を設定。
- InputModuleName:PCA InputSlip のInputModuleName を設定。
PCA クラウド会計DX では、OAuth 2 認証標準を使います。
ユーザー資格情報の接続プロパティを設定せずに接続できます。接続に最小限必要な接続プロパティは、次のとおりです。
接続すると、本製品はデフォルトブラウザでPCA Accounting OAuth エンドポイントを開きます。ログインして、本製品にアクセス許可を与えます。本製品がOAuth プロセスを完了します。
ヘッドレスマシンの認証など、他のOAuth 認証フローについては、ヘルプドキュメントの「OAuth 認証の使用」を参照してください。
input {
jdbc {
jdbc_driver_library => "../logstash-core/lib/jars/cdata.jdbc.pcaaccounting.jar"
jdbc_driver_class => "Java::cdata.jdbc.pcaaccounting.PCAAccountingDriver"
jdbc_connection_string => "jdbc:pcaaccounting:OAuthClientId=MyOAuthClientId;OAuthClientSecret=MyOAuthClientSecret;CallbackURL=http://localhost:33333;ProductCode=MyProductCode;ApiVersion=V1;DataCenter=DataCenterName;DefaultDataArea=MyDefaultDataArea;InputModuleName=DefaultInputModuleName;InitiateOAuth=REFRESH"
jdbc_user => ""
jdbc_password => ""
schedule => "*/30 * * * * *"
statement => "SELECT Id, Name FROM BuGroup"
}
}
output {
Elasticsearch {
index => "pcaaccounting_BuGroup"
document_id => "xxxx"
}
}
Logstash でPCA Accounting のローディングを実行
それでは作成した「logstash.conf」ファイルを元にLogstash を実行してみます。
> logstash-7.8.0\bin\logstash -f logstash.conf
成功した旨のログが出ます。これでPCA Accounting データがElasticsearch にロードされました。
例えばKibana で実際にElasticsearch に転送されたデータを見てみます。
GET pcaaccounting_BuGroup/_search
{
"query": {
"match_all": {}
}
}

データがElasticsearch に格納されていることが確認できました。

CData JDBC Driver for PCA Accounting をLogstash で使うことで、PCA Accounting コネクタとして機能し、簡単にデータをElasticsearch にロードすることができました。ぜひ、30日の無償評価版 をお試しください。