本記事では CData サポート担当からこんなことを聞かれたらどこを確認すべきか?という観点で、よく頂くお問合せ内容をご紹介します。
記事はこちら →Elasticsearch は、人気の分散型の全文検索エンジンです。データを一元的に格納することで、超高速検索や、関連性の細かな調整、パワフルな分析が大規模に、手軽に実行可能になります。Elasticsearch にはデータのローディングを行うパイプラインツール「Logstash」があります。CData Drivers を利用することができるので、30日の無償評価版をダウンロードしてあらゆるデータソースを簡単にElasticsearch に取り込んで検索・分析を行うことができます。
この記事では、CData Driver for AzureDataCatalog を使って、Azure Data Catalog のデータをLogstash 経由でElasticsearch にロードする手順を説明します。
それでは、LogstashでElasticsearch にAzure Data Catalog データ転送を行うための設定ファイルを作成していきます。
You can optionally set the following to read the different catalog data returned from Azure Data Catalog.
You must use OAuth to authenticate with Azure Data Catalog. OAuth requires the authenticating user to interact with Azure Data Catalog using the browser. For more information, refer to the OAuth section in the help documentation.
input {
jdbc {
jdbc_driver_library => "../logstash-core/lib/jars/cdata.jdbc.azuredatacatalog.jar"
jdbc_driver_class => "Java::cdata.jdbc.azuredatacatalog.AzureDataCatalogDriver"
jdbc_connection_string => "jdbc:azuredatacatalog:InitiateOAuth=REFRESH"
jdbc_user => ""
jdbc_password => ""
schedule => "*/30 * * * * *"
statement => "SELECT DslAddressDatabase, Type FROM Tables WHERE Name = 'FactProductInventory'"
}
}
output {
Elasticsearch {
index => "azuredatacatalog_Tables"
document_id => "xxxx"
}
}
それでは作成した「logstash.conf」ファイルを元にLogstash を実行してみます。
> logstash-7.8.0\bin\logstash -f logstash.conf
成功した旨のログが出ます。これでAzure Data Catalog データがElasticsearch にロードされました。
例えばKibana で実際にElasticsearch に転送されたデータを見てみます。
GET azuredatacatalog_Tables/_search
{
"query": {
"match_all": {}
}
}
データがElasticsearch に格納されていることが確認できました。
CData JDBC Driver for AzureDataCatalog をLogstash で使うことで、Azure Data Catalog コネクタとして機能し、簡単にデータをElasticsearch にロードすることができました。ぜひ、30日の無償評価版をお試しください。