製品をチェック

無償トライアル:

無償トライアルへ

製品の情報と無償トライアルへ:

Apache Kafka ODBC Driver

Apache Kafka ODBC Driver を使って、ODBC 接続をサポートするあらゆるアプリケーション・ツールからApache Kafka にデータ連携。

Apache Kafka データストリームにデータベースと同感覚でアクセスして、トピックに使い慣れたODBC インターフェースで双方向連携。

データ連携でお困りですか?

お問い合わせ

Kafka データをA5:SQL Mk-2 でCRUD クエリする方法


ODBC Driver 経由でAPI コーディングなしでKafka データを自在にCRUD。


kafka ロゴ画像
odbc ロゴ画像

ODBC

A5:SQL Mk-2 ロゴ画像


SQL 開発ツールといえば「A5:SQL Mk-2」が有名です。Windows ODBC に強い!というイメージです。多くのエンジニアやIT 担当者に利用されています。 本記事では、Kafka データをCData ODBC Driver を使って、A5:SQL MK-2 からクエリする方法を説明します。

CData ODBC Drivers のインストールとKafka への接続設定

ODBC 接続プロパティの指定がまだの場合は、DSN (データソース名)で接続設定を行います。 Microsoft ODBC データソースアドミニストレーターを使ってODBC DSN を作成および設定できます。 ODBC ドライバーのインストール完了時にODBC DSN 設定画面が立ち上がります。 Microsoft ODBC データソースアドミニストレーターを開いて設定を行うことも可能です。

BootstrapServers およびTopic プロパティを設定して、Apache Kafka サーバーのアドレスと、対話するトピックを指定します。

認可メカニズム

  • SASL PlainUser およびPassword プロパティを指定する必要があります。AuthScheme は'Plain' に設定します。
  • SASL SSLUser およびPassword プロパティを指定する必要があります。AuthScheme は'Scram' に、UseSSL はtrue に設定します。
  • SSLSSLCert およびSSLCertPassword プロパティを指定する必要があります。UseSSL はtrue に設定します。
  • KerberosUser およびPassword プロパティを指定する必要があります。AuthScheme は'Kerberos' に設定します。

サーバー証明書を信頼する必要がある場合があります。そのような場合は、必要に応じてTrustStorePath およびTrustStorePassword を指定してください。

MA5m2 からのKafka ODBC データソースのクエリ利用方法

ODBC DSN の利用方法

[データベース]→[データベースの追加と削除]を開きます。

[64bit ODBCシステムデータソースを列挙する]にチェックを入れます。システムデータソースを利用するか、ユーザーデータソースを利用するかはどちらでもかまいません。

データベースとして、設定しているODBC DSN がツリービューで表示されます。CData ODBC Driver で設定されたDSN もここに表示されます。

[CData Kafka Sys]をダブルクリップします。データベースログイン画面が開くので、ODBC DSN 設定時に使ったKafka のユーザーとパスワードでログインします。

Kafka のオブジェクトがテーブル・ビュー・ストアドプロシージャにモデル化されて表示されます。

テーブルを開いてみます。オブジェクトで利用できるデータがカラムとしてモデル化されています。それぞれのカラムにはデータ型の情報も付いています。

これでA5 SQL Mk2 でKafka データがクエリできます。

Kafka データをSELECT する

対象のテーブル・ビューを右クリックして[SQL の作成]をクリックしてクエリ作成画面を開きます。

SELECT にチェックを入れます。とりあえず全カラムを指定して条件なしでクエリしてみます。

SQL クエリがA5M2 から生成されます。実行ボタンで実行するとKafka の選択したオブジェクトがクエリされ、データがテーブルとして返されます。

次にフィルタリング条件を付けてみます。SQL の作成画面で「絞り込み条件に利用するカラム」をドロップダウンから選択します。以下の絞り込み条件付きのSQL 文がA5M2から生成されるので、WHERE 句に条件を書いて実行します。

--*DataTitle "Kafka"."(テーブル名)" --*CaptionFromComment SELECT "Id" -- Id , "LastName" -- LastName , "FirstName" -- FirstName , "Name" -- Name , "Title" -- Title , "Company" -- Company , "Status" -- Status , "Industry" -- Industry FROM "ApacheKafka"."Lead" WHERE "Company" = '(フィルタリング条件を入力)'

同じ要領でSQL 作成UI からSELECT だけでなく、INSERT、UPDATE、DELETE のクエリが作成できます。JOIN や集計クエリもANSI-92 のSQL で作れます。

このように、CData ODBC Drivers を使うことで、Kafka データを標準SQL でクエリすることができるようになります。是非、CData ODBC Drivers の30日の無償評価版 をお試しください。