Adalo アプリで使えるKafka のデータ連携用のバックエンドAPI をノーコードで開発

ノーコードツールAdalo から Kafka のデータに接続するためのバックエンドAPI Server をCData API Server で構築

杉本和也
リードエンジニア

最終更新日:2025-05-22

この記事で実現できるKafka 連携のシナリオ

こんにちは!リードエンジニアの杉本です。

CData API Server を使って、Adalo から Kafka に接続してデータを取得する方法を説明します。

API Server の設定

以下のリンクからAPI Server の無償トライアルをスタートしたら、セキュアなKafka OData サービスを作成していきましょう。

CData API Server を使い始める

CData API Server は、オンプレミス型・AWS でのホスティングに対応しています。無償トライアルを提供していますので、自社のニーズにフィットするオプションを選択してお試しください。
30日間の無償トライアルへ

まずは製品の概要を知りたい、という方は5分でCData API Server を体験できる製品ツアーをご利用ください。
製品ツアーへ

デプロイ

API Server は内蔵のJetty サーバー上で動作します。Windows をお使いの場合は、スタンドアロンサーバーとして起動するか、IIS に組み込んで使用することが可能です。また、お使いのJava サーブレットコンテナにAPI Server のWAR ファイルを配置して実行することもできます。具体的なセットアップ方法については、こちらのヘルプドキュメントをご覧ください。

Kafka への接続

Salesforce Connect からKafka のデータを操作するには、まずKafka への接続を作成・設定します。

  1. API Server にログインして、「Connections」をクリック、さらに「接続を追加」をクリックします。 接続を追加
  2. 「接続を追加」をクリックして、データソースがAPI Server に事前にインストールされている場合は、一覧から「Kafka」を選択します。
  3. 事前にインストールされていない場合は、コネクタを追加していきます。コネクタ追加の手順は以下の記事にまとめてありますので、ご確認ください。
    CData コネクタの追加方法はこちら >>
  4. それでは、Kafka への接続設定を行っていきましょう! 接続設定
  5. Apache Kafka 接続プロパティの取得・設定方法

    .NET ベースのエディションは、Confluent.Kafka およびlibrdkafka ライブラリに依存して機能します。 これらのアセンブリはインストーラーにバンドルされ、自動的に本製品と一緒にインストールされます。 別のインストール方法を利用する場合は、NuGet から依存関係のあるConfluent.Kafka 2.6.0 をインストールしてください。

    Apache Kafka サーバーのアドレスを指定するには、BootstrapServers パラメータを使用します。

    デフォルトでは、本製品はデータソースとPLAINTEXT で通信し、これはすべてのデータが暗号化なしで送信されることを意味します。 通信を暗号化するには:

    1. UseSSLtrue に設定し、本製品がSSL 暗号化を使用するように構成します。
    2. SSLServerCert およびSSLServerCertType を設定して、サーバー証明書をロードします。

    Apache Kafka への認証

    Apache Kafka データソースは、次の認証メソッドをサポートしています:

    • Anonymous
    • Plain
    • SCRAM ログインモジュール
    • SSL クライアント証明書
    • Kerberos

    Anonymous

    Apache Kafka の特定のオンプレミスデプロイメントでは、認証接続プロパティを設定することなくApache Kafka に接続できます。 こうした接続はanonymous(匿名)と呼ばれます。

    匿名認証を行うには、このプロパティを設定します。

    • AuthSchemeNone

    その他の認証方法については、ヘルプドキュメントを参照してください。

  6. 接続情報の入力が完了したら、「保存およびテスト」をクリックします。

Apache Kafka 接続プロパティの取得・設定方法

.NET ベースのエディションは、Confluent.Kafka およびlibrdkafka ライブラリに依存して機能します。 これらのアセンブリはインストーラーにバンドルされ、自動的に本製品と一緒にインストールされます。 別のインストール方法を利用する場合は、NuGet から依存関係のあるConfluent.Kafka 2.6.0 をインストールしてください。

Apache Kafka サーバーのアドレスを指定するには、BootstrapServers パラメータを使用します。

デフォルトでは、本製品はデータソースとPLAINTEXT で通信し、これはすべてのデータが暗号化なしで送信されることを意味します。 通信を暗号化するには:

  1. UseSSLtrue に設定し、本製品がSSL 暗号化を使用するように構成します。
  2. SSLServerCert およびSSLServerCertType を設定して、サーバー証明書をロードします。

Apache Kafka への認証

Apache Kafka データソースは、次の認証メソッドをサポートしています:

  • Anonymous
  • Plain
  • SCRAM ログインモジュール
  • SSL クライアント証明書
  • Kerberos

Anonymous

Apache Kafka の特定のオンプレミスデプロイメントでは、認証接続プロパティを設定することなくApache Kafka に接続できます。 こうした接続はanonymous(匿名)と呼ばれます。

匿名認証を行うには、このプロパティを設定します。

  • AuthSchemeNone

その他の認証方法については、ヘルプドキュメントを参照してください。

API Server のユーザー設定

次に、API Server 経由でKafka にアクセスするユーザーを作成します。「Users」ページでユーザーを追加・設定できます。やってみましょう。

  1. 「Users」ページで ユーザーを追加をクリックすると、「ユーザーを追加」ポップアップが開きます。
  2. 次に、「ロール」、「ユーザー名」、「権限」プロパティを設定し、「ユーザーを追加」をクリックします。
  3. その後、ユーザーの認証トークンが生成されます。各ユーザーの認証トークンとその他の情報は「Users」ページで確認できます。

Kafka 用のAPI エンドポイントの作成

ユーザーを作成したら、Kafka のデータ用のAPI エンドポイントを作成していきます。

  1. まず、「API」ページに移動し、 「 テーブルを追加」をクリックします。
  2. アクセスしたい接続を選択し、次へをクリックします。
  3. 接続を選択した状態で、各テーブルを選択して確認をクリックすることでエンドポイントを作成します。

OData のエンドポイントを取得

以上でKafka への接続を設定してユーザーを作成し、API Server でKafka データのAPI を追加しました。これで、OData 形式のKafka データをREST API で利用できます。API Server の「API」ページから、API のエンドポイントを表示およびコピーできます。

オンプレミスDB やファイルからのAPI Server 使用(オプション)

オンプレミスRDB やExcel/CSV などのファイルのデータを使用する場合には、API Server のCloug Gateway / SSH ポートフォワーディングが便利です。是非、Cloud Gatway の設定方法 記事を参考にしてください。

Adalo でアプリを作成する

CData API Server 側の準備が完了したら、早速Adalo 側でアプリ開発を開始します。

  1. 「CREATE NEW APP」をクリックし
  2. 今回は「Desktop Web App」を作成します。
  3. template を最初に選ぶことができますが、今回は検証用なので何も無い「Blank」で作成しました。
  4. 最後にアプリ名とカラーリング設定を選んで、アプリの準備は完了です。

External Collections の登録

続いてCData API Server への接続をAdalo に追加します。Adalo では「Collection」という形でデータ構造を持ち、アプリのデータを管理することができるのですが、この「Collection」を外部のAPIとシームレスに連携した形で利用することができる「External Collections with APIs」という機能があります。この機能を用いてCData API Server に接続します。

  1. アプリを作成したら、まず Adalo アプリ内でデータを扱うための定義である「Collection」を登録します。Collection は Adalo 内部の独自DB のような「Database Collections」と、外部のAPI に対してシームレスにアクセスすることが可能な「External Collections」があります。今回は外部のAPI に対してアクセスを行うので「External Collections」で登録します。
  2. External Collections の登録画面では最初にコレクション名とAPI のベースとなるURL エンドポイントを指定します。任意のCollection 名とAPI Base URL に先程CData API Server で登録したKafka の対象リソースに接続できるOData のエンドポイントを指定します。併せて認証情報として Header に「x-cdata-authtoken」の名前でCData API Server ユーザー登録時に生成されているTokenを指定します。
  3. 続いてAdalo から実行されるそれぞれのリクエストの関連付けを行います。通常のAPI であれば様々なチューニングが必要となる箇所ですが、Kafka ではほぼデフォルトの設定のままで進められます。一点だけ設定が必要な箇所として、Kafka からのレスポンスをレコード単位で識別するために「Get All」の設定にある「Results Key」に「value」を登録しておくことが挙げられます。これを設定したら「Next」をクリックしましょう。
  4. 最後にAPIの「RUN TEST」を行います。
  5. 「RUN TEST」をクリック後、最終的に以下のようにメッセージとレスポンスが表示されれば、External Collections の作成は完了です。

一覧画面の作成

それでは作成した External Collections を使ってアプリを作っていきましょう。

  1. まず一覧画面を表示するためにAdalo の画面右上の「+」ボタンをクリックして、「Simple List」をドラッグアンドドロップで画面に配置します。
  2. 以下のように配置できたら「What is this a list of?」で先程作成したExternal Collections の定義を紐付けます。
  3. 併せて「Title」と「Subtile」を取得するデータ項目に紐付けましょう。
  4. プレビューを実行し一覧画面に移動してみると、以下のようにKafka のデータを取得できていました。

まとめと30日の無償評価版のご案内

このように、Kafka 内のデータをAdalo で利用することができるようになります。CData API Server は、30日の無償評価版があります。是非、お試しいただき、Adalo からのデータ参照を体感ください。

関連コンテンツ

トライアル・お問い合わせ

30日間無償トライアルで、CData のリアルタイムデータ連携をフルにお試しいただけます。記事や製品についてのご質問があればお気軽にお問い合わせください。