製品をチェック

製品の詳細・30日間の無償トライアルはこちら

CData Sync

Databricks への統合をノーコードで:Salesforce データのETL パイプライン構築方法を解説

CData Sync を使って、Azure Data Lake Storage データをCDC を使ってDatabricks にノーコードで統合する方法を解説。データ分析基盤へのデータ取り込みニーズに対応します。

宮本航太
プロダクトスペシャリスト

最終更新日:2024-01-19
azuredatalake ロゴ

CData

sync ロゴ画像
Databricks ロゴ

こんにちは!プロダクトスペシャリストの宮本です。

データ分析基盤へのAzure Data Lake Storage データの取り込みのニーズが高まっています。CData Sync は、数百のSaaS / DB のデータをDatabricks をはじめとする各種DB / データウェアハウスにノーコードで統合・転送(複製)が可能なデータパイプラインツールです。

本記事では、Azure Data Lake Storage データをCData Sync を使ってDatabricks に統合するデータパイプラインを作っていきます。

CData Sync とは?

CData Sync は、レポーティング、アナリティクス、機械学習、AI などで使えるよう、社内のデータを一か所に統合して管理できるデータ基盤をノーコードで構築できるETL / ELT ツールで、以下の特徴を持っています。

  1. Azure Data Lake Storage をはじめとする数百種類のSaaS / DB データに対応
  2. Databricks など多くのRDB、データレイク、データストア、データウェアハウスに同期可能
  3. 業務データのデータ分析基盤へのETL / ELT 機能に特化し、極限まで設定操作をシンプルに
  4. 主要なSaaS データの差分更新やCDC(Change Data Capture、変更データキャプチャ)のサポート
  5. フレキシブルなSQL での取得データの操作

CData Sync では、1.データソースとしてAzure Data Lake Storage の接続を設定、2.同期先としてDatabricks の接続を設定、3.Azure Data Lake Storage からDatabricks への転送ジョブの作成、という3つのステップだけで転送処理を作成可能です。以下に具体的な設定手順を説明します。

1. データソースとしてAzure Data Lake Storage の接続を設定

まずはじめに、CData Sync のブラウザ管理コンソールにログインします。CData Sync のインストールをまだ行っていない方は、本記事の製品リンクから「CData Sync」をクリックしてCData Sync をインストールしてください。30日間の無償トライアルをご利用いただけます。インストール後にCData Sync が起動して、ブラウザ設定画面が開きます。

それでは、データソース側にAzure Data Lake Storage を設定していきましょう。左の「接続」タブをクリックします。

  1. 「+接続の追加」ボタンをクリックします。 コネクションの追加。
  2. 「データソース」タブを選択して、リスト表示されるデータソースを選ぶか、検索バーにデータソース名を入力して、Azure Data Lake Storage を見つけます。
  3. Azure Data Lake Storage の右側の「→」をクリックして、Azure Data Lake Storage アカウントへの接続画面を開きます。もし、Azure Data Lake Storage のコネクタがデフォルトでCData Sync にインストールされていない場合には、ダウンロードアイコン(コネクタのアップロードアイコン)をクリックし、「ダウンロード」をクリックすると、CData Sync にコネクタがインストールされます。 データソースの追加。
  4. 接続プロパティにAzure Data Lake Storage に接続するアカウント情報を入力をします。

    Azure DataLakeStorage 接続プロパティの取得・設定方法

    Azure DataLakeStorage Gen 1 への接続

    Gen 1 DataLakeStorage アカウントに接続するには、はじめに以下のプロパティを設定します。

    • SchemaADLSGen1 を指定。
    • Account:アカウント名に設定。
    • AzureTenant:テナントId に設定。Azure Portal 内のAzure Data Lake プロパティから取得できます。
    • Directory:(オプション)複製したファイルを格納するためのパスを設定。指定しない場合は、ルートディレクトリが使用されます。

    Azure DataLakeStorage Gen 1 への認証

    Gen 1 は、認証方法としてAzure Active Directory OAuth(AzureAD)およびマネージドサービスID(AzureMSI)をサポートしています。認証方法は、ヘルプドキュメントの「Azure DataLakeStorage Gen 1 への認証」セクションを参照してください。

    Azure DataLakeStorage Gen 2 への接続

    Gen 2 DataLakeStorage アカウントに接続するには、はじめに以下のプロパティを設定します。

    • SchemaADLSGen2 に設定。
    • Account:ストレージアカウント名に設定。
    • FileSystem:このアカウントで使用するファイルシステム名に設定。例えば、Azure Blob コンテナ名など。
    • Directory:(オプション)複製したファイルを格納するためのパスを設定。指定しない場合は、ルートディレクトリが使用されます。

    Azure DataLakeStorage Gen 2 への認証

    Gen 2は、認証方法としてアクセスキー、共有アクセス署名(SAS)、Azure Active Directory OAuth(AzureAD)、マネージドサービスID(AzureMSI)など多様な方法をサポートしています。AzureAD、AzureMSI での認証方法は、ヘルプドキュメントの「Azure DataLakeStorage Gen 2 への認証」セクションを参照してください。

    アクセスキーを使用した認証

    アクセスキーを使用して接続するには、AccessKey プロパティを取得したアクセスキーの値に、AuthScheme を「AccessKey」に設定します。

    Azure ポータルからADLS Gen2 ストレージアカウントのアクセスキーを取得できます。

    1. Azure ポータルのADLS Gen2 ストレージアカウントにアクセスします。
    2. 設定で「アクセスキー」を選択します。
    3. 利用可能なアクセスキーの1つの値を「AccessKey」接続プロパティにコピーします。

    共有アクセス署名(SAS)

    共有アクセス署名を使用して接続するには、SharedAccessSignature プロパティを接続先リソースの有効な署名に設定して、AuthScheme を「SAS」に設定します。 共有アクセス署名は、Azure Storage Explorer などのツールで生成できます。

    データソースの追加。
  5. 「作成およびテスト」をクリックして、正しくAzure Data Lake Storage に接続できているかをテストして保存します。これで転送のデータソースとしてAzure Data Lake Storage への接続が設定されました。

2. 同期先としてDatabricks の接続を設定

次に、Azure Data Lake Storage データを書き込む先(=同期先)として、Databricks を設定します。同じく「接続」タブを開きます。

  1. 「+接続の追加」ボタンをクリックします。
  2. 「同期先」タブを選択して、リスト表示されるデータソースを選ぶか、検索バーにデータソース名を入力して、Databricks を見つけます。
  3. Databricks の右側の「→」をクリックして、Databricks データベースへの接続画面を開きます。もし、Databricks のコネクタがデフォルトでCData Sync にインストールされていない場合には、ダウンロードアイコン(コネクタのアップロードアイコン)をクリックし、「ダウンロード」をクリックすると、CData Sync にコネクタがインストールされます。 Databricks を同期先に設定
  4. Databricks クラスターに接続するために、必要なプロパティを以下のとおりに設定します。

    NOTE:必要なプロパティの値は、Databricks インスタンスでクラスターに移動して目的のクラスターを選択し、Advanced Options の下にあるJDBC/ODBC タブを選択することで見つけることができます。

    • Server:Databricks クラスターのサーバーのホスト名に設定します。
    • HTTPPath:Databricks クラスターのHTTP パスに設定します。
    • Token:パーソナルアクセストークンに設定します。この値は、Databricks インスタンスのユーザー設定ページに移動してPersonal access tokens タブを選択することで取得できます。
  5. 「作成およびテスト」をクリックして、正しく接続できているかをテストします。 同期先接続の設定
  6. これで同期先としてDatabricks を設定できました。CData Sync では、Databricks のデータベース名を指定するだけで同期するAzure Data Lake Storage に併せたテーブルスキーマを自動的に作成(CREATE TABLE)してくれます。同期データに合わせたテーブルを事前に作成するなどの面倒な手順は必要ありません。もちろん、既存テーブルにマッピングを行いデータ同期を行うことも可能です。

3. Azure Data Lake Storage からDatabricks への転送ジョブの作成

CData Sync では、転送をジョブ単位で設定します。ジョブは、Azure Data Lake Storage からDatabricks という単位で設定し、複数のテーブルを含むことができます。転送ジョブ設定には、「ジョブ」タブに進み、「+ジョブを追加」ボタンをクリックします。 ジョブの追加Salesforce の例)。

「ジョブを追加」画面が開き、以下を入力します:

  1. 名前:ジョブの名前
  2. データソース:ドロップダウンリストから先に設定したAzure Data Lake Storage を選択
  3. 同期先:先に設定したDatabricks を選択
データソースの設定Salesforce の例)。

すべてのオブジェクトを転送する場合

Azure Data Lake Storage のすべてのオブジェクト / テーブルを転送するには、「種類」セクションで「すべて同期」を選択して、「ジョブを追加」ボタンで確定します。

作成したジョブ画面で、右上の「▷実行」ボタンをクリックするだけで、全Azure Data Lake Storage テーブルのDatabricks への同期を行うことができます。

オブジェクトを選択して転送する場合

Azure Data Lake Storage から特定のオブジェクト / テーブルを選択して転送を行うことが可能です。「種類」セクションでは、「標準(個別設定)」を選んでください。

次に「ジョブ」画面で、「タスク」タブをクリックし、「タスクを追加」ボタンをクリックします。 ジョブへのタスク追加Salesforce の例)。

するとCData Sync で利用可能なオブジェクト / テーブルのリストが表示されるので、転送を行うオブジェクトにチェックを付けます(複数選択可)。「ジョブを追加」ボタンで確定します。

タスク選択(Salesforce の例)。

作成したジョブ画面で、「▷実行」ボタンをクリックして(もしくは各タスク毎の実行ボタンを押して)、転送ジョブを実行します。作成したジョブの実行(Salesforce の例)。

このようにとても簡単にAzure Data Lake Storage からDatabricks への同期を行うことができました。

CData Sync の主要な機能を試してみる:スケジューリング・差分更新・ETL

ジョブのスケジュール起動設定

CData Sync では、同期ジョブを1日に1回や15分に1回などのスケジュール起動をすることができます。ジョブ画面の「概要」タブから「スケジュール」パネルを選び、「⚙設定」ボタンをクリックします。「間隔」と同期時間の「毎時何分」を設定し、「保存」を押して設定を完了します。これでCData Sync が同期ジョブをスケジュール実行してくれます。ユーザーはダッシュボードで同期ジョブの状態をチェックするだけです。 スケジュール実行設定。

差分更新

CData Sync では、主要なデータソースでは、差分更新が可能です。差分更新では、最後のジョブ実行時からデータソース側でデータの追加・変更があったデータだけを同期するので、転送のクエリ・通信のコストを圧倒的に抑えることが可能です。

差分更新を有効化するには、ジョブの「概要」タブから「差分更新」パネルを選び、「⚙設定」ボタンをクリックします。「開始日」と「転送間隔」を設定して、「保存」します。

SQL での取得データのカスタマイズ

CData Sync は、デフォルトではAzure Data Lake Storage のオブジェクト / テーブルをそのままDatabricks に複製しますが、ここにSQL、またはdbt 連携でのETL 処理を組み込むことができます。テーブルカラムが多すぎる場合や、データ管理の観点から一部のカラムだけを転送したり、さらにデータの絞り込み(フィルタリング)をしたデータだけを転送することが可能です。

ジョブの「概要」タブ、「タスク」タブへと進みます。選択されたタスク(テーブル)の「▶」の左側のメニューをクリックし、「編集」を選びます。タスクの編集画面が開きます。

UI からカラムを選択する場合には、「カラム」タブから「マッピング編集」をクリックします。転送で使用しないカラムからチェックを外します。

SQL を記述して、フィルタリングなどのカスタマイズを行うには、「クエリ」タブをクリックし、REPLICATE 「テーブル名」の後に標準SQL でフィルタリングを行います。 転送のカスタマイズ設定。

Azure Data Lake Storage からDatabricks へのデータ同期には、ぜひCData Sync をご利用ください

このようにノーコードで簡単にAzure Data Lake Storage データをDatabricks に転送できます。データ分析、AI やノーコードツールからのデータ利用などさまざまな用途でCData Sync をご利用いただけます。30日の無償トライアルで、シンプルでパワフルなデータパイプラインを体感してください。

日本のユーザー向けにCData Sync は、UI の日本語化、ドキュメントの日本語化、日本語でのテクニカルサポートを提供しています。

CData Sync の 導入事例を併せてご覧ください。

関連コンテンツ

トライアル・お問い合わせ

30日間無償トライアルで、CData のリアルタイムデータ連携をフルにお試しいただけます。記事や製品についてのご質問があればお気軽にお問い合わせください。