製品をチェック

無償トライアル:

無償トライアルへ

製品の情報と無償トライアルへ:

Backlog Python Connector

Backlog へのデータ連携用のPython Connector ライブラリ。Pandas、SQLAlchemy、Dash、petl などの主要なPython ツールにBacklog をシームレスに統合。

Python でBacklog データをETL


CData Python Connector for Backlog を使って、Python petl でBacklog data のETL 連携・パイプラインアプリケーションを作成。


古川えりか
コンテンツスペシャリスト

backlog ロゴ画像

Python

python ロゴ画像
Python ロゴ画像

Pythonエコシステムには、多くのモジュールがあり、システム構築を素早く効率的に行うことができます。CData Python Connector for Backlog とpetl フレームワークを使って、Backlog に連携するPython アプリや、Backlog データをETL することが可能です。本記事では、CData Python Connector をpetl と一緒に使い、ETL 処理を実装します。

CData Python Connector は、ビルトインされた効率的なデータプロセスにより、リアルタイムBacklog data データにPython からアクセスし、高いパフォーマンスと接続性を発揮します。Backlog に複雑なクエリを投げる際に、ドライバーはフィルタリング、集計などがサポートされている場合、SQL 処理を直接Backlog 側に行わせ、サポートされていないSQL 処理については、組み込まれたSQL エンジンによりクライアント側で処理を行います(特にJOIN やSQL 関数など)。

Backlog Data への接続

Backlog data への連携は、RDB ソースへのアクセスと同感覚で行うことができます。必要な接続プロパティを使って接続文字列を作成します。本記事では、接続文字列をcreate_engine 関数のパラメータとして送ります。

Backlog への接続に使用できる認証方法は、API キーおよびOAuth の2つです。

API キー認証

ApiKey およびURL をログインクレデンシャルに設定します。 ApiKey を取得するには:

  1. Backlog の個人設定ページを開きます。
  2. 「API」セクションをクリックして、「メモ」にAPI キーについての説明を追加し、「登録」ボタンをクリックします。トークンが生成されます。
  3. ApiKey にAPI キーを指定します。
  4. URL はBacklog のテナントURL から取得できます。

OAuth 認証

ユーザー名やパスワードへのアクセスを保有していない場合や、それらを使いたくない場合にはOAuth ユーザー同意フローを使用します。認証方法については、ヘルプドキュメントを参照してください。

CData Backlog Connector をインストールしたら、次のように必要なモジュールをインストールし、Python オブジェクトでBacklog にアクセスします。

必要なモジュールのインストール

pip で必要なモジュールおよびフレームワークをインストールします:

pip install petl
pip install pandas

Python でBacklog データをETL 処理するアプリを構築

モジュールとフレームワークをインストールしたら、ETL アプリケーションを組んでいきます。コードのスニペットは以下の通りです。フルコードは記事の末尾に付いています。

CData Connector を含むモジュールをインポートします:

import petl as etl
import pandas as pd
import cdata.backlog as mod

接続文字列で接続を確立します。connect 関数を使って、CData Backlog Connector からBacklog への接続を行います

cnxn = mod.connect("ApiKey=YOUR_API_KEY;Url=https://yourURL.backlog.com;")

Backlog をクエリするSQL 文の作成

Backlog にはSQL でデータアクセスが可能です。Issues エンティティからのデータを読み出します。

sql = "SELECT Id, ProjectID FROM Issues WHERE Id = '1'"

Backlog Data のETL 処理

DataFrame に格納されたクエリ結果を使って、petl でExtract(取得)、Transform(加工)、Load(ロード)を組みます。この例では、Backlog data を取得して、ProjectID カラムでデータをソートして、CSV ファイルにデータをロードします。

table1 = etl.fromdb(cnxn,sql)

table2 = etl.sort(table1,'ProjectID')

etl.tocsv(table2,'issues_data.csv')

CData Python Connector for Backlog を使えば、データベースを扱う場合と同感覚で、Backlog data を扱うことができ、petl のようなETL パッケージから直接データにアクセスが可能になります。

製品の無償トライアル情報

Backlog Python Connector の30日の無償トライアル をぜひダウンロードして、Backlog data への接続をPython アプリやスクリプトから簡単に作成しましょう。



フルソースコード

import petl as etl
import pandas as pd
import cdata.backlog as mod

cnxn = mod.connect("ApiKey=YOUR_API_KEY;Url=https://yourURL.backlog.com;")

sql = "SELECT Id, ProjectID FROM Issues WHERE Id = '1'"

table1 = etl.fromdb(cnxn,sql)

table2 = etl.sort(table1,'ProjectID')

etl.tocsv(table2,'issues_data.csv')