ノーコードでクラウド上のデータとの連携を実現。
詳細はこちら →Confluence Connector の30日間無償トライアルをダウンロード
30日間の無償トライアルへ製品の詳細
Confluence Python Connector 相談したいConfluence へのデータ連携用のPython Connecotr ライブラリ。 pandas、SQLAlchemy、Dash、petl などの主要なPython ツールにConfluence をシームレスに統合。
CData
こんにちは!ウェブ担当の加藤です。マーケ関連のデータ分析や整備もやっています。
Pythonエコシステムには多くのモジュールがあり、システム構築を素早く効率的に行うことができます。本記事では、CData Python Connector for Confluence とpetl フレームワークを使って、Confluence データにPython から接続してデータを変換、CSV に出力するETL 変換を実装してみます。
CData Python Connector は効率的なデータ処理によりConfluence データ にPython から接続し、高いパフォーマンスを発揮します。Confluence にデータをクエリする際、ドライバーはフィルタリング、集計などがサポートされている場合SQL 処理を直接Confluence 側に行わせ、サポートされていないSQL 処理については、組み込みのSQL エンジンによりクライアント側で処理を行います(JOIN やSQL 関数など)。
pip で必要なモジュールおよびフレームワークをインストールします:
pip install petl pip install pandas
モジュールとフレームワークをインストールしたら、ETL アプリケーションを組んでいきます。コードのスニペットは以下の通りです。フルコードは記事の末尾に付いています。
CData Connector を含むモジュールをインポートします。
import petl as etl import pandas as pd import cdata.confluence as mod
接続文字列で接続を確立します。connect 関数を使って、CData Confluence Connector からConfluence への接続を行います
cnxn = mod.connect("User=admin;APIToken=myApiToken;Url=https://yoursitename.atlassian.net;Timezone=America/New_York;")
API token は、アカウントへの認証に必須です。トークンの生成には、Atlassian アカウントでサービスにログインし、API tokens > Create API token に進みます。生成されたトークンが表示されます。
Cloud アカウントへの接続には、以下のプロパティを設定します(Password は、Server Instance への接続時のみ必要で、Cloud Account への接続には不要になりました。):
Server instance への接続には以下を設定します:
Confluence にはSQL でデータアクセスが可能です。Pages エンティティからのデータを読み出します。
sql = "SELECT Key, Name FROM Pages WHERE Id = '10000'"
DataFrame に格納されたクエリ結果を使って、petl でETL(抽出・変換・ロード)パイプラインを組みます。この例では、Confluence データ を取得して、Name カラムでデータをソートして、CSV ファイルにデータをロードします。
table1 = etl.fromdb(cnxn,sql) table2 = etl.sort(table1,'Name') etl.tocsv(table2,'pages_data.csv')
CData Python Connector for Confluence を使えば、データベースを扱う場合と同感覚で、Confluence データ を扱うことができ、petl のようなETL パッケージから直接データにアクセスが可能になります。
Confluence Python Connector の30日の無償トライアル をぜひダウンロードして、Confluence データ への接続をPython アプリやスクリプトから簡単に作成しましょう。
import petl as etl import pandas as pd import cdata.confluence as mod cnxn = mod.connect("User=admin;APIToken=myApiToken;Url=https://yoursitename.atlassian.net;Timezone=America/New_York;") sql = "SELECT Key, Name FROM Pages WHERE Id = '10000'" table1 = etl.fromdb(cnxn,sql) table2 = etl.sort(table1,'Name') etl.tocsv(table2,'pages_data.csv')