ノーコードでクラウド上のデータとの連携を実現。
詳細はこちら →Apache Spark Driver の30日間無償トライアルをダウンロード
30日間のトライアルで試してみるCData
こんにちは!ウェブ担当の加藤です。マーケ関連のデータ分析や整備もやっています。
Pure R スクリプトおよび 標準SQL を使って、R およびJava をインストール可能なあらゆるマシン上でSpark にアクセス。CData JDBC Driver for SparkSQL とRJDBC package を使って、R でリモートSpark データ を利用できます。CData Driver を使うことで、業界が認めた基準で書かれたドライバーを活用して、オープンソースでポピュラーなR 言語のデータにアクセスできます。この記事では、ドライバーを使ってSpark にSQL クエリを実行する方法、および標準R 関数を呼び出してSpark をビジュアライズする方法について説明します。
マルチスレッドのMicrosoft R Open を実行すること、またはBLAS/LAPACK ライブラリにリンクされたオープン R を実行することによって、マルチスレッドおよびマネージドコードから利益を得られたドライバーのパフォーマンスにマッチできます。ここでは、Microsoft R Open 3.2.3 を使用します。CRAN レポジトリのJan. 1, 2016 snapshot からパッケージをインストールするために事前設定されています。このsnapshot は再現性を保証します。
ドライバーを使うにはRJDBC パッケージをダウンロードします。RJDBC パッケージをインストールしたら、次のコードを入力してパッケージをロードします。
library(RJDBC)
下記の情報を使いSpark にJDBC データソースとして接続します。
dbConnect やdbSendQuery のようなDBI 関数は、R にデータアクセスコードを書くための統一インターフェースを提供します。
driver <- JDBC(driverClass = "cdata.jdbc.sparksql.SparkSQLDriver", classPath = "MyInstallationDir\lib\cdata.jdbc.sparksql.jar", identifier.quote = "'")
これで、DBI 関数を使ってSpark に接続しSQL クエリを実行する準備が整いました。dbConnect 関数を使ってJDBC 接続を初期化します。一般的なJDBC 接続文字列は次のとおりです。
conn <- dbConnect(driver,"Server=127.0.0.1;")
SparkSQL への接続を確立するには以下を指定します。
Databricks クラスターに接続するには、以下の説明に従ってプロパティを設定します。Note:必要な値は、「クラスター」に移動して目的のクラスターを選択し、 「Advanced Options」の下にある「JDBC/ODBC」タブを選択することで、Databricks インスタンスで見つけることができます。
ドライバーはSpark API をリレーショナルデータベース、ビュー、ストアドプロシージャとしてモデルします。次のコードを使ってテーブルリストを検出します。
dbListTables(conn)
dbGetQuery 関数を使ってSpark API がサポートするすべてのSQL クエリを実行できます:
customers <- dbGetQuery(conn,"SELECT City, Balance FROM Customers")
次のコマンドを使って、結果を[data viewer]ウィンドウで見ることができます。
View(customers)
CRAN レポジトリで利用可能なあらゆるデータ初期化パッケージを使ってSpark を分析する準備が整いました。ビルトインバーのplot 関数を使って簡単なバーを作成できます。
par(las=2,ps=10,mar=c(5,15,4,2)) barplot(customers$Balance, main="Spark Customers", names.arg = customers$City, horiz=TRUE)