Apache Spark でCSV データをSQL で操作

詳細情報をご希望ですか?

無償トライアル:

ダウンロードへ

製品の詳細情報へ:

CSV JDBC Driver

CSV & TSV 連携のパワフルなJava アプリケーションを素早く作成して配布。



CData JDBC ドライバーを使用して、Apache Spark でCSV にデータ連携。

Apache Spark は大規模データ処理のための高速で一般的なエンジンです。CData JDBC Driver for CSV と組み合わせると、Spark はリアルタイムCSV にデータ連携して処理ができます。ここでは、Spark シェルに接続してCSV をクエリする方法について説明します。

CData JDBC Driver は、最適化されたデータ処理がドライバーに組み込まれているため、リアルタイムCSV と対話するための高いパフォーマンスを提供します。CSV に複雑なSQL クエリを発行すると、ドライバーはフィルタや集計など、サポートされているSQL操作を直接CSV にプッシュし、組込みSQL エンジンを使用してサポートされていない操作(SQL 関数やJOIN 操作)をクライアント側で処理します。組み込みの動的メタデータクエリを使用すると、ネイティブデータ型を使用してCSV を操作して分析できます。

※製品について詳しい情報をご希望の方は以下からお進みください。

CData JDBC Driver for CSV をインストール

CData JDBC Driver for CSV インストーラをダウンロードし、パッケージを解凍し、JAR ファイルを実行してドライバーをインストールします。

Spark Shell を起動してCSV データに接続

  1. ターミナルを開き、Spark shell でCData JDBC Driver for CSV JAR file をjars パラメータに設定します: $ spark-shell --jars /CData/CData JDBC Driver for CSV/lib/cdata.jdbc.csv.jar
  2. Shell でJDBC URL を使ってCSV に接続し、SQL Context load() function でテーブルを読み込みます。

    DataSource プロパティにローカルフォルダ名を設定します。

    .csv、.tab、.txt ではない拡張子のファイルを扱う場合には、IncludeFiles 使用する拡張子をカンマ区切りで設定します。Microsoft Jet OLE DB 4.0 driver 準拠の場合にはExtended Properties を設定することができます。別の方法として、Schema.ini ファイルにファイル形式を記述することも可能です。

    CSV ファイルの削除や更新を行う場合には、UseRowNumbers をTRUE に設定します。RowNumber はテーブルKey として扱われます。

    Amazon S3 内のCSV への接続

    URI をバケットおよびフォルダに設定します。さらに、次のプロパティを設定して認証します。

    • AWSAccessKey:AWS アクセスキー(username)に設定。
    • AWSSecretKey:AWS シークレットキーに設定。

    Box 内のCSV への接続

    URI をCSV ファイルを含むフォルダへのパスに設定します。Box へ認証するには、OAuth 認証標準を使います。 認証方法については、Box への接続 を参照してください。

    Dropbox 内のCSV への接続

    URI をCSV ファイルを含むフォルダへのパスに設定します。Dropbox へ認証するには、OAuth 認証標準を使います。 認証方法については、Dropbox への接続 を参照してください。ユーザーアカウントまたはサービスアカウントで認証できます。ユーザーアカウントフローでは、以下の接続文字列で示すように、ユーザー資格情報の接続プロパティを設定する必要はありません。

    SharePoint Online SOAP 内のCSV への接続

    URI をCSV ファイルを含むドキュメントライブラリに設定します。認証するには、User、Password、およびStorageBaseURL を設定します。

    SharePoint Online REST 内のCSV への接続

    URI をCSV ファイルを含むドキュメントライブラリに設定します。StorageBaseURL は任意です。指定しない場合、ドライバーはルートドライブで動作します。 認証するには、OAuth 認証標準を使用します。

    FTP 内のCSV への接続

    URI をルートフォルダとして使用されるフォルダへのパスが付いたサーバーのアドレスに設定します。認証するには、User およびPassword を設定します。

    Google Drive 内のCSV への接続

    デスクトップアプリケーションからのGoogle への認証には、InitiateOAuth をGETANDREFRESH に設定して、接続してください。詳細はドキュメントの「Google Drive への接続」を参照してください。

    組み込みの接続文字列デザイナー

    JDBC 接続文字列URL の作成には、CSV JDBC Driver にビルトインされたデザイナを使用できます。JAR ファイルをダブルクリックするか、コマンドラインでJAR ファイルを実行するとデザイナが開きます。

    java -jar cdata.jdbc.csv.jar

    接続プロパティを入力し、接続文字列をクリップボードにコピーします。

    scala> val csv_df = spark.sqlContext.read.format("jdbc").option("url", "jdbc:csv:DataSource=MyCSVFilesFolder;").option("dbtable","Customer").option("driver","cdata.jdbc.csv.CSVDriver").load()
  3. 接続が完了し、データがロードされたら、テーブルスキーマが表示されます。
  4. CSV をテンポラリーテーブルとして登録します:

    scala> csv_df.registerTable("customer")
  5. データに対して、次のようなカスタムSQL クエリを実行します:

    scala> csv_df.sqlContext.sql("SELECT City, TotalDue FROM Customer WHERE FirstName = Bob").collect.foreach(println)

    You will see the results displayed in the console, similar to the following:

CData JDBC Driver for CSV をApache Spark で使って、CSV に対して、複雑かつハイパフォーマンスなクエリを実行できます。是非、30日の無償試用版 をダウンロードしてお試しください。