Ready to get started?

Learn more about the CData JDBC Driver for Apache Hive or download a free trial:

Download Now

HiveData のPostgreSQL インターフェース

Hive JDBC Driver のRemoting 機能を使用して、データアクセス用のPostgreSQL エントリポイントを作成します。

インターネット上には利用可能な膨大な数のPostgreSQL クライアントがあります。標準のドライバーからBI および分析ツールまで、PostgreSQL はデータアクセスのための人気の高いインタフェースです。 JDBC ドライバーを使用して、標準クライアントから接続できるPostgreSQL エントリポイントを作成することができます。

PostgreSQL データベースとしてHive data にアクセスするには、CData JDBC Driver for Hive とJDBC 外部データラッパー(FDW)を使用します。ここでは、FDW をコンパイルしてインストールし、PostgreSQL サーバーからHive data をクエリします。

JDBC データソースにHive Data を設定

To connect to Hive as a JDBC data source, you will need the following:

  • Driver JAR path: The JAR is located in the lib subfolder of the installation directory.
  • Driver class: cdata.jdbc.apachehive.ApacheHiveDriver

  • JDBC URL: The URL must start with "jdbc:apachehive:" and can include any of the connection properties in name-value pairs separated with semicolons. Set the Server, Port, TransportMode, and AuthScheme connection properties to connect to Hive.

    ビルトイン接続文字列デザイナー

    For assistance in constructing the JDBC URL, use the connection string designer built into the Hive JDBC Driver.Either double-click the JAR file or execute the jar file from the command-line.

    java -jar cdata.jdbc.apachehive.jar

    Fill in the connection properties and copy the connection string to the clipboard.

    A typical JDBC URL is below:

    jdbc:apachehive:Server=127.0.0.1;Port=10000;TransportMode=BINARY;

JDBC Foreign Data Wrapper をビルド

The Foreign Data Wrapper can be installed as an extension to PostgreSQL, without recompiling PostgreSQL.The jdbc2_fdw extension is used as an example.

  1. Add a symlink from the shared object for your version of the JRE to /usr/lib/libjvm.so.For example: ln -s /usr/lib/jvm/java-6-openjdk/jre/lib/amd64/server/libjvm.so /usr/lib/libjvm.so
  2. Start the build: make install USE_PGXS=1

Hive Data をPostgreSQL データベースとしてクエリ

After you have installed the extension, follow the steps below to start executing queries to Hive data:

  1. Log into your database.
  2. Load the extension for the database: CREATE EXTENSION jdbc2_fdw;
  3. Create a server object for Hive: CREATE SERVER ApacheHive FOREIGN DATA WRAPPER jdbc2_fdw OPTIONS ( drivername 'cdata.jdbc.apachehive.ApacheHiveDriver', url 'jdbc:apachehive:Server=127.0.0.1;Port=10000;TransportMode=BINARY;', querytimeout '15', jarfile '/home/MyUser/CData/CData\ JDBC\ Driver\ for\ Salesforce MyDriverEdition/lib/cdata.jdbc.apachehive.jar');
  4. Create a user mapping for the username and password of a user known to the MySQL daemon. CREATE USER MAPPING for postgres SERVER ApacheHive OPTIONS ( username 'admin', password 'test');
  5. Create a foreign table in your local database: postgres=# CREATE FOREIGN TABLE customers ( customers_id text, customers_City text, customers_CompanyName numeric) SERVER ApacheHive OPTIONS ( table_name 'customers');
You can now execute read/write commands to Hive: postgres=# SELECT * FROM customers;
 
 
ダウンロード