数据库
首页 > 数据库> > FineReport如何连接hadoop,hive,Impala数据库,Kerberos认证

FineReport如何连接hadoop,hive,Impala数据库,Kerberos认证

作者:互联网

Hadoop是个很流行的分布式计算解决方案,Hive是基于hadoop的数据分析工具。一般来说我们对Hive的操作都是通过cli来进行,也就是Linux的控制台,但是,这样做本质上是每个连接都存放一个元数据,各个之间都不相同,这样的模式用来做一些测试比较合适,并不适合做产品的开发和应用。

因此,就产生Hive的JDBC连接的方式。下面就通过报表组件FineReport向大家介绍。

工具/原料 

 

方法/步骤 

 
  1. 1

    拷贝jar包到FR工程

    将hadoop里的hadoop-common.jar拷贝至报表工程appname/WEB-INF/lib下;

    将hive里的hive-exec.jar、hive-jdbc.jar、hive-metastore.jar、hive-service.jar、libfb303.jar、log4j.jar、slf4j-api.jar、slf4j-log4j12.jar拷贝至报表工程appname/WEB-INF/lib下。

  2. 2

    配置数据连接

    启动设计器,打开服务器>定义数据连接,新建JDBC连接。

    在Hive 0.11.0版本之前,只有HiveServer服务可用,在程序操作Hive之前,必须在Hive安装的服务器上打开HiveServer服务。而HiveServer本身存在很多问题(比如:安全性、并发性等);针对这些问题,Hive0.11.0版本提供了一个全新的服务:HiveServer2,这个很好的解决HiveServer存在的安全性、并发性等问题,所以下面我们分别介绍HiveServer和HiveServer2配置数据连接的方式。

  3. 3

    HiveServer

    数据库驱动:org.apache.hadoop.hive.jdbc.HiveDriver;

    URL:jdbc:hive://localhost:10000/default

    注:hive服务默认端口为10000,根据实际情况修改端口;另外目前只支持默认数据库名default,所有的Hive都支持。

    测试连接,提示连接成功即可。

    报表组件FineReport如何连接hadoop,hive数据库
  4. 4

    HiveServer2

    数据库驱动:org.apache.hive.jdbc.HiveDriver;

    URL:jdbc:hive2://localhost:10000/default

    注:该连接方式只支持Hive0.11.0及之后版本。

    报表组件FineReport如何连接hadoop,hive数据库     Finereport连接Impala:   https://help.fanruan.com/finereport/doc-view-2567.html、        

标签:FineReport,Kerberos,jar,hadoop,Hive,hive,HiveServer,连接
来源: https://www.cnblogs.com/xk-bench/p/15307053.html