[Java报表软件—技术知识]FineReport与hadoop,hive连接 |
Hadoop是个很流行的分布式计算解决方案,Hive是基于hadoop的数据分析工具。一般来说我们对Hive的操作都是通过cli来进行,也就是Linux的控制台,但是,这样做本质上是每个连接都存放一个元数据,各个之间都不相同,这样的模式用来做一些测试比较合适,并不适合做产品的开发和应用。
因此,就产生Hive的JDBC连接的方式。
1. 步骤
1.1 拷贝jar包到FR工程
将hadoop里的hadoop-core.jar、commons-logging.jar拷贝至报表工程appname/WEB-INF/lib下;
将hive里的antlr-runtime.jar、hive-exec.jar、hive-jdbc.jar、hive-metastore.jar、hive-service.jar、jdo2-api.jar、libfb303.jar、log4j.jar、slf4j-api.jar、slf4j-log4j12.jar拷贝至报表工程appname/WEB-INF/lib下。
1.2 配置数据连接
启动设计器,打开服务器>定义数据连接,新建JDBC连接:
数据库驱动:org.apache.hadoop.hive.jdbc.HiveDriver;
URL:jdbc:hive://localhost:10000/default
注:hive服务默认端口为10000,根据实际情况修改端口;另外目前只支持默认数据库名default。
测试连接,提示连接成功即可。
|
|
|

.: 公告
本博客提供详细的java报表软件的制作过程,发布java报表软件的版本更新信息,并适时对国内主流报表软件进行功能比较。 |
|
« | September 2025 | » | 日 | 一 | 二 | 三 | 四 | 五 | 六 | | 1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 | 10 | 11 | 12 | 13 | 14 | 15 | 16 | 17 | 18 | 19 | 20 | 21 | 22 | 23 | 24 | 25 | 26 | 27 | 28 | 29 | 30 | | | | | |
|
.: 我的分类(专题)
|

.: 最新日志
.: 最新回复
|

blog名称:Java报表软件 日志总数:357 评论数量:69 留言数量:0 访问次数:1218670 建立时间:2006年4月16日 |
|

.: 留言板
|

.: 链接
|

|