首页 > TAG信息列表 > hive2

linux 进入hive

#进入beeline[root@master ~]# beeline#进入beeline后,连接10000端口beeline> !connect jdbc:hive2://192.168.152.50:10000Connecting to jdbc:hive2://192.168.152.50:10000Enter username for jdbc:hive2://192.168.152.50:10000: dwl #用户名dwlEnter password for jdbc:hive2:

大叔经验分享(135)hive开启ldap认证

hive-site.xml 1 接入ldap或ad域 <property> <name>hive.server2.authentication</name> <value>LDAP</value> </property> <property> <name>hive.server2.authentication.ldap.url</name> <value>ldap

启动hiveserver2服务后使用beeline报错Could not open client transport with JDBC Uri: jdbc:hive2://localhost:100

beeline> !connect jdbc:hive2://localhost:10000Connecting to jdbc:hive2://localhost:10000Enter username for jdbc:hive2://localhost:10000: rootEnter password for jdbc:hive2://localhost:10000: 19/03/01 22:01:59 [main]: WARN jdbc.HiveConnection: Failed to

hive报错 Could not open client transport with JDBC Uri: jdbc:hive2://node01:10000/default:java.net.Con

  先输入下面命令,确定metostore能不能启动   再确认9083端口有没有启动   再确认hive能不能进入shell   再输入命令hiveserver2   确认10000端口   最后输入两个命令,终于解决了! beeline !connect jdbc:hive2://node01:10000/default    原文链接:https://blog.c

使用Beeline连接Hive

服务端启动hiveserver2 [root@node04 ~]# hiveserver2客户端进入beeline并连接 [root@node03 ~]# beeline Beeline version 1.2.1 by Apache Hive beeline> !connect jdbc:hive2://node04:10000 Connecting to jdbc:hive2://node04:10000 Enter username for jdbc:hive2://node04:

kettle连接hive2报错TCLIService$Iface

kettle连接hive源报错: 错误连接数据库 [hive_hdp] : org.pentaho.di.core.exception.KettleDatabaseException: Error occurred while trying to connect to the database Error connecting to database: (using class org.apache.hive.jdbc.HiveDriver)org/apache/hive/service/

[已解决]报错:Error: Could not open client transport with JDBC Uri: jdbc:hive2://hadoop102:10000

报错内容: Error: Could not open client transport with JDBC Uri: jdbc:hive2://hadoop102:10000: Failed to open new session: java.lang.RuntimeException: org.apache.hadoop.ipc.RemoteException(org.apache.hadoop.security.authorize.AuthorizationException): User: han

HDP Hiveserver2搭建高可用

第一步:添加hiveserver2服务第二步:增加配置项      第三步:注册到分别有hiveserver2的机器上面执行命令[root@hadoop2 ~]# hiveserver2 第四步:验证,一个节点注册[zk: localhost:2181(CONNECTED) 4] ls /hiveserver2[serverUri=0.0.0.0:10000;version=1.2.1.2.3.4.0-3485;sequenc

HDP Hiveserver2搭建高可用

第一步:添加hiveserver2服务第二步:增加配置项      第三步:注册到分别有hiveserver2的机器上面执行命令[root@hadoop2 ~]# hiveserver2 第四步:验证,一个节点注册[zk: localhost:2181(CONNECTED) 4] ls /hiveserver2[serverUri=0.0.0.0:10000;version=1.2.1.2.3.4.0-3485;sequenc

Hive启动的三种方式

方式1 配置了环境变量可以直接启动 hive 方式2 进入后台启动 hive --service hiveserver2 & 特点: 可以单独启动此服务进程,供远程客户端连接;此服务内置metastore服务。 方式3 hive --service metastore 2>&1 >/dev/null & beeline -u jdbc:hive2://192.168.10.101:100

【已解决】Hadoop集群中hive启动终止(hiveserver2&连接不上jdbc:hive2://localhost:10000 拒绝访问)

启动Hadoop后,输入hive 卡在以下: Logging initialized using configuration in jar:file:/home/czy/modules/hive-1.2/lib/hive-common-1.2.0.jar!/hive-log4j.properties 或输入hiveserver2 & beeline -u jdbc:hive2://master:10000 -n xxx Error: Could not open client tr

【环境安装】Hive2.x

0. Hive源码包下载 http://mirror.bit.edu.cn/apache/hive/ 1. 下载软件包 wget http://mirror.bit.edu.cn/apache/hive/hive-2.3.3/apache-hive-2.3.3-bin.tar.gz tar zxvf apache-hive-2.3.3-bin.tar.gz 2. 创建HDFS目录 hadoop fs -mkdir -p /data/hive/warehouse hadoop fs

beeline hiveserver2运行遇到的问题

beeline> !connect jdbc:hive2://192.168.0.108:10000Connecting to jdbc:hive2://192.168.0.108:10000Enter username for jdbc:hive2://192.168.0.108:10000: rootEnter password for jdbc:hive2://192.168.0.108:10000: *****20/05/22 01:50:23 [main]: WARN jdbc.HiveC

Hive配置连接hiveserver2

1.编辑Hive的hive-site.xml <property> <!-- hiveserver2用户名 --> <name>beeline.hs2.connection.user</name> <value>hive2</value> </property> <property> <!-- hiveserver2密码 --> <name

Hive第一天——Hive介绍以及简单使用

Hive第二天——Hive介绍以及简单使用 自己的话:黑发不知勤学早,白首方悔读书迟 每天都要保持前进! 一、什么是Hive 数据库: mysql、oracle、sqlserver、DB2、sqlite、MDB 数据仓库: Hive,是MR的客户端,也就是说不必要每台机器都安装部署Hive HIVE是一个可以将sql翻译为MR程序的工

HIve2优化参数

最近为了调试hive试了很多hive参数,对于hive任务优化,减少使用内存有一些自己的见解,在此做一个记录。 一:Hive是什么 Hive是面向大数据的数据仓库,是一种将SQL转换为mapreduce的工具。 二:mapreduce的基本流程及阶段可进行的优化操作    (其实有很多不用设置有默认的设置或设置后反

Hive 8、Hive2 beeline 和 Hive jdbc

1、Hive2 beeline  Beeline 要与HiveServer2配合使用,支持嵌入模式和远程模式 启动beeline 打开两个Shell窗口,一个启动Hive2 一个beeline连接hive2 #启动HiverServer2 , ./bin/hiveserver2 [root@node5 ~]# hiveserver216/02/23 22:55:25 WARN conf.HiveConf: HiveConf of name h

Java使用JDBC连接Hive

  最近一段时间,处理过一个问题,那就是hive jdbc的连接问题,其实也不是大问题,就是url写的不对,导致无法连接。问题在于HiveServer2增加了别的安全验证,导致正常的情况下,传递的参数无法使用,hive连接返回用户为空的错误,具体错误不再详谈,今天就说说jdbc的url书写问题。   正常情况下的u

Hive2

Hive2 1、hive中有哪些类型的hive参数 hive当中的参数、变量,都是以命名空间开头 命名空间 读写权限 含义 hiveconf 可读写 hive-site.xml当中的各配置变量例:hive --hiveconf hive.cli.print.header=true system 可读写 系统变量,包含JVM运行参数等例:system:user.nam

HUE中Oozie执行Hive脚本

Oozie执行hive,传入参数1. 新建一个workflow   2. 拖入一个hive2   3. hive脚本如下 CREATE TABLE IF NOT EXISTS spider_tmp.org_invest_fund_${date} (`id` int, `info_id` int, `company` string, `company_url` string, `legal_person` string, `reg_capital` string, `est

配置hive server2鉴权和beeline无密码链接hive数据仓库

启动hive server2服务之后使用beeline链接报一下错误beeline> !connect jdbc:hive2://localhost:10000 Connecting to jdbc:hive2://localhost:10000Enter username for jdbc:hive2://localhost:10000: hadoopEnter password for jdbc:hive2://localhost:10000: **19/03/01 22:01:

Hive| DDL| DML

  类型转换 可以使用CAST操作显示进行数据类型转换例如CAST('1' AS INT)将把字符串'1' 转换成整数1;如果强制类型转换失败,如执行CAST('X' AS INT),表达式返回空值 NULL。0: jdbc:hive2://hadoop101:10000> select '1'+2, cast('1'as int) + 2;+------+------+--+| _c0 | _c