E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
Hive2
hive配置及内部函数
/hive-hiveconfxxx会话设置(仅会话阶段生效):jdbc:
hive2
://node3:10000>setmapreduce.job.reduces=3;条件函数if(条件,truereturn
·
2021-02-05 00:14
hive
hive配置及内部函数
/hive-hiveconfxxx会话设置(仅会话阶段生效):jdbc:
hive2
://node3:10000>setmapreduce.job.reduces=3;条件函数if(条件,truereturn
·
2021-02-05 00:02
hive
(三)Hive内置运算符、函数
1.内置运算符和函数hive内置一些函数,我们可以通过showfunctions来查看0:jdbc:
hive2
://hadoop10:10000>showfunctions;+-------------
leafgood
·
2021-01-15 19:43
hive
(三)Hive内置运算符、函数
1.内置运算符和函数hive内置一些函数,我们可以通过showfunctions来查看0:jdbc:
hive2
://hadoop10:10000>showfunctions;+-------------
leafgood
·
2021-01-11 17:21
hive
Hive-JDBC流程
jdbc基本上没啥大的区别二、添加config配置文件和日志配置新建资源包以及config、日志的配置文件driver=org.apache.hive.jdbc.HiveDriverurl=jdbc:
hive2
xiaoxaoyu
·
2021-01-09 22:09
Hive
hive
jdbc
hive数据库
任意位置输入
hive2
、进入hive数据库进行查询操作查看数据库"showdatabases;"(ctrl+l清屏)"usewt;";"showtables;""select*froma"sethive.cli.print.current.db
我住永安当
·
2020-11-20 23:12
python3.6 +
hive2
连接
Ubuntu18.04,python用的anaconda3的python3.6,hive用的是hive2sasl安装环境#ubuntusudoapt-getinstallsasl2-binlibsasl2-2libsasl2-devlibsasl2-modules详细本地的sasl安装看这个上面连接文章的连接数据库的示例代码pipinstall需要安装的six(1.11.0)thrift(0.11
爬墙少年
·
2020-09-17 15:30
大数据
Hive
Hive2
开启insert、update、delete功能
Hive从0.14版本开始支持事务和行级更新,但缺省是不支持的,需要一些附加的配置。要想支持行级insert、update、delete,需要配置Hive支持事务。CDH版本通过CM修改配置Client端:hive.support.concurrency=truehive.enforce.bucketing=truehive.exec.dynamic.partition.mode=nonstric
gmHappy
·
2020-09-17 00:47
大数据
hive
No LZO codec found, cannot run.
直接Hive启动执行select语句无异常,但使用JDBC方式连接Hiveserver2报如下错误0:jdbc:
hive2
://hadoop102:10000>select*fromods_start_loglimit10
同道大叔
·
2020-09-16 17:57
Hive
jdbc
hive
lzo压缩
hive分区表某分区对应的目录不存在导致查询异常问题
1.问题现象1.1sparkthriftserver查询hive分区表异常0:jdbc:
hive2
://10.0.194.131:10017>select*fromxy_app.xy_log_collect_user_funnelslimit10
L13763338360
·
2020-09-15 10:21
spark
测试自定义JDBC连接池
初始频繁的创建JDBC连接和关闭发现非常消耗资源,并且连接
hive2
和SparkSql时耗时比较长,基于此类需求发现是否可以自定JDBC连接池,实现一次连接反复使用。
蒙奇奇的故事
·
2020-09-14 01:20
java
线程
jdbc
java
hive创建表-加载表数据-创建分区表
创建表(条件之间不能有逗号fieldsterminatedby','字段之间以逗号分隔)0:jdbc:
hive2
://localhost:10000/cr>createtableifnotexiststeacher
weixin_30824277
·
2020-09-13 06:38
R通过RJDBC连接外部数据库
/impala-jdbc-0.5.2”,pattern=”jar$”,full.names=TRUE,recursive=TRUE))conn<-dbConnect(drv,sprint(‘jdbc:
hive2
faith默默
·
2020-09-13 05:38
R
SQL
beeline常用的命令
connecturl–连接不同的
Hive2
服务器2、!exit–退出shell3、!help–显示全部命令列表4、!
流云先生
·
2020-09-13 00:51
hive
hive
Hive使用druid做连接池代码实现
配置文档hive_jdbc_url=jdbc:
hive2
://192.168.0.22:10000/defaulthive.dbname=xxxxxhive_jdbc_username=roothive_jdbc_password
dingjia5924
·
2020-09-12 12:16
hive 中排序order by,sort by,distribute by使用
前提:hive中使用的排序有oderby,sortby,distributeBy,clusterBy具体使用如下测试数据:0:jdbc:
hive2
://hadoop-03:10000>select*fromemp
雪妮shining
·
2020-09-12 01:55
hive
hive
Hive Beeline连接报错:Could not open client transport with JDBC Uri: jdbc:
hive2
://hcmaster:10000/default
问题解决方案在hadoop的配置文件core-site.xml增加如下配置:hadoop.proxyuser.hc.hosts*hadoop.proxyuser.hc.groups*其中“hc”是连接beeline的用户。启动测试重启hdfs:先stop-all.sh,再start-all.sh,否则不会生效。启动hiverserver2查看是否启动:netstat-anp|grep100003.
梁云亮
·
2020-09-12 00:11
#
Hive
常见错误
Beeline连接报错
Error: Could not open connection to jdbc:
hive2
://master:10000: java.net.ConnectException: Connection
https://blog.csdn.net/yu0_zhang0/article/details/79096758
i_m_jack
·
2020-09-12 00:41
hive
Error: Could not open connection to jdbc:
hive2
://192.168.144.22:10000: java.net.ConnectException: Co
Error:Couldnotopenconnectiontojdbc:
hive2
://192.168.144.22:10000:java.net.ConnectException:Connectionrefused
番石榴飘香
·
2020-09-11 23:01
hive
Hue中添加hive自定义函数
connectjdbc:
hive2
://10.5.xx.xx:2500GRANTALLONURI'hdfs://xxx:8020/tmp.db/function/Dmo.jar'TOROLEread;创建函数
蘑菇丁
·
2020-09-10 13:41
大数据+机器学习+oracle
hive
HIVE2
:beeline连接设置用户名和密码注意问题
beelineconnect有几种方式,见Hive-site.xml,缺省为NONE。hive.server2.authenticationNONEExpectsoneof[nosasl,none,ldap,kerberos,pam,custom].Clientauthenticationtypes.NONE:noauthenticationcheckLDAP:LDAP/ADbasedauthen
勤奋等于工资
·
2020-08-25 11:19
Centos7安装Hive mysql
第十单元完全分布式、
Hive2
、HiveHive是数据仓库:zhangsanmath99lisimath88wangwumath78zhangsanenglish69lisienglish87wangwuenglish791
忧伤的橘子
·
2020-08-24 16:42
jdbc连接hive,报错:Execution Error, return code 2 from org.apache.hadoop.hive.ql.exec.mr.MapRedTask
如下:jdbc:
hive2
://xxxxxxx/yyyyy?
qq_562293298
·
2020-08-24 15:09
hive学习及遇到问题
connectjdbc:
hive2
://localhost:10000输入系统的账号密码showdatabases;显示数据库中的数据库showtables;显示数据库中的表运行selectcount(
bo512958706
·
2020-08-24 13:30
大数据学习
Ambari的hive组件插入中文存在乱码问题
*版本存在乱码,而2.1版本的正常;解决办法:使用
hive2
,但ambari中默认没有这个组件服务(默认使用hive1),无法安装。后来发现
hive2
本身随着hive1的
源神
·
2020-08-24 13:13
Hive
导入hive表Error: Error while compiling statement: FAILED: SemanticException No files matching path file
将CSV文件导入hive表时报错:0:jdbc:
hive2
://10.5.145.113:10000>loaddatalocalinpath'/DATA/hdfs/example.csv'intotabledb.example_table
程序媛三妹
·
2020-08-24 12:18
Hive
HIVE2
:ERROR [main]: ql.Driver (:()) - FAILED: Execution Error, return code 1 from org.apache.hadoop.
在Hive2.1onTez环境中运行selectcount(*)fromstudents;时,遇到ERROR[main]:ql.Driver(:())-FAILED:ExecutionError,returncode1fromorg.apache.hadoop.hive.ql.exec.tez.TezTask查看hive日志,具体问题是:2016-12-20T17:38:50,298INFO[Te
风语飘摇
·
2020-08-24 12:07
hive
User root is not allowed to impersonate anonymous
使用HiveServer2andBeeline模式运行时,启动好HiveServer后运行beeline-ujdbc:
hive2
://localhost:10000-nroot连接server时 出现java.lang.RuntimeException
杰灵
·
2020-08-24 12:17
hive
hive 中concat_ws和collect_set 用法
0:jdbc:
hive2
://10.67.1.207:10000>selectcollect_set(cast(ns_hourasstring))asns_hourfromtam_enhance_alarmwherens_date
weixin_30596343
·
2020-08-22 23:07
sparksql中行转列
进入sparksqlbeeline-u"jdbc:
hive2
://172.16.12.46:10015"-nspark-pspark-dorg.apache.hive.jdbc.HiveDriver--
anshenwa4859
·
2020-08-22 21:47
大数据: hive 时间维度表初始化 记录步骤
1,首先设置2个变量初始开始日期和初始结束日期:0:jdbc:
hive2
://node1.ansunangel.com:2181,nod>sethivevar:start_day=2020-07-01;
shrek11
·
2020-08-21 17:00
数据库
大数据
Hiveserver2 beeline error java.io.FileNotFoundException: minlog-1.2.jar
connectjdbc:
hive2
//127.0.0.1:10000rootorg.apache.hive.jdbc.HiveDriverscancompletein1ms16/11/0120:47:52
_自由之子_
·
2020-08-19 04:52
hive
脚本实现:从 HIVE 中导入数据到 MYSQL
代码如下:importosimportpymysqlhive_sql="""beeline-ujdbc:
hive2
://10.5.145.113:10000-n用户名-p密码--showHeader=false
程序媛三妹
·
2020-08-17 09:47
Python
Hive
MYSQL
HIVE数据导入MYSQL实现方式
*以下内容均转自其他CSDN博主的优秀内容一、PYTHON脚本导数importosimportpymysqlhive_sql="""beeline-ujdbc:
hive2
://10.5.145.113:
BigDodo
·
2020-08-17 07:56
Hive常用功能
hive2.x 安装时候报错org/apache/hadoop/crypto/key/KeyProvider
来历就是自己在用hadoop2.4安装hive2.2的时候(hbase与hive整合需要
hive2
),抛出的初始化错误。
君子意如何
·
2020-08-15 03:43
软件安装
Hive 内嵌模式安装指导
1.1相关组件版本组件版本说明组件名称版本号备注Ubuntu16.0664-bitHadoophadoop-2.5.2包括HDFS、YARNHivehive-1.2.1N/A1.2安装顺序Hadoop-》
Hive2
汀桦坞
·
2020-08-14 21:23
大数据
Zeppelin 用jdbc连接hive报错
日志:Couldnotestablishconnectiontojdbc:
hive2
://192.168.0.51:10000:Requiredfield'serverProtocolVersion'isunset
anshenwa4859
·
2020-08-14 16:34
kettle_manager
/p/5739820.htmlkettle系列-kettle管理平台部署说明http://www.cnblogs.com/majinju/p/5767001.html问题汇总:1.用kettle可以从
hive2
zsg86
·
2020-08-12 00:14
ETL
beeline数据导出,指定分隔符,去掉格式
beeline-ujdbc:
hive2
://host:10000--incremental=true--showHeader=false--outputformat=dsv--delimiterForDSV
YingWR
·
2020-08-11 17:29
hive
hive 1.2.1 升级到hive2.3.6
2.3.6下的conf下边第四步:将hive-1.2.1版本里的lib下边的mysqljar包发送到hive-2.3.6下边的lib目录下第五步:修改环境变量把hive的版本改成2.3.6第六步:进入
hive2
weidajiangjiang
·
2020-08-10 05:38
DBeaver连接
hive2
血泪史
1.前提(1)已经安装好DBeaver和hive(2)已经启动Hiveserver2和hadoop(3)开启权限hadoop/etc/hadoop/core.xmlcore-site.xml文件中加入:hadoop.proxyuser.youruser.hosts*hadoop.proxyuser.youruser.groups*2.连接新建连接2.配置连接编辑驱动步骤3坑多请注意:(1)建议不要
海若[MATRIX]
·
2020-08-10 05:50
Hive
JDBC连接Hive报错User: root is not allowed to impersonate anonymous
异常java.sql.SQLException:CouldnotopenclienttransportwithJDBCUri:jdbc:
hive2
://*****:10000/default:Failedtoopennewsession
imudges_Zy
·
2020-08-07 14:58
数据库
kettle连接hive报错问题
错误连接数据库[
hive2
]:org.pentaho.di.core.exception.KettleDatabaseException:ErroroccurredwhiletryingtoconnecttothedatabaseErrorconnectingtodatabase
zxc12345_
·
2020-08-05 12:33
1、kettle 7.0版本 连接
hive2
,mysql
kettle介绍Kettle是一个Java编写的ETL工具,Kettle可以简化数据仓库的创建,更新和维护,使用Kettle可以构建一套开源的ETL解决方案Kettle是一个组件化的集成系统,包括如下几个主要部分:1.Spoon:图形化界面工具(GUI方式),Spoon允许你通过图形界面来设计Job和Transformation,可以保存为文件或者保存在数据库中。也可以直接在Spoon图形化界面中
转身那一瞬
·
2020-08-05 10:50
kettle
Hive启动hiveserver2报错:Could not open client transport with JDBC Uri解决方案
报错信息:Error:CouldnotopenclienttransportwithJDBCUri:jdbc:
hive2
://node1:10000/hive_metadata;user=hadoop:
zjh_746140129
·
2020-08-04 22:27
hive
启动hiveserver2连接不上jdbc:
hive2
://localhost:10000
启动hiveserver2连接不上localhost:10000,中间试了很多方法,总结就是/hadoop-3.2.1/etc/hadoop的core-site.xml少了以下配置,加入以下配置后问题成功解决。1、修改hadoop的core-site.xml进入/hadoop-3.2.1/etc/hadoop的core-site.xml文件,增加以下设置,下面beeline的账号为什么,这是的账号
9随遇而安
·
2020-08-04 22:24
hive
hadoop
hive jdbc 连接时抛异常
Exceptioninthread"main"java.sql.SQLException:CouldnotopenclienttransportwithJDBCUri:jdbc:
hive2
://192.168.137.200
爆发的~小宇宙
·
2020-08-04 22:44
Hadoop
Hive
hive
hive
jdbc
hiveserver2
异常
Hive JDBC访问
connectjdbc:
hive2
://hadoop101:10000beeline>!connectjdbc:
hive2
://hadoop101:10000C
yljphp
·
2020-08-04 22:01
Hive
Hive学习笔记
beeline连接数据库报错Could not open client transport with JDBC Uri: jdbc:
hive2
://localhost:10000/cr: java.n
connectjdbc:
hive2
://localhost:10000/crConnectingtojdbc:
hive2
://localhost:10000/crEnterusernameforjdbc
Joy CR
·
2020-08-04 22:21
hive
Hive
hive启动hiveserver2连JDBC报错:Could not open client transport with JDBC Uri解决方案
开启hiveserver2和beeline后jdbc报错CouldnotopenclienttransportwithJDBCUri0:jdbc:
hive2
://hadoop100:10000(closed
攻城狮Kevin
·
2020-08-04 21:15
Hive
上一页
1
2
3
4
5
6
7
8
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他