E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
hive权限管理
linux安装单机版spark3.5.0
一、spark介绍是一种通用的大数据计算框架,正如传统大数据技术Hadoop的MapReduce、
Hive
引擎,以及Storm流式实时计算引擎等.Spark主要用于大数据的计算二、spark下载spark3.5.0
爱上雪茄
·
2024-03-17 18:57
大数据
JAVA知识
spark
大数据
分布式
Hive
中的NVL函数与COALESCE函数
ReturnsdefaultvalueifvalueisnullelsereturnsvalueExample:>SELECTnvl(null,'bla')FROMsrcLIMIT1;blaFunctionclass:org.apache.hadoop.
hive
.ql.udf.generic.GenericUDFNv
独影月下酌酒
·
2024-03-15 13:13
Hadoop
大数据
hive
hadoop
数据仓库
hive
库表占用空间大小的命令
1、查每个
hive
表占用的空间大小hdfsdfs-du-h/user/
hive
/warehouse2、按占用空间大小降序排列hdfsdfs-du/user/
hive
/warehouse/ipms.db|
刀鋒偏冷
·
2024-03-15 13:13
hive
hadoop
数据仓库
Hive
中常用函数 wm_concat & concat_ws & collect_set & sort_array总结
concat_ws&collect_set:应用1:usereach_iduser_id1id1user_id1id2user_id2id1user_id2id2user_id2id3user_id3id1useridsuser_id1id1,id2user_id2id1,id2,id3user_id3id1selectdt,user_id,concat_ws(',',collect_set(ea
Lens5935
·
2024-03-15 13:12
Hive
数据库
数据分析
hive
大数据
sql
数据库
postgresql
HIVE
表中导入导出数据的几种方式
一:往
HIVE
表中导入导出数据语法结构:[]带括号的表示可选择字段LOADDATA[LOCAL]INPATH‘filepath’[OVERWRITE]INTOTABLEtablename[PARTITION
qq_37805784
·
2024-03-15 12:11
hive
大数据
数据仓库
Hive
中的CONCAT、CONCAT_WS与COLLECT_SET函数
1.CONCAT与CONCAT_WS函数1.1CONCAT函数--concat(str1,str2,...strN)-returnstheconcatenationofstr1,str2,...strNorconcat(bin1,bin2,...binN)-returnstheconcatenationofbytesinbinarydatabin1,bin2,...binNReturnsNULLi
独影月下酌酒
·
2024-03-15 11:09
大数据
Hadoop
hive
hadoop
数据仓库
03
hive
数仓安装与基础使用
hive
Hive
概述
Hive
是基于Hadoop的一个数据仓库工具。
daydayup9527
·
2024-03-14 13:39
hadoop_hive
运维
hadoop
权限管理
文章目录MySQL权限授予权限查看权限撤销权限权限生效机制访问控制的实现在实际生产中,为了保证数据的安全,数据库管理人员需要为不同的操作人员分配不同的权限,限制登录MySQL服务器的用户只能在其权限范围内操作。同时管理员还可以根据不同的情况为用户授予权限或撤销权限,从而控制操作人员的权限。MySQL权限MySQL的权限系统分为以下三个不同的层级:全局性的权限:针对整个mysql实例。数据库级别的权
binbinxyz
·
2024-03-14 10:35
#
mysql
mysql
笔记
数据库
Android L (5.0及以上版本) 中如何精准判断当前页面是否位于栈顶
尤其是在AndroidLollipop(5.0)及其之后版本中,Google引入了更为严格的
权限管理
和新的API来获取应用状态,使得这一判断变得更加精细而复杂。引子An
Evaporator Core
·
2024-03-13 23:19
android
Hive
函数 LAG 和 LEAD 使用示例
Hive
函数LAG和LEAD使用示例在
Hive
中LAG和LEAD是用于访问前一个或后一个行的函数,通常与窗口函数一起使用。
公子乂
·
2024-03-13 05:24
hive
hadoop
数据仓库
sql
大数据
Apache Paimon 使用之Creating Catalogs
hive
metastore,将metadata存储在
Hive
metastore中。用户可以直接从
Hive
访问表。
猫猫爱吃小鱼粮
·
2024-03-12 03:48
Paimon
apache
hive
hadoop
Sqoop一些常用命令及参数
命令类说明importImportTool将数据导入到集群exportExportTool将集群数据导出codegenCodeGenTool获取数据库中某张表数据生成Java并打包Jarcreate-
hive
-tableCreate
Hive
TableTool
大数据小同学
·
2024-03-11 09:19
Spark从入门到精通29:Spark SQL:工作原理剖析以及性能优化
SparkSQL工作原理剖析1.编写SQL语句只要是在数据库类型的技术里面,例如MySQL、Oracle等,包括现在大数据领域的数据仓库,例如
Hive
。
勇于自信
·
2024-03-11 00:20
hive
--去除特殊字符regexp_replace
文章目录regexp_replace`'\tabc\ndef\rhij'`→`'abcdefhij'``'\tabc\ndef\rhij'`→`'abcdefhij'`看一下其他的情况regexp_replace'\tabc\ndef\rhij'→'abcdefhij'selectregexp_replace('\tabc\ndef\rhij','\n|\t|\r|','');'abcdefhij
韩家小志
·
2024-03-10 22:21
一些杂项
replace
hive去特殊字符
Hive
--行转列/列转行
行转列/列转行一、lateralview案例1:与explode连用案例2:与parse_url_tuple连用二、explode三、行列转换行转列多行转多列多行转单列列转行多列转多行单列转多行一、lateralview分类:视图功能:配合UDTF来使用,把某一行数据拆分成多行数据很多的UDTF不能将结果与源表进行关联,使用lateralview,可以将UDTF拆分的单个字段数据与原始表数据关联上
韩家小志
·
2024-03-10 22:51
#
Hive函数
hive
Hive
SQL某天每个直播间最大在线人数
一张表dwd_user_log有如下字段:1)直播间:live_id2)用户:userid3)时间戳:date_stamp4)登陆类型:entry_type(登入in和登出out)求某天每个直播间最大在线人数?selectlive_id,max(total_users)max_total_usersfrom(selectlive_id,userid,date_stamp,sum(ind)over(
sofo2017
·
2024-03-09 21:51
数据仓库技术体系
hive
Hive
SQL 开发指南(三)优化及常见异常
在大数据领域,
Hive
SQL是一种常用的查询语言,用于在Hadoop上进行数据分析和处理。为了确保代码的可读性、维护性和性能,制定一套规范化的
Hive
SQL开发规范至关重要。
大数据_苡~
·
2024-03-09 14:13
003-数据开发
hive
Hive优化
数据倾斜
Hive常见异常
hive
join
大数据开发(Hadoop面试真题-卷九)
大数据开发(Hadoop面试真题)1、
Hive
count(distinct)有几个reduce,海量数据会有什么问题?
Key-Key
·
2024-03-09 10:06
大数据
hadoop
面试
Hive
分组排序取topN的sql查询示例
Hive
分组排序取topN的sql查询示例要在
Hive
中实现分组排序并取每组的前N条记录,可以使用ROW_NUMBER()窗口函数结合PARTITIONBY和ORDERBY子句。
公子乂
·
2024-03-06 08:31
hive
sql
hadoop
大数据
数据仓库
归档模式
1:归档日志文件在线日志——用于崩溃/实例恢复/介质恢复归档日志——用于介质恢复2:确认数据库是否为归档模式arc
hive
loglist;--查看数据归档信息selectlog_modefromv$database
个人精进成长营
·
2024-03-06 08:12
hbase、
hive
、clickhouse对比
概念架构hbasemaster存储元数据、regionServer实际控制表数据,存储单位是Region,底层数据存储使用HDFS
hive
通过driver将sql分解成mapreduce任务元数据需要单独存储到一个关系型数据库
freshrookie
·
2024-03-05 16:40
hbase
hive
hadoop
Mac 离线安装Qt5
1下载QT1.1.打开链接:https://download.qt.io/arc
hive
/qt/在这个链接上,可以看到不同版本的QT,我们选择稳定5.9/点开后,选择5.9.8版本,可以看到不同版本的QT
熊明之
·
2024-03-05 11:33
mac
c++
Android PMS——权限控制分析(十二)
PMS中的权限控制通过
权限管理
和权限请求两个方面来实现。应用在Android系统中需要声明和请求权限,PMS则会根据应用声明的权限和用户的选择来进行权限的管理和控制。
c小旭
·
2024-03-04 00:48
Android
PMS
android
PMS
hive
--字符串连接函数concat(),concat_ws()
一、字符串连接函数:concat功能:将多个字符串连接成一个字符串语法:concat(stringA,stringB…)返回值:string说明:返回输入字符串连接后的结果,支持任意个输入字符串举例:
hive
nuhao_
·
2024-03-03 17:08
sql
数据库
hive
hadoop
数据仓库
【Hadoop】使用Metorikku框架读取
hive
数据统计分析写入mysql
一、定义作业文件作业文件该文件将包括输入源、输出目标和要执行的配置文件的位置,具体内容如下metrics:-/user/xrx/qdb.yaml#此位置为hdfs文件系统目录inputs:output:jdbc:connectionUrl:"jdbc:mysql://233.233.233.233:3306/sjjc"user:"root"password:"123456"driver:"com.
方大刚233
·
2024-03-03 06:23
Hadoop
Scala
hadoop
hive
mysql
hive
join中出现的数据暴增(数据重复)
什么是join过程中导致的数据暴增?例如:给左表的每个用户打上是否是新用户的标签,左表的用户数为100,但是关联右表之后,得到的用户数为200甚至更多什么原因导致的数据暴增呢?我们来看一下案例:spark-sql>withtest1as>(select'10001'asuid,'xiaomi'asqid>unionall>select'10002'asuid,'huawei'asqid>union
不想起的昵称
·
2024-03-02 15:03
hive
大数据
hadoop
hive
hive
四种常见的join
1.左连接leftjoinspark-sql>withtest1as(>select1asuser_id,'xiaoming'asname>unionall>select2asuser_id,'xiaolan'asname>unionall>select3asuser_id,'xiaoxin'asname>),>>test2as(>select1asuser_id,19asage>unionall
不想起的昵称
·
2024-03-02 15:33
hive
大数据
hadoop
hdfs
hive
权限管理
简介
权限管理
属于系统安全的范畴,是实现对用户访问系统的控制,可以按照安全规则或者安全策略控制用户可以访问而且只能访问自己被授权的资源。
权限管理
包括用户身份认证和授权两部分,简称认证授权。
刘媚-海外
·
2024-03-02 01:12
JavaEE
java
shiro
Spark整合
hive
(保姆级教程)
准备工作:1、需要安装配置好
hive
,如果不会安装可以跳转到Linux下编写脚本自动安装
hive
2、需要安装配置好spark,如果不会安装可以跳转到Spark安装与配置(单机版)3、需要安装配置好Hadoop
万家林
·
2024-02-29 09:47
spark
hive
spark
hadoop
Hive
复杂数据类型之array
定义格式如下:createtabletableName(......colNamearray......)说明:下标从0开始,越界不报错,以null代替案例准备:测试数据zhangsan78,89,92,96lisi67,75,83,94王五23,12createtableifnotexistsarr1(namestring,scoresarray)rowformatdelimitedfields
鸭梨山大哎
·
2024-02-28 08:48
hive
hive
array
数据类型
Hive
数据仓库行转列
查了很多资料发现网上很多文章都是转发和抄袭,有些问题。这里分享一个自己项目中使用的行转列例子,供大家参考。代码如下:SELECTmy_id,nm_cd_map['A']ASmy_cd_a,nm_cd_map['B']ASmy_cd_b,nm_cd_map['C']ASmy_cd_c,nm_num_map['A']ASmy_num_a,nm_num_map['B']ASmy_num_b,nm_num
XueminXu
·
2024-02-28 07:47
大数据
hive
行转列
str_to_map
COLLECT_LIST
STRUCT
Jenkins中
权限管理
说明(9)
Jenkins版本:2.303.1默认情况下,Jenkins是不允许注册操作,只有安装时候赋予的管理员账户。JenkinsRoleAuthorization插件可以通过通配符方式给用户分配角色,即特定的用户只能看到特定前缀的View和Job,所以一般来说创建的JenkinsView与Job命名都要带上跟项目相关的前缀。1、系统设置中开启允许外部注册ManageJenkins->ConfigureG
ifanatic
·
2024-02-27 07:15
Jenkins
jenkins
java
运维
Hive
--删除数据库
一、删除数据库注意:
Hive
与MySQL再删除数据库时是有一点不一样的。
Hive
再删除数据库操作时,要保证该库下没有任何数据表!
nuhao_
·
2024-02-26 19:33
hive
数据库
hadoop
转载:Linux全自动批量配置SSH免密
转载自https://www.mr-mao.cn/arc
hive
s/auto-configure-ssh-nopass-login.html1、在主机的操作系统上安装expect2、新建host_ip文件
徐sir(徐慧阳)
·
2024-02-26 04:14
系统集成
网络
服务器
linux
hive
学习笔记之九:基础UDF
欢迎访问我的GitHubhttps://github.com/zq2599/blog_demos内容:所有原创文章分类汇总及配套源码,涉及Java、Docker、Kubernetes、DevOPS等;《
hive
程序员欣宸
·
2024-02-26 00:05
【超详细】
HIVE
日期函数(当前日期、时间戳转换、前一天日期等)
文章目录相关文献常量:当前日期、时间戳前一天日期、后一天日期获取日期中的年、季度、月、周、日、小时、分、秒等时间戳转换时间戳to日期日期to时间戳日期之间月、天数差作者:小猪快跑基础数学&计算数学,从事优化领域5年+,主要研究方向:MIP求解器、整数规划、随机规划、智能优化算法。如有错误,欢迎指正。如有更好的算法,也欢迎交流!!!——@小猪快跑相关文献LanguageManualUDF-Apach
小猪快跑爱摄影
·
2024-02-25 21:04
HIVE
hive
hadoop
数据仓库
Linux之
权限管理
文章目录一、使用情况二、基础权限chmod三、ACL一、使用情况1.1场景:某个大公司,在一个部门,有一个经理和手下有两个员工,在操控一个Linux项目,项目又分为三期做,然而一期比较重要,经理带着员工做完了,公司就觉得技术难点已经做完攻克了,不需要投入之前的人了,到了二期就招外包人员去顶替之前员工做的事,然后会做linux权限控制,外包人员就需要招甲方人员授权。1.2外包指企业将某些业务活动或服
123456G~
·
2024-02-25 13:23
linux
网络
服务器
數據集成平台:datax將MySQL數據以query方式同步到
hive
數據集成平台:datax將MySQL數據以query方式同步到
hive
1.py腳本#coding=utf-8importjsonimportgetoptimportosimportsysimportMySQLdbimportre
m0_37759590
·
2024-02-25 09:18
mysql
hive
datax
mysql
hive
datax
php 打包 zip
php使用原生的ZipArc
hive
类来打包zip。
·
2024-02-24 15:57
phpzip打包
OpenHarmony JS和TS三方组件使用指导
OpenHarmonyJS和TS三方组件介绍OpenHarmonyJS和TS三方组件使用的是OpenHarmony静态共享包,即HAR(HarmonyArc
hive
),可以包含js/ts代码、c++库、
不入流HarmonyOS开发
·
2024-02-20 22:04
鸿蒙
HarmonyOS
OpenHarmony
harmonyos
华为
职场和发展
鸿蒙系统
鸿蒙开发
OpenHarmony
鸿蒙工程师
MATLAB 编程风格指南
转载自:http://blog.csdn.net/chenyusiyuan/arc
hive
/2007/11/19/1892378.aspxMATLAB编程风格指南——RichardJohnsonVersion1.5
DeepLearning
·
2024-02-20 22:13
Matlab学习
matlab
编程
文档
语言
测试
documentation
MySQL 基础知识(八)之用户
权限管理
目录1MySQL
权限管理
概念2用户管理2.1创建用户2.2查看当前登录用户2.3修改用户名2.4删除用户3授予权限3.1授予用户管理员权限3.2授予用户数据库权限3.3授予用户表权限3.4授予用户列权限
花落随风轻飘舞
·
2024-02-20 21:40
MySQL
mysql
数据库
hive
的map数和reduce如何确定
一、控制
hive
任务中的map数:1.通常情况下,作业会通过input的目录产生一个或者多个map任务。
Super乐
·
2024-02-20 20:38
hive
hive
HIVE
中MAP和REDUCE数量
一、总览MR执行过程一般的MapReduce程序会经过以下几个过程:输入(Input)、输入分片(Splitting)、Map阶段、Shuffle阶段、Reduce阶段、输出(Finalresult)。1、输入就不用说了,数据一般放在HDFS上面就可以了,而且文件是被分块的。关于文件块和文件分片的关系,在输入分片中说明。2、输入分片:在进行Map阶段之前,MapReduce框架会根据输入文件计算输
这孩子谁懂哈
·
2024-02-20 20:38
HIVE
hive
hadoop
mapreduce
hive
—— map join和common join(reduce join)
Hive
中的Join可分为CommonJoin(Reduce阶段完成join)和MapJoin(Map阶段完成join)。简单介绍一下两种join的原理和机制。
程序猿劝退师
·
2024-02-20 20:36
hive
大数据
hive
hive
如何确定map数量和reduce数量?
因为
Hive
底层就是MR,所以问题实际是MR如何确定map数量和reduce数量.map数量map数量逻辑如下map数量=split数量split数量=文件大小/splitsizesplitszie=Math.max
鸭梨山大哎
·
2024-02-20 20:35
hive
hive
map
mapreduce
粉丝:什么情况下,
hive
只会产生一个reduce任务,而没有maptask
今天下午,在微信群里看到粉丝聊天,提到了一个某公司的面试题:什么情况下,
hive
只会产生一个reduce任务,而没有maptask这个问题是不是很神奇?
浪尖聊大数据-浪尖
·
2024-02-20 20:04
mapreduce
hive
大数据
spark
java
hive
中mr个数判断
对于JOIN操作:Map:以JOINON条件中的列作为Key,如果有多个列,则Key是这些列的组合以JOIN之后所关心的列作为Value,当有多个列时,Value是这些列的组合。在Value中还会包含表的Tag信息,用于标明此Value对应于哪个表。按照Key进行排序。Shuffle:根据Key的值进行Hash,并将Key/Value对按照Hash值推至不同对Reduce中。Reduce:Redu
qq_18219755
·
2024-02-20 20:03
大数据
hive
mr个数
Hive
基于MapReduce引擎 map和reduce数的参数控制原理与调优经验
1.概述主要对基于MR的map数和reduce数测试与调优2.数据准备(1)表信息本次测试的表和sql都是使用的TPC-DS,表文件存储格式为text表名是否压缩总数占用空间文件数date_dim否730499.8M1item否4800012.9M1store否11830.5K1store_sales否230396418723109G8000store_sales_compress是2303964
abcdggggggg
·
2024-02-20 20:03
大数据
Hive
大数据
hadoop
hive
mapreduce
map
hive
中控制map和reduce数量的简单实现方法
0、先说结论:由于mapreduce中没有办法直接控制map数量,所以只能曲线救国,通过设置每个map中处理的数据量进行设置;reduce是可以直接设置的。控制map和reduce的参数setmapred.max.split.size=256000000; --决定每个map处理的最大的文件大小,单位为Bsetmapred.min.split.size.per.node=1; --节点
数仓大山哥
·
2024-02-20 20:02
hive
Hadoop系列
map数
reduce数
上一页
1
2
3
4
5
6
7
8
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他