E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
HDFS深入浅出
【Hadoop】
Hadoop是一个开源的分布式离线数据处理框架,底层是用Java语言编写的,包含了
HDFS
、MapReduce、Yarn三大部分。
想当运维的程序猿
·
2023-12-15 07:43
hadoop
大数据
分布式
hive聚合函数之JOIN原理及案例
1.数据准备原始数据创建dept.txt文件,并赋值如下内容,上传
HDFS
。
Appreciate(欣赏)
·
2023-12-15 06:03
hive
hive
数据仓库
07用户行为日志数据采集
用户行为数据由Flume从Kafka直接同步到
HDFS
,由于离线数仓采用Hive的分区表按天统计,所以目标路径要包含一层日期。具体数据流向如下图所示。
kk_io
·
2023-12-15 06:22
数据仓库
flume
数据仓库
投资的安全策略
读到后半段,发现虽然李笑来老师
深入浅出
的讲投资,字面的意思很容易理解,但深究他的投资思路,是有很多功课需要补习的。慢慢来吧,第
飞天小猫_7
·
2023-12-15 05:34
hive的load报错Error: EXECUTION FAILED: Task MOVE error HiveException: [Error 20531] Unable to move sour
Error:EXECUTIONFAILED:TaskMOVEerrorHiveException:[Error20531]Unabletomovesource
hdfs
://nameservice1/tmp
五月天的尾巴
·
2023-12-15 03:12
大数据
数据库
hive
load报错
task
move
error
【硬件】
深入浅出
讲解MOS管的栅极电阻
欢迎关注【玩转单片机与嵌入式】公号,回复关键字获取更多免费视频和资料回复【加群】,【单片机】、【STM32】、【硬件知识】、【硬件设计】、【经典电路】、【论文】、【毕业设计】、【3D封装库】、【PCB】、【电容】、【TVS】、【阻抗匹配】、【资料】、【终端电阻】、【Keil】、【485】、【CAN】、【振荡器】、[USBCAN]、【PCB】、【智能手环】、【智能家居】、【智能小车】、【555】、【
玩转单片机与嵌入式
·
2023-12-15 03:15
元器件
嵌入式硬件
2.CENTOS安装CDH和Kudu-1
Cloudera企业级数据中心的安装主要分为4个步骤:集群服务器配置,包括安装操作系统、关闭防火墙、同步服务器时钟等;外部数据库安装安装Cloudera管理器;安装CDH集群;集群完整性检查,包括
HDFS
大勇任卷舒
·
2023-12-15 01:40
【Hadoop_03】
HDFS
概述与Shell操作
1、集群配置(1)集群启动/停止方式总结(2)编写Hadoop集群常用脚本(3)常考面试题【1】常用端口号【2】常用配置-文件2、
HDFS
概述(1)
HDFS
产出背景及定义(2)
HDFS
优缺点(3)
HDFS
温欣2030
·
2023-12-14 23:04
【大数据】
hadoop
hdfs
大数据
深入浅出
:HTTPS单向与双向认证及证书解析20231208
介绍:网络安全的核心之一是了解和实施HTTPS认证。本文将探讨HTTPS单向认证和双向认证的区别,以及SSL证书和CA证书在这些过程中的作用,并通过Nginx配置实例具体说明。第一部分:HTTPS单向认证定义及工作原理:HTTPS单向认证是一种安全协议,其中只有服务器向客户端证明其身份。这是通过服务器提供SSL证书来实现的,客户端将验证此证书以确保服务器的真实性和信任度。这种认证方法常用于大多数客
Narutolxy
·
2023-12-14 23:14
行业知识笔记
https
网络协议
http
悟
抓住学生的兴趣,理论联系实际,
深入浅出
,学生能自悟,这就是教育的境界。而自己的吼无意间伤害了孩子的自尊心,这得好好改改。张校提到的细节决定成败,真的是这样。准备工作的充分与尊重。效率的高效。
兰珺
·
2023-12-14 21:24
深入浅出
分析kafka客户端程序设计 ----- 生产者篇----万字总结
前面在深入理解kafka中提到的只是理论上的设计原理,本篇讲得是基于c语言的kafka库的程序编写!!!!!首先要编写生产者的代码,得先知道生产者的逻辑在代码上是怎么体现的1.kafka生产者的逻辑怎么理解呢?我们在实例化生产者对象之前的话,肯定是要对一些参数进行配置,比如下面介绍的conf这些那么配置完参数之后,就是创建生产者实例,那么实例化生产者之后,就是准备生产者生产消息,那么我们在生产者生
乖的小肥羊
·
2023-12-14 20:45
kafka
c++
c语言
java
分布式
消息队列
外部文件数据写入hive
hive数据库是基于
HDFS
的一个数据库,是对
hdfs
数据的一个映射关系。注意:hive数据库存入数据的时候不建议使用insertinto语句来进行插入,这样的的操作方式在效率上会很低效。
小赵要加油
·
2023-12-14 19:24
数据仓库
hive
Hive:从
HDFS
回收站恢复被删的表
1.确认
HDFS
是否开启回收站功能2.查看回收站中的数据被删除的数据会放在删除数据时使用的用户目录下,如:使用pgxl删除的,那么删除的数据会放在如下目录:/user/pgxl/.Trash该目录下会有多个文件夹
有语忆语
·
2023-12-14 19:49
大数据之Hive
hive
hdfs
hadoop
每日一记-读书笔记
两本书以一个哲人和青年对话的形式来展开,
深入浅出
的讨论了阿德勒的心理学的理论以及如何在实际生活中运用来改
江伟_一元复始
·
2023-12-14 19:54
大数据存储技术(1)—— Hadoop简介及安装配置
)概念(二)Hadoop发展历史(三)Hadoop三大发行版本(四)Hadoop的优势二、Hadoop的组成(一)Hadoop1.x和Hadoop2.x的区别编辑(二)Hadoop的三种运行模式(三)
HDFS
Francek Chen
·
2023-12-14 19:08
大数据技术基础
Spark编程基础
大数据
hadoop
linux
Scala-初学
前提,已经安装好Scala在Linux终端准备资料:a.txt内容HIVE底层是
hdfs
和mapreduce实现存储和计算的。
Logan_addoil
·
2023-12-14 19:07
大数据学习之旅
scala
开发语言
后端
MapReduce的执行过程(以及其中排序)
阶段(ReduceTask):拷贝数据(copy)------排序(sort)-----合并(reduce)-----写出(write)1、Maptask读取:框架调用InputFormat类的子类读取
HDFS
Logan_addoil
·
2023-12-14 19:29
大数据学习之旅
mapreduce
大数据
没有什么事比好好活着更重要
没有什么事比好好活着更重要看到这本书时,读来确实有点小震撼,一则本书的道理真的是
深入浅出
,让人读来更亲近,不像有些高高在上的指教;二来,最近读了一则小新闻,也是很应景。
狗毛蛋儿
·
2023-12-14 18:52
datax的mysql 到
hdfs
文件系统 --- 支持高可用
datax的mysql到
hdfs
文件系统上!
Java页大数据
·
2023-12-14 16:27
datax
hadoop
hive
spring
大数据
idea本地调试hadoop 遇到的几个问题
java.lang.IllegalStateException‘exception.Cannotevaluateorg.apache.hadoop.mapreduc解决方法:关闭IDEA中的启用“tostring()”对象视图2.代码和
hdfs
sunweiking
·
2023-12-14 13:43
intellij-idea
hadoop
java
big data tools连接
hdfs
报错Exception during driver request: java.lang.IllegalArgumentException:java.net.U
1.报错在IDEA中使用bigdatatools插件连接虚拟机中的
hdfs
时报错:Exceptionduringdriverrequest:java.lang.IllegalArgumentException
向之 所欣
·
2023-12-14 12:15
报错
大数据
hdfs
java
报错:Permission denied. user=dr.who is not the owner of inode=/tmp
例如
HDFS
网络用户界面(用于浏览文件的用户)。链接:hadoop.apache.org/docs/r3.3.1/hado
撕得失败的标签
·
2023-12-14 12:37
Hadoop
hdfs
hadoop
权限问题
已解决:java.net.ConnectException: Call From XXXXX to XXXXX :8020 failed on connection Exception: 拒绝连接;
咱也不敢问,咱也不敢问、整个业务集群呢是在阿里云上搭建的,十几台服务器,在跑flume脚本的时候,发现了一个很奇怪的现象,正常的跑flume的测试脚本,采用loggersink呢,是OK的,但是使用
HDFS
sink
想做CTO的任同学...
·
2023-12-14 12:04
Flume
Sqoop
HBase
java
开发语言
二百一十七、Flume——Flume拓扑结构之聚合的开发案例(亲测,附截图)
(二)结构特征用flume的这种组合方式能很好的解决这一问题,每台服务器部署一个flume采集日志,传送到一个集中收集日志的flume,再由此flume上传到
hdfs
、hive、hbase等
天地风雷水火山泽
·
2023-12-14 12:31
Flume
flume
大数据
深入浅出
分析kafka客户端程序设计 ----- 消费者篇----万字总结
1.Kafka消费者的逻辑配置消费者客户端参数。创建相应的消费者实例。订阅主题。拉取消息并消费;提交消息位移;关闭消费者实例;2Kafka的C++API2.1RdKafka::Conf见生成者实现文章。2.2RdKafka::Event见生成者实现文章。2.3RdKafka::EventCb见生成者实现文章。2.4RdKafka::TopicPartitionstaticTopicPartitio
乖的小肥羊
·
2023-12-14 12:01
kafka
分布式
解决Hbase报错:ERROR: Can‘t get master address from ZooKeeper; znode data == null
文章目录问题描述解决方案问题描述报错了:这啥公司啊,怎么给的文档怎么错这么多,起一服务,集群里总有几个组件报错继上次Flume脚本,使用
hdfs
sink报错了以后,hbase又报错了,报错提示如下:hbase
想做CTO的任同学...
·
2023-12-14 12:30
Flume
Sqoop
HBase
zookeeper
分布式
云原生
HDFS
3.x 数据存储新特性-纠删码
HDFS
是⼀个⾼吞吐、⾼容错的分布式⽂件系统,但是
HDFS
在保证⾼容错的同时也带来⾼昂的存储成本,⽐如有5T的数据存储在
HDFS
上,按照
HDFS
的默认3副本机制,将会占⽤15T的存储空间。
数据与后端架构提升之路
·
2023-12-07 01:03
大数据
hdfs
hadoop
大数据
堆栈区别
理解不透彻,实在是无法写清楚,记录下过程吧为了理解堆栈区别,我对比c++,java,APP,javascipt(vue,v8),node.js,solidity,都提到一个共同概念-虚拟机.1以太坊-
深入浅出
虚拟机
小王同学加油
·
2023-12-07 01:42
HDFS
Architecture 翻译和理解
HDFS
官方文档链接硬件故障的容错,在软件层面cover硬件故障。流式数据读取,数据的访问是顺序的,对数据跳转访问支持不友好。数据集巨大,以TB为单位。
不争_900c
·
2023-12-06 22:17
hadoop学习之路3-MapReduce作业生命周期
用户提交作业后,首先由JobClient实例将作业相关信息,比如将程序jar包、作业配置文件、分片元信息文件等上传到
hdfs
上,其中分片元信息记录了每个输入分片的逻辑位置信息。
乌拉乌拉儿
·
2023-12-06 18:09
图说
HDFS
基本原理
英文原版作者:ManeeshVarshney,
[email protected]
HDFS
是现在最受欢迎和被人们说熟知的分布式文件系统。
数据萌新
·
2023-12-06 18:40
深入浅出
,轻松掌握指针(C语言)
前言该篇博客为本系列最后一期,认真学习后一定可以轻松掌握指针。如果没有看过前两期一定要先学习前两期之后再来学习本篇博客。第一期,冲冲冲!第二期,冲冲冲!学好C语言是学好编程的基础,在我的博客中,我将会分享一些关于C语言的编程经验和技巧,对此感兴趣的小伙伴千万不要忘记关注博主同时订阅此专栏哦~C语言学习那么话不多说,让我们进入今天的正题吧!文章目录1,函数指针2,转移表实现简易计算器3,两道小题4,
马儿们的Trainer
·
2023-12-06 17:36
c语言学习
c语言
开发语言
ambari 安装及使用ambari安装hadoop记录
Ambari已支持大多数Hadoop组件,包括
HDFS
、MapReduce、Hive、Pig、Hbase、Zookeeper、Sqoop和Hcatalog等。ApacheAmbari支持
HDFS
yujianbujianqwe
·
2023-12-06 17:24
ambari
hadoop
大数据
大数据平台Ambari2.7.4+HDP3.1.4详细安装教程
Ambari已支持大多数Hadoop组件,包括
HDFS
、MapReduce、Hive、Pig、Hbase、Zookeeper、Sqoop和Hcatalog等。
csdnuser267
·
2023-12-06 17:20
大数据平台
HDP
大数据
Ambari简介&安装
Ambari目前已支持大多数Hadoop组件,包括
HDFS
、MapReduc
月苍.
·
2023-12-06 17:49
Ambari
ambari
大数据Hadoop分布式文件系统
HDFS
的两类节点NameNode和DataNode
HDFS
集群有两类节点,并以管理者-工作者模式运行,即一个NameNode(管理者)和多个DataNode(工作者)。
A尚学堂Nancy老师
·
2023-12-06 15:56
《陶行知教育文集》读书心得
图片发自App《陶行知教育文集》汇集了陶行知先生平生教育教学研究与实践的精髓,文章
深入浅出
、通俗易懂,从“教学合一”、“学生自治”、“平民教育”、“学校观”、“创造的儿童教育”、“民主教育”等各个方面集中体现了陶行知先生的
宋涛昌
·
2023-12-06 15:58
flume 实时监控 Hive 日志,并上传到
HDFS
中
的日志生成位置二、上传需要的jar包将commons-configuration-1.6.jar、hadoop-auth-3.1.2.jar、hadoop-common-3.1.2.jar、hadoop-
hdfs
无名刺客
·
2023-12-06 12:41
大数据
大数据
Flume 概述+环境配置+监听Hive日志信息并写入到
hdfs
Flume介绍Flume是Apache基金会组织的一个提供的高可用的,高可靠的,分布式的海量日志采集、聚合和传输的系统,Flume支持在日志系统中定制各类数据发送方,用于收集数据;同时,Flume提供对数据进行简单处理,并写到各种数据接受方(可定制)的能力。当前Flume有两个版本,Flume0.9x版本之前的统称为Flume-og,Flume1.X版本被统称为Flume-ng。参考文档:http
Transkai47
·
2023-12-06 12:40
大数据
linux
java
hadoop
python
二百一十二、Flume——Flume实时采集Linux中的目录文件写入到
HDFS
中(亲测、附截图)
一、目的在实现Flume实时采集Linux中的Hive日志写入到
HDFS
后,再做一个测试,用Flume实时采集Linux中的目录文件,即使用Flume监听Linux整个目录的文件,并上传至
HDFS
中二、
天地风雷水火山泽
·
2023-12-06 12:10
Flume
flume
linux
hdfs
flume和kafka整合——采集实时日志落地到
hdfs
flume和kafka整合——采集实时日志落地到
hdfs
一、采用架构二、前期准备2.1虚拟机配置2.2启动hadoop集群2.3启动zookeeper集群,kafka集群三、编写配置文件3.1slave1
奋斗的IT小白菜
·
2023-12-06 12:39
Flume
kafka
Flume采集数据到Hive&HBase
文章目录Flume汇入数据到Hive方法一:汇入到Hive指定的
HDFS
路径中:方法二:利用HiveSink汇入数据Flume汇入数据到HBase一、Flume的HBaseSinks详细介绍1.1、HBaseSink1.2
哈了个Doop
·
2023-12-06 12:08
hdfs
hadoop
hive
hbase
Flume监控Hive日志并上传到
HDFS
一、实时监控单个追加文件1.需求:实时监控Hive日志,并上传到
HDFS
2.实现步骤:(1)上传Hadoop相关jar包到flume/lib目录下flume相关jar包https://blog.csdn.net
无发可脱丶
·
2023-12-06 12:37
笔记
学习
flume
大数据
flume
实时监控 Hive 日志,并上传到
HDFS
中
Flume要想将数据输出到
HDFS
,依赖Hadoop相关jar包检查/etc/profile.d/my_env.sh文件,确认Hadoop和Java环境变量配置正确创建flume-file-
hdfs
.conf
夏殿灬青葛石
·
2023-12-06 12:07
Flume
hdfs
hive
hadoop
二百一十一、Flume——Flume实时采集Linux中的Hive日志写入到
HDFS
中(亲测、附截图)
一、目的为了实现用Flume实时采集Hive的操作日志到
HDFS
中,于是进行了一场实验二、前期准备(一)安装好Hadoop、Hive、Flume等工具(二)查看Hive的日志在Linux系统中的文件路径
天地风雷水火山泽
·
2023-12-06 12:36
Flume
flume
hive
hdfs
自我整合
本以为这是一个理论性很强的话题,自己没有多大兴趣听下去,但在这位教授以大量国内外统计数据,结合日常生活案例分析,
深入浅出
的讲解下,我们听的津津有味,1000多人的会场,几乎没有人走动和离席的。
风雨彩虹1219
·
2023-12-06 10:25
Doris数据备份及恢复
如BOS、
HDFS
等。可以通过SHOWBROKER;查看当前部署的
shangjg3
·
2023-12-06 08:48
Doris
大数据
数据仓库
doris
sql
spark不同结构Dataset合并
1.先将
hdfs
(或本地)存储的csv文件加载为Dataset先在本地C盘准备两个csv文件test.csvclient_id,behives,del,normal_status,cust_type,no_trd_days7056
容若只如初见
·
2023-12-06 07:03
spark
大数据
分布式
spark 写入 hudi时数据类型报错
Causedby:org.apache.spark.sql.execution.QueryExecutionException:Parquetcolumncannotbeconvertedinfile
hdfs
南城守护
·
2023-12-06 07:31
spark
大数据
分布式
使用 Apache Kafka 进行实时流处理
其架构更多地继承了
HDFS
、HBase或Cassandra等存储系统,而不是实现
wouderw
·
2023-12-06 05:37
apache
kafka
分布式
上一页
29
30
31
32
33
34
35
36
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他