E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
#HDFS
MR实战:网址去重
文章目录一、实战概述二、提出任务三、完成任务(一)准备数据1、在虚拟机上创建文本文件2、上传文件到
HDFS
指定目录(二)实现步骤1、创建Maven项目2、添加相关依赖3、创建日志属性文件4、创建网址去重映射器类
howard2005
·
2024-01-06 06:09
Hadoop分布式入门
mr
网址去重
大数据管理平台DataSophon开源动态&进行远程Debug方法
新增支持YARN,
HDFS
,ZK,Hive,Kafka,HBase组件集成Kerberos,支持友好的开启和关闭集成Kerberos。新增机
浮世Talk
·
2024-01-06 05:18
分享
大数据
idea
java
2.
HDFS
架构
目录概述架构
HDFS
副本
HDFS
数据写入流程NN工作原理DN工作原理结束概述官方文档快递环境:hadoop版本3.3.6相关文章速递架构
HDFS
HDFS
架构总结如下:amaster/slavearchitecture
流月up
·
2024-01-05 23:01
大数据
hdfs
架构
hadoop
namenode工作原理
datanode工作原理
大数据
HDFS
-存储的王者
文章目录为什么
HDFS
的地位如此稳固?
HDFS
的原理
HDFS
的高可用设计
HDFS
实现过程为什么
HDFS
的地位如此稳固?
善守的大龙猫
·
2024-01-05 21:48
大数据
大数据
hdfs
hadoop
HDFS
&Yarn HA架构设计
一、为什么要用HA在hadoop2.0.0之前,在
hdfs
集群中,NameNode是存在单点故障问题的。
吃货大米饭
·
2024-01-05 20:22
MR实战:词频统计
文章目录一、实战概述二、提出任务三、完成任务(一)准备数据1、在虚拟机上创建文本文件2、上传文件到
HDFS
指定目录(二)实现步骤1、创建Maven项目2、添加相关依赖3、创建日志属性文件4、创建词频统计映射器类
howard2005
·
2024-01-05 19:01
Hadoop分布式入门
mr
词频统计
修修改
hdfs
上的文件所属用户、所属组等读写执行控制权限
HDFS
支持权限控制,但支持较弱。
HDFS
的设计是基于POSIX模型的,支持按用户、用户组、其他用户的读写执行控制权限。
liuzx32
·
2024-01-05 11:52
SparkStreaming基础解析(四)
而结果也能保存在很多地方,如
HDFS
,数据
有语忆语
·
2024-01-05 10:05
大数据之Spark
SparkStreaming
Hadoop(04)
HDFS
编程实践操作
Hadoop分布式文件系统(HadoopDistributedFileSystem,
HDFS
)是Hadoop核心组件之一,如果已经安装了Hadoop,其中就已经包含了
HDFS
组件,不需要另外安装。
Eufeo
·
2024-01-05 09:25
Hadoop
hadoop
hdfs
大数据
Hadoop集群环境下
HDFS
实践编程过滤出所有后缀名不为“.abc”的文件时运行报错:Path is not a file: /user/hadoop/input
一、问题描述搭建完Hadoop集群后,在Hadoop集群环境下运行
HDFS
实践编程使用Eclipse开发调试
HDFS
Java程序(文末有源码):假设在目录“
hdfs
://localhost:9000/user
哇咔咔哇咔
·
2024-01-05 09:25
Hadoop
分布式
hadoop
hdfs
eclipse
java
大数据
Hadoop集群环境下
HDFS
实践编程过滤出所有后缀名不为“.abc”的文件时运行报错:java.net.ConnectException: 拒绝连接;
一、问题描述搭建完Hadoop集群后,在Hadoop集群环境下运行
HDFS
实践编程使用Eclipse开发调试
HDFS
Java程序(文末有源码):假设在目录“
hdfs
://localhost:9000/user
哇咔咔哇咔
·
2024-01-05 09:19
Hadoop
分布式
hdfs
hadoop
eclipse
java
大数据
Hive实战处理(二十三)hive整合phoenix
1、hive整合phoenix的原理Hive支持使用
HDFS
之外的存储系统作为底层存储系统,其中官方明确支持HBase,Kudu,Druid和JDBC(MySQL等)。
sheep8521
·
2024-01-05 08:13
hbase
hive
hive
hbase
datax不支持对hive
hdfs
(ha)高可用 的
hdfs
reader(即无法读取到
HDFS
多节点高可用).
处理方案:采用引入CDH的hive、
hdfs
等配置文件到
hdfs
reader,jar替换原的jar文件解决。
whbi
·
2024-01-05 08:06
hive
hdfs
hadoop
datax
HDFS
常用shell命令
#创建名为/abc的文件夹
hdfs
dfs-mkdir/abc#列出根目录中的内容
hdfs
dfs-ls/#递归列出多层文件夹的内容
hdfs
dfs-ls-R/#把Linux系统中/etc/hosts文件上传到
幸福巡礼
·
2024-01-05 08:15
hdfs
npm
hadoop
数据仓库理论进阶 - 01 《阿里大数据之路》第二篇数据模型篇
学习内容链接如下:视频:【一起啃书】阿里大数据之路数据仓库建模基础理论研读(已完结)_哔哩哔哩_bilibili书籍:《阿里大数据之路》8.1为什么需要数据建模建模目标:有序、有结构地分类组织和存储存储在
hdfs
:Concerto
·
2024-01-05 08:43
数据仓库
big
data
数据库
java与大数据:Hadoop与MapReduce
它由两个核心组件组成:Hadoop分布式文件系统(
HDFS
):
HDFS
是Hadoop的存储系统,它将大数据集分割成多个块,并将这些块分布
naer_chongya
·
2024-01-05 08:38
大数据
java
hadoop
flink on yarn任务启停脚本(实现一键读取ck启动,保存ck停止)
1.问题描述flink同步任务,长期任务过多,某个任务停止保存checkpoint或者savepoint后,修改代码,使用命令行读取检查点重新启动需要人工去
hdfs
上找寻检查点保存位置。
tuoluzhe8521
·
2024-01-05 06:20
Shell脚本相关
flink
大数据
yarn
kudu介绍和使用
kudu架构同
hdfs
和Hbase相似,kudu使用单个的master节点,用来管理集群的元数据,并且使用任意数量的tabletserver节点来存储实际数据。
古城的风cll
·
2024-01-04 23:12
大数据
kudu
Impala查询详解
而Impala可以说是一个MPP计算引擎,它需要处理的数据存储在
HDFS
、Hbase或者Kudu之上,这些存储引擎都是独立于Impala的,可以称之为第三方存储引擎,Impala使
weixin_34234823
·
2024-01-04 23:41
系统架构
数据库
c/c++
kudu NoSQL数据库详解
一、Hbase、Kudu和ClickHouse对比Hadoop生态圈中
HDFS
一直用来保存底层数据。
wespten
·
2024-01-04 23:09
数据库存储
块存储
文件存储
对象存储
分布式网络存储
ui
备份kudu表数据(Kudu导入导出)
INSERTINTOTABLEsome_parquet_tableSELECT*FROMkudu_table方法一:(在Hue中进行即可)1,利用impala进行备份,将Kudu表结构转化为impala表结构(其数据存储在
hdfs
冬瓜螺旋雪碧
·
2024-01-04 23:38
Hadoop
Kudu
自己踩得坑
Impala
kudu数据导入导出
impala备份kudu表数据
kudu数据备份
impala数据备份
ceph存储
ceph一.存储分类1.本地存储的文件系统ext3ext4efsntfs2.网络存储nfs网络文件系统
hdfs
分布式网络文件系统glusterfs分布式网络文件系统3.传统存储(1).DASSAS,SATA
MoonSoin
·
2024-01-04 17:26
云原生
k8s
ceph
windows
云原生
11111111
core-site.xml文件的内容如下:hadoop.tmp.dirfile:/usr/local/hadoop/tmpAbaseforothertemporarydirectories.fs.defaultFS
hdfs
SunsPlanter
·
2024-01-04 15:23
tomcat
服务器
java
没脾气的周四
昨天所说的Sqoop由
hdfs
入Mysql主键重复的问题,今天去生产查了一下,并不像预料的那样,还是一筹莫展,对还是集群上主键没有重复,然后入Mysql报主键重复,很让人尴尬,又没有脾气,你想想如果春节期间
阳春没有雪
·
2024-01-04 13:50
Flume基础知识(四):Flume实战之实时监控单个追加文件
1)案例需求:实时监控Hive日志,并上传到
HDFS
中2)需求分析:3)实现步骤:(1)Flume要想将数据输出到
HDFS
,依赖Hadoop相关jar包检查/etc/profile.d/my_env.sh
依晴无旧
·
2024-01-04 10:08
大数据
flume
大数据
Flume基础知识(五):Flume实战之实时监控目录下多个新文件
1)案例需求:使用Flume监听整个目录的文件,并上传至
HDFS
2)需求分析:3)实现步骤:(1)创建配置文件flume-dir-
hdfs
.conf创建一个文件vimflume-dir-
hdfs
.conf
依晴无旧
·
2024-01-04 10:08
大数据
flume
大数据
Java技术栈 —— Hadoop入门(一)
Java技术栈——Hadoop入门(一)一、Hadoop第一印象二、安装Hadoop三、Hadoop解析3.1Hadoop生态介绍3.1.1MapReduce-核心组件3.1.2
HDFS
-核心组件3.1.3YARN
键盘国治理专家
·
2024-01-04 08:02
Java技术栈
java
hadoop
开发语言
大数据-
HDFS
原理
什么是
HDFS
?
运维仙人
·
2024-01-04 07:00
大数据
运维
【Hadoop-
HDFS
-S3】
HDFS
和存储对象 S3 的对比
【Hadoop-
HDFS
-S3】
HDFS
和存储对象S3的对比1)可扩展性2)数据的高可用性3)成本价格4)性能表现5)数据权限6)其他限制虽然ApacheHadoop以前都是使用
HDFS
的,但是当Hadoop
bmyyyyyy
·
2024-01-04 07:25
Hadoop
hadoop
hdfs
大数据
#存储对象
#S3
利用python将excel文件转成txt文件,再将txt文件上传
hdfs
,最后传入hive中
将excel文件转成txt文件,再将txt文件上传
hdfs
,最后传入hive中1.利用python将excel转成txt文件#!
m0_37759590
·
2024-01-04 06:03
python
hive
python
hdfs
hive
Hive08_分区表
一分区表1概念:分区表实际上就是对应一个
HDFS
文件系统上的独立的文件夹,该文件夹下是该分区所有的数据文件。Hive中的分区就是分目录,把一个大的数据集根据业务需要分割成小的数据集。
程序喵猴
·
2024-01-04 02:00
hive
hive
hadoop
数据仓库
从零开始了解大数据(七):总结
系列文章目录从零开始了解大数据(一):数据分析入门篇-CSDN博客从零开始了解大数据(二):Hadoop篇-CSDN博客从零开始了解大数据(三):
HDFS
分布式文件系统篇-CSDN博客从零开始了解大数据
橘子-青衫
·
2024-01-04 02:19
从零开始了解大数据
大数据
大数据
hadoop
hive
big
data
hdfs
数据仓库
hdfs
dfs 命令学习实践
1、
hdfs
dfs-ls查看目录或文件参数:[-C][-d][-h][-R][-t][-S][-r][-u][...]参数释义:-C仅显示文件和目录的路径-d目录列为普通文件-h以人类可读的方式显示文件大小
probtions
·
2024-01-03 23:25
bigdata
hdfs
Spark相关知识点(期末复习集锦)
一、Spark简介Spark,拥有hadoopMR所具有的优点,但不同于MR的是job中监测结果可以保存在内存中,从而不再需要读写
HDFS
,因此spark能够更好的适用于数据挖掘与机器学习等需要迭代的mr
夜をむかえる
·
2024-01-03 22:49
spark
大数据
分布式
启动Hbase后HMaster老是掉的原因
1.启动Hbase之前先启动
hdfs
,zookeeper,再启动Hbase,但是隔一会就发现HMaster掉线了,但是hregionserver还在.2.解决:重新启动Hbase之前,先kill掉hregionserver
夺命大翻斗
·
2024-01-03 22:12
hbase
数据库
大数据
hive基本概念原理与底层架构
hadoop是一个开源框架,在分布式环境中存储和处理大型数据,他包括两个模块,一个是mapreduce,另一个是
hdfs
.mapreduce:他是一个并行编程模型在大型集群普通硬件可用于处理大型
byway_lyn
·
2024-01-03 20:22
大数据Hadoop入门学习线路图
Hadoop是系统学习大数据的必会知识之一,Hadoop里面包括几个组件
HDFS
、MapReduce和YARN,
HDFS
是存储数据的地方就像我们电脑的硬盘一样文件都存储在这个上面,MapReduce是对数据进行处理计算的
千_锋小小千
·
2024-01-03 19:12
电商数仓可视化1--数据导入
商品分类信息、商品信息、店铺信息、订单数据、订单支付信息、活动信息、物流信息等2、埋点数据埋点日志相对业务数据是用于数据分析、挖掘需求,一般以日志形式存储于日志文件中,随后通过采集落地分布式存储介质中如
hdfs
bigdata从入门到放弃
·
2024-01-03 18:53
数据仓库
linux
hadoop
大数据
java
数据仓库
我的大数据之路:2023年度总结
同时对“数据治理”有了一定的实践经验:存储治理:
HDFS
基于纠删码的存储空间占用上优于多副本存储;冷数据使用对象存储可以大幅降低成本。
话数Science
·
2024-01-03 18:07
大数据
面试
大数据
面试
spark
HDFS
重温
今天被问到分布式,有些忘记,查资料回忆起分布式集群构建,现在重温集群搭建过程费话不多说,来个简图NameNode:
HDFS
群集包含单个NameNode(主服务器),它管理文件系统命名空间并控制客户端对文件的访问权限
zty_1995
·
2024-01-03 18:18
开源大数据集群部署(一)集群实施规划
8C16G操作系统版本CentOSLinuxrelease7.8.2003(Core)java版本javaversion“1.8.0_281”hadoop版本hadoop3.2.4集群版本规划集群组建版本
HDFS
3.2.4YARN3.2.4M
云掣YUNCHE
·
2024-01-03 15:42
开源大数据集群部署
开源
大数据
HBASE基础
1、NoSQL非关系型数据库2、hbase是面向列存储结构,即类似于hashmap3、hbase是以
hdfs
作为基础存储4、官网http://hbase.apache.org/5、hbase的逻辑结构是由行与列族构成的
xinxinyydss
·
2024-01-03 12:25
hbase
数据库
大数据
HDFS
之Offline Viewer
FileDistribution常用于查看
hdfs
文件大小分布,查看小文件的数量。
hdfs
oiv-pFileDistribution-maxSizemaxSize-step
zincooo
·
2024-01-03 09:16
HDFS
hdfs
hadoop
Spark一:Spark介绍、技术栈与运行模式
1.2Spark作用中间结果输出Spark的Job中间输出结果可以保存在内存中,从而不再需要读写
HDFS
MapReduce的替代方案Spark比M
eight_Jessen
·
2024-01-03 09:11
spark
spark
大数据
分布式
Flume基础知识(一):Flume组成原理与架构
Flume最主要的作用就是,实时读取服务器本地磁盘的数据,将数据写入到
HDFS
。2.Flume基础架构Flume组成架构如下图所示。
依晴无旧
·
2024-01-03 07:18
大数据
flume
大数据
计算机毕业设计吊打导师hadoop+spark+hive知识图谱医生推荐系统 医生数据分析可视化大屏 医生爬虫 医疗可视化 医生大数据 机器学习 大数据毕业设计
万医生数据,最终存入mysql数据库;2.使用pandas+numpy/hadoop+mapreduce对mysql中的医生数据进行数据分析,使用高德地图解析地理位置,并将结果转入.csv文件同时上传到
hdfs
计算机毕业设计大神
·
2024-01-03 07:53
纠删码ReedSolomon
随着大数据技术的发展,
HDFS
作为Hadoop的核心模块之一得到了广泛的应用。为了数据的可靠性,
HDFS
通过多副本机制来保证。
旅僧
·
2024-01-03 07:14
#
大数据计算基础
大数据
分布式
算法
Clojure 实战(4):编写 Hadoop MapReduce 脚本
它是Apache基金会下的开源项目,受Google两篇论文的启发,采用分布式的文件系统
HDFS
,以及通用的MapReduce解决方案,能够在数千台物理节点上进行分布式并行计算。
张吉Jerry
·
2024-01-03 07:35
大数据
hadoop
clojure
shell编程之find
-inameaa-user查找文件属主为
hdfs
的所有文件,不区分大小写find.-user
hdfs
-group查找文件属组为yarn的所有文件find.-groupyarnf文件find.
hemingkung
·
2024-01-03 06:13
python操作
hdfs
及hbase
操作
HDFS
创建目录client.makedirs("/tmp/ct/test51")默认权限755,用户名:dr.who可以创建多层级目录(类似mkdir-p)如果存在权限不足,可以通过命令行对上层目录权限进行修改
佛系小懒
·
2024-01-03 04:26
上一页
9
10
11
12
13
14
15
16
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他