E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
hdfs日常维护
HADOOP_HOME and hadoop.home.dir are unset.
hdfs
client 代码上传文件失败报错 hadoop api上传报错 win11 hadoop 环境错误
1.win环境安装hadoop依赖,配置环境变量,重启即可2.按照我上篇文章配置:hadoopwin11安装hadoop环境winutils.exe获取,windows安装大数据运行环境winutils文件获取,winutils文件hadoop(十四)-CSDN博客
不努力就种地~
·
2023-11-23 13:40
大数据
hadoop
hdfs
大数据
hdfs
命令
文档地址:http://hadoop.apache.org/docs/r1.0.4/cn/
hdfs
_shell.htmlFSShell调用文件系统(FS)Shell命令应使用bin/hadoopfs的形式
chongxiting3307
·
2023-11-23 13:09
大数据
shell
hadoop shell操作
hdfs
处理文件命令
hdfs
上传命令 hadoop fs -put命令hadoop fs相关命令 hadoop(十三)
hadoopfs-helprm查看rm命令作用hadoopfs查看命令1.创建文件夹:#
hdfs
前缀也是可以的。
不努力就种地~
·
2023-11-23 13:07
大数据
hadoop
hdfs
大数据
大数据基础设施搭建 - Flume
项目(2)开发拦截器类(3)开发pom文件(4)打成jar包上传到Flume3.2.3修改配置文件3.3创建KafkaTopic3.4启动Flume3.5停止Flume四、监控Kafka(kafkato
hdfs
m0_46218511
·
2023-11-23 13:37
大数据基础设施搭建
大数据
flume
spark算子大全glom_Spark 算子- Value Transformation
Spark算子的作用Spark的输入、运行转换、输出过程,在运行转换中通过算子对RDD进行转换输入:外部数据空间(
HDFS
、Scala集合)输入Spark,数据进入Spark运行时数据空间,转化为Spark
weixin_39736934
·
2023-11-23 12:38
spark算子大全glom
hdfs
命令行操作摘录
hdfs
分布式文件系统优点:一次写多次读;流式数据访问;一次写入、多次读取缺点:高延迟;不适合存储大量小文件NameNode负责管理整个dfs文件系统的元数据,即,存储所有的文件目录、每个文件的具体信息
佛系小懒
·
2023-11-23 07:01
利用JAVA代码将本地文件传入
HDFS
中
目录一、环境配置1.1配置hadoop和java的环境变量1.2修改本地host文件二、编写JAVA代码2.1导入hadoop_lib包2.2读取本地文件2.3使用copyBytes方法将本地文件传入
hdfs
db_cxy_2061
·
2023-11-23 06:57
java
hdfs
开发语言
Hadoop集群间文件拷贝
基本使用最常使用的是集群间copyhadoopdistcp
hdfs
://nn1:8020/foo/bar
hdfs
://nn2:8020/ba
Yampery
·
2023-11-23 06:27
hadoop
大数据
hdfs
hadoop重命名文件_hadoop
HDFS
常用文件操作命令
命令基本格式:hadoopfs-cmd1.lshadoopfs-ls/列出
hdfs
文件系统根目录下的目录和文件hadoopfs-ls-R/列出
hdfs
文件系统所有的目录和文件2.puthadoopfs-put
hdfs
file
weixin_39907850
·
2023-11-23 06:24
hadoop重命名文件
到另一个文件夹 复制
hdfs
上的文件_
HDFS
——如何将文件从
HDFS
复制到本地
下面两个命令是把文件从
HDFS
上下载到本地的命令。get使用方法:hadoopfs-get[-ignorecrc][-crc]复制文件到本地文件系统。
666齐乐家园
·
2023-11-23 06:54
到另一个文件夹
复制hdfs上的文件
hdfs
多个文件合并_hadoop 本地多压缩文件上传
hdfs
hdfs
上多文件合并压缩到本地
代码如下:packagenet.maichuang.log;importjava.io.File;importjava.io.FileOutputStream;importjava.io.IOException;importjava.io.InputStream;importorg.apache.hadoop.conf.Configuration;importorg.apache.hadoop.f
weixin_39585378
·
2023-11-23 06:54
hdfs
多个文件合并
hdfs
文件如何导出到服务器,[Hadoop] 如何将
HDFS
文件导出到 Windows文件系统
介绍如何在Windows环境中,将保存在
HDFS
上的文件导出到本机上数据导入到
HDFS
后当然也要有方法将数据从
HDFS
导出到本机系统上在HADOOPJAVAAPI所提供的FileSystem类就提供copyToLocalFile
weixin_39850981
·
2023-11-23 06:54
hdfs文件如何导出到服务器
hdfs
拷贝文件 java_hadoop集群间的
hdfs
文件拷贝
1、背景部门有个需求,在网络互通的情况下,把现有的hadoop集群(未做Kerberos认证,集群名为:bd-stg-hadoop)的一些
hdfs
文件拷贝到新的hadoop集群(做了Kerberos认证
每天喝王老吉
·
2023-11-23 06:24
hdfs
拷贝文件
java
Hadoop中
HDFS
文件管理系统的使用
1概述
HDFS
(HadoopDistributedFileSystem)是一个文件系统,用于存储文件,通过目录树来定位文件;随着数据量激增,单个操作系统无法对海量数据进行存储,因此将数据分散到多个系统中
Vic·Tory
·
2023-11-23 06:54
大数据
hdfs
hadoop
使用
HDFS
Shell和
HDFS
的Java访问接口进行文件操作,完成从本地文件hello.txt拷贝至
HDFS
系统/test目录下操作。
使用
HDFS
Shell完成本地文件hello1.txt拷贝至
HDFS
系统/test目录下操作1.1创建test目录创建
hdfs
文件虚拟目录;创建/user/hadoop/test目录;并使用,.
风,风,风
·
2023-11-23 06:23
hadoop
hdfs
大数据
基于VM虚拟机下Ubuntu18.04系统,Hadoop的安装与详细配置
参考博客:https://blog.csdn.net/duchenlong/article/details/114597944与上面这个博客几乎差不多,就是java环境配置以及后面的hadoop的
hdfs
-site.xml
北辰Charih
·
2023-11-23 06:48
大数据挖掘
linux
服务器
hadoop
大数据
在使用Hadoop上传本地文件到
HDFS
时出现 java.io.FileNotFoundException File /xxx/xxx.txt does not exist问题
问题描述今天笔者在使用Hadoop时,调用copyFromLocalFile方法上传本地文件到
HDFS
时java.io.FileNotFoundExceptionFile/xxx/xxx.txtdoesnotexist
啃饼思录
·
2023-11-23 06:18
大数据
大数据
hadoop
hdfs
win安装部署hadoop3.0.0并启动上传文件到
HDFS
1.下载工具包(下载不方便的留邮箱)hadoop-3.0.0.tar.gzwinutils-master.zip2.正式上手1.解压文件hadoop-3.0.0.tar.gzwinutils-master.zip2.配置环境变量Path最前面添加:;%HADOOP_HOME%\bin;配置完cmd->hadoopversion测试一下下来就修改配置文件进入解压后的hadoop3.0.0->etc-
向阳赤子心
·
2023-11-23 06:17
日常问题记录
hadoop
hdfs
hadoop在本地创建文件,然后将文件拷贝/上传到
HDFS
3.拷贝本地文件到
HDFS
,$./bin/
hdfs
dfs-copyFromLocal{本地文件或者文件夹名}{
HDFS
上的文件或者文件夹名或者./}./bin/
hdfs
北辰Charih
·
2023-11-23 06:44
大数据挖掘
hadoop
hdfs
大数据
软考-系统架构设计师-大数据架构设计理论与实践-练习题3
主Kafka再将数据写入
HDFS
分布式文件系统,而异构数据通过DataX/Sqoop写入
HDFS
。
HDFS
中的数据会通过Offline采用Hive、Map
shumeizwb
·
2023-11-23 06:04
软考-系统架构设计师
软考
系统架构设计师
Lambda架构
通过NFS将
HDFS
映射到本地文件系统
hdfs
是分布式文件系统,要想访问
hdfs
上的文件,可以用javaapi或者hadoopshell等工具,如果想操作
hdfs
文件系统就像操作本地文件系统一样的便捷,可以将
hdfs
文件系统挂载到本地的一个目录上
鹅鹅鹅_
·
2023-11-23 03:06
Hadoop学习笔记
HDFS
、YARN、MapReduce概述及三者之间的关系一、Hadoop组成(面试重点)1.1Hadoop1.x、2.x、3.x区别在Hadoop1.x时代,Hadoop中的MapReduce同时处理业务逻辑运算和资源的调度
怕被各位卷死
·
2023-11-23 03:16
大数据学习笔记
hadoop
学习
大数据
六、Big Data Tools安装
2、示例下面以DadaGrip为例:(1)打开插件中心(2)搜索BigDataTools,下载3、链接
hdfs
(1)选择
hdfs
在配置完成之后,重启应用,进入一个新的项目文件,可以看到右侧出现了新的选项
弦之森
·
2023-11-22 22:11
Hadoop
大数据
七、
HDFS
文件系统的存储原理
1、总结之所以把总结放在文件开头,是为了让读者对这篇文章有更好的理解,(其实是因为我比较懒……)对于整个
HDFS
文件系统的存储原理,我们可以总结为一句话,那就是:分块+备份2、存储结构和问题(1)存储方式对于一个比较大文件
弦之森
·
2023-11-22 22:11
Hadoop
hdfs
hadoop
大数据
Hadoop -
hdfs
的读写请求
1、
HDFS
写数据(宏观):1、首先,客户端发送一个写数据的请求,通过rpc与NN建立连接,NN会做一些简单的校验,文件是否存在,是否有空间存储数据等。
新手小农
·
2023-11-22 17:03
Hadoop
3.1.1
hadoop
hdfs
大数据
云计算与大数据第16章 分布式内存计算平台Spark习题
A.HadoopB.MapReduceC.YarnD.
HDFS
2、以下(D)不是Spark的主要组件。
高校知识店铺合集汇总
·
2023-11-22 16:24
spark
分布式
大数据
数仓问答篇(一)
有些大数据数据仓库产品也采用混合架构,以融合两者的优点,例如Impala、Presto等都是基于
HDFS
的MPP分析引擎,仅利用
HDFS
实现分区容错性,放弃MapReduce计算模型,在面向OLAP场景时可实现更好的性能
AII派森
·
2023-11-22 16:36
大数据
Hive VS Spark
最底层的存储往往都是使用
hdfs
。如果将spark比喻成发动机,hive比喻为加油站,
hdfs
类似于石油。参考1在超大数据规模处理的场景下,Spark和Hive都有各自的优势。Sp
AII派森
·
2023-11-22 16:55
hive
spark
hadoop
格式化名称节点,启动Hadoop
/bin/
hdfs
namenode-format3.启动所有节点.
北辰Charih
·
2023-11-22 14:04
大数据挖掘
hadoop
大数据
分布式
HDFS
常用命令
HDFS
命令格式:hadoopfs-cmdExample:hadoopfs-ls///列出
hdfs
文件系统根目录下的目录和文件hadoopfs-ls-R/列出
hdfs
文件系统所有的目录和文件PUThadoopfs-put
hdfs
file
索伦x
·
2023-11-22 14:21
Sylph平台自定义数据源
hdfs
数据源
地址:https://github.com/harbby/sylph/以下开发基于Sylph0.5.0版本开发目标:由于当前Sylph提供的数据流接入类型仅有kafka及一个test类型,希望可以支持从
hdfs
cherishpf
·
2023-11-22 14:24
数据仓库工具之Hive的架构原理
1.Hive的本质Hive是基于Hadoop的一个数据仓库工具,它的本质是将HQL语句转化成MapReduce程序.在它的底层,
HDFS
负责存储数据,YARN负责进行资源管理,MapReduce负责数据处理
GuangHui
·
2023-11-22 13:05
大数据处理技术Spark
大作业要求:伪分布式hadoop+pandas预处理数据+
hdfs
保存数据+spark从
hdfs
读取数据+sparksql处
我叫桃小夭
·
2023-11-22 13:54
大数据
hadoop
分布式
python
spark
python:excel导入hive
实现方案web交互:Flaskexcel解析:Pandas数据导入:Impyla或
Hdfs
使用Flask快速搭建web应用,实现接收文件、流程控制、
没有文化,啥也不会
·
2023-11-22 12:29
python
Linux应用参数配置和调优,Hadoop 性能调优 重要参数设置技巧
这一两个月在做mapreduce的性能调优,有些心得,还是要记下来的,以郷后人~这里主要涉及的参数包括:
HDFS
:dfs.block.sizeMapredure:io.sort.mbio.sort.spill.percentmapred.local.dirmapred.map.tasks
花猹猹
·
2023-11-22 09:13
Linux应用参数配置和调优
hadoop性能调优
在挂载文件系统时设置noatime和nodiratime可禁止文件系统记录文件和目录的访问时间,这对
HDFS
这种读取操作频繁的系统来说,可以节约一笔可观的开销。
挑战不可能,努力
·
2023-11-22 09:12
大数据
hadoop性能调优之参数调优
这一两个月在做mapreduce的性能调优,有些心得,还是要记下来的,以郷后人~这里主要涉及的参数包括:
HDFS
:dfs.block.sizeMapredure:io.sort.mbio.sort.spill.percentma
我是机智的鱼油
·
2023-11-22 09:12
Hadoop之常用端口号
hadoop3.x
HDFS
NameNode内部通常端口:8020、9000、9820
HDFS
NameNode对用户的查询端口:9870Yarn查看任务运行情况的端口:8088历史服务器:19888
HDFS
NameNode
m0_67393828
·
2023-11-22 09:41
java
hadoop
大数据
hdfs
linux
爬虫
Hadoop常见端口号及配置文件
1Hadoop2.x版本端口号1.1访问
HDFS
端口号:500701.2NN内部通信端口:90001.3访问MR执行任务情况端口:80881.4Yarn内部通信端口:80321.5访问历史服务器端口:198881.6
曹称象
·
2023-11-22 09:10
离线
hadoop
大数据
数据库
Hadoop常用端口号及配置文件
端口号Hadoop3.x
HDFS
NameNode内部通常端口号:8020/9000/9820
HDFS
NameNode对用户的查询端口:9870Yarn查看任务的运行情况:8088历史服务器:90080Hadoop2
LydiaaLi
·
2023-11-22 09:09
Hadoop
hadoop
大数据
hadoop常用端口号与配置文件
常用端口号hadoop3.x
HDFS
NameNode内部通常端口:8020/9000/9820
HDFS
NameNode对用户的查询端口:9870Yarn查看任务运行情况:8088历史服务器:19888hadoop2
UserOrz
·
2023-11-22 09:39
大数据学习
hadoop
big
data
Hadoop 3.X 和 2.X 的常用端口号和配置文件
Hadoop常用端口号Hadoop3.X
HDFS
NameNode内部通信端口:8020/9000/9820
HDFS
NameNodeHTTPUI:9870
HDFS
DataNodeHTTPUI:9864Yarn
hmyqwe
·
2023-11-22 09:38
hadoop
Hadoop性能调优概要说明
Hadoop容易遇到的问题有:Namenode/jobtracker单点故障、
HDFS
小文件问题、数据处理性能等。为此“HadoopPerformanceOptimization”(HPO)是必要的。
fjssharpsword
·
2023-11-22 09:07
Big
data
Hadoop专栏
hadoop——常用端口号——常用的配置文件,3.x与2.x区别
常用端口号hadoop3.x
HDFS
NameNode内部通常端口:8020/9000/9820
HDFS
NameNode对用户的查询端口:9870Yarn查看任务运行情况:8088历史服务器:19888hadoop2
小魏___
·
2023-11-22 09:37
hadoop
hdfs
big
data
hadoop常用端口号/常用配置文件
常用端口号hadoop3.x
HDFS
NameNode内部通常端口:8020/9000/9820
HDFS
NameNode对用户的查询端口:9870yarn查看任务允许情况的:8088历史服务器:19888hadoop2
asd623444055
·
2023-11-22 09:06
hadoop
服务器
big
data
Hadoop学习-常用端口和配置文件
一、常用端口号hadoop3.x
HDFS
NameNode内部通常端口:8020/9000/9820
HDFS
NameNode对用户的查询端口:9870Yarn查看任务运行情况:8088历史服务器:19888hadoop2
HaveAGoodDay.
·
2023-11-22 09:34
Hadoop
学习
hadoop
hadoop 常用端口号,常用配置文件都有哪些?hadoop3.x端口号 hadoop(十二)
1.hadoop3.x系列常用端口号:类型desc端口
hdfs
NameNode内部通常端口号8020/9000/9820
hdfs
NameNode对用户的查询端口9870yarn查看历史任务运行情况8088
不努力就种地~
·
2023-11-22 09:34
大数据
hadoop
java
大数据
二百零七、Flume——Flume实时采集5分钟频率的Kafka数据直接写入ODS层表的
HDFS
文件路径下
一、目的在离线数仓中,需要用Flume去采集Kafka中的数据,然后写入
HDFS
中。由于每种数据类型的频率、数据大小、数据规模不同,因此每种数据的采集需要不同的Flume配置文件。
天地风雷水火山泽
·
2023-11-22 09:15
Flume
flume
kafka
hdfs
使用Docker部署HBase并使用Java-API连接
HBase利用Hadoop
HDFS
作为其文件
当一艘船沉入海底8
·
2023-11-22 04:56
HBase
docker
hbase
Mac环境部署单机版Hbase及使用JavaAPI对Hbase增删改查
HBase底层存储基于
HDFS
实现,集群的管理基于ZooKeeper实现。
Liu_Shihao
·
2023-11-22 04:25
大数据
hbase
hadoop
大数据
上一页
22
23
24
25
26
27
28
29
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他