E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
50070
文件副本数量问题,设置的dfs.replication没有生效
问题描述:前几天发现hadoophdfs磁盘空间经常满,导致任务失败,但是查看hadoopfs-du-h/这个根目录的文件大小总计150T左右,但是在
50070
端口页面查看到的磁盘使用接近390T,怀疑是文件备份数出问题了
levy_cui
·
2020-08-14 17:16
HADOOP
Hadoop集群 启动了之后, ResourceManager未起来的问题解决
hadoop-start.sh,用jps查看进程,1493DataNode1665SecondaryNameNode1400NameNode1903NodeManager2504Jps然后访问http://ip:
50070
沧海一株莲
·
2020-08-11 22:49
linux
linux
hadoop
ResourceManager
Hadoop伪分布式配置
1、配置安全组规则,开启服务器端口:9000、8031、
50070
、8088,不建议修改hadoop内部指定的端口号2、设置环境变量(把Hadoop的Home目录添加到系统环境变量里面去)vim~/.bash_profile
幼稚猿
·
2020-08-11 11:19
Python
Hadoop伪分布式配置
centos服务器
namenode启动成功,但是不能通过web访问
50070
问题
我在CentOS遇到这个问题,
50070
不行但8088可以,尝试了各种方法无法解决,各个进程全都启动,格式化namenode,各种配置正常均无法解决。
RabinRow
·
2020-08-11 04:43
Hadoop HDFS的namenode WEB访问
50070
端口打不开解决方法
Hadoop架在阿里云的VPS上,用本地机器访问阿里云的Hadoop的
50070
端口查看一下,显示的是:无法显示该网页,扫描了一下端口,确实是这个
50070
端口没有开放。
WotChin
·
2020-08-11 04:41
大数据技术杂谈
linux经验
hadoop
namenode
hdfs
解决Hadoop无法启动NameNode以及无法打开
50070
端口
我使用DeepinLinux搭建了Hadoop3.2.但是在启动的过程中无法打开
50070
端口.有重新Format之后,发现NameNode无法启动.1、问题产生原因当我们执
大佛拈花
·
2020-08-11 02:38
大数据
Hadoop常见问题 | 用浏览器访问namenode的
50070
端口不正常,如何解决?
戳蓝字“CSDN云计算”关注我们哦!我们很荣幸能够见证Hadoop十几年间经历了从无到有,再到称王。感动于技术的日新月异时,希望通过本篇有问有答,带大家解决Hadoop的常见问题。1Q:Hadoop中,执行hdfsdfs-ls出现put:.':Nosuchfileordirectory,如何解决?A:出现这个问题的原因是当前登录用户在HDFS中没有HOME文件夹,执行下面命令即可解决:hadoop
csdn业界要闻
·
2020-08-11 02:23
CDH环境故障: HDFS各服务进程状态未知,监控指标图表无数据
并且监控图表全都无法显示如图,图表空白开始以为是HDFS服务没有启动成功,试了下
50070
端口访问hdfs的w
dinghua_xuexi
·
2020-08-10 16:10
CDH
linux环境搭建
Hadoop
ambari Hadoop 部署 connection failed / connection refuse 错误 NTP 未启用
hostconnectionrefuse,如:Connectionfailed:[Errno111]Connectionrefusedto……Failedconnecttohadoop-app1.novalocal:
50070
华北沙漠
·
2020-08-10 03:40
hadoop3.x端口改动
近日学习hadoop3.x,一切安装完成,格式化namenode然后发现怎么也打不开
50070
界面如图所示刚开始以为是配置错误了,检查多次配置文件和防火墙发现都没问题,然后又测试把文件上传到hdfs试验
天心有情
·
2020-08-09 12:47
hadoop
坑爹那回事
python 操作hdfs
mirrors.aliyun.com/pypi/simple/hdfs2.例子fromhdfsimportInsecureClienthdfs_client=InsecureClient('http://lys20191020:
50070
liuyunshengsir
·
2020-08-09 09:27
hadoop
python3
Hbase1.3.1完全分布式集群搭建(详细+,看完就会,)
请私信我将及时改正;借鉴文章标明出处,谢谢】参考文章:修改hadoop集群及hbase集群的pid文件存放位置hbase启动后HMaster自动关闭:连接不到8020端口HDFS部分:8020端口,9000端口和
50070
fy_1852003327
·
2020-08-08 15:48
Hbase分布式数据库
hive
数据在HDFS的warehouse(python05:
50070
/user/hive/wareouse/)目录下,一个表对应一个子目录。hive
忘了时间的朱
·
2020-08-04 17:23
python
hadoop / zookeeper / hbase常用命令
stop-dfs.sh启动ResourceManager和NodeManager的守护进程sbin/start-yarn.shsbin/stop-yarn.sh查看是否启动成功:jps访问localhost:
50070
外面雨好大
·
2020-08-04 08:00
大数据
hadoop
50070
页面打不开以及hadoop dfsadmin -report出来的结果为
50070
页面打不开用jps命令查看发现namenode没有启动解决办法:删掉master和slave虚拟机的hadoop.tmp.dir,dfs.name.dir,dfs.data.dir配置的目录,
小白programmer
·
2020-08-04 05:39
hadoop学习
hadoop的监控
网页抓取首先,想到的办法是抓取网页,通过抓取50030和
50070
页面获得监控的数据。不得不说,这个办法实在是太土了,不到万不得已真的不好意思用。
weixin_34117211
·
2020-08-03 07:28
CDH常用端口汇总
参考文章:CDH常用端口汇总Hadoop:
50070
:HDFSWEBUI端口8020:高可用的HDFSRPC端口9000:非高可用的HDFSRPC端口8088:Yarn的WEBUI接口8485:JournalNode
风情客家__
·
2020-08-03 01:02
CDH
mount: /dev/sdd1 already mounted or /mnt busy
以上两个提示的解决方法#dmsetupstatus35000c
50070
b2d48f-part1:011721184
jacklinping
·
2020-08-01 12:42
linux
mount
不了
Hadoop的体系结构
Hadoop的体系结构:都是主从结构一、HDFS的体系结构1、NameNode:主节点http://192.168.160.111:
50070
(1)职责:管理维护HDFS接收客户端的请求:上传、下载、创建目录等等维护了两个非常重要的文件
小鹏求知
·
2020-08-01 09:27
大数据Hadoop
使用Docker在本地搭建kafka分布式集群
2.11-1.1.0.tgz二、kafka安装集群规划IP节点名称KafkaZookeeperJdkdocker172.17.0.2masterKafkaZookeeperJdkdockerrun-p
50070
clypm
·
2020-07-30 23:18
Hadoop
Linux上传本地文件到Hadoop的HDFS文件系统
创建一个input文件夹zhangsf@hadoop1:~$hdfsdfs-mkdir/input多级创建的时候hdfsdfs-mkdir-p/wifi/classify查看创建的文件夹在hadoop1:
50070
zhangvalue
·
2020-07-30 06:03
大数据相关
Linux相关
HDFS
本地文件传至HDFS文件系统
Hadoop
通过页面验证hadoop是否安装成功的方法
http://localhost:50030(MapReduce的页面)http://localhost:
50070
(HDFS的页面)如果都能查看,说明安装成功。一:查看HDFS是否正常启动。
xu-ning
·
2020-07-30 01:26
hadoop
Hadoop实战---namenode 网页web界面不能访问解决
192.168.220.129master192.168.220.130slave1192.168.220.131slave2配置好各个ip后,在虚拟系统中可以访问,http://192/168.220.129:
50070
高小毅
·
2020-07-30 00:44
Hadoop
hdfs集群间数据迁移
namenodeip:9000/user/roothdfs://namenodeip:9000/user/root2、不同版本的集群数据迁移hadoopdistcphftp://namenodeip1:
50070
weipanp
·
2020-07-28 15:40
hadoop
大数据基准测试BigDataBench4.0安装及使用
环境准备hadoop集群环境已经正确安装,可通过
50070
端口访问namenode和datanode在这里也是使用BigDataBench_V4.0_Hadoop进行的测试下载wgethttp://prof.ict
wychen_sunshine
·
2020-07-28 14:23
hadoop+spark
hadoop-运行hadoop jar hadoop-examples-1.2.1.jar wordcount /wc/input/ /wc/output/
查看结果:在地址栏:输入主机名:
50070
点击_logs下面的进入统计单词的结果。
gz153016
·
2020-07-27 22:21
Hadoop
Hadoop配置遇到的问题总结
0.环境说明:hbase-2.1.3,hadoop-3.1.2,ubuntu18.041.无法连接http://localhost:
50070
我的配置过程是参考官方文档的:http://hadoop.apache.org
ygd11
·
2020-07-15 16:38
linux
python读取hdfs并返回dataframe教程
不多说,直接上代码from hdfs import Clientimport pandas as pd HDFSHOST = "http://xxx:
50070
"FILENAME = "/tmp/preprocess
wx5ecc6bcb4713c
·
2020-07-15 14:15
编程语言
程序员
爬虫
Python API 操作Hadoop hdfs详解
或者setup_install安装起来都是很方便的>pipinstallhdfs2:Client——创建集群连接>fromhdfsimport*>client=Client("http://s100:
50070
wx5ecc6bcb4713c
·
2020-07-15 14:50
编程语言
程序员
爬虫
虚拟机上的hadoop localhost:8088,localhost:
50070
均不能访问
文章目录问题原因解决方案后续问题用虚拟机安装ubuntu,在上面装hadoop,配置完所有文件后,jps,可以看到主机和其他节点了,想要访问http://localhost:
50070
/,http://
大奸猫
·
2020-07-15 11:35
Linux
hadoop&hive常用的命令-备忘
http://10.200.200.156:
50070
/dfshealth.jsp--dfs容量状态http://10.200.200.156:50030/jobtracker.jsp--hadoop任务状态
xutao_2008_2000
·
2020-07-15 10:03
hadoop
hadoop中两种上传文件方式
user件夹bin/hdfsdfs-mkdir/user(hadoop目录下)多级创建的时候hdfsdfs-mkdir-p/wifi/classify查看创建的文件夹在http://localhost:
50070
weixin_30484739
·
2020-07-15 03:29
hadoop常用命令
/starth.sh%运行start-dfs.sh%运行start-yarn.sh启动dfs,浏览器查看:172.16.31.17:
50070
启动脚本,浏览器查看:172.16.
陌涂
·
2020-07-14 23:00
spark学习
python无法读取hdfs文件的问题:requests.exceptions.ConnectionError: HTTPConnectionPool
1.问题一描述:在用python的hdfs库操作HDFS时,可以正常的获取到hdfs的文件目录fromhdfsimport*client=Client("http://10.0.30.9:
50070
")
shen_ness
·
2020-07-14 22:04
python
hdfs
hadoop三个配置文件的参数含义说明
fs.default.namenamenodenamenodeRPC交互端口8020core-site.xmlhdfs://master:8020/dfs.http.addressNameNodeweb管理端口
50070
hdfs-site.xml0.0.0.0
寂寞烟
·
2020-07-14 16:03
hadoop
hive通过浏览器展示节点内容
lessnetstat-aux|lessps-auxps-ef启动mysql,启动hadoop,访问hadoop8088端口servicemysqldstartstart-all.ship:8088访问hadoop
50070
黄骅饼子
·
2020-07-14 08:42
hive
Ubuntu上搭建Hadoop单机环境和伪分布模式部署。
先来看看最终效果吧,搭建好伪分布模式在浏览器上输入这两个链接可以看到以下界面http://localhost:
50070
/http://localhost:8088/在这之前,先做
程序员爱酸奶(QuellanAn)
·
2020-07-14 01:11
大数据-hadoop
Hive详解之内表、外表和分区
内表删除表或者分区元数据和数据都删了外表删除表元数据删除,数据保留下面分别执行两条语句:droptablefood;droptablefood_ex执行这两条语句以后,两个表都删除了,但是结果却不一样,访问NameNode的
50070
Jeremy_Lee123
·
2020-07-14 01:12
Hive
Hadoop动态调整日志级别
这5个级别对应的日志信息重要程度不同,它们的重要程度由低到高依次为DEBUG:
50070
/logLevel”第一行用于获取classloglevel,举例:可以输入"org.apache.hadoop.hdfs.StateChange
yongjian_luo
·
2020-07-13 23:28
Hadoop相关
hadoop中datanode无法启动,报Caused by: java.net.NoRouteToHostException: No route to host
但是去http://master:
50070
/dfshealth.jsp查看,livenodes为0。所以我到slave1和slave2上面去执行jps查看进程,结果都没有datanode
weixin_33971205
·
2020-07-13 18:23
MapReduce 程序运行演示(示例PI程序 wordcount程序)
你说的9000端口应该指的是fs.default.name或fs.defaultFS(新版本)这一配置属性吧,这个属性是描述集群中NameNode结点的URI(包括协议、主机名称、端口号)
50070
其实是在
望隐少年
·
2020-07-13 15:31
Hadoop的namenode无法启动问题(
50070
无法访问,50030可以访问)
2013-08-3110:29:31,241ERRORorg.apache.hadoop.hdfs.server.namenode.FSNamesystem:FSNamesysteminitializationfailed.java.io.FileNotFoundException:/opt/data/hadoop/hdfs/name/current/VERSION(Permissiondenie
caoshichaocaoshichao
·
2020-07-13 03:35
Hadoop
Hadoop配置文件表(如需要请下载附件)
参数描述默认配置文件例子值fs.default.namenamenodeRPC交互端口8020core-site.xmlhdfs://master:8020/dfs.http.addressNameNodeweb管理端口
50070
hdfs-site.xml0.0.0.0
asheng
·
2020-07-13 02:25
Hadoop初始LiveNode个数为0
现象:1.使用bin/hdfsdfs-put命令无法将本地文件拷贝到HDFS中2.使用jps命令发现,没有DataNode服务在运行3.使用localhost:
50070
发现活节点为0解决方法:1.停止
xueluo0000
·
2020-07-12 17:30
hadoop
hadoop3.X localhost:
50070
/ 打不开、hadoop 3.X端口变动
ThepatchupdatestheHDFSdefaultHTTP/RPCportstonon-ephemeralports.Thechangesarelistedbelow:Namenodeports:50470-->9871,50070-->9870,8020-->9820SecondaryNNports:50091-->9869,50090-->9868Datanodeports:50020
xssl_csdn
·
2020-07-12 17:36
hadoop
hadoop 3.x 无法访问hdfs(
50070
,8088)的web界面
1.启动hadoop.然后netstat-nltp|grep
50070
,如果,没有找到进程,说明没有配置web界面的端口修改hdfs-site,xml中加上如下配置再次启动后,netstat-nltp|
weixin_30725467
·
2020-07-12 06:21
Hadoop启动之后datanode进程在 但
50070
页面Live Nodes为0
当正常启动hadoop之后,一般进程都在,而且
50070
端口可以访问,但LiveNodes为0,这里可能有多种原因造成这样:1、/etc/hosts中的ip映射不对2、master与slave之间不能互通
基咯咯
·
2020-07-12 01:49
Hadoop
Hadoop可以连上8088,连不上
50070
,并且jps命令后并没有出现Namenode
可以连接到http://192.168.56.8:8088,但是连接不上http://192.168.56.8:
50070
。使用jps命令后并没有出现Namenode。
DaSen147
·
2020-07-11 22:05
hadoop搭建--所有datanode信息为0,live nodes 为0;
当hadoop配置完成后,然后使用启动命令启动集群,打开
50070
和8088网页后,发现没有任何信息,
50070
页面显示为这个样子。输入下面命令,[root@dev9106bin]#.
张今天
·
2020-07-11 18:23
——Hadoop集群
(解决问题)hadoop Live Nodes :0
启动hadoop的时候,进入http://namenode:
50070
发现如下图:意思就是Namenode起来了,其他的datanode没有起来解决方法如下:1.查看datanode中hadoop的日志文件在
如墨_
·
2020-07-11 15:27
学习笔记
上一页
1
2
3
4
5
6
7
8
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他