E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
slave1
ssh 实现多台主机免密登陆并附带多种错误解决办法
一在每台主机上修改host文件1.vi/etc/hosts(ip_master)master(ip_slave1)
slave1
(ip_slave2)slave2注:()中的ip地址可以通过ifconfig-a
蜡笔大广
·
2017-09-07 21:24
机器学习
搭建Hadoop分布式集群------修改三台机器的配置文件
Step_1:修改Master主机的core-site.xml文件:修改前:修改后:Step_2:把修改Master主机的core-site.xml文件复制到
Slave1
和Slave2的core-site.xml
坏蛋是我
·
2017-09-01 10:59
大数据
搭建Hadoop分布式集群------SSH无密码验证配置
现在看下在没有配置的情况下,Master通过SSH协议F访问
Slave1
的情况:需要输入密码才能登录,该密码是用户的开机密码!
坏蛋是我
·
2017-09-01 09:57
大数据
redis的主从复制 读写分离 主从切换
准备三个redis服务,依次命名文件夹子master,
slave1
,slave2.这里为在测试机上,不干扰原来的redis服务,我们master使用6000端口。配置文件(redis.c
蓝叶子Sheep
·
2017-08-28 15:45
redis
主从
Linux基础
HBase与hive集成
集成环境:hadoop-2.6.0(Master,
Slave1
,Slave2),hbase-0.98.6-hadoop2,hive-1.2.11.hive和hbase集成需要的jar包有guava,hbase-common
一只小飞狐
·
2017-08-25 09:21
hbase
二、安装Spark集群
一.下载Spark安装包并传给mster机器,使权限是hadoop①在
slave1
机器上下载Spark(进入官网下载更快)②解压安装包tar-zxvfspark-1.6.3-bin-hadoop2.6.
GoJawee
·
2017-08-13 11:30
hadoop/spark
大数据实验——环境配置2
1.克隆第二台虚拟机【maser和
slave1
都要做以下操作】2.修改主机名$sudogedit/etc/hostname这里设置伪发布机-master,子机-slave13.修改静态ip$sudogedit
ViccLee
·
2017-08-10 09:32
数据库
mysql主从故障切换
一:环境192.168.1.100 master192.168.1.101 slave1192.168.1.102 slave2
slave1
,slave2都是连在master上。
1243983186
·
2017-08-03 13:03
mysql
主从
故障切换
linux
Redis主从复制
slave16380:Redis从机1,端口号:6380-slave26381:Redis从机2,端口号:6381-slave36382:Redis从机3,端口号:6382关系说明:master6379与
slave1
小曦阳哟
·
2017-07-25 16:39
redis
Spark On YARN 集群安装部署
本文展示了在之前搭建的Hadoop分布式集群的基础上如何搭建Spark分布式集群环境一、已有环境ubuntu14.04hadoop2.7.1集群安装参考三台机器master、
slave1
、slave2二
u013063153
·
2017-07-17 17:33
Spark
Centos 7.0 下hadoop集群模式安装(以3个节点为例,master,
slave1
,slave2)超详细
三、软件需求:每台PC机装有Centos7.0系统,其中一台namenode,安装系统时命名master;另外两台为datanode,安装系统时分别命名为
slave1
、slave2。四
沉睡的狮子
·
2017-06-16 09:40
hadoop
Centos 7.0 下hadoop集群模式安装(以3个节点为例,master,
slave1
,slave2)超详细
三、软件需求:每台PC机装有Centos7.0系统,其中一台namenode,安装系统时命名master;另外两台为datanode,安装系统时分别命名为
slave1
、slave2。四
MrCat520
·
2017-06-16 09:00
mapreduce
centos
ssh
hdfs
HADOOP集群
Flink 集群模式部署
jobmanager.rpc.address:masterjobmanager.heap.mb和taskmanager.heap.mb可以配置JVM分配给各节点的内存大小,单位MBslaves配置Worker节点
slave1
Nougats
·
2017-06-11 00:00
flink
spark-submit local本地运行问题
三种运行模式:(1)本地local模式(2)在HadoopYARN-client模式(3)StandaloneCluster模式1问题描述首先说明一下我的集群,一个master节点和两个slave节点,
slave1
RiverCode
·
2017-05-10 16:17
Spark
Hadoop-2.6.0完全分布式搭建
opensshserverapt-get-yinstallopenssh-server安装vimapt-get-yinstallvim修改主机名vim/etc/hostname将三台机器的主机名分别修改成Master,
Slave1
Lamborghinsz
·
2017-05-08 17:34
hadoop安装
mysql主从,主主 centos7
SUPERON.TOslave1@’192.168.1.76’IDENTIFIEDBY‘123456’;从76changemastertomaster_host=’192.168.1.71’,master_user=’
slave1
擦试老枪
·
2017-05-08 11:30
mysql
hive三种方式区别和搭建、HiveServer2环境搭建、HWI环境搭建和beeline环境搭建
说在前面的话以下三种情况,最好是在3台集群里做,比如,master、
slave1
、slave2的master和
slave1
都安装了hive,将master作为服务端,将
slave1
作为服务端。
Lucky-zhou
·
2017-04-17 14:10
hive
SSH免密码登陆配置
1、环境假设(1)3台服务器,主机名分别为master、
slave1
、slave2(2)需要免密码登陆的用户名为hadoop2、配置步骤(1)确认每台服务器的是否安装ssh服务[root@master~
baidu_33810735
·
2017-03-31 10:16
Linux
SSH免密码登陆配置
1、环境假设(1)3台服务器,主机名分别为master、
slave1
、slave2(2)需要免密码登陆的用户名为hadoop2、配置步骤(1)确认每台服务器的是否安装ssh服务[root@master~
baidu_33810735
·
2017-03-31 10:00
linux
命令
ssh
常用
Ubuntu 16.04 修改时区!
但发现
slave1
的时间和Maser的时间差了4个小时,而且ntpdatemaster也同样无效,这条命令只能让分钟、秒和Master上一样,但无法解决4个小时的
davylee2008
·
2017-02-20 16:59
Linux
Ubuntu
spring boot整合redis主从sentinel
一、一主二从三sentinel配置1、master:127.0.0.1:63792、
slave1
:127.0.0.1:63803、slave2:127.0.0.1:63814、sentinel1:127.0.0.1
牛奋lch
·
2017-01-18 14:10
redis
spring
boot
spring
cloud微服务
Hadoop集群安装部署步骤详解
一、硬件环境2机器,通过hostname进行设置:master(192.168.1.102)
slave1
(192.168.1.101)该环境目前只有2个节点,有资源的话可以增加slave2、slave3
huangbo929
·
2016-12-16 17:47
hadoop
大数据
Hadoop 2.X 动态添加 datanode(详细图文)
准备工作:我们的三个节点的集群(master,
slave1
,slave2)已经安装成功并且启动,具体安装方法可以参照之前的一篇教程Hadoop-2.6.4集群安装(详细图文)。
M_SIGNALs
·
2016-12-03 18:50
BigData
redis主从同步原理
redis主从:作用:实现数据的实时备份,可用来实现redis的读写分离及redis高可用主从同步原理:一主一从环境:环境:2台redis,一台master一台
slave1
,master等待命令进入2,
王小酸
·
2016-12-01 14:36
主从
redis
redis学习
Zookeeper、Hadoop、Sqoop、Mahout、HBase整合安装
环境说明系统CentOS7.2用户root用户hadoop服务器3台IP:10.1.5.51(master),10.1.5.52(
slave1
),10.1.5.53(slave2)JAVA1.7.XZookeeper
风.foxwho
·
2016-11-29 12:04
大数据相关
Hadoop集群配置
准备工作四台机器:master、
slave1
、slave2、slave3;在master上开通外网访问权限,
slave1
\slave2\slave3无需外网访问权限;下载JDK1.8.0_111;在master
DataResearcher
·
2016-11-25 13:17
java
hadoop生态组件安装
kafka的安装
、修改server.properties#不同的节点只需要修改id后面的数字就好了broker.id=1#这里是zookeeper集群的地址zookeeper.connect=master:2181,
slave1
小牛学堂2019
·
2016-11-24 21:13
kafka
linux下安装zookeeper(集群版)
zookeeper.在原来的基础上再准备两台虚拟机:我的虚拟机ip分别是:192.168.174.132,192.168.174.130,192.168.174.131对应的hostname分别是:master,
slave1
兴趣e族
·
2016-11-23 22:49
zoo
keeper
zookeeper
spark streaming + flume+python(编程)初探
不再赘述三台机器:master,
slave1
,slave2二、启动集群环境1.启动hadoop集群start-all.sh2.启动spark集群start-master.shstart-slaves.sh
玄月府的小妖在debug
·
2016-11-15 14:36
hadoop的集群配置,原创解决了好多个问题(spark+hadoop+scala集群配置)
centos下,安装spark+hadoop+scala,说下我遇到的问题和注意事项1、hadoop的文件夹及用户问题假定是3台部署,1台master,2台slave,在master,
slave1
,slave2
moviebat
·
2016-11-14 14:03
集群
hadoop
spark
Spark On YARN 集群安装部署
本文展示了在之前搭建的Hadoop分布式集群的基础上如何搭建Spark分布式集群环境一、已有环境ubuntu14.04hadoop2.7.1集群安装参考三台机器master、
slave1
、slave2二
玄月府的小妖在debug
·
2016-10-25 20:12
Hadoop-2.7.3集群搭建中遇到的问题总结
0前言:1)Hadoop集群搭建参照前一篇博文Hadoop集群安装配置教程2)集群有三个节点:Master、
Slave1
、Slave2,其中Master只作namenode,其余两个从节点做datanode1
scuter_victor
·
2016-09-21 14:47
Hadoop
学习笔记 254: 预备知识总结
一你的服务器serverX有2个网卡接口
slave1
,slave2,按照下面接口信息,创建一个team1组:这个组使用activebackup模式,IP地址配置信息如下:192.168.85.200/24fd00
woshiwei201
·
2016-08-30 18:54
samba
smb
rhel
Centos
vs
RHEL7
HIVE无法正常启动,报找不到jdbc的驱动类
hiveconfhive.root.logger=DEBUG,console启动报如下错误:16/08/2519:06:18[main]:DEBUGbonecp.BoneCPDataSource:JDBCURL=jdbc:mysql://
slave1
海力布
·
2016-08-25 19:03
互联网
大数据
Java
kafka生成者实例
阅读更多1.配置文件producer.properties#kafkabrokerlistmetadata.broker.list=master:9092,
slave1
:9092,slave2:9092
houston123
·
2016-08-15 13:00
kafka
kafka消费者实例
阅读更多1.配置文件consumer.properties#zookeeper地址zookeeper.connect=master:2181,
slave1
:2181,slave2:2181#zookeeper
houston123
·
2016-08-15 13:00
kafka
搭建Spark集群
一、Scala集群的安装与配置还是我们的三台虚拟机:master、
slave1
、slave21在每台机器上1.1下载与解压到官网下载Scalahttp://www.scala-lang.org/download
haoyutiangang
·
2016-08-01 23:50
Spark
elasticsearch集群&&IK分词器&&同义词
release/org/elasticsearch/distribution/tar/elasticsearch/2.3.3/elasticsearch-2.3.3.tar.gz集群安装:三个节点:master,
slave1
xiaobin0303
·
2016-07-12 14:55
elasticsearch
ssh无密码登录设置出现问题 ECDSA host key 和IP地址对应的key不同的解决
出现下列问题:bobo@master:~$sshslave1Warning:theECDSAhostkeyfor'
slave1
'differsfromthekeyfortheIPaddress'192.168.1.104
a1610770854
·
2016-07-09 11:00
ssh
【4】搭建HA高可用hadoop-2.3(部署配置HBase)
】搭建HA高可用hadoop-2.3(部署配置hadoop--cdh5.1.0)【4】搭建HA高可用hadoop-2.3(部署配置HBase)部署配置habase(1)安装habasemaster1、
slave1
酱酱酱子啊
·
2016-06-16 13:53
hadoop
Hadoop
MySQL主从复制与读写分离
MySQL主从复制与读写分离2016.3.16bylinuxfan.cn环境介绍:主服务器(master):192.168.100.155从服务器(
slave1
,slave2):192.168.100.153
aixfly2
·
2016-06-14 17:47
mysql
server
客户端
Oracle+Mysql数据库
flume-1.6.0 高可用测试&&数据入Kafka
机器列表:192.168.137.115 slave0 (agent) 192.168.137.116
slave1
(agent) 192.168.137.117 slave2
xiaobin0303
·
2016-06-14 17:13
测试
高可用
flume
【3】搭建HA高可用hadoop-2.3(部署配置hadoop--cdh5.1.0)
hadoop-2.3(部署配置hadoop--cdh5.1.0)【4】搭建HA高可用hadoop-2.3(部署配置HBase)安装部署hadoop(1)安装hadoopmaster1、master2、
slave1
酱酱酱子啊
·
2016-06-14 12:44
hadoop
Hadoop
【2】搭建HA高可用hadoop-2.3(安装zookeeper)
-2.3(部署配置hadoop--cdh5.1.0)【4】搭建HA高可用hadoop-2.3(部署配置HBase)安装部署zookeeper(1)安装zookeepermaster1、master2、
slave1
酱酱酱子啊
·
2016-06-14 11:19
zookeeper
Hadoop
MySQL主从复制与读写分离
MySQL主从复制与读写分离2016.3.16bylinuxfan.cn环境介绍:主服务器(master):192.168.100.155从服务器(
slave1
,slave2):192.168.100.153
Tanton008
·
2016-06-13 19:04
服务器
server
代理
MySQL主从复制与读写分离
MySQL主从复制与读写分离2016.3.16bylinuxfan.cn环境介绍:主服务器(master):192.168.100.155从服务器(
slave1
,slave2):192.168.100.153
Tanton008
·
2016-06-13 11:54
服务器
server
代理
MySQL主从复制与读写分离
MySQL主从复制与读写分离2016.3.16bylinuxfan.cn环境介绍:主服务器(master):192.168.100.155从服务器(
slave1
,slave2):192.168.100.153
Tanton008
·
2016-06-13 10:27
服务器
server
代理
数据库-oracle+mysq
hadoop实践(二)-hadoop和ssh配置
计划: master192.168.136.140,
slave1
192.168.136.151, slave2 192.168.136.152 1.1:系统主机和主机名配置 修改系统的主机名
csolo
·
2016-06-12 14:00
hadoop
ssh
HADOOP集群
hadoop关不掉namenode的解决办法
root@master~]#stop-dfs.sh Stoppingnamenodeson[master] master:nonamenodetostop slave2:nodatanodetostop
slave1
arrow8071
·
2016-05-10 19:00
hadoop
NameNode
HADOOP集群
spark基础知识
2、修改配置文件(这里针对standalone模式)host文件:Master(Master):127.0.0.1(名称与IP对应关系)
slave1
(Worker):127.0.0.1(名称与IP对应关系
qq_23617681
·
2016-05-08 23:00
spark
上一页
7
8
9
10
11
12
13
14
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他