E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
slave2
Hadoop集群安装部署步骤详解
一、硬件环境2机器,通过hostname进行设置:master(192.168.1.102)slave1(192.168.1.101)该环境目前只有2个节点,有资源的话可以增加
slave2
、slave3
huangbo929
·
2016-12-16 17:47
hadoop
大数据
Hadoop 2.X 动态添加 datanode(详细图文)
准备工作:我们的三个节点的集群(master,slave1,
slave2
)已经安装成功并且启动,具体安装方法可以参照之前的一篇教程Hadoop-2.6.4集群安装(详细图文)。
M_SIGNALs
·
2016-12-03 18:50
BigData
Zookeeper、Hadoop、Sqoop、Mahout、HBase整合安装
环境说明系统CentOS7.2用户root用户hadoop服务器3台IP:10.1.5.51(master),10.1.5.52(slave1),10.1.5.53(
slave2
)JAVA1.7.XZookeeper
风.foxwho
·
2016-11-29 12:04
大数据相关
Hadoop集群配置
准备工作四台机器:master、slave1、
slave2
、slave3;在master上开通外网访问权限,slave1\
slave2
\slave3无需外网访问权限;下载JDK1.8.0_111;在master
DataResearcher
·
2016-11-25 13:17
java
hadoop生态组件安装
kafka的安装
server.properties#不同的节点只需要修改id后面的数字就好了broker.id=1#这里是zookeeper集群的地址zookeeper.connect=master:2181,slave1:2181,
slave2
小牛学堂2019
·
2016-11-24 21:13
kafka
spark streaming + flume+python(编程)初探
不再赘述三台机器:master,slave1,
slave2
二、启动集群环境1.启动hadoop集群start-all.sh2.启动spark集群start-master.shstart-slaves.sh
玄月府的小妖在debug
·
2016-11-15 14:36
hadoop的集群配置,原创解决了好多个问题(spark+hadoop+scala集群配置)
centos下,安装spark+hadoop+scala,说下我遇到的问题和注意事项1、hadoop的文件夹及用户问题假定是3台部署,1台master,2台slave,在master,slave1,
slave2
moviebat
·
2016-11-14 14:03
集群
hadoop
spark
Spark On YARN 集群安装部署
本文展示了在之前搭建的Hadoop分布式集群的基础上如何搭建Spark分布式集群环境一、已有环境ubuntu14.04hadoop2.7.1集群安装参考三台机器master、slave1、
slave2
二
玄月府的小妖在debug
·
2016-10-25 20:12
Hadoop-2.7.3集群搭建中遇到的问题总结
0前言:1)Hadoop集群搭建参照前一篇博文Hadoop集群安装配置教程2)集群有三个节点:Master、Slave1、
Slave2
,其中Master只作namenode,其余两个从节点做datanode1
scuter_victor
·
2016-09-21 14:47
Hadoop
学习笔记 254: 预备知识总结
一你的服务器serverX有2个网卡接口slave1,
slave2
,按照下面接口信息,创建一个team1组:这个组使用activebackup模式,IP地址配置信息如下:192.168.85.200/24fd00
woshiwei201
·
2016-08-30 18:54
samba
smb
rhel
Centos
vs
RHEL7
kafka生成者实例
阅读更多1.配置文件producer.properties#kafkabrokerlistmetadata.broker.list=master:9092,slave1:9092,
slave2
:9092
houston123
·
2016-08-15 13:00
kafka
kafka消费者实例
阅读更多1.配置文件consumer.properties#zookeeper地址zookeeper.connect=master:2181,slave1:2181,
slave2
:2181#zookeeper
houston123
·
2016-08-15 13:00
kafka
redis学习笔记(2)主从复制
主从复制的特点1、一个master可以有多个
slave2
、Master下的Slave还可以接受同一架构中其它slave的链接与同步请求,实现数据的级联复制,即Master->Slave->Slave模式
攻城的蒂巴格
·
2016-08-08 14:56
redis
【4】搭建HA高可用hadoop-2.3(部署配置HBase)
高可用hadoop-2.3(部署配置hadoop--cdh5.1.0)【4】搭建HA高可用hadoop-2.3(部署配置HBase)部署配置habase(1)安装habasemaster1、slave1、
slave2
酱酱酱子啊
·
2016-06-16 13:53
hadoop
Hadoop
MySQL主从复制与读写分离
MySQL主从复制与读写分离2016.3.16bylinuxfan.cn环境介绍:主服务器(master):192.168.100.155从服务器(slave1,
slave2
):192.168.100.153
aixfly2
·
2016-06-14 17:47
mysql
server
客户端
Oracle+Mysql数据库
flume-1.6.0 高可用测试&&数据入Kafka
机器列表:192.168.137.115 slave0 (agent) 192.168.137.116 slave1 (agent) 192.168.137.117
slave2
xiaobin0303
·
2016-06-14 17:13
测试
高可用
flume
【3】搭建HA高可用hadoop-2.3(部署配置hadoop--cdh5.1.0)
2.3(部署配置hadoop--cdh5.1.0)【4】搭建HA高可用hadoop-2.3(部署配置HBase)安装部署hadoop(1)安装hadoopmaster1、master2、slave1、
slave2
酱酱酱子啊
·
2016-06-14 12:44
hadoop
Hadoop
【2】搭建HA高可用hadoop-2.3(安装zookeeper)
部署配置hadoop--cdh5.1.0)【4】搭建HA高可用hadoop-2.3(部署配置HBase)安装部署zookeeper(1)安装zookeepermaster1、master2、slave1、
slave2
酱酱酱子啊
·
2016-06-14 11:19
zookeeper
Hadoop
MySQL主从复制与读写分离
MySQL主从复制与读写分离2016.3.16bylinuxfan.cn环境介绍:主服务器(master):192.168.100.155从服务器(slave1,
slave2
):192.168.100.153
Tanton008
·
2016-06-13 19:04
服务器
server
代理
MySQL主从复制与读写分离
MySQL主从复制与读写分离2016.3.16bylinuxfan.cn环境介绍:主服务器(master):192.168.100.155从服务器(slave1,
slave2
):192.168.100.153
Tanton008
·
2016-06-13 11:54
服务器
server
代理
MySQL主从复制与读写分离
MySQL主从复制与读写分离2016.3.16bylinuxfan.cn环境介绍:主服务器(master):192.168.100.155从服务器(slave1,
slave2
):192.168.100.153
Tanton008
·
2016-06-13 10:27
服务器
server
代理
数据库-oracle+mysq
hadoop实践(二)-hadoop和ssh配置
计划: master192.168.136.140,slave1 192.168.136.151,
slave2
192.168.136.152 1.1:系统主机和主机名配置 修改系统的主机名
csolo
·
2016-06-12 14:00
hadoop
ssh
HADOOP集群
hadoop关不掉namenode的解决办法
Hadoop版本:2.6.0具体情况如下:[root@master~]#stop-dfs.sh Stoppingnamenodeson[master] master:nonamenodetostop
slave2
arrow8071
·
2016-05-10 19:00
hadoop
NameNode
HADOOP集群
spark基础知识
修改配置文件(这里针对standalone模式)host文件:Master(Master):127.0.0.1(名称与IP对应关系)slave1(Worker):127.0.0.1(名称与IP对应关系)
slave2
qq_23617681
·
2016-05-08 23:00
spark
redis sentinel集群配置
本文使用的是redis2.8.24的版本;1.测试环境master: 192.168.136.130 6379 slave1: 192.168.136.130 6479
slave2
:
collglle_cx
·
2016-05-05 17:56
redis
mysql主宕机,主从故障切换(一主多从)
一:环境192.168.1.100master192.168.1.101slave1192.168.1.102slave2slave1,
slave2
都是连在master上。
雅冰石
·
2016-04-30 12:37
MySql
学习
Mysql
主从复制
mysql主宕机,主从故障切换(一主多从)
一:环境192.168.1.100master192.168.1.101slave1192.168.1.102slave2 slave1,
slave2
都是连在master上。
YABIGNSHI
·
2016-04-30 12:00
集群多服务器,普通用户SSH访问方法
2.制作公钥私钥2.1登录master、slave1、
slave2
生成其公钥、私钥文件#登录master #切换到user目录下的.ssh文件夹: cd/home/user/.ssh#生成一个密码为空的公钥和私钥
fly_yr
·
2016-04-21 17:00
重启Hadoop集群时no namenode to stop的异常
stop-dfs.sh Stopping namenodes on [master] master1: no namenode to stop master2: no namenode to stop
slave2
aibati2008
·
2016-04-13 17:00
CentOS下Storm 1.0.0集群安装详解
CentOS632位ZooKeeper版本:3.4.8Storm版本:1.0.0JDK版本:1.8.0_7732位python版本:2.6.6集群情况:一个主控节点(Master)和两个工作节点(Slave1,
Slave2
Lnho
·
2016-04-13 15:19
Storm
大数据学习之路
CentOS下Storm 1.0.0集群安装详解
CentOS632位ZooKeeper版本:3.4.8Storm版本:1.0.0JDK版本:1.8.0_7732位python版本:2.6.6集群情况:一个主控节点(Master)和两个工作节点(Slave1,
Slave2
Lnho2015
·
2016-04-13 15:00
storm
centos
实时计算
集群安装
流式大数据处理
CentOS 6 安装Hadoop 2.6 (二)配置Hadoop
Hadoop2.6(二)配置HadoopCentOS6安装Hadoop2.6(三)问题收集CentOS6安装Hadoop2.6(四)运行简单例子下文服务器描述:一个主节点master,2个从节点slave1和
slave2
Lnho
·
2016-04-11 12:15
Hadoop
大数据学习之路
CentOS 6 安装Hadoop 2.6 (二)配置Hadoop
Hadoop2.6(二)配置HadoopCentOS6安装Hadoop2.6(三)问题收集CentOS6安装Hadoop2.6(四)运行简单例子下文服务器描述:一个主节点master,2个从节点slave1和
slave2
Lnho2015
·
2016-04-11 12:00
hadoop
centos
服务器
kafka分布式搭建
kafka分布式搭建(192.168.230.129)master (192.168.230.130)slave1 (192.168.230.131)salve2 在master、slave1、
slave2
qq_25371579
·
2016-04-09 14:00
kafka
分布式搭建
Hadoop集群搭建
master192.168.10.1slave1192.168.10.2slave2192.168.10.3,其中在启动hadoop后,master有namenode和datanode两个node进程,slave1和
slave2
u013415336
·
2016-04-08 17:00
hadoop
mongodb3.0.3集群分片搭建
开始搭建mongodb分片数据:1、分别在master、slave1和
slave2
服务器上启动配置服务器mkdir/data/mongodb/config/usr/local/mongodb-linux-x86
mchdba
·
2016-04-07 17:00
Redis高可用-Cluster
I.准备vmCentos764位master:10.1.125.152slave1:10.1.125.89
slave2
:10.1.125.212slave3:10.1.125.203slave4:10.1.125.129slave5
dingsai88
·
2016-03-29 14:00
部署mysql集群基础环境
设置
slave2
为master1从:部署集群基础环境1.1问题本案例要求为MySQL集群准备基础环境,完成以下任务操作:数据库授权部署MySQL双主多从结构配置本机hosts解析记录1.2方案使用4台RHEL6
txl7771328
·
2016-03-16 18:52
mysql
部署
集群基础
基于全局事物ID的MySQLfailover的故障自动切换
三台机器:192.168.1.163(MASTER) 192.168.1.162(SLAVE1) 192.168.1.161(
SLAVE2
)三台机器的配置文件如下:[
mrmusic
·
2016-03-15 10:00
搭建hbase-0.94.26集群环境
details/389264771、配置hbase-site.xml[html]viewplaincopy hbase.zookeeper.quorum master,slave1,
slave2
lujinhong2
·
2016-03-11 10:00
处理使用MariaDB做级联复制遇到的error 1666
复制结构描述:A(MASTER)->B(SLAVE1)->C(
SLAVE2
)//使用MariaDB(上述结构中的B点)做级联复制遇到的error1666:MariaDB[(none)]>set@@default_master_connection
旺仔的钥匙
·
2016-03-09 19:00
log
mariaDB
binary
bingo_format
Centos6.5安装配置Cloudera Manager CDH5.6.0 Hadoop
_64-minimal.iso192.168.253.241 master 虚拟机4G内存192.168.253.242 slave1 虚拟机2G内存192.168.253.243
slave2
cd_azhuang
·
2016-03-07 16:33
hadoop
manager
CDH5.6.0
解决关闭Hadoop时no namenode to stop异常
Hadoop版本:2.6.0具体情况如下:[root@master~]#stop-dfs.sh Stoppingnamenodeson[master] master:nonamenodetostop
slave2
GYQJN
·
2016-03-04 21:00
hadoop
集群运维
Redis+Sentinel安装与配置
物理机IP:192.168.0.12主节点master端口:6301从节点slave1端口:6315从节点
slave2
端口:6316从节点slave3端口:6317哨兵sentinel1端口:26301
jbaowei2000
·
2016-03-02 10:54
服务器
master
releases
下载安装
而且
Redis+Sentinel安装与配置
物理机IP:192.168.0.12主节点master端口:6301从节点slave1端口:6315从节点
slave2
端口:6316从节点slave3端口:6317哨兵sentinel1端口:26301
jbaowei2000
·
2016-03-02 10:54
服务器
master
下载安装
redis
Redis+Sentinel安装与配置
物理机IP:192.168.0.12主节点master端口:6301从节点slave1端口:6315从节点
slave2
端口:6316从节点slave3端口:6317哨兵sentinel1端口:26301
huangjin0507
·
2016-02-25 14:00
redis
sentinel
脚本自动配置hadoop集群的ssh无密码登录
/bin/bash export SLAVES="slave1
slave2
" export USER='hadoop' ssh-ke
aibati2008
·
2016-02-24 15:00
hadoop
ssh无密码登录
spring MVC、mybatis配置读写分离
1.环境: 3台数据库机器,一个master,二台slave,分别为slave1,
slave2
2.要实现的目标: ①使数据写入到master ②读数据时,从slave1和
slave2
中读取
MarkCo
·
2016-02-24 10:00
MQ(部署模式)
多个共享存储目录的应用,谁先启动,谁就可以最早取得共享目录的控制权成为master,其他的应用就只能作为
slave2
)sh
NWNS-无风无影
·
2016-02-19 17:00
Ambari部署hadoop完全分布式集群
1、我这里用的是三个虚拟机centos6.464位操作系统,一台做Master,两台做
Slave2
、三台机器都安装jdk,我这里的版本是7_79,同样是64位的3、修改hostname(很关键,因为只有生成的
BusyMonkey
·
2016-02-18 18:31
BigData
上一页
5
6
7
8
9
10
11
12
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他