E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
slave1
ubuntu搭建分布式hadoop-2.6.0概略和错误
详细配置:http://blog.csdn.net/ggz631047367/article/details/424263911.修改机器/etc/hostname分别为 master
slave1
ggz631047367
·
2015-11-13 20:00
hadoop集群环境搭建
1 hadoop集群规划 1.1 共有A、B、C 三台机器; 1.2 A 作为master,B作为
slave1
,C作为slave2
·
2015-11-13 11:27
hadoop
Shell之expect的测试
/sshLogin.sh
Slave1
caipeichao 1qaz@WSX hadoop lk198981 HadoopCluster #!
·
2015-11-13 09:15
expect
MongoDB 主从复制小实验
在本次试验中,master节点为主节点,我们在master节点中的对数据的插入、修改、删除操作都会同步到
slave1
和slave2节点。
·
2015-11-12 18:41
mongodb
Windows下Eclipse连接hadoop
Vmware上搭建了hadoop分布式平台: 192.168.11.134 master 192.168.11.135
slave1
192.168.11.136 slave2
·
2015-11-11 18:46
eclipse
【Hadoop学习】CDH5.2安装部署
准备条件 (1)集群规划 主机类型 IP地址 域名 master 192.168.50.10 master.hadoop.com
slave1
192.1
·
2015-11-11 17:25
hadoop
Hadoop+Hbase+Zookeeper(独立)环境搭建
blog.itpub.net/23289442/viewspace-1120056/准备的机器信息:192.168.247.128 dengnn(master) 192.168.247.129 dengdn1(
slave1
beck_716
·
2015-11-11 16:54
hadoop
zookeeper
Hbase+
Hadoop+Hbase+Zookeeper(独立)环境搭建
blog.itpub.net/23289442/viewspace-1120056/准备的机器信息:192.168.247.128 dengnn(master) 192.168.247.129 dengdn1(
slave1
beck_716
·
2015-11-11 16:54
hadoop
zookeeper
Hbase+
hadoop 2.2.0集群安装详细步骤(简单配置,无HA)
安装准备设置集群的hosts,切换到root用户下,用vi编辑器修改/etc/hosts配置文件: vi /etc/hosts 10.1.5.125 master 10.1.5.126
slave1
·
2015-11-11 02:36
hadoop
MapReduce and MachineLearning——笔记二(配置三个结点SSH无密码登录)
1.修改三个节点的host文件(三个节点相同): sudo vi /etc/hosts 加入以下三行: 192.168.1.90 master 192.168.1.91
slave1
·
2015-11-08 15:50
mapreduce
全分布式环境下,DataNode不启动的问题解决
问题出现:机器重启之后,再次在master结点上面执行start-all.sh,发现有一个datanode没有启动,通过jps检查之后,发现
slave1
上面的datanode进程未启动 原因:每次namenode
·
2015-11-08 10:26
datanode
(六)hadoop系列之__hadoop分布式集群环境搭建
配置hadoop(master,
slave1
,slave2) 说明: NameNode: master DataNode:
slave1
,slave2 ---------
·
2015-11-07 10:20
hadoop
amoeba安装与实现amoeba for mysql读写分离
nbsp; amoeba-mysql-binary-2.2.0 l amoeba:192.168.88.17 l master1:192.168.88.10 l
slave1
·
2015-11-05 08:37
Mysql读写分离
mysql主从数据库复制
运行环境: l 虚拟机模仿四台CentOS6.3服务器 l 主数据库master1 :192.168.88.21 l 从数据库
slave1
:192.168.88.22
·
2015-11-05 08:36
Mysql主从
hbase-site.xml配置
hbase.cluster.distributed true hbase.zookeeper.quorum master,
slave1
王上京小伙
·
2015-11-04 15:15
Hadoop集群配置【四、Hbase部署】
Hbase环境部署 一、安装准备 下载cdh3版本的hbase 默认前提已经安装好cdh3版本的hadoop master 192.168.2.25 主机名:a1
slave1
·
2015-10-30 14:00
hadoop
CentOS 6.5配置SSH免密码登录
预先配置:master:192.168.10.128slave:192.168.10.135修改方式#vi/etc/sysconfig/network将HOSTNAME修改为master或者
slave1
刘迎光-萤火虫工作室
·
2015-10-28 14:47
linux
CentOS 6.5配置SSH免密码登录
master:192.168.10.128 slave:192.168.10.135 修改方式 #vi /etc/sysconfig/network 将HOSTNAME修改为master或者
slave1
gsying1474
·
2015-10-28 14:00
centos
ssh
登陆
免密码
MapReduce性能分析实验
1台 NameNode (Master) 3台 DataNode (Slave) 其中Master和2台Slave (Slave2, Slave3) 位于一配置较强的物理机中, 另1Slave (
Slave1
·
2015-10-27 11:08
mapreduce
Hadoop+Hbase+Zookeeper(独立)环境搭建 ---
准备的机器信息:192.168.247.128 dengnn(master) 192.168.247.129dengdn1(
slave1
) 192.168.247.130dengdn2(slave2
dalan_123
·
2015-10-23 08:00
mapreduce
hadoop
hbase
zk
Hadoop+Hbase+Zookeeper(独立)环境搭建 ---
阅读更多准备的机器信息:192.168.247.128dengnn(master)192.168.247.129dengdn1(
slave1
)192.168.247.130dengdn2(slave2)
dalan_123
·
2015-10-23 08:00
hadoop
hbase
mapreduce
zk
ntp时间服务器同步完整配置(ntp.sjtu.edu.cn 202.120.2.101 (上海交通大学网络中心NTP服务器地址))
三台服务器A、B、C:A作master:192.168.146.11B作
slave1
:192.168.146.12C作slave2:192.168.146.13master服务器中【选ntp.sjtu.edu.cn202.120.2.101
buster2014
·
2015-10-22 10:00
hadoop实战之分布式模式
首先为hadoop的集群准备几台机器,这里机器名如下: fkongnix0 (master) fkongnix1 (
slave1
) fkongnix2 (slave2)2.
·
2015-10-21 13:35
hadoop
Shell 如何从当前主机跳转到另外主机执行命令后继续在本机执行命令
现在有一个需求是从一个主机登录到另一台主机上面并执行一个脚本,之前做过了但是忘了,所以记录下来如果写成这样
[email protected]
然后保存执行,shtest.sh并不能在
Slave1
philadelphiazt
·
2015-10-12 16:55
spark的standalone模式下HA的配置
SPARK_DAEMON_JAVA_OPTS="-Dspark.deploy.recoveryMode=ZOOKEEPER -Dspark.deploy.zookeeper.url=master:2181,
slave1
vonmomo
·
2015-09-29 11:00
安装配置Kafka
profile文件,增加KAFKA_HOME变量3,进入KAFKA_HOME/config目录(1)修改server.properties文件broker.id=0host.name=master(在
slave1
dabokele
·
2015-09-24 10:00
7.基于yarn的Spark集群搭建
www.scala-lang.org/download/2.10.4.html在Ubuntu机器上Scala会帮助我们自动选择“scala-2.10.4.tgz”进行下载;安装和配置Scala我们需要在master、
slave1
丁明宇
·
2015-09-21 15:00
Hadoop2.2.0-HA高可用集群环境搭建
Hadoop2.2.0-HA高可用集群环境搭建集群主机信息主机名称主机ip配置主要功能master1硬盘300G,内存32G,CPU8核管理主节点master2硬盘300G,内存32G,CPU8核管理备份节点
slave1
OSC-小小侦探
·
2015-09-15 11:00
redis配置主从备份以及主备切换方案配置
只有初始化的主和从,然后当主down后,从就变成主了,而主即使连接上,也是从,不会变为主1、redis-server的主备关系: 需要配置的机器,以及主备关系如下 master:10.118.36.10
slave1
gsying1474
·
2015-09-09 00:00
redis
数据库
备份
集群
主从切换
sentinel运维监控
master主服务器,两台slave服务器,两台slave都指向master(主从配置省略)步骤二:将master进程关闭,方法:可以直接kill掉,也可以在其客户端执行shutdown命令步骤三:将
slave1
freedomai
·
2015-09-04 20:00
tachyon 1.7.1安装
tachyon1.7.1+hadoop2.6.0说明:采用两个节点分别hmaster、
slave1
下载安装包:tachyon-0.7.1-bin.tar.gz下载地址:http://www.tachyon-project.org
ddjj1990
·
2015-08-28 16:20
profile
package
Export
Tachyon
tachyon 1.7.1安装
tachyon1.7.1+hadoop2.6.0说明:采用两个节点分别hmaster、
slave1
下载安装包:tachyon-0.7.1-bin.tar.gz下载地址:http://www.tachyon-project.org
ddjj1990
·
2015-08-28 16:20
profile
package
Export
Tachyon
tachyon 1.7.1安装
tachyon1.7.1+hadoop2.6.0说明:采用两个节点分别hmaster、
slave1
下载安装包:tachyon-0.7.1-bin.tar.gz下载地址:http://www.tachyon-project.org
ddjj1990
·
2015-08-28 16:20
package
export
profile
tachyon
zookeeper集群环境的搭建
我安装zookeeper的集群是用到了五个节点:分别是
slave1
,slav2,slave3。也就是说要在这五个节点上部署zookeeper。
xuguokun1986
·
2015-08-24 09:00
hadoop0.20.2完全分布式安装和配置
完全分布式安装和配置 硬件环境: 虚拟机1号:master hostname:h1 IP:192.168.1.106 ==》用户名:hadoop 虚拟机2号:
slave1
bigSeven
·
2015-08-15 16:00
hadoop
集群部署
solr(8)Solr Index Replication
Master —
Slave1
, Slave2, Slave3. A Solr index
sillycat
·
2015-08-06 02:00
Replication
一步一步搭建MHA环境
测试使用的机器IP及主机名,其中
slave1
位mha的manager节点,测试过程中使用的软件包为:链接:http://pan.baidu.com/s/1dD76D93密码:gg7m# cat /etc
bigstone2012
·
2015-07-31 19:29
mysql
高可用
mha
一步一步搭建MHA环境
测试使用的机器IP及主机名,其中
slave1
位mha的manager节点,测试过程中使用的软件包为:链接:http://pan.baidu.com/s/1dD76D93密码:gg7m# cat /etc
bigstone2012
·
2015-07-31 19:29
mysql
高可用
mha
故障案例:主从同步报错Fatal error: The slave I/O thread stops because master and slave have equal MySQL server
场景一:因为数据量非常,大概有1.4T,需要在原先master1-slave1的情况下再创建一个库slave2,并且挂在
slave1
下,即master1-slave1-slave2的结构。
胡儿胡儿
·
2015-07-11 23:46
server_uuid
mysql
主从报错
DB故障处理案例
故障案例:主从同步报错Fatal error: The slave I/O thread stops because master and slave have equal MySQL server
场景一:因为数据量非常,大概有1.4T,需要在原先master1-slave1的情况下再创建一个库slave2,并且挂在
slave1
下,即master1-slave1-slave2的结构。
cug_jiang126com
·
2015-07-11 23:00
mysql
server_uuid
主从报错
Redis 主从复制
作为master的redis配置文件不需要修改,此处只修改
slave1
和slave12的配置文件,对
BearCatYN
·
2015-07-09 14:00
redis
复制
主从
CentOS6.4搭建mysql高可用架构MHA
www.cnblogs.com/gomysql/p/3675429.html一、环境系统 CentOS6.4x64最小化安装manager 192.168.3.51master 192.168.3.52
slave1
ly36843
·
2015-07-07 16:48
CentOS6.4搭建mysql高可用架构MHA
www.cnblogs.com/gomysql/p/3675429.html一、环境系统 CentOS6.4x64最小化安装manager 192.168.3.51master 192.168.3.52
slave1
ly36843
·
2015-07-07 16:48
hadoop完全分布式搭建问题
192.168.52.40master192.168.52.30slave3192.168.52.20slave2192.168.52.10slave1一直在逗我玩的感觉,一会四台全部能ping上,一会
slave1
chenyx90
·
2015-06-28 11:37
MySQL主(Master)从(Slave)备份;
实验环境:CentOSrelease6.6(Final)32位Master:10.10.10.11Slave1:10.10.10.7Slave2:10.10.10.81)MySQL安装(分别在Master,
Slave1
J_张城
·
2015-06-09 12:41
mysql
centos
MySQL主(Master)从(Slave)备份;
实验环境:CentOSrelease6.6(Final)32位Master:10.10.10.11Slave1:10.10.10.7Slave2:10.10.10.81)MySQL安装(分别在Master,
Slave1
J_张城
·
2015-06-09 12:41
MySQL
CentOS
MySQL主(Master)从(Slave)备份;
实验环境:CentOSrelease6.6(Final)32位Master:10.10.10.11Slave1:10.10.10.7Slave2:10.10.10.81)MySQL安装(分别在Master,
Slave1
J_张城
·
2015-06-09 12:41
mysql
centos
搭建 hadoop2 自动切换HA 集群
hadoop2比hadoop1的一些新的功能:其中HA解决了hadoop1的单点故障问题1)各节点:namenode:master slave3datanode:
slave1
slave2 slave3journalnode
01wang
·
2015-05-31 18:32
HA
hadoop2
搭建 hadoop2 自动切换HA 集群
hadoop2比hadoop1的一些新的功能:其中HA解决了hadoop1的单点故障问题1)各节点:namenode:master slave3datanode:
slave1
slave2 slave3journalnode
01wang
·
2015-05-31 18:32
HA
hadoop2
如何查看hadoop集群是否安装成功(用jps命令和实例进行验证)
本人集群是三台虚拟机,一台是master,另外两台分别为
slave1
和slave2。在你用start-all.sh启动集群后,可以用jps命令和实例进行验证集群是否安装配置成功。
即将起飞的笨鸟
·
2015-05-08 17:35
hadoop
hadoop集群
hdfs
ssh
虚拟机
Hadoop
上一页
9
10
11
12
13
14
15
16
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他