E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
slaves
Spark脚步文件作用说明
可以说我闲的蛋疼,反正我已经做了记录了,哈哈 sbin目录下的脚本文件
slaves
.sh 在所有定义在${SPARK_CONF_DIR}/
slaves
的机器上执行一个shell
时间在追我
·
2014-07-24 15:00
Spark脚步文件作用说明
redis 主从复制
1).同一个Master可以同步多个
Slaves
。 2).Slave同样可以接受其
gxut555
·
2014-07-22 10:00
redis
redis 主从结构部署
Redis主从搭建结构: 1).同一个Master可以同步多个
Slaves
。 2).Slave同样可以接受其它
Slaves
的连接和同步请求,这样可以有效的分载Master的同步压力。
予人wgl
·
2014-07-18 15:27
redis
部署
主从
Hadoop添加删除节点
添加namenode的ip 2.修改namenode的配置文件conf/
slaves
添加新增节点的ip或host 3.在新节点的机器上,启动服务 [root@slave-004 hadoop
501311837
·
2014-07-18 14:00
hadoop
删除
添加
节点
Hadoop添加删除节点
添加namenode的ip2.修改namenode的配置文件conf/
slaves
添加新增节点的ip或host3.在新节点的机器上,启动服务[root@slave-004hadoop]#.
501311837
·
2014-07-18 14:00
hadoop
添加
删除
节点
Hadoop添加删除节点
添加namenode的ip2.修改namenode的配置文件conf/
slaves
添加新增节点的ip或host3.在新节点的机器上,启动服务[root@slave-004hadoop]#.
501311837
·
2014-07-18 14:00
hadoop
添加
删除
节点
Hadoop添加删除节点
添加namenode的ip 2.修改namenode的配置文件conf/
slaves
添加新增节点的ip或host 3.在新节点的机器上,启动服务 [root@slave-004 hadoop]# .
Big-Data
·
2014-07-17 09:00
Performance Tunning
blog/1341267 Performance Tunning 8mins, 44sec TO 3mins, 45sec 硬件级别 提高磁盘IO的性能 noatime 我为两台
slaves
侯上校
·
2014-07-16 16:00
performance
Performance Tunning
blog/1341267 Performance Tunning 8mins, 44sec TO 3mins, 45sec 硬件级别 提高磁盘IO的性能 noatime 我为两台
slaves
侯上校
·
2014-07-16 16:00
performance
Hadoop热添加删除节点(含Hbase)
添加namenode的ip2.修改namenode的配置文件conf/
slaves
添加新增节点的ip或host3.在新节点的机器上,启动服务 [root@slave-004 hadoop]# .
行走在路上
·
2014-07-15 16:00
hadoop
hbase
热添加
热删除
java处理高并发高负载类网站的优化方法
我推荐的是M-M-
Slaves
方式,2个主
dyf20081124
·
2014-07-15 09:29
Java网络编程
服务器
redis 主从配置实例、配置文件说明、及备份方式,php redis 扩展安装
1).同一个Master可以同步多个
Slaves
。 2).Slave同样可以接受其它
Slaves
的连接和同步请求,这样可以有效的分载Master的同步压力。
fuquanjun1013
·
2014-07-08 10:58
redis
redis 主从配置实例、注意事项、及备份方式
1).同一个Master可以同步多个
Slaves
。 2).Slave同样可以接受其它
Slaves
的连接和同步请求,这样可以有效的分载Master的同步压力。
zhang406
·
2014-07-07 17:35
redis
主从
redis 主从配置实例、注意事项、及备份方式
1).同一个Master可以同步多个
Slaves
。2).Slave同样可以接受其它
Slaves
的连接和同步请求,这样可以有效的分载Master的同步压力。
zhang406
·
2014-07-07 17:35
redis
主从
运维技术经验
redis 主从配置实例、注意事项、及备份方式
1).同一个Master可以同步多个
Slaves
。2).Slave同样可以接受其它
Slaves
的连接和同步请求,这样可以有效的分载Master的同步压力。
zhang406
·
2014-07-07 17:26
redis
主从
运维技术经验
redis 主从配置实例、注意事项、及备份方式
1).同一个Master可以同步多个
Slaves
。 2).Slave同样可以接受其它
Slaves
的连接和同步请求,这样可以有效的分载Master的同步压力。
zhang406
·
2014-07-07 17:26
redis
主从
构建高性能数据库缓存之redis主从复制
二、redis主从复制特点1、同一个Master可以拥有多个
Slaves
。2、Master下的Slave还可以接受同一架构中其它slave的链接与同步请求,实现数据的级联复制,即Master->
DevilRex119
·
2014-07-06 00:35
学习总结四:hadoop集群动态增加新节点及下架一个节点
hadoop0,hadoop1和hadoop2在各自服务器的安装目录都是/usr/local一.新增一个节点步骤:1.配置新节点环境,假设新节点是hadoop32.把新节点的hostname配置到主节点的
slaves
colinmok
·
2014-07-05 18:50
Hadoop
hadoop集群安装
这些机器是
slaves
\官方地址:(http://hadoop.apache.org/common/docs/r0.19.2/cn/cluster_setup.html)1先决条件确保在你集群中的每个节点上都安
lit58
·
2014-07-05 17:02
java
虚拟机
操作系统
软件
守护
hbase:用于实现版本文件及配置同步的两个shell脚本
复制master节点上的版本内容到所有
slaves
节点上注意: 1:版本目录做了软链接,如ln-shbase-0.94.6hbase 2:要根据实际情况,将/usr/local/修改为hbase所在的目录
cloud-coder
·
2014-07-04 11:00
shell
同步
hbase
复制
rsync
构建高性能数据库缓存之redis主从复制
二、redis主从复制特点1、同一个Master可以拥有多个
Slaves
。2、Master下的Slave还可以接受同一架构中其它slave的链接与同步请求,实现数据的级联复制,即Master-
晨风微凉
·
2014-07-02 17:40
redis
原理
主从复制
构建高性能数据库缓存之redis主从复制
二、redis主从复制特点1、同一个Master可以拥有多个
Slaves
。2、Master下的Slave还可以接受同一架构中其它slave的链接与同步请求,实现数据的级联复制,即Master->
晨风微凉
·
2014-07-02 17:40
原理
主从复制
Redis
应用缓存
Java高并发高负载简单设计
我推荐的是M-M-
Slaves
方式,2个主
h254541060
·
2014-06-30 21:00
Hadoop添加节点datanode(生产环境)
添加namenode的ip 3.修改namenode的配置文件conf/
slaves
添加新增节点的ip或host 4.在新节点的机器上,启动服务 Java代码 [root@s
fz2543122681
·
2014-06-30 16:00
【02】Scala集群配置
配置文件 /home/scipio/spark-1.0.0-bin-hadoop1/conf/spark-env.sh /home/scipio/spark-1.0.0-bin-hadoop1/conf/
slaves
xixicat
·
2014-06-28 13:00
hadoop添加删除节点
添加namenode的ip 2.修改namenode的配置文件conf/
slaves
添加新增节点的ip或host 3.在新节点的机器上,启动服务 
free9277
·
2014-06-26 14:00
hadoop
Spark技术内幕:Master基于ZooKeeper的High Availability(HA)源码实现
如果Spark的部署方式选择Standalone,一个采用Master/
Slaves
的典型架构,那么Master是有SPOF(单点故障,SinglePointofFailure)。
anzhsoft2008
·
2014-06-24 20:00
zookeeper
spark
master
HA
curator
Hadoop集群节点的动态增加与删除
.安装配置节点具体过程参考《Hadoop集群实践之(1)Hadoop(HDFS)搭建》2.在配置过程中需要在所有的Hadoop服务器上更新以下三项配置$sudovim/etc/hadoop/conf/
slaves
1hadoop-node
Nazarite_wen
·
2014-06-17 18:00
hadoop
节点动态添加删除
mysql master/slave 数据库备份
将Mysql的数据分布到多个系统上去,这种分布的机制,是通过将Mysql的某一台主机的数据复制到其它主机(
slaves
)上,并重新执行一遍来实现的。
lf6627926
·
2014-06-11 18:00
master
hadoop安装与配置(完全分布模式)
----一、前言二、环境三、配置1.配置hosts文件及主机名 2.建立hadoop运行账号 3.配置ssh免密码连入 4.安装JDK5.安装hadoop 6.配置hadoop7.配置masters和
slaves
_诺千金
·
2014-06-11 12:16
hadoop
配置
NameNode
mysql master/slave 数据库备份
将Mysql的数据分布到多个系统上去,这种分布的机制,是通过将Mysql的某一台主机的数据复制到其它主机(
slaves
)上,并重新执行一遍来实现的。
lf6627926
·
2014-06-11 10:00
mysql
slave
master
hadoop 2.2.0 伪分布环境搭建(草稿)
Hadoop2.20伪分布搭建20140507根据上次分布式hadoop3复制调整/home/hduser/hadoop-2.2.0/etc/hadoop/
slaves
调整为hadoop3格式化失败.
javastart
·
2014-05-25 15:00
关于hadoop完全分布式集群搭建
: 1、配置host文件,即确定各结点ip 2、配置ssh无密码登录 3、配置namenode,修改site 4、配置hadoop-env.sh文件,导入 jdk 就好 5、配置maste与
slaves
java-大神
·
2014-05-25 11:00
hadoop
完全分布式
hadoop增加删除节点
添加namenode的ip 2.修改namenode的配置文件conf/
slaves
添加新增节点的ip或host 3.在新节点的机器上,启动服务 帮助 显示代码 1 2
wbj0110
·
2014-05-23 09:00
hadoop
hadoop增加删除节点
添加namenode的ip 2.修改namenode的配置文件conf/
slaves
添加新增节点的ip或host 3.在新节点的机器上,启动服务 帮助 显示代码 1 2
wbj0110
·
2014-05-23 09:00
hadoop
Mysql主从服务
关于mysql复制,我是这样理解的:将某一台主机上的Mysql数据复制到其它主机(
slaves
)上,并重新执行一遍从而实现当前主机上的mysql数据与(master)主机上数据保持一致的过程我们可以称为复制
xuechongyang
·
2014-05-17 12:00
Hadoop ssh配置设置
配置机器名 配置/etc/hosts和/etc/sysconfig/network注意:NameNode的hosts文件必须有其
slaves
指定的所有节点的机器名二.ssh设置(hadoop中需要在namenode
wenyusuran
·
2014-05-15 17:00
Hadoop集群配置(最全面总结 )(转)
这些机器是
slaves
\ 官方地址:(http://hadoop.apache.org/common/docs/r0.19.2/cn/cluster_se
自由鱼
·
2014-05-14 09:00
Spark1.0.0 Standalone HA的实现
SparkStandalone集群是Master-
Slaves
架构的集群模式,和大部分的Master-
Slaves
结构集群一样,存在着Master单点故障的问题。
book_mmicky
·
2014-05-13 15:00
spark
HA
standalone
Mysql集群一:主从复制,通过mysql-proxy做负载均衡 。
mysql集群架构方式很多,根据不同的需求做不一样的架构,简单一点的就是mysql的replication,也就是Mysql的复制功能,模式有:master-
slaves
,master-
slaves
-
slaves
axiaochen123
·
2014-05-10 16:00
mysql
Mysql集群一:主从复制,通过mysql-proxy做负载均衡 。
mysql集群架构方式很多,根据不同的需求做不一样的架构,简单一点的就是mysql的replication,也就是Mysql的复制功能,模式有:master-
slaves
,master-
slaves
-
slaves
JC_陈
·
2014-05-10 16:00
集群
Hadoop添加节点datanode
添加namenode的ip3.修改namenode的配置文件conf/
slaves
添加新增节点的ip或host4.在新节点的机器上,启动服务[root@slave-004hadoop]#.
雨一直下
·
2014-05-09 10:00
hadoop
添加节点
Hadoop添加节点datanode
添加namenode的ip 3.修改namenode的配置文件conf/
slaves
添加新增节点的ip或host 4.在新节点的机器上,启动服务 [root@slave-004
雨一直下
·
2014-05-09 10:00
hadoop
添加节点
hadoop运行环境的搭建和hadoop源代码的编译
0224/article/details/12972889注:(1)所有的配置文件和节点处不要有空格; (2)master和所有的
slaves
gaylord
·
2014-05-06 22:00
hadoop
hadoop 配置文件 masters 以及 namenode, jobtracker, secondary namenode
hadoop配置文件里面有一个是masters和
slaves
,从字面意思来理解的话呢就是masters设置运行namenode,和jobtracker的结点,其实不然啊!!
Flood_Dragon
·
2014-05-05 16:00
高性能Mysql主从架构的复制原理及配置详解
将Mysql的数据分布到多个系统上去,这种分布的机制,是通过将Mysql的某一台主机的数据复制到其它主机(
slaves
)上,并重新执行一遍来实现的。
蓝狐乐队
·
2014-04-30 18:00
HDFS添加删除节点并进行集群平衡
HDFS添加删除节点并进行hdfsbalance 方式1:静态添加datanode,停止namenode方式 1.停止namenode 2.修改
slaves
文件,并更新到各个节点 3.启动namenode
w13770269691
·
2014-04-25 14:00
Linux-6.5下 基于MariaDB-10的 主从复制配置解析
将Mysql的数据分布到多个系统上去,这种分布的机制,是通过将Mysql的某一台主机的数据复制到其它主机(
slaves
)上,并重新执行一遍来实现的。
SmileHandsome
·
2014-04-21 23:03
mysql
MariaDB-MySQL
Linux-6.5下 基于MariaDB-10的 主从复制配置解析
将Mysql的数据分布到多个系统上去,这种分布的机制,是通过将Mysql的某一台主机的数据复制到其它主机(
slaves
)上,并重新执行一遍来实现的。
SmileHandsome
·
2014-04-21 23:03
mysql
MariaDB/Mysql之主从架构的复制原理及主从/双主配置详解(一)
将Mysql的数据分布到多个系统上去,这种分布的机制,是通过将Mysql的某一台主机的数据复制到其它主机(
slaves
)上,并重新执行一遍来实现的。
Linux秋
·
2014-04-18 23:39
mysql
mariaDB
slave
master
I/O
上一页
12
13
14
15
16
17
18
19
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他