E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
slave1
ActiveMQ之brokers network集群
一、集群配置方式类型master-slaveuri列表中对应的顺序就是MASTER,
SLAVE1
,SLAVE2...SLAVE;master-slave的作用就是brokers之间的主从,同一时刻只能连接一个
乾坤刀
·
2018-06-15 15:36
activemq
集群
activeMQ/rabMQ
redis 从库数据同步失败——爬坑记
场景:主从同步模式master-->slave1master-->slave2master-->slave3info状态:
slave1
,slave2都是state=online,offset=5744884846
我不是三爷
·
2018-06-08 18:18
redis
主从同步
异常
linux
Storm-1.2.2完全分布式安装
环境:zookeeper-3.4.10,ubuntu-16.0.4,jdk1.8.0_111我这里在四台机器上安装,分别是Desktop(Master),Server1,(
Slave1
),Server2
兵工厂三剑客
·
2018-06-06 23:26
Storm
mysql主从复制和读写分离实战
目录mysql主从复制和读写分离实战mysql主从复制Master配置
Slave1
配置Slave2配置主从复制测试mysql读写分离mysql_proxy配置读写分离测试mysql主从复制和读写分离实战一般情况下
北纬34度停留
·
2018-06-05 06:36
MYSQL
Mysql主从同步搭建和故障排除
主:被客户端访问的数据库服务器就是主库服务器master从:连接主库服务器,自动同步主库的所有数据到本机
slave1
、什么是mysql主从同步?
Dream_of_IT
·
2018-06-01 08:58
Mysql主从同步搭建和故障排除
主:被客户端访问的数据库服务器就是主库服务器master从:连接主库服务器,自动同步主库的所有数据到本机
slave1
、什么是mysql主从同步?
Dream_of_IT
·
2018-06-01 08:58
hadoop-3.0.1配置详解
一.硬件三台电脑,装了Centos7.0系统,一个作主节点(主机名是:master),两个作从节点分别是
slave1
和slave2。
ITRunner123
·
2018-05-18 09:54
SSH配置—Linux下实现免密码登录
首先,假设我们有两台服务器,服务器名称分别是master和
slave1
,我们现在需要做的就是在服务器master上面登录服务器
slave1
不需要输入密码就可以登录成功,如下图所示。
funnyZhang
·
2018-05-17 00:00
ubuntu
unix
linux
2.高并发教程-基础篇-之nginx+mysql实现负载均衡和读写分离
比如,sever1收到的请求就专门链接
slave1
从mysql读取数据,配合nginx的反向代理实现的分流,就可以优雅的把mysql的query请求分压到不同的mysql-slave实例。
mengyuanxi
·
2018-05-16 23:21
高并发教程系列基础篇
hadoop集群的搭建启动与常用配置
操作系统为centos6.6,jdk1.8,hadoop版本为hadoop2.8.3,由于是学习环境,为了减少不必要的麻烦,账户均使用root准备工作:这里启动了三台虚拟机来模拟,主机名分别为master,
slave1
dong57672837
·
2018-05-16 11:54
集群SSH免密登录
这里以三台服务器为例:master、
slave1
、slave2给3个机器生成秘钥文件以master为例,执行命令,生成空字符串的秘钥(后面要使用公钥),命令是:1.
一只土肥圆的猿
·
2018-05-10 14:04
spark
大数据
hadoop集群设置ssh免密登录
1、打开三个节点(我的是三个)①master②
slave1
③slave22、创建密钥$ssh-keygen-trsa-P''-f~/.ssh/id_rsa3、追加密钥到autorized_keys文件,
lzh_86
·
2018-05-09 20:01
hadoop
02大数据学习之hadoop搭建——hadoop-2.6.1
集群环境是上篇博客中自己搭建的虚拟集群:1、安装包下载:方法自行get2、先安装jdk,将压缩包解压:tarzxvfjdk-7u67-linux-x64.tar.gz配置jdk环境变量:master、
slave1
anchor_lin
·
2018-05-02 22:10
大数据学习
01大数据学习之环境搭建————linux虚拟集群
正文————使用的工具如下:centos6.5,vmwareworkstationpro12.0(工具下载方法自行get)创建三个虚拟机,搭建虚拟集群,一个主节点(master),两个从节点(
slave1
anchor_lin
·
2018-05-02 21:41
大数据学习
一、hadoop2.x版本的集群安装
准备两台虚拟机,一台作为主节点master,一台作为从节点
slave1
。
花言简
·
2018-04-28 10:59
hadoop学习过程
[Hadoop集群模式安装与配置全过程]红帽子RatHat6下hadoop集群模式安装(3个节点,master,
slave1
,slave2)
红帽子RatHat6下hadoop集群模式安装(3个节点,master,
slave1
,slave2)一、学习目标:使用红帽子RatHat6在虚拟机上搭建hadoop集群,包含3个节点,体验集群分布式。
vmClaire
·
2018-04-21 17:25
Hadoop家族编程
Hadoop家族
编程
生产环境配置mysql主从复制
配置mysql主从复制环境:redhat7.3系统两台主机一台master一台
slave1
、主从复制的步骤1、搭建时间NTP服务器,同步时间1)建立时间同步环境,在主节点上搭建时间同步服务器时间同步在此不再重复
暖暖miss
·
2018-04-18 17:21
数据
安全
linux
ubuntu时区
但发现
slave1
的时间和Maser的时间差了4个小时,而且ntpdatemaster也同样无效,这条命令只能让分钟、秒和Master上一样,但无法解决4个小时的
Love轩轩
·
2018-04-11 12:36
ubuntu
timezone
时区
MYSQL
hdfs put文件异常告警
场景:NameNode节点:masterDataNode节点:
slave1
,slave21,往hdfs中put文件的时候报以下错误,但是执行结果是正常的,:[hdfs@master~]$hadoopfs-put
leelongzaitianya
·
2018-04-09 15:06
hdfs
故障案例:主从同步报错MySQL server UUIDs
场景一:因为数据量非常,大概有1.4T,需要在原先master1-slave1的情况下再创建一个库slave2,并且挂在
slave1
下,即master1-slave1-slave2的结构。
martingpf
·
2018-04-03 14:57
ser
Mysql
hadoop伪分布式集群ssh免密码登录
来配置我们的ssh无密码登录到
slave1
和slave2上1.首先检查每个虚拟机是否安装了ssh和启动了sshd服务如果没有安装的话要执行以下代码这个命令要在root下运行,因为hadoop用户还没有这个权限这个命令是安装
G_scsd
·
2018-03-29 14:15
hadoop
python
CentOS 6.5配置SSH免密码登录
预先配置:vim/etc/hosts修改master、
slave1
、slave2的ip地址(具体对应的ip地址可以使用命令ifconfig,将对应的ip地址附加到hosts文件中即可)注意:修改后,要确保
绣花针
·
2018-03-27 16:48
Spark
从头安装hadoop环境
master-ip:192.168.237.10slave1-ip:192.168.237.11slave2-ip:192.168.237.12上网调试:分别进入
slave1
和slave2里面的ifcfg-eth0
赵雁生
·
2018-03-27 10:58
hadoop
配置
linux
将oracle的数据导入到hive上进行查询统计分析类的工作
导出时使用‘#’来讲列拼接起来,用于hive表加载数据文件用将文件上传至装了Hive的
slave1
服务器。
小树csdn
·
2018-02-11 16:12
Hadoop
hive
linux下主从节点互相免密匙登陆
安装了三个节点,master,
slave1
,slave21.主节点免密匙登陆从节点主机点窗口输入ssh-keygen-trsa一路回车下去2.然后输入cat~/.ssh/id_rsa.pub>>~/.ssh
半边书生123
·
2018-01-18 00:10
从几点
登陆
主节点
Hadoop
centos6.5免密码登录
在机器A(192.168.98.3)创建用户一个普通用户
slave1
:usradd-mslave1查看机器是否安装了ssh:rpm-qa|grepssh一般安装好系统ssh都会安装好的,但是建议重新安装一下
Karan_01
·
2018-01-10 11:44
学习
基于centos7搭建hadoop+zookeeper+hbase大数据集群
121hadoop-2.6.5zookeeper-3.4.10hbase-1.2.4三台集群主机安装centos7系统ip分别为192.168.10.208(master)192.168.10.207(
slave1
loopeng1
·
2018-01-09 13:34
前端
大数据
从零开始搭建Hadoop框架(单机模式)
准备工作Master和
Slave1
中都要安装Hadoop,在这我们以Master为例,
Slave1
类似1).Hadoop简介Hadoop是一个开源的可运行于大规模集群上的分布式并行编程框架,其最核心的设计包括
C_FuL
·
2018-01-05 12:58
hadoop
Nginx-tomcat负载均衡配置
版本:Nginx1.12.2,tomcat8.5.24分别下载解压,tomcat解压两份配置tomcat端口
slave1
:8005=>8015,8080=>8087,8009=>8019slave2:8005
w_nanan
·
2017-12-07 23:56
部署Spark集群
集群实验环境三台虚拟机:操作系统:Ubuntu14.04LTS静态ip地址,分别是:192.168.1.10-12使用spark1.5.1官网预编译的版本设置计算机名把三台计算机名分别设置为mater、
slave1
浪尖儿
·
2017-12-04 01:05
elasticsearch 2.4.6+kibana 4.6集群安装
1.准备环境:centos7虚拟机三台:master(192.168.56.101)、
slave1
(192.168.56.103)、slave2(192.168.56.102);elasticsearch
吃胡萝卜的鳄鱼
·
2017-11-23 22:20
hadoop集群配置
mycat 实现mysql读写分离及主从切换
mysql的集群部署,可参考:mysql主从配置二、配置conf/server.xml,创建mycat用户,密码,及库三、配置conf/schema.xml如上图所示,master1为主服务器,作为写服务,
slave1
jank1369
·
2017-11-23 10:19
linux
mysql
Mysql_MHA高可用架构搭建
高可用架构搭建窗体顶端窗体底端环境及兼容包系统环境:centos6.5Mysql:mysql-5.5.6数据库用源码安装,这里就不介绍了主机分配:Master:192.168.0.101node1(主库)
Slave1
浅夏微凉汤
·
2017-11-22 13:39
Mysql
高可用
MHA
MySQL主从复制与读写分离
环境介绍:主服务器(master):192.168.100.155从服务器(
slave1
,slave2):192.168.100.153-154代理服务器(amoeba):192.168.100.156
梦想不遥远
·
2017-11-16 14:50
MySQL
主从复制
读写分离
数据库服务
haddop从单机改为集群
三台机器的内容统一增加以下host配置:可以通过hostname来修改服务器名称为master、
slave1
、slave2192.168.71.242master192.168.71.212slave1192.168.71.213slave2
yypiao
·
2017-11-10 16:00
配置Mysql-proxy,实现读写分离
环境描述:操作系统:CentOS6.564位mysql主服务器Master:172.25.17.19mysql从服务器
Slave1
:172.25.17.20mysql从服务器Slave2:172.25.17.21
zzc052
·
2017-11-10 00:43
mysql
MySQL
Centos7下部署ceph 12.2.1 (luminous)集群及RBD使用
原创,本文地址http://www.cnblogs.com/pcxie/p/7799372.html前言本文搭建了一个由三节点(master、
slave1
、slave2)构成的ceph分布式集群,并通过示例使用
BenceTse
·
2017-11-07 16:00
Centos 7.0 下hadoop集群模式安装(以3个节点为例,master,
slave1
,slave2)超详细
转自:http://blog.csdn.net/mrcat520/article/details/73321283一、目标:构建由3台PC机构成的hadoop环境,安装完成后使用HDFS、Mapreduce、Hbase等完成一些小例子。二、硬件需求:3台Centos7.0系统PC机,每台PC机4G内存,500G硬盘,双核CPU。三、软件需求:每台PC机装有Centos7.0系统,其中一台namen
Cigar丶
·
2017-11-03 16:51
其他
Hadoop2.8.1完全分布式环境搭建
前言本文搭建了一个由三节点(master、
slave1
、slave2)构成的Hadoop完全分布式集群(区别单节点伪分布式集群),并通过Hadoop分布式计算的一个示例测试集群的正确性。
BenceTse
·
2017-10-28 19:00
Hadoop完全分布式安装
Hadoop完全分布式安装(注:本教程简单的使用两个节点作为集群环境:一个作为Master主节点,另一个作为
Slave1
从节点。)
Hugh_Tang
·
2017-10-27 09:09
大数据
ssh免密码登录 Linux环境(CentOS+hadoop-2.*)
•环境准备一个namenode节点master,两个datanode节点
slave1
、slave2修改主机名(注意):修改主机名用hostname[newname]修改只是对本次修改有效,重启后失效。
阳光Xiao伙
·
2017-10-23 17:29
大数据
CentOS 7 64位 部署Hadoop2.6.1
1、环境:3台CentOS764位Hadoop2.6.1(1).安装centos7(2).修改三台服务器/etc下的hosts和hostname:三台服务器的Hostname分别修改:master、
slave1
MattTian
·
2017-10-12 08:48
大数据
hadoop设置ssh免密码登录
blog.csdn.net/zwx19921215/article/details/19641345这篇博客写的很好,照着他说的输入命令,就可以设置成功了,博客的m1指的是master,s1,s2指的是
slave1
,2
jia_zhengshen
·
2017-10-06 14:20
基于CENTOS6.5搭建Hadoop集群
一、安装虚拟机二、环境nat配置Nat设置:查看得到192.168.201.2su命令,打开以下文件,删除其他行以得到下图:添加以下行:对
slave1
和slave2也做同样操作:三、配置JDK环境共享目录
liangyingyi1006
·
2017-10-03 17:32
Hadoop
VMware虚拟机NAT模式连不上网,无法启动VMware DHCP Service 服务
最后,迫于无奈,配置了静态IP,但随之而来,又出现莫名的问题:虚拟机之间可以相互ping通,在本地命令行下能够ping通
Slave1
(IP地址在Master和Slave2之间),但是ping不同Master
love666666shen
·
2017-09-25 17:34
大数据
ssh 实现多台主机免密登陆并附带多种错误解决办法
一在每台主机上修改host文件1.vi/etc/hosts(ip_master)master(ip_slave1)
slave1
(ip_slave2)slave2注:()中的ip地址可以通过ifconfig-a
蜡笔大广
·
2017-09-07 21:24
机器学习
搭建Hadoop分布式集群------修改三台机器的配置文件
Step_1:修改Master主机的core-site.xml文件:修改前:修改后:Step_2:把修改Master主机的core-site.xml文件复制到
Slave1
和Slave2的core-site.xml
坏蛋是我
·
2017-09-01 10:59
大数据
搭建Hadoop分布式集群------SSH无密码验证配置
现在看下在没有配置的情况下,Master通过SSH协议F访问
Slave1
的情况:需要输入密码才能登录,该密码是用户的开机密码!
坏蛋是我
·
2017-09-01 09:57
大数据
redis的主从复制 读写分离 主从切换
准备三个redis服务,依次命名文件夹子master,
slave1
,slave2.这里为在测试机上,不干扰原来的redis服务,我们master使用6000端口。配置文件(redis.c
蓝叶子Sheep
·
2017-08-28 15:45
redis
主从
Linux基础
HBase与hive集成
集成环境:hadoop-2.6.0(Master,
Slave1
,Slave2),hbase-0.98.6-hadoop2,hive-1.2.11.hive和hbase集成需要的jar包有guava,hbase-common
一只小飞狐
·
2017-08-25 09:21
hbase
上一页
6
7
8
9
10
11
12
13
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他