E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
hadoop1.0
集群环境下配置
hadoop1.0
,zookeeper,hbase
1.本环境采用两台linux环境,ip分别为: 192.168.56.101 192.168.56.102 分别修改两台机器的/etc/hosts文件,增加如下内容: 192.168.56.101master 192.168.56.102slave 我们以master作为namenode服务器,slave为datenode服务器,首先安装jdk并配置环境变量和ssh(安装过程省略,请参考 网上资料
huashetianzu
·
2012-08-11 10:00
云计算要点
Hadoop单节点伪分布式安装
Hadoop1.0
版本安装环境搭建Hadoop架构Hadoop整体架构设计及重要的概念HadoopHDFS体系结构1:HD
paulwong
·
2012-07-20 21:00
Hadoop1.0
Eclipse Plugin-作业提交
1.环境 Jdk:1.6.0_10-rc2 Hadoop:hadoop-1.0.0.tar.gz Eclipse版本:3.4.0 HadoopEclipse插件:hadoop-eclipse-plugin-1.0.0.jar 下载地址 操作系统:Windows732位旗舰版 2.Eclipse插件配置 2.1 把"hadoop-eclipse-plugin
java2000_wl
·
2012-05-24 13:00
Hadoop1.0
单点安装-Windows
一:CygWin安装 cygwin1.7.15 下载地址 安装省略、(记得安装ssh) 安装完成后 将usr\sbin 目录 加入到path环境变量中二:ssh配置 $ssh-host-config ***Query:Shouldprivilegeseparationbeused?(yes/no)no ***Query
java2000_wl
·
2012-05-21 17:00
hadoop
user
ssh
service
query
Path
基于ECLIPSE的
HADOOP1.0
应用开发环境配置
好文章太少了,这个拿过来分享一下,原文链接:http://www.cnblogs.com/wly603/archive/2012/04/18/2454936.html*******************************************下面是正文**********************************************************概要:在eclipse
fufengrui
·
2012-05-18 16:00
eclipse
mapreduce
hadoop
input
output
hadoop1.0
伪分布安装
安装ssh$sudoapt-getinstallssh $sudoapt-getinstallrsync生成密钥用于无密码登陆ssh-keygen-C"
[email protected]
"-trsacat~/.ssh/id_rsa.pub>>~/.ssh/authorized_keyschmod644authorized_keys验证SSH是否可用sshlocalhost 如果返回Ag
larrylgq
·
2012-05-17 19:00
mapreduce
jdk
hadoop
Web
浏览器
ssh
Hadoop1.0
ObjectWritable
Hadoop的ObjectWritable保存了一个可以在HadoopRPC里面传输的对象和对象类型的说明信息。用于客户端与服务器间传输的Writable对象,也是对RPC传输对象的封装,因为RPC上交换的信息只能是JAVA的基础数据类型,String或者Writable类型,而ObjectWritable是对其子类的抽象封装,该类大致情况如下:ObjectWritable会往流里写入如下信息:
tuzibuluo
·
2012-03-17 19:00
Apache Hadoop 0.23 介绍
Hadoop1.0
(0.20.2×)终于在27December,2011正式发布了【1】。下面是一个Hadoop的简单历史【2】:这个也是目前最稳定的版本。
autofei
·
2012-01-13 05:00
apache
mapreduce
hadoop
delete
任务调度
任务
HADOOP1.0
集群停用数据节点
阅读更多一、停止数据节点的方法:向名称节点通知希望停止的节点,使其能在数据节点关闭之前,将数据块复制到其他数据节点中。二、操作步骤:1、必须先确认集群是在运行中。并且已经退出的安全模式。安全模式状态的查看:-bash-3.2$./bin/hadoopdfsadmin-safemodegetSafemodeisOFF2、首先建立一个slaves.exclude文件(此文件名可随机取).它是一个文本,
szjian
·
2011-11-03 15:00
hadoop
dfsadmin
停用datanode
HADOOP1.0
集群停用数据节点
一、停止数据节点的方法: 向名称节点通知希望停止的节点,使其能在数据节点关闭之前,将数据块复制到其他数据节点中。 二、操作步骤: 1、必须先确认集群是在运行中。并且已经退出的安全模式。安全模式状态的查看: -bash-3.2$ ./bin/hadoop dfsadmin -safemode get Safe mode is OFF 2、首先建立一个slaves.exclude文
szjian
·
2011-11-03 15:00
hadoop
dfsadmin
停用datanode
HADOOP1.0
集群新增数据节点
阅读更多一、创建用户groupaddanalyzer-fuseraddanalyzer-d/opt/analyzer-ganalyzer-psearchanalyzer二、处理/etc/hosts文件三、设置免密码登录(多台机器的id_rsa.pub,相互拷贝)生成公钥、密钥:ssh-keygen-trsa复制本地id_rsa.pub到远程服务器,使远程服务器登录本地可以免密码scpscpanal
szjian
·
2011-11-01 09:00
hadoop
增加节点
HADOOP1.0
集群新增数据节点
一、创建用户 groupadd analyzer -f useradd analyzer -d /opt/analyzer -g analyzer -p searchanalyzer 二、处理/etc/hosts文件 三、设置免密码登录(多台机器的id_rsa.pub,相互拷贝) 生成公钥、密钥: ssh-keygen -t rsa 复制本地id_rsa.pub到远程服务器,
szjian
·
2011-11-01 09:00
hadoop
增加节点
上一页
1
2
3
4
5
6
7
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他