hadoop的核心。包括文件系统、远程调用RPC的序列化函数。
高吞吐量分布式文件系统。是GFS的开源实现。通过hadoop fs命令来读取。
大型分布式合并/计算数据处理模型。Google MapReduce的开源实现。
Cassandra : 由Facebook开发分布式数据仓库。apache已经将Cassandra应用到各种云计算系统中。
Hbase : 结构化分部式数据库。BigTable的开源实现。
Hive : 提供摘要和查询功能的数据仓库。
每个节点都是一个Java进程。
在一个hadoop系统中只有一个namenode。一旦主控服务器宕机,整个系统将无法运行。
namenode是整个hadoop系统的守护进程。
负责记录文件是如何分割成数据块。
管理数据块分别存储到哪些数据节点上。
对内存进行集中管理。
监控HDFS状态的辅助后台程序。如保存namenode的快照。
用户连接应用程序和hadoop。每一个hadoop集群中只一个 JobTracker,一般它运行在Master节点上。
负责与DataNode进行结合。
集群中的每个从服务器都运行一个DataNode后台程序,负责将HDFS数据块写到本地的文件系统。
本例系统为Ubuntu10.04LTS。初始用户hm,主机名hm-ubuntu。建议分配内存至少1G,安装略。
sudo passwd 用户名
sudo chfn -f 新名字 原名字
usermod -l 新名字 -d /home/新名字 -m 原名字
因为系统是复制ha得来,用户组仍为ha。对后续操作没有不良影响。
hm@hm-ubuntu:~$ sudo gedit /etc/hostname
hm@hm-ubuntu:~$ sudo gedit /etc/hosts
openssh-client_5.3p1-3ubuntu3_i386.deb 重命名为openssh-client.deb openssh-server_5.3p1-3ubuntu3_i386.deb 重命名为openssh-server.deb ssh_5.3p1-3ubuntu3_all.deb 重命名为ssh.deb
sudo dpkg -i openssh-client.deb
sudo dpkg -i openssh-server.deb
sudo dpkg -i ssh.deb
当要求“Enter passphrase (empty for no passphrase) :”以及再次输入时直接回车
sudo chmod 700 -R .ssh
使用cat命令: authorized_keys 务必和ssh_config中的配置完全一致!
sudo cat id_rsa.pub >> authorized_keys
使用cp命令: authorized_keys
sudo cp id_rsa.pub authorized_keys
chmod 600 authorized_keys
jdk-6u24-linux-i586.bin。务必与hadoop-eclipse-plugin-*.jar插件中使用的jdk版本相同,或者后期根据此版本jdk制作插件。
(1)进入安装目录:
(2)为当前用户赋予安装此文件的权限,执行安装:
hadoop-1.1.2-bin.tar.gz。后期hadoop-eclipse-plugin-*.jar插件须符合此版本。
http://mirrors.cnnic.cn/apache/hadoop/common/
export JAVA_HOME=/usr/jdk1.6.0_24 exprot CLASSPATH=.:$JAVA_HOME/lib:$CLASSPATH export PATH=$JAVA_HOME/bin:$PATH export PATH=/usr/hadoop-1.1.2/bin:$PATH