Hadoop学习笔记---持续更新中。。。

安装VMWare
安装Linux
安装JDK  ————》 rpm -ivh jdk_1.7.0.2.rpm
配置环境变量  ----》 etc/profile 末尾添加
JAVA_HOME=/usr/share/jdk1.5.0_05;   #(此处需要修改)
PATH=$JAVA_HOME/bin:$PATH;
CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar;
export JAVA_HOME;
export PATH;
export CLASSPATH;
验证:java -version
安装Hadoop -----》 
hadoop-env.sh ----> export JAVA_HOME=/usr/java/jdk1.7.0_02
core-site.xml  ---->    <property> 
<name>hadoop.tmp.dir</name> 
<value>/usr/local/hadoop/hadooptmp</value> 
</property> 
<property> 
<name>fs.default.name</name> 
<value>hdfs://192.168.1.115:9000</value>  #(改成namenode的IP)
</property> 

hdfs-site.xml ---> <property> 
<name>dfs.replication</name> 
<value>3</value> 
</property>




mapred-site.xml  ----> <property> 
<name>mapred.job.tracker</name> 
<value>10.10.40.87:9001</value> #(改成namenode IP)
</property>




主机名的配置  ------》
在ect/host
10.10.40.87 bogon
10.10.40.87 localhost
在/etc/sysconfig/network
HOSTNAME=bogon


SSH免登陆  ---------》 ssh-keygen -t rsa -f ~f/.ssh/id_rsa
      cat ~/.ssh/id_rsa.pub >> ~/ssh/authorized_keys




格式化 ------》 
启动   ------》



你可能感兴趣的:(jdk,hadoop,linux,hive)