hadoop单例模式安装运行

一、linux基本操作命令

修改root密码【sudo passwd】
输入新的密码
显示当前路径【pwd】
更改用户的密码【passwd 用户名】
切换到root用户【su】 - > root  #exit
从root切换到普通用户【su 用户名】
显示详细信息【ls -al】
创建新文件夹【mkdir 文件夹名】
设置改变文件的权限【chmod 754 file】
                                【chmod u g o file 】
                                【chmod 777 f1】


创建一个文件【cat>文件名】
在文件后面追加【cat>>文件名】

用户的基本操作:
在root时,增加用户【adduser user1】
在普通用户,增加用户【sudo adduser user1】
增加用户,同时设密码【adduser 用户名 密码】
设置密码【sudo passwd user1】
安装vim【sudo apt-get install vim】(要在root用户里面安装)
安装mysql【sudo apt-get install mysql】
安装不成功的话,update一下【sudo apt-get update】
安装软件的套路【sudo apt-get install 软件名】

赋予root权限:

修改/etc/sudoers文件
sudo gedit /etc/sudoers
【sudo vim /etc/sudoers】
添加:hadoop ALL=(ALL:ALL)ALL


adduser hadoop
deluser hadoop


【id】查看自己的用户名和组名
【passwd 】取消root密码

二、安装jdk
1.jdk.tar.gz  上传到linux,解压

2.sudo gedit /etc/profile

export  JAVA_HOME=/home/liu/jdk1.7.0_80
export   CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar
export   PATH=$JAVA_HOME/bin:$PATH

3.source  /etc/profile
4.java -version    java
具体操作:
1.tar -xzvf  jdk1.7.0_80.tar.gz -C /home/hadoop/soft    --C参数为指定解压的文件夹
2.sudo gedit /etc/profile    --打开配置文件并修改,注意JAVA_HOME为自己安装的文件夹
JAVA_HOME具体路径的获得:再打开一个新的terminal,去到jdk包的目录下,pwd,copy路径过去
3.source  /etc/profile
修改完配置文件后,使文件立即生效
4.java -version    java
检测是否配置成功

三、安装单机版hadoop
1.解压 hadoop-2.6.0.tar.gz    tar -xzvf  hadoop-2.6.0.tar.gz -C /home/hadoop/soft              解压到指定文件
2.配置环境变量
$sudo gedit /etc/profile

export  JAVA_HOME=/home/liu/jdk1.7.0_80   
export  HADOOP_HOME=/home/liu/hadoop-2.6.0
export   CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar:$HADOOP_HOME/share/hadoop/common/hadoop-common-2.6.0.jar:$HADOOP_HOME/share/hadoop/mapreduce/hadoop-mapreduce-client-core-2.6.0.jar:$HADOOP_HOME/share/hadoop/common/lib/commons-cli-1.2.jar:$CLASSPATH

export   PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/sbin:$HADOOP_HOME/bin

3.配置hadoop配置文件
使用图形界面,到达路径/home/hadoop(用户)/soft/hadoop-2.6.0/etc/hadoop
hadoop-env.sh  ->右键用gedit打开->添加 JAVA_HOME(用pwd找对jdk的路径)

$sudo gedit    ~/hadoop-2.6.0/etc/hadoop/hadoop-env.sh?

export JAVA_HOME=/home/liu/jdk1.7

4.运行hadoop的计算例子

$ mkdir  input

$ cp   $HADOOP_HOME/etc/hadoop/*.xml   input/

$hadoop jar /home/liu/hadoop-2.6.0/share/hadoop/mapreduce/hadoop-mapreduce-examples-2.6.0.jar grep input out1 'dfs[a-z.]+'


你可能感兴趣的:(hadoop单例模式安装运行)