一、linux基本操作命令
修改root密码【sudo passwd】
输入新的密码
显示当前路径【pwd】
更改用户的密码【passwd 用户名】
切换到root用户【su】 - > root #exit
从root切换到普通用户【su 用户名】
显示详细信息【ls -al】
创建新文件夹【mkdir 文件夹名】
设置改变文件的权限【chmod 754 file】
【chmod u g o file 】
【chmod 777 f1】
创建一个文件【cat>文件名】
在文件后面追加【cat>>文件名】
用户的基本操作:
在root时,增加用户【adduser user1】
在普通用户,增加用户【sudo adduser user1】
增加用户,同时设密码【adduser 用户名 密码】
设置密码【sudo passwd user1】
安装vim【sudo apt-get install vim】(要在root用户里面安装)
安装mysql【sudo apt-get install mysql】
安装不成功的话,update一下【sudo apt-get update】
安装软件的套路【sudo apt-get install 软件名】
赋予root权限:
修改/etc/sudoers文件
sudo gedit /etc/sudoers
【sudo vim /etc/sudoers】
添加:hadoop ALL=(ALL:ALL)ALL
adduser hadoop
deluser hadoop
【id】查看自己的用户名和组名
【passwd 】取消root密码
二、安装jdk
1.jdk.tar.gz 上传到linux,解压
2.sudo gedit /etc/profile
export JAVA_HOME=/home/liu/jdk1.7.0_80
export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar
export PATH=$JAVA_HOME/bin:$PATH
3.source /etc/profile
4.java -version java
具体操作:
1.tar -xzvf
jdk1.7.0_80.tar.gz -C /home/hadoop/soft --C参数为指定解压的文件夹
2.sudo gedit /etc/profile --打开配置文件并修改,注意JAVA_HOME为自己安装的文件夹
JAVA_HOME具体路径的获得:再打开一个新的terminal,去到jdk包的目录下,pwd,copy路径过去
3.source /etc/profile
修改完配置文件后,使文件立即生效
4.java -version java
检测是否配置成功
三、安装单机版hadoop
1.解压 hadoop-2.6.0.tar.gz
tar -xzvf
hadoop-2.6.0.tar.gz -C /home/hadoop/soft 解压到指定文件
2.配置环境变量
$sudo gedit /etc/profile
export JAVA_HOME=/home/liu/jdk1.7.0_80
export HADOOP_HOME=/home/liu/hadoop-2.6.0
export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar:$HADOOP_HOME/share/hadoop/common/hadoop-common-2.6.0.jar:$HADOOP_HOME/share/hadoop/mapreduce/hadoop-mapreduce-client-core-2.6.0.jar:$HADOOP_HOME/share/hadoop/common/lib/commons-cli-1.2.jar:$CLASSPATH
export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/sbin:$HADOOP_HOME/bin
3.配置hadoop配置文件
使用图形界面,到达路径/home/hadoop(用户)/soft/hadoop-2.6.0/etc/hadoop
hadoop-env.sh ->右键用gedit打开->添加
JAVA_HOME(用pwd找对jdk的路径)
$sudo gedit ~/hadoop-2.6.0/etc/hadoop/hadoop-env.sh?
export JAVA_HOME=/home/liu/jdk1.7
4.运行hadoop的计算例子
$ mkdir input
$ cp $HADOOP_HOME/etc/hadoop/*.xml input/
$hadoop jar /home/liu/hadoop-2.6.0/share/hadoop/mapreduce/hadoop-mapreduce-examples-2.6.0.jar grep input out1 'dfs[a-z.]+'