大数据生态圈单节点环境搭建(hadoop、hbase、spark等)

阅读更多

       接触大数据已经有将近三年多时间了,实际项目也有将近两年多,这篇文章写给哪些和我当初刚学大数据时的朋友们,让大伙少走点弯路,千里之行始于足下,所以还是从单节点的大数据集群环境搭建开始,后续我有时间会陆续进行更新新的博客。

 

准备工作

  1. linux机器一台

  2. hadoop-2.4.1 文件

  3. hbase-1.0.0  文件

  4. jdk-8u45-linux-i586.rpm 文件

  5. spark-1.3.1 文件

将所有文件都传到linux系统/usr/local目录下

第一步:安装jdk

切换到jdk-8u45-linux-i586.rpm文件所在目录,执行rpm ivh jdk-8u45-linux-i586.rpm 

第二步:安装hadoop

  1. hadoop文件上传到linux/usr/local目录下



      

     

  2. 切换到root用户下



      

     

  3. 生成ssh秘钥(公钥 id_rsa、私钥 id_rsa.pub)生成的路径为:/root/.ssh,用于无密码登录   ssh-keygen -t rsa


    大数据生态圈单节点环境搭建(hadoop、hbase、spark等)_第1张图片
      

  4. 切换到秘钥目录     cd /root/.ssh



      

     

  5. 将公钥追加到authorized_keys文件中:

     cat id_rsa.pub > authorized_keys



      

     

  6. 切换到 config 文件   cd /etc/selinux/



      

  7. 修改config文件(#SELINUX=enforcing 改成 SELINUX=disabled  vim config



      

    修改成功后,直接按ESC键、wq键保存并退出

     

  8. 测试是否可以无密码登录    ssh  localhost



      

    如果出现上面的信息,需要重启下linux。      



      

    重启后ssh localhost 后,出现上面信息表示无密码登陆成功

     

  9. /etc/profile.d目录下设置环境变量 vim hadoop.sh  在空白文件中编写,然后必须重启服务器



      

    因为原来不存在hadoop.sh文件,所以执行vim时会创建一个新的hadoop.sh,然后再新的文件中增加如下配置:

export HADOOP_HOME=/usr/local/hadoop-2.4.1

export PATH=$PATH:$HADOOP_HOME/bin



  



  

在看到目录下新增了一个hadoop.sh文件后,重启服务器

  1. 修改hadoop目录下etc中的core-site.xml yarn-site.xmlhadoop-env.sh 文件,具体内容为jdk目录、localhost换成具体IP地址等

    首先切换到配置目录:cd /usr/local/hadoop-2.4.1/etc/hadoop/



      

    修改core-site.xml文件,将localhost换成IP,保存并退出


    大数据生态圈单节点环境搭建(hadoop、hbase、spark等)_第2张图片
      

    修改yarn-site.xml文件,将localhost换成IP,保存并退出


    大数据生态圈单节点环境搭建(hadoop、hbase、spark等)_第3张图片
      

    修改hadoop-env.sh文件,修改java_home路径,保存并退出s



      

    在操作过程中如果碰到权限问题 chmod 777 hadoop)目录  也可以是通配符  *.sh

     

  2. 格式化namenode,如果格式化成功后在hadoop目录(/usr/local/hadooptmp/namedata/current/)下会新增一个 hadooptmp目录,并且在hadooptemp目录下会有namedata/current/目录下



      

    hadoop namenode format


    大数据生态圈单节点环境搭建(hadoop、hbase、spark等)_第4张图片
      


    大数据生态圈单节点环境搭建(hadoop、hbase、spark等)_第5张图片
     
    大数据生态圈单节点环境搭建(hadoop、hbase、spark等)_第6张图片
      

    查看/usr/local/hadooptmp/namedata/current/目录下是否新增hadooptmp目录,并且在hadooptemp目录下会有namedata/current/目录



      

  3. 启动hadoop

    切换目录cd /usr/local/hadoop-2.4.1/sbin  执行 ./start-dfs.sh(启动所有./start-all.sh    停止所有./stop-all.sh)


    大数据生态圈单节点环境搭建(hadoop、hbase、spark等)_第7张图片
      

  4. 查看启动项如果出现下面jps下面的五项,代表hadoop启动成功


    大数据生态圈单节点环境搭建(hadoop、hbase、spark等)_第8张图片
      

  5. hadoopfs目录下上传文件 hadoop fs -put 上传文件完整目录  上传后的文件名称

    例如:hadoop fs -put /usr/local/hadoop-2.4.1/sbin/start-all.sh /hadoopTest.chenfeng



      

  6. 查看hdfs目录   命令: hadoop fs -ls /



      

    可以看到刚刚上传的文件已经在hdfs目录中了

  7. 删除hadoop上的的文件夹 hadoop fs  -rm -r /jeffResult*



      

    可以看到上传的文件已经从hdfs目录中删除了

  8. Web访问地址

    hadoop启动成功后能访问的web地址:  http://192.168.145.132:50070

    yarn启动后访问地址:                http://192.168.145.132:8088/cluster

    hadoop具体语法及用法详见:  http://blog.csdn.net/wf1982/article/details/6215545


    大数据生态圈单节点环境搭建(hadoop、hbase、spark等)_第9张图片
      


    大数据生态圈单节点环境搭建(hadoop、hbase、spark等)_第10张图片
      

    如果用java程序连接到hadoop的9000端口时出错,注意看slaves文件中的配置,不要用localhost,可以直接用本机IP,也可以在hosts配置一个名称如linux1,然后在这个地方配置成linux1

第三步:安装hbase

  1. hbase文件上传到linux/usr/local目录下



      

  2. 切换到hbase/conf目录下



      

  3. 修改hbase-env.sh文件


    大数据生态圈单节点环境搭建(hadoop、hbase、spark等)_第11张图片
      

    主要是修改java_home路径,保存并退出

  4. 修改hbase-site.xml文件,添加如下内容,这个目录系统会自动创建


    大数据生态圈单节点环境搭建(hadoop、hbase、spark等)_第12张图片
      

    主要修改了hbase.rootdir和hbase.zokeeper.quorum(可为localhost)配置,保存并推出

  5. 创建hbase 快速启动

    切换到/etc/profile.d目录下,执行vim hbase.sh命令,将下面配置添加到文件中,保存并退出



      

    可以看到此时目录下新增了一个hbase.sh的文件



      

    然后重启服务器,在命令窗口即可执行hbase shell快速启动命令了

  6. 启动hbase


    大数据生态圈单节点环境搭建(hadoop、hbase、spark等)_第13张图片
      

    切换到/hbase/bin目录下,执行 ./start-hbase.sh,执行结果见上图

  7. 测试hbase

    在命令窗口执行hbase shell命令,见下图



      

    然后在

     
    输入list命令查看现在hbase中所有的表


    大数据生态圈单节点环境搭建(hadoop、hbase、spark等)_第14张图片
     然后执行建表语句创建一个
    chenfeng的表



      

    可以看到此时已经有chenfeng这个表了
    大数据生态圈单节点环境搭建(hadoop、hbase、spark等)_第15张图片
     

    至此hbase单机版已经成功了

    master访问地址:http://192.168.11.132:60030/master-status


    大数据生态圈单节点环境搭建(hadoop、hbase、spark等)_第16张图片
      

  8. hbase具体命令及用法

    详见 http://abloz.com/hbase/book.html

 

第四步:安装spark

  1. spark放入到/usr/local目录中



      

  2. 切换到sparkconf目录,修改spark-env.sh文件,主要是local_ip   master_ip等项



      

    Vim spark-env.sh 进入编辑状态


    大数据生态圈单节点环境搭建(hadoop、hbase、spark等)_第17张图片
      

    修改后保存并退出(注意:如果原来没有local_ip配置项,需要新增)

  3. 启动spark,启动文件放在了sbin目录



      

  4. spark启动完成后查看端口是否已经启动监听  netstat -apn|grep 8080



      

  5. 如果spark启动后虚拟机能访问,但是其他电脑不能访问,可能是防火墙的问题    service iptables status(查看防火墙命令)   service iptables start/stop(启动关闭命令)



      

  6. spark访问路径(weburl):http://192.168.11.132:8080/


    大数据生态圈单节点环境搭建(hadoop、hbase、spark等)_第18张图片
      

 

  • 大数据生态圈单节点环境搭建(hadoop、hbase、spark等)_第19张图片
  • 大小: 4.3 KB
  • 大数据生态圈单节点环境搭建(hadoop、hbase、spark等)_第20张图片
  • 大小: 877 Bytes
  • 大数据生态圈单节点环境搭建(hadoop、hbase、spark等)_第21张图片
  • 大小: 11.3 KB
  • 大数据生态圈单节点环境搭建(hadoop、hbase、spark等)_第22张图片
  • 大小: 963 Bytes
  • 大数据生态圈单节点环境搭建(hadoop、hbase、spark等)_第23张图片
  • 大小: 1.9 KB
  • 大数据生态圈单节点环境搭建(hadoop、hbase、spark等)_第24张图片
  • 大小: 1.5 KB
  • 大数据生态圈单节点环境搭建(hadoop、hbase、spark等)_第25张图片
  • 大小: 2.2 KB
  • 大数据生态圈单节点环境搭建(hadoop、hbase、spark等)_第26张图片
  • 大小: 4.4 KB
  • 大数据生态圈单节点环境搭建(hadoop、hbase、spark等)_第27张图片
  • 大小: 2.2 KB
  • 大数据生态圈单节点环境搭建(hadoop、hbase、spark等)_第28张图片
  • 大小: 1.4 KB
  • 大数据生态圈单节点环境搭建(hadoop、hbase、spark等)_第29张图片
  • 大小: 3 KB
  • 大数据生态圈单节点环境搭建(hadoop、hbase、spark等)_第30张图片
  • 大小: 5.2 KB
  • 大数据生态圈单节点环境搭建(hadoop、hbase、spark等)_第31张图片
  • 大小: 10.1 KB
  • 大数据生态圈单节点环境搭建(hadoop、hbase、spark等)_第32张图片
  • 大小: 3.2 KB
  • 大数据生态圈单节点环境搭建(hadoop、hbase、spark等)_第33张图片
  • 大小: 12.2 KB
  • 大数据生态圈单节点环境搭建(hadoop、hbase、spark等)_第34张图片
  • 大小: 2 KB
  • 大数据生态圈单节点环境搭建(hadoop、hbase、spark等)_第35张图片
  • 大小: 974 Bytes
  • 大数据生态圈单节点环境搭建(hadoop、hbase、spark等)_第36张图片
  • 大小: 15.5 KB
  • 大数据生态圈单节点环境搭建(hadoop、hbase、spark等)_第37张图片
  • 大小: 18.5 KB
  • 大数据生态圈单节点环境搭建(hadoop、hbase、spark等)_第38张图片
  • 大小: 4.2 KB
  • 大数据生态圈单节点环境搭建(hadoop、hbase、spark等)_第39张图片
  • 大小: 34.2 KB
  • 大数据生态圈单节点环境搭建(hadoop、hbase、spark等)_第40张图片
  • 大小: 4.2 KB
  • 大数据生态圈单节点环境搭建(hadoop、hbase、spark等)_第41张图片
  • 大小: 4.7 KB
  • 大数据生态圈单节点环境搭建(hadoop、hbase、spark等)_第42张图片
  • 大小: 6.9 KB
  • 大数据生态圈单节点环境搭建(hadoop、hbase、spark等)_第43张图片
  • 大小: 12.2 KB
  • 大数据生态圈单节点环境搭建(hadoop、hbase、spark等)_第44张图片
  • 大小: 58.1 KB
  • 大数据生态圈单节点环境搭建(hadoop、hbase、spark等)_第45张图片
  • 大小: 79.9 KB
  • 大数据生态圈单节点环境搭建(hadoop、hbase、spark等)_第46张图片
  • 大小: 4 KB
  • 大数据生态圈单节点环境搭建(hadoop、hbase、spark等)_第47张图片
  • 大小: 5.7 KB
  • 大数据生态圈单节点环境搭建(hadoop、hbase、spark等)_第48张图片
  • 大小: 5.9 KB
  • 大数据生态圈单节点环境搭建(hadoop、hbase、spark等)_第49张图片
  • 大小: 14.7 KB
  • 大数据生态圈单节点环境搭建(hadoop、hbase、spark等)_第50张图片
  • 大小: 2 KB
  • 大数据生态圈单节点环境搭建(hadoop、hbase、spark等)_第51张图片
  • 大小: 5.3 KB
  • 大数据生态圈单节点环境搭建(hadoop、hbase、spark等)_第52张图片
  • 大小: 13 KB
  • 大数据生态圈单节点环境搭建(hadoop、hbase、spark等)_第53张图片
  • 大小: 18.1 KB
  • 大数据生态圈单节点环境搭建(hadoop、hbase、spark等)_第54张图片
  • 大小: 1 KB
  • 大数据生态圈单节点环境搭建(hadoop、hbase、spark等)_第55张图片
  • 大小: 2.9 KB
  • 大数据生态圈单节点环境搭建(hadoop、hbase、spark等)_第56张图片
  • 大小: 2.9 KB
  • 大数据生态圈单节点环境搭建(hadoop、hbase、spark等)_第57张图片
  • 大小: 3.8 KB
  • 大数据生态圈单节点环境搭建(hadoop、hbase、spark等)_第58张图片
  • 大小: 50.4 KB
  • 大数据生态圈单节点环境搭建(hadoop、hbase、spark等)_第59张图片
  • 大小: 10 KB
  • 大数据生态圈单节点环境搭建(hadoop、hbase、spark等)_第60张图片
  • 大小: 14.9 KB
  • 大数据生态圈单节点环境搭建(hadoop、hbase、spark等)_第61张图片
  • 大小: 53.1 KB
  • 大数据生态圈单节点环境搭建(hadoop、hbase、spark等)_第62张图片
  • 大小: 18.2 KB
  • 大数据生态圈单节点环境搭建(hadoop、hbase、spark等)_第63张图片
  • 大小: 6.1 KB
  • 大数据生态圈单节点环境搭建(hadoop、hbase、spark等)_第64张图片
  • 大小: 4.5 KB
  • 大数据生态圈单节点环境搭建(hadoop、hbase、spark等)_第65张图片
  • 大小: 43.6 KB
  • 查看图片附件

你可能感兴趣的:(大数据,云计算,单节点环境)