关于Ubuntu的那些事(Hadoop,Hbase环境搭建有感)

本文非教程向,更多的是记录关于linux的一些操作。
虽然虚拟机是搭了hadoop和hbase的,但是占空间,以及占资源!
想到自己现在有4个白嫖的云服务器,心血来潮就打算在服务器上跑hadoop+hbase。

搭建过程中主要参考了
https://blog.csdn.net/qq_37171353/article/details/89947202
以及
https://blog.csdn.net/qq_37171353/article/details/86533886
两篇文章的作者是一个人,是个大佬(%%%%

这篇文章的作者是通过宝塔面板搭建hadoop,宝塔面板确实是个好东西,但是个人不太想用这种占资源的东西,还是通过本地ssh到云服务器以命令行的简洁方式操作。

wget

wget+apt应该可以说能下载任何东西了,wget支持HTTP,HTTPS和FTP协议,可以使用HTTP代理。这玩意非常稳定,它在带宽很窄的情况下和不稳定网络中有很强的适应性.如果是由于网络的原因下载失败,wget会不断的尝试,直到整个文件下载完毕。如果是服务器打断下载过程,它会再次联到服务器上从停止的地方继续下载。这对从那些限定了链接时间的服务器上下载大文件非常有用。
我们一般下载软件,只要通过官网或镜像网站找到想要的版本就可以把链接拿过来用wget下载。

pwd

pwd的一个小作用就是在配置环境变量的时候,先pwd出bin的路径复制下载直接$XX_HOME = ...非常方便!

find+cp

先说说能解决的问题
在配置hbase的时候,需要将hadoop的jar包导给hbase,可是包太多,命令似乎有点难操作?
关于Ubuntu的那些事(Hadoop,Hbase环境搭建有感)_第1张图片
因为常年写暴力算法的原因,暴躁的我想到了直接把hadoop的包都导给hbase!

cd /usr/local/hadoop/
find ./ -name "*.jar" -exec cp '{}' /usr/local/hbase/hbase-1.4.13/lib/ \;

最后bb一下,操作过程中的一下注意事项。

  1. 修改环境变量后别忘了要source /etc/profile
  2. 启动顺序
    hadoop -> zookeeper->hbase
  3. 解压到指定目录
    tar -zxvf xx.tar.gz -C /***
  4. 查看端口信息
    netstat -an
    最后记录一下zookeeper的操作
    启动zookeeper
    zkServer.sh start
    查看zookeeper状态
    zkServer.sh status
    关闭zookeeper
    zkServer.sh stop
    中间还是遇到一些奇怪的问题,可能当时脑子糊涂了,但是关于ssh免密的过程现在都还一知半解的,有空补补知识(并不会)。

你可能感兴趣的:(Linux)