hadoop@bigdate-VirtualBox:/mnt/shared$ tar -xzvf hadoop-2.10.2.tar.gz tar (child): hadoop-2.10.2.tar

在virtualbox的ubuntu虚拟机上使用共享文件夹安装hadoop大数据软件

在在virtualbox的ubuntu虚拟机上设置共享文件夹步骤:

1.设置共享文件夹

hadoop@bigdate-VirtualBox:/mnt/shared$ tar -xzvf hadoop-2.10.2.tar.gz tar (child): hadoop-2.10.2.tar_第1张图片hadoop@bigdate-VirtualBox:/mnt/shared$ tar -xzvf hadoop-2.10.2.tar.gz tar (child): hadoop-2.10.2.tar_第2张图片

hadoop@bigdate-VirtualBox:/mnt/shared$ tar -xzvf hadoop-2.10.2.tar.gz tar (child): hadoop-2.10.2.tar_第3张图片

自行设定共享文件夹路径以及名称,记得勾选自动挂载(A),运行虚拟机的时候才会自动加载该文件夹。

小提示:我按和下面连接的教程差不多的步骤安装配置VM虚拟机Ubuntu系统

https://blog.csdn.net/duchenlong/article/details/114597944

但是我没有更换为阿里的源,准备工作这里,做了:

hadoop@bigdate-VirtualBox:/mnt/shared$ tar -xzvf hadoop-2.10.2.tar.gz tar (child): hadoop-2.10.2.tar_第4张图片

hadoop@bigdate-VirtualBox:/mnt/shared$ tar -xzvf hadoop-2.10.2.tar.gz tar (child): hadoop-2.10.2.tar_第5张图片

配置xshell远程连接失败,没有出现和他一样的界面,后面使用xshell也不成功,所以我使用共享文件夹的方式来安装Hadoop。

然后就是按上面链接教程创建Hadoop用户,安装JAVA和设置ssh免密登录。

在VirtualBox的Ubuntu虚拟机中使用共享文件夹安装Hadoop的步骤:

  1. 在VirtualBox中设置共享文件夹

    • 打开VirtualBox并选择你的Ubuntu虚拟机。
    • 点击设置 -> 共享文件夹,然后添加共享文件夹路径为 D:\virtualmachineShare(这是我自己设置的路径,可以自行设置),共享文件夹名称为 virtualmachineShare
  2. 在Ubuntu虚拟机中安装VirtualBox增强功能

    在Ubuntu虚拟机中打开终端,在命令行中执行以下命令:
    sudo apt update
    sudo apt install virtualbox-guest-additions-iso
    
  3. 在Ubuntu虚拟机中挂载共享文件夹
    创建一个目录作为共享文件夹的挂载点:
    sudo mkdir /mnt/shared
    

    将共享文件夹挂载到刚创建的目录:
     

    sudo mount -t vboxsf virtualmachineShare /mnt/shared
    
  4. 安装Hadoop
    将Hadoop安装文件复制到共享文件夹D:\virtualmachineShare中。
    (自行安装,安装网址在https://blog.csdn.net/m0_62110645/article/details/134403165)
    接下来的安装步骤教程按基于VM虚拟机下Ubuntu系统,Hadoop的安装与详细配置_怎么在vm7虚拟机ubuntu上面部署hoop__ 菜 -∞的博客-CSDN博客
  5. 解压Hadoop安装文件
    (从第5步开始后面就是我的错误日志)
    在Ubuntu虚拟机中,使用命令解压Hadoop安装文件到合适的目录,比如 /mnt/shared/hadoop。你可以使用类似以下命令:
    cd /mnt/shared
    tar -xzvf hadoop-x.x.x.tar.gz
    

    我就是在这里报错了:
    hadoop@bigdate-VirtualBox:/mnt/shared$ tar -xzvf hadoop-2.10.2.tar.gz tar (child): hadoop-2.10.2.tar.gz: 无法 open: 没有那个文件或目录 tar (child): Error is not recoverable: exiting now tar: child returned status 2 tar: Error is not recoverable: exiting now
    根据报错内容,解压Hadoop安装文件时出现了错误。这可能是因为没有找到指定的hadoop-2.10.2.tar.gz文件。我写错了文件名。
    使用以下命令检查共享文件夹中的文件列表,确认文件是否存在:
     

    ls /mnt/shared
    

    如果文件确实存在,请确认文件名的大小写是否正确。Linux是区分文件名大小写的,因此确保文件名的大小写与实际文件一致。

    如果文件不存在,你需要将hadoop-2.10.2.tar.gz文件放置到共享文件夹D:\virtualmachineShare中。确保文件名和路径都正确。
    我修改为正确文件名就解压正确了。hadoop@bigdate-VirtualBox:/mnt/shared$ tar -xzvf hadoop-2.10.2.tar.gz tar (child): hadoop-2.10.2.tar_第6张图片

  6. 配置Hadoop
    编辑Hadoop的配置文件,确保文件路径和其他配置正确指向共享文件夹中的文件。
  7. 启动Hadoop集群
    在终端中使用Hadoop提供的命令启动Hadoop集群,比如 start-dfs.sh 和 start-yarn.sh

配置java环境

报错: hadoop@bigdate-VirtualBox:/mnt/shared$ tar -xzvf hadoop-2.10.2.tar.gz tar (child): hadoop-2.10.2.tar_第7张图片

报错:[写入etc/hadoop/hadoop-env.sh 出错:没有那个文件或目录],没有hadoop-env.sh 文件
 搜索一下该文件的位置,然后进行编辑:

find /mnt/shared/hadoop-2.10.2-src -name hadoop-env.sh

hadoop@bigdate-VirtualBox:/mnt/shared$ tar -xzvf hadoop-2.10.2.tar.gz tar (child): hadoop-2.10.2.tar_第8张图片

 经过一系列搜索尝试,我知道我问题出在了哪。如下图,漏了后面红色划线,就一直报错,不成功。
hadoop@bigdate-VirtualBox:/mnt/shared$ tar -xzvf hadoop-2.10.2.tar.gz tar (child): hadoop-2.10.2.tar_第9张图片

你可能感兴趣的:(大数据挖掘,hadoop,大数据,分布式)