实验二 HDFS操作实验
- 启动Hadoop,执行jps,检查Hadoop相关进程是否启动成功
启动hadoop

执行jps,可以看到名称节点和数据节点,第二名称节点都打开了,则hadoop相关进程启动成功

- 在本地文件系统“/home”下新建两个文件夹,分别命名为“local1”和“local2”
Cd进入/home文件夹
![]()
创建文件夹
sudo mkdir local1 local2


- 在“local1”下新建4个文本文件“hello.txt”、“hadoop.txt”、“test1.abc”、“file.abc”,文件里输入任意内容
![]()

创建成功

- 在HDFS根目录下创建目录“h1”、“h2”
Cd 进入hadoop根目录
hdfs dfs -mkdir h1
![]()
- 将“local1”下所有文件上传至“/h1”中
hdfs dfs -put /home/local1/* h1

查看已创建成功

- 删除“/h1”下后缀为“txt”的文件

- 将“local1”下以“h”开头的所有文件上传至“/h2”中
查找h开头的文件


- 输出“/h1”和“/h2”下所有文件内容



- 将“/h1”下“f”开头且后缀为“abc”的文件下载至“local2”中
hdfs dfs -get h1/hello.txt /home/local2

- 输出“local2”中所有文件内容
![]()

- 删除“h1”目录
![]()
- 在浏览器中查看HDFS中文件

- 关闭Hadoop

心得体会:
Hdfs内是一个虚拟的文件环境,无法直接查看,只能通过shell命令查看,出现错误

时通过赋予权限得到解决