VMware ubuntu复制文件夹下所有文件下的HDFS文件操作

在安装好hadoop集群并成功的启动了hdfs之後我们就可以利用hdfs对文件进行操作了,一下是对文件的一些基本操作

特别注意:访问HDFS目录时一定要带有/  否则命令会出错!

  hdfs dfs -ls -R 以递归嘚方式查询/目录下的所有文件

9、将源目录中的所有文件排序合并到一个本地文件

  在本地的浏览器输入namenode节点服务器的ip或域名+端口(例如:我namenode几点机器ip是132.232.28.164:9870),就可以看到hdfs集群的概述:

  点击导航栏的Utilities按钮选择查看文件或者日志,选择查看文件之后会出现以下的界面:

3、查看数据节点信息:

  点击导航栏的Datanodes按钮然后出现以下页面:

     此时假如点击查看具体的数据节点的时候会报错,因为你windows操作系统不能識别node101~node103此时需要配置下widows的hosts文件,配置完了就好了hdfs的web操作就说这么多了,剩下的大家有兴趣可以去慢慢的看了 

}

    三、设置hadoop用户:

    在root设置权限的代碼下添加一行:

    四、安装ssh,配置无密码登录

    这里采用全局设置方法就是修改etc/profile,它是所有用户的共用的环境变量
     
    1. 下载Lunix下载地址:

    九、关闭hadoop環境:

}

使用Python進行文件操作

如果你无法按照本篇文章完成配置你可以下载我已经完成环境搭建的虚拟机并自行比较配置差异。如果你不了解如何導入虚拟机可以参考。

下载地址: 提取码:7ith

  • 该集群的所有主机的用户名与密码都是hadoop
  • 建议你的电脑至少拥有16G内存以流畅运行该集群
  • 该集群嘚主机名、身份、ip如下表如果你运行该集群时ip地址与下表不符,应修改虚拟机的ip地址:

本文主要参考的内容有:

}

我要回帖

更多关于 ubuntu复制文件夹下所有文件 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信