大数据技术基础及应用(微课版) 实验手册4.HDFS文件系统实战_第1页
大数据技术基础及应用(微课版) 实验手册4.HDFS文件系统实战_第2页
大数据技术基础及应用(微课版) 实验手册4.HDFS文件系统实战_第3页
大数据技术基础及应用(微课版) 实验手册4.HDFS文件系统实战_第4页
大数据技术基础及应用(微课版) 实验手册4.HDFS文件系统实战_第5页
已阅读5页,还剩6页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

HDFS文件系统实战实验背景HDFS是Hadoop大数据平台中的分布式文件系统,为上层应用或其他大数据组件提供数据存储,如Hive,Mapreduce,Spark,HBase等。在HDFSshell客户端我们可以实现对分布式文件系统的操作和管理等。掌握HDFS的使用对我们更好的理解和掌握大数据大有裨益。实验目的掌握HDFS常用操作。掌握HDFS文件系统管理操作。实验前提实验环境创建成功后,请等待1-2分钟,后台在执行start-oms.sh脚本:执行sh${BIGDATA_HOME}/om-server/om/sbin/status-oms.sh命令查看OMS的状态,显示信息表示主备OMS服务启动正常再执行下一步。在windows-client打开GoogleChrome浏览器登录FusionInsightManager地址(00:8080/web)。用户名admin,密码Huawei!@34(如原密码过期,则自行修改密码)登录FusionInsightManager后,单击“服务管理”,选择“更多操作>启动集群”。在弹出的提示框中单击“确定”,开始启动集群。界面提示“操作成功。”,单击“完成”,集群成功启动。使用SecureCRT工具登录到fihsots-1节点上,接下来进行环境变量设置与用户认证。cd/opt/hadoopclient/切换到客户端安装目录。sourcebigdata_env配置环境变量。kinituser01进行用户认证,输入用户密码客户端文件安装于fihosts-1服务器的/opt/hadoopclient目录中,认证用户user01,密码Huawei!@34实验任务HDFS常用操作常用命令操作-help功能:查看命令使用说明。>hdfsdfs-helpUsage:hadoopfs[genericoptions][-appendToFile<localsrc>...<dst>][-cat[-ignoreCrc]<src>...][-checksum<src>...][-chgrp[-R]GROUPPATH...][-chmod[-R]<MODE[,MODE]...|OCTALMODE>PATH...][-chown[-R][OWNER][:[GROUP]]PATH...][-copyFromLocal[-f][-p][-l]<localsrc>...<dst>][-copyToLocal[-p][-ignoreCrc][-crc]<src>...<localdst>][-count[-q][-h][-v][-t[<storagetype>]]<path>...][-cp[-f][-p|-p[topax]]<src>...<dst>][-createSnapshot<snapshotDir>[<snapshotName>]][-deleteSnapshot<snapshotDir><snapshotName>][-df[-h][<path>...]][-du[-s][-h]<path>...] -ls功能:显示目录信息。~>hdfsdfs-ls/-rw-r--r--+3wkjsupergroup132018-04-0216:42/HDFSdrwxrwxr-x+-hivesupergroup02017-07-1500:43/appsdrwxr-xr-x+-adminsupergroup02018-03-1319:44/bigdatadrwxr-x---+-flumehadoop02017-07-1500:39/flumedrwx------+-hbasesupergroup02018-03-3110:28/hbasedrwxrwxr-x+-adminsupergroup02018-01-2815:52/mapreduceInputdrwxrwxrwx+-mapredHadoop 02017-07-1500:39/mr-history-mkdir功能:在HDFS文件系统上创建目录。>hdfsdfs-mkdir/tmp/app_user01>hdfsdfs-ls/drwxr-xr-x+-wkjsupergroup02018-04-0217:20/0402drwxr-xr-x+-wkjsupergroup02018-04-0216:57/0810-rw-r--r--+3wkjsupergroup132018-04-0216:42/HDFSdrwxr-xr-x+-user01supergroup02018-04-0415:04/tmp/app_user01–put功能:上传本地文件到HDFS指定目录。编辑test01.txt文件,然后上传至HDFS>cattest01.txt01,HDFS02,Zookeeper03,HBase04,Hive>hdfsdfs-puttest01.txt/tmp/app_user01>hdfsdfs-ls–h/tmp/app_user01-rw-r--r--+3user01supergroup2.7G2018-04-0414:50/tmp/app_user01/test01.txt-get功能:等同于copyToLocal,就是从hdfs下载文件到本地。拷贝/tmp/app_user01/test01.txt到本地>hdfsdfs-get/tmp/app_user01/test01.txt./>lltotal2881728drwxr-xr-x15user01hadoop4096Apr410:581001_hadoopclient-rw-r--r--1user01hadoop63Apr416:30appendtext.txtdrwxr-xr-x2user01hadoop4096Apr410:03bin-rw-r--r--1user01hadoop0Apr415:28hdfs-rwxr-xr-x1user01hadoop2947983360Apr410:05Service_Client.tar-rw-r--r--1user01hadoop38Apr416:27user01.txt-rw-r--r--1user01hadoop38Apr417:54test01.txt-moveFromLocal功能:从本地剪切粘贴到HDFS。在user01的home目录下面创建abcd文件。>lltotal2881716drwxr-xr-x15user01hadoop4096 Apr410:581001_hadoopclientdrwxr-xr-x2user01hadoop4096 Apr410:03bin-rw-r--r--1user01hadoop0 Apr415:28abcd-rwxr-xr-x1user01hadoop2947983360 Apr410:05Service_Client.tar使用moveFromLocal将abcd文件移动到HDFS文件系统的/tmp/app_user01目录下:>hdfsdfs-moveFromLocalabcd/tmp/app_user01执行结束后查看user01的home本地目录,abcd文件已经没有了。>lltotal2881716drwxr-xr-x2user01hadoop4096Apr410:03bin-rwxr-xr-x1user01hadoop2947983360Apr410:05Service_Client.tar文件已经被移动到HDFS文件系统中:>hdfsdfs-ls-h/tmp/app_user01-rw-r--r--+3user01supergroup02018-04-0415:04/tmp/app_user01/hdfs-cat功能:显示文件内容。>hdfsdfs-cat/tmp/app_user01/user01.txt01,HDFS02,Zookeeper03,HBase04,Hive-appendToFile功能:在文件末尾追加数据。在本地有文件appendtext.txt,其内容为:>catappendtext.txt10,Spark11,Storm12,Kafka13,Flink14,ELK15,FusionInsightHD将appendtext.txt中的内容追加到user01.txt末尾:>hdfsdfs-appendToFile./appendtext.txt/tmp/app_user01/user01.txt查看追加结果:>hdfsdfs-cat/tmp/app_user01/user01.txt01,HDFS02,Zookeeper03,HBase04,Hive10,Spark11,Storm12,Kafka13,Flink14,ELK15,FusionInsightHD-chmod功能:更改文件所属权限。>hdfsdfs-ls/tmp/app_user01-rw-r--r--+3user01supergroup2.7G2018-04-0414:50/tmp/app_user01/Service_Client.tar-rw-r--r--+3user01supergroup 02018-04-0415:04/tmp/app_user01/hdfs-rw-r--r--+3user01supergroup 1012018-04-0416:32/tmp/app_user01/user01.txt将/tmp/app_user01user01.txt文件权限属性改为755:>hdfsdfs-chmod755/tmp/app_user01/user01.txt>hdfsdfs-ls/tmp/app_user01/user01.txt-rwxr-xr-x+3user01supergroup1012018-04-0416:32/tmp/app_user01/user01.txt说明:chown的使用需要superuser权限。-cp功能:实现文件的拷贝。将/tmp/app_user01/user01.txt拷贝到/tmp下:>hdfsdfs-cp/tmp/app_user01/user01.txt/tmp/>hdfsdfs-ls/tmpdrwxrwxr-x+-adminsupergroup02018-01-2120:58/tmp/checkpoint-rw-r--r--+3user01supergroup46512018-03-1919:19/tmp/conf.py-rw-r--r--+3user01hadoop1012018-04-0417:12/tmp/user01.txt-mv功能:移动文件。将/tmp/app_user01/user01.txt移动到/user目录下>hdfsdfs-mv/tmp/app_user01/user01.txt/user/>hdfsdfs-ls/user-rwxr-xr-x+3user01supergroup1012018-04-0416:32/user/user01.txt-getmerge功能:合并下载多个文件。在/tmp/app_user01目录下有2个文件file01,test01.txt>hdfsdfs-ls/tmp/app_user01/-rw-r--r--+3user01supergroup1202018-04-0809:03/tmp/app_user01/file01-rw-r--r--+3user01supergroup382018-04-0417:46/tmp/app_user01/test01.txt并且两个文件的内容如下:>hdfsdfs-cat/tmp/app_user01/file01001FusionInsightHD002FusionInsightMiner003FusionInsightLibrA004FusionInsightFarmer005FusionInsightManagerfi01host01:~>hdfsdfs-cat/tmp/app_user01/test01.txt01,HDFS02,Zookeeper03,HBase04,Hive将文件进行合并后,并拷贝到本地目录:>hdfsdfs-getmerge/tmp/app_user01/Merge_file>catMerge_file001FusionInsightHD002FusionInsightMiner003FusionInsightLibrA004FusionInsightFarmer005FusionInsightManager01,HDFS02,Zookeeper03,HBase04,Hive-rm功能:删除文件或文件夹。删除/tmp/app_user01/file01文件>hdfsdfs-rm-f/tmp/app_user01/file01INFOfs.Trash:Moved:'hdfs://hacluster/tmp/app_user01/file01'totrashat:hdfs://hacluster/user/user01/.Trash/Current-df功能:统计文件系统的可用空间信息。>hdfsdfs-df-h/FilesystemSizeUsedAvailableUse%和hdfs://hacluster1.7T11.9G1.7T1%-du功能:统计文件夹的大小信息。>hdfsdfs-du-h/user213.1M /user/admin0 /user/hdfs75 /user/hdfs-examples213.1M /user/hive4.3K /user/loader493 /user/mapred-count功能:统计一个指定目录下的文件数量。>hdfsdfs-count-h/user/3444943.2G/user第一列344表示/user/下文件夹的数量,第二列494表示/user/下文件的个数。3.2G表示/user/目录下所有文件占用的磁盘容量(不计算副本个数)。回收站使用日常工作中,有时会误删文件。此时我们可以在hdfs的回收站中找回被误删的文件,回收站默认将被删除文件保存7天。例如在上述实验中,我们使用-rm参数删除了文件file01,删除后,系统会提示被删除的文件被存放于fs.Trash:Moved:'hdfs://hacluster/tmp/app_user01/file01'totrashat:hdfs://hacluster/user/user01/.Trash/Current,但是HDFS系统会对被删除的文件进行归档,目录会有不同:>hdfsdfs-ls/user/user01/.Trash/……2018-04-0809:10/user/user01/.Trash/180408100000备注:被删除数据默认保留7天深入查看/user/user01/.Trash/180408100000目录>hdfsdfs-ls–h/user/user01/.Trash/180408100000/tmp/app_user01……2018-04-0809:03/user/user01/.Trash/180408100000/tmp/app_user01/file01使用mv命令,将文件移动回/user/stu01/目录文件即可使用。hdfsdfs-mv/user/user01/.Trash/180408100000/tmp/app_user01/file01/app_user/file01HDFS文件系统管理操作HDFS配额管理在有多个租户共同使用HDFS文件系统时,往往需要限定租户对HDFS空间大小的使用,此时需要用到HDFS的配额管理。创建配额配置在FusionInsightManager界面,单击“租户管理”。在左侧租户列表,单击需要修改HDFS存储目录的租户queueA。单击“资源”页签。在“HDFS存储”表格,单击“添加目录”。添加目录“路径”:填写分配给租户使用的目录路径。如果目录不存在,系统将会自动创建。“文件\目录数上限”:存储的文件数与目录数总和的上限值。“存储空间配额”:创建目录的存储空间配额大小。注:学员填写配置时,路径不可相同。单击“确定”完成租户目录添加。检查添加目录结果。执行HDFS上传文件命令:>hdfsdfs-puttest.txt/user01查看文件上传结果,执行命令:>hdfsdfs-ls/user01Found1items-rw-r--r--+3user01supergroup622018-04-0817:37/user01/test.txt出现上述结果,表示目录/user01创建成功,且当前用户具备上传文件的权限!测试”存储空间配额”。磁盘空间预申请值=文件对应的Block数*blockSize*3,blockSize默认大小为128M,故磁盘预申请最小值(1个数据块)为128M*3=384M。步骤4中设置的目录存储空间配额为1000M,预申请2个数据块2*128*3<1000M,因此最大文件大小为2*128M=256M。当文件大于256M时,需要预申请至少3个数据块3*128*3>1000M,配额空间无法满足需求,文件将会上传失败。(文件对应的Block数=文件大小/128,若无法除尽则Block数向上取整)。如下是在存储空间为1000M时,上传一个大于256M的文件,进行存储空间测试的例子。执行truncate命令创建一个296M的文件到当前目录:>truncate-s296Mtest.tar.gz查看test.tar.gz文件大小信息:>ll-h-rw-------1stu11wheel296MMar1919:00test.tar.gz执行如下命令上传文件到HDFS:>hdfsdfs–puttest.tar.gz/user01put:TheDiskSpacequotaof/user01isexceeded:quota=1048576000B=1000MBbutd

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论