完全分布模式Hadoop集群安装配置_第1页
完全分布模式Hadoop集群安装配置_第2页
完全分布模式Hadoop集群安装配置_第3页
完全分布模式Hadoop集群安装配置_第4页
完全分布模式Hadoop集群安装配置_第5页
已阅读5页,还剩2页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

1、HBase入门笔记(三)- 完全分布模式Hadoop集群安装配置            本来这篇文章该在去年11月底写出来的,被各种繁杂的事情所烦扰,再者网络上也有非常多比较完善的配置的文章,但是依旧是表述不太清晰。依旧写个Step By Step的教程,留待己用。           主机名及其IP地址对应如下:        Master是Hadoop集群的管理节点,重要的配置工作都在它上面,至于它的功能和作用请参考Had

2、oopAPI。    具体配置步骤如下:   一.修改各个节点(dm1-dm4)的HostName,命令如下:?1Vi /etc/hostname 如下图所示例:   二.在host中添加机器的hostname和IP,用以通讯。Master需要知道所有的slave的信息。对应的slave只需要知道Master和自身的信息即可。  命令如下:?1vi /etc/hostsMaster(dm4)的hosts配置应该如下图所示: 其它的slave(dm3)的hosts配置应该如下图所示:&#

3、160;   三.Hadoop核心代码需要配置conf文件夹里面的core-site.xml,hdfs-site.xml,mapread-site.xml,mapred-site.xml,hadoop-env.sh这几个文件。具体各个配置的含义请参考Hadoop帮助文档。    1.首先编辑各个机器节点(包括master和slave)的core-site.xml文件,命令如下:(Hadoop 文件夹放在home下)?1vi /home/hadoop/conf/core-site.xmlcore-site.xml文件配置,应如下面代码所示:?12

4、34567891011<?xml version="1.0"?> <?xml-stylesheet type="text/xsl" href="configuration.xsl"?>   <!- Put site-specific property overrides in this file. ->   <configuration> <property>     <name>fs

5、.</name>     <value>hdfs:/dm4:9000</value>  </property> </configuration>    2.其次编辑各个机器节点(包括master和slave)的hdfs-site.xml,命令如下:?1vi /home/hadoop/conf/hdfs-site.xml     hdfs-site.xml文件配置,应如下面代码所示:?12345

6、678910<?xml version="1.0"?> <?xml-stylesheet type="text/xsl" href="configuration.xsl"?>   <!- Put site-specific property overrides in this file. ->   <configuration>  <property>  <name>.dir</na

7、me>  <value>/home/hadoop/NameData</value>  </property>?12345678910<property>  <name>dfs.permissions</name>  <value>false</value>  </property>    <property>  <name>dfs.replication</nam

8、e>  <value>1</value>  </property> </configuration>   3.再次,编辑各个机器节点(包括master和slave)mapred-site.xml文件,命令如下:?1vi /home/hadoop/conf/mapred-site.xml  mapred-site.xml文件配置,应如下面代码所示:?1234567891011<?xml version="1.0"?> <?xml-styleshe

9、et type="text/xsl" href="configuration.xsl"?>   <!- Put site-specific property overrides in this file. ->   <configuration> <property> <name>mapred.job.tracker</name> <value>0:9001</value> </property&g

10、t; </configuration>      4.最后,编辑各个机器节点(包括master和slave) hadoop-env.sh文件,命令如下:?1vi  /home/hadoop/conf/hadoop-env.sh   向该文件加入几行代码,如下所示: ?123export HADOOP_HOME=/home/hadoop export   HADOOP_CONF_DIR=$HADOOP_HOME/conf  export PATH=$PATH:$HA

11、DOOP_HOME/bin   四.配置集群的主从关系。在所有机器节点上,Hadoop的conf文件夹中,都有slaves和masters两个文件。往masters中添加Master(dm4)的IP地址或者hostname。往slaves文件中添加Slave(dm1-dm3)的IP或hostname。所有节点都需要修改。    Masters如下图所示:    slaves如下图所示:  行文至此,Hadoop的整体安装和配置已经完成。Hadoop集群的启动从Master(Namenode)机器

12、开始,它和slave(DataNode)之间通讯使用ssh,我们接下来需要设置ssh无密码公钥认证登入。    五.SSH非对称密钥的原理请参见此文和彼文。首先要在所有节点生成密钥对,具体实现步骤如下:    1.所有节点生成RSA密钥对,命令如下:?1ssh-keygen -t rsa   出现如下图所示:直接回车,密钥对存放为/root/.ssh/id_rsa。在该文的演示中生成/root/viki.pub然后会要求你输入密码,选择空最后生成如下图:       2.将M

13、aster(Namenode)生成的公钥viki.pub的内容复制到本机的 /root/.ssh/ 的authorized_keys 文件 里。命令如下:?1cp viki.pub authorized_keys     然后,将authorized_keys 文件复制到各个slave(DataNode)机器的 /root/.ssh/ 文件夹,命令如下:?1scp  /root/.ssh/authorized_keys dm3:/root/.ssh/     最后,在所有机器执行用户权限命令chmod,命令如下: ?1chmod 644 authorized_keys    经过以上步骤,ssh配置也已完成。通过以下命令验证: ?123456ssh dm3 exit ssh dm2 exit ssh dm1 exit 

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论