版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领
文档简介
1、HBase入门笔记(三)- 完全分布模式Hadoop集群安装配置 本来这篇文章该在去年11月底写出来的,被各种繁杂的事情所烦扰,再者网络上也有非常多比较完善的配置的文章,但是依旧是表述不太清晰。依旧写个Step By Step的教程,留待己用。 主机名及其IP地址对应如下: Master是Hadoop集群的管理节点,重要的配置工作都在它上面,至于它的功能和作用请参考Had
2、oopAPI。 具体配置步骤如下: 一.修改各个节点(dm1-dm4)的HostName,命令如下:?1Vi /etc/hostname 如下图所示例: 二.在host中添加机器的hostname和IP,用以通讯。Master需要知道所有的slave的信息。对应的slave只需要知道Master和自身的信息即可。 命令如下:?1vi /etc/hostsMaster(dm4)的hosts配置应该如下图所示: 其它的slave(dm3)的hosts配置应该如下图所示:
3、160; 三.Hadoop核心代码需要配置conf文件夹里面的core-site.xml,hdfs-site.xml,mapread-site.xml,mapred-site.xml,hadoop-env.sh这几个文件。具体各个配置的含义请参考Hadoop帮助文档。 1.首先编辑各个机器节点(包括master和slave)的core-site.xml文件,命令如下:(Hadoop 文件夹放在home下)?1vi /home/hadoop/conf/core-site.xmlcore-site.xml文件配置,应如下面代码所示:?12
4、34567891011<?xml version="1.0"?> <?xml-stylesheet type="text/xsl" href="configuration.xsl"?> <!- Put site-specific property overrides in this file. -> <configuration> <property> <name>fs
5、.</name> <value>hdfs:/dm4:9000</value> </property> </configuration> 2.其次编辑各个机器节点(包括master和slave)的hdfs-site.xml,命令如下:?1vi /home/hadoop/conf/hdfs-site.xml hdfs-site.xml文件配置,应如下面代码所示:?12345
6、678910<?xml version="1.0"?> <?xml-stylesheet type="text/xsl" href="configuration.xsl"?> <!- Put site-specific property overrides in this file. -> <configuration> <property> <name>.dir</na
7、me> <value>/home/hadoop/NameData</value> </property>?12345678910<property> <name>dfs.permissions</name> <value>false</value> </property> <property> <name>dfs.replication</nam
8、e> <value>1</value> </property> </configuration> 3.再次,编辑各个机器节点(包括master和slave)mapred-site.xml文件,命令如下:?1vi /home/hadoop/conf/mapred-site.xml mapred-site.xml文件配置,应如下面代码所示:?1234567891011<?xml version="1.0"?> <?xml-styleshe
9、et type="text/xsl" href="configuration.xsl"?> <!- Put site-specific property overrides in this file. -> <configuration> <property> <name>mapred.job.tracker</name> <value>0:9001</value> </property&g
10、t; </configuration> 4.最后,编辑各个机器节点(包括master和slave) hadoop-env.sh文件,命令如下:?1vi /home/hadoop/conf/hadoop-env.sh 向该文件加入几行代码,如下所示: ?123export HADOOP_HOME=/home/hadoop export HADOOP_CONF_DIR=$HADOOP_HOME/conf export PATH=$PATH:$HA
11、DOOP_HOME/bin 四.配置集群的主从关系。在所有机器节点上,Hadoop的conf文件夹中,都有slaves和masters两个文件。往masters中添加Master(dm4)的IP地址或者hostname。往slaves文件中添加Slave(dm1-dm3)的IP或hostname。所有节点都需要修改。 Masters如下图所示: slaves如下图所示: 行文至此,Hadoop的整体安装和配置已经完成。Hadoop集群的启动从Master(Namenode)机器
12、开始,它和slave(DataNode)之间通讯使用ssh,我们接下来需要设置ssh无密码公钥认证登入。 五.SSH非对称密钥的原理请参见此文和彼文。首先要在所有节点生成密钥对,具体实现步骤如下: 1.所有节点生成RSA密钥对,命令如下:?1ssh-keygen -t rsa 出现如下图所示:直接回车,密钥对存放为/root/.ssh/id_rsa。在该文的演示中生成/root/viki.pub然后会要求你输入密码,选择空最后生成如下图: 2.将M
13、aster(Namenode)生成的公钥viki.pub的内容复制到本机的 /root/.ssh/ 的authorized_keys 文件 里。命令如下:?1cp viki.pub authorized_keys 然后,将authorized_keys 文件复制到各个slave(DataNode)机器的 /root/.ssh/ 文件夹,命令如下:?1scp /root/.ssh/authorized_keys dm3:/root/.ssh/ 最后,在所有机器执行用户权限命令chmod,命令如下: ?1chmod 644 authorized_keys 经过以上步骤,ssh配置也已完成。通过以下命令验证: ?123456ssh dm3 exit ssh dm2 exit ssh dm1 exit
温馨提示
- 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
- 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
- 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
- 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
- 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
- 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
- 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。
最新文档
- 2026届天津市宝坻区普通高中高二化学第一学期期末质量检测试题含解析
- 2025年赣州市红旗实验中学化学高二上期末质量检测试题含解析
- 亚麻纺织制品行业深度研究报告
- 中国直脚抛光圆盘炉项目投资可行性研究报告
- 家用木架行业深度研究报告
- 事务用品行业深度研究报告
- 中国硬膜防锈油项目投资可行性研究报告
- 中国热风整平前处理线项目投资可行性研究报告
- 铜高雾喷头行业深度研究报告
- 地毯除臭粉行业深度研究报告
- 高中家长会 决战高考课件-高三下学期高三家长会
- 纪录片观念与历史知到智慧树章节测试课后答案2024年秋云南艺术学院
- 2024年种子轮天使投资协议范本版B版
- 改善眼科患者沟通技巧的培训
- 文旅行业消防安全培训
- 红色复古风明十三陵介绍模板
- 安检大学生涯规划
- 中建制冷机房大型设备起重吊装方案
- 教育培训机构销售培训-家长分析课件
- 血液学检验技术 课件 13.项目十三:恶性淋巴瘤
- 2024年钢结构包工包料合同
评论
0/150
提交评论