h安装教程视频学习网_第1页
h安装教程视频学习网_第2页
h安装教程视频学习网_第3页
h安装教程视频学习网_第4页
h安装教程视频学习网_第5页
已阅读5页,还剩52页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

1、大数据环境安装手册大数据环境安装手册一.环境准备vmware workstations软件二.centos7镜像(地址:s/7/ sos/ 86_64/CentOS-7-x86_64-DVD-1804.iso)三.安装步骤(三台虚拟机)3.1创建虚拟机3.2安装centos7四.centos7配置(三台虚拟机都需要配置) 1.配置自动时钟同步1.1使用Linux命令配置2.配置主机名2.1HadoopMaster节点2.2HadoopSlave节点(两个Slave节点3. 配置4. 关闭环境(这步可以看一下,也可以不做)5.配置hosts列表6.安装JDK7. 免密钥登录配置(root用户与普

2、通用户均需要配置)8. 创建hadoop用户和hadoop组五.Hadoop安装包解压0. 如何将windows下压缩包移入虚拟机中0.1 直接使用鼠标左键将压缩包拖入虚拟机桌面0.2 如果不能拖入1. 进入Hadoop软件包,命令如下: 2.配置环境变量hadoop-env.sh3.配置组件core-site.xml4.配置文件系统hdfs-site.xml 5.配置文件系统yarn-site.xml6.配置计算框架mapred-site.xml 7.在master节点配置slaves文件8.更改权限(三个节点都操作)8.到从节点六. 启动Hadoop集群1. 下面所有的操作都使用kkb用户

3、,切换kkb用户2. 配置Hadoop启动的系统环境变量3. 创建数据目录4. 启动Hadoop集群4.1 格式化文件系统4.2启动Hadoop令是:5.Web UI查看集群是否七.HIVE安装1. 解压hive安装包启动2. 配置HIVE_HOME环境变量3. 在hdfs上创建hive数据存放目录4. 初始化hive库schma 4.启动hive一.环境准备vmware workstations软件(windows版地址)(mac版地址) archive-javase8-2177648.html(jdk地址,tar.gz后缀名的linux版本包)或者在以下:中可以此次安装所需压缩包(vmwa

4、re(widows版),hadoop,hive,jdk)提取码:7zu1注:硬件:因为是在宿主机上运行虚拟化软件安装centos,所以对宿主机的配置有一定的要求。最起码I5CPU双核、硬盘500G、内存8G以上1. vmware安装只需点击2. 注意安装完成后点击默认安装即可证3.会出现如下界面4. 输入任意一行秘钥即可VC1J8-0TX11-M84WP-2WNGX-PQKD8 AA7EU-FUE97-4896Q-3WYZC-WYKY0 ZY7EU-2JG01-H8EDZ-9NYNX- ZVHW0 AZ312-2FE41-M81LP-R6WEZ-NA2Z4 AU71H-0VE44-M81DZ-

5、77Y5C-QG0G4 ZA7HK-AWFE2-M80AY- KDNZG-XQ2X8 CA58K-DDF13-H88PY-VWN7V-XKHW25. 安装二.centos7镜像(地址:entos/7/isos/x86 64/CentOS-7-x86 64-DVD-1804.iso)三.安装步骤(三台虚拟机)3.1创建虚拟机1.打开VMware选择文件->新建虚拟机 ,选择自定义安装2.选择兼容性默认3.选择稍后安装操作系统4.操作系统选择5.虚拟机创建位置与虚拟机名称6.分配处理器与内存可根据个人电脑配置情况来分配7.连接类型的选择连接类型一共有桥接、NAT、仅主机和不联网四种。桥接:选

6、择桥接模式的话虚拟机和宿主机在 上就是平级的关系,相当于连接在同一交换机上。NAT:NAT模式就是虚拟机要联网得先通过宿主机才能和外面进行通信。仅主机:虚拟机与宿主机直接连起来选择NAT模式8.接下来两个步骤默认即可9.分配磁盘容量10.磁盘名称默认点击11.移除不需要的硬件(USB,声卡,打印机)12.关闭并点击完成3.2安装centos71.点击编辑虚拟机设置2.先选择CD/DVD,再选择使用ISO映像文件,最后选择浏览找到定要勾选上后确定。好的镜像文件。启动时连接一3. 开启虚拟机4. 开启虚拟机后会出现以下界面Install CentOS 7 安装CentOS 7Test this m

7、edia & install CentOS 7 测试安装文件并安装CentOS 7Troubleshooting 修复故障选择第一项,回车5.到下一界面,回车6.选择安装过程中使用的语言,这里选择英文、键盘选择美式键盘。点击Continue7.设置时间时区选择上海,查看时间是否正确,然后点击Done8.选择需要安装的软件选择 Server with Gui,然后点击Done(如果默认选择Minimal Install则没有图形化界面,只是dos界面)9.选择安装位置,在这里可以进行磁盘划分选择i wil congure partitioning(我将会配置分区),然后点击done如下图

8、所示,点击加号,选择/boot,给boot分区分200M。最后点击Add然后以同样的办法给其他三个区分配好空间后点击Done然后会弹出摘要信息,点击AcceptChanges(接受更改)10.设置主机名与网卡信息11.最后选择Begin Installation(开始安装)12.设置root13.创建用户14.等待系统安装完毕重启系统即可15.如果reboot之后出现以下界面,点击红框中的选项16.接下来点选我接受选项,再点击done即可完成之后点击nishNAT模式配置命令:你的虚拟机也可能是ens32vi /etc/sysconfig/network-scripts/ifcfg-ens33

9、修改如下IPADDR的网段要与上图中的子网IP网段一致,GATEWAY的网段也要一致(前段数字都要一样,最后一段数字随意不要用2-255)配置工作在 /etc/sysconfig/network 文件里增加如下配置关闭重启服务service network restart更改好虚拟机后,更改本机vmnet8虚拟网卡ip选中使用下面IP地址选项,将网段改为和虚拟机相同,点击确定即可。配置完成后,可以ping查看是否连通,也可以几台虚拟机之间ping一下,看是否可以ping通四.centos7配置(三台虚拟机都需要配置)1. 配置自动时钟同步该项同时需要在HadoopSlave节点配置。1.1 使

10、用Linux命令配置rootmaster # crontab -evi下的操作大家一定要会该命令是vi编辑命令,按i进入模式 按Esc,然后键入:wq保存键入下面的一行代码,输入i,进入模式(星号之间和前后都有空格)*/5 * * * * ntpdate -u 2. 配置主机名2.1 HadoopMaster节点使用vi编辑主机名rootmaster # vi /etc/hostname配置信息如下,如果已经的第2行所示。master确实修改生效命令:则不修改,将HadoopMaster节点的主机名改为master,即下面代码rootmaster kkb# hostname master检测主

11、机名是否修改命令如下,在操作之前需要关闭当前终端,重新打开一个终端:rootmaster kkb# hostname2.2HadoopSlave节点(两个Slave节点)使用vi编辑主机名:rootslave kkb# vi /etc/hostnam配置信息如下,如果已经2行所示。 slave01另一台改为则不修改,将Hadoopslave节点的主机名改为slave,即下面代码的第slave02确实修改生效命令:另一台执行rootslave kkb# hostname slave01rootslave kkb# hostname slave02检测主机名是否修改命令如下,在操作之前需要关闭当前

12、终端,重新打开一个终端:3.配置环境(这步可以看一下,也可以不做)如果没有连接进行如下操作,进行连接该项也需要在HadoopSlave节点配置。点击右上角的角形,接着点击Wired的connect进行连接hostnamerootslave kkb#连接会出现如下所示可以点击Wired Settings进行查看ip地址如果没有ip连接,则进行下面的步骤。右击HadoopMaster,点击设置点击适配器,选择NAT模重启虚拟机后,点击右上角的角形,接着点击Wired的connect进行连接4.关闭该项也需要在HadoopSlave节点配置。在终端中执行下面命令:rootmaster # syste

13、mctl stop firewalld.servicedisable firewalld.service5.配置hosts列表该项也需要在HadoopSlave节点配置。需要在root用户下(使用su命令),编辑主机名列表令:rootmaster # vi /etc/hosts将下面两行添加到/etc/hosts文件中:28 master29 slave0130 slave02注意:这里master节点对应IP地址是192.16 .21.128,slave对应的IP是29,而做配置时,需要将这两个I

14、P地址改为你的master和slave对应的IP地址。在rootmaster $ ping slave01kkbmaster $ ping slave02kkbslave01 $ ping masterkkbslave02 $ ping master如果出现下图的信息表示配置:6.安装JDK该项也需要在HadoopSlave节点配置。首先系统自带的jdkkkbmaster $ rpm -qa | grep javarootmaster # systemctl然后移除系统自带的jdkrootmaster # yum remove java-1.*将JDK文件解压,放到/usr/java目录下ro

15、otmaster # cd /usrrootmaster usr# mkdir javarootmaster usr# cp /root/jdk-8u131-linux-x64.tar. z / sr/java/rootmaster usr#cd javarootmaster java# tar -zxvf /usr/java/jdk-8u131- nux-x64.tar.gzrootmaster java# chmod +x /usr/java/jdk1.8.0_ 31/bin/*使用cd命令回到root用户的家目录下rootmaster java$ cd使用vi配置环境变量root用户下r

16、ootmaster $ vi .bash_profile粘贴以下内容添加到到上面vi打开的文件中:JAVA_HOME=/usr/java/jdk1.8.0_211-amd64/ HADOOP_HOME=/home/hadoop/hadoop-2.7.3PATH=$PATH:$HOME/bin:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbinexport JAVA_HOME export HADOOP_HOMEexport PATH使改动生效命令:rootmaster $ source .bash_profile测试配置:rootmaster $

17、 java -version7.免密钥登录配置(root用户与普通用户均需要配置)7.1三个节点分别执行生成秘钥令rootmaster # ssh-keygen -t rsa #一路回车完成秘钥生成rootslave01 # ssh-keygen -t rsa #一路回车完成秘钥生成rootslave02 # ssh-keygen -t rsa #一路回车完成秘钥生成7.2在master节点上做示范,以下令需要在所有节点上执行rootmaster # ssh-copy-id -i slave01rootmaster # ssh-copy-id -i slave02以node1节点作为示范,其他

18、节点需要相应的验证.如果免7.2等两个步骤.登录失败,会提示输入登录,此时重复7.1,和rootmaster # ssh slave01rootmaster # ssh slave02ssh登录其他节点后,可使用exit退回到本机节点8. 创建hadoop用户和hadoop组此用户用于操作hadoop集群,因此也需要对此用进行免照以下步骤操作.登录配置.此处以node1节点为例,其他节点也需要按rootnode1 useradd kkb rootnode1 passwd kkb #输入kkbrootnode1 groupadd kkb #创建kkb用户组rootnode1 usermod -G

19、 kkb:kkb #讲hadoop添加到hadoop组中rootnode1 su - kkb #切换到hadoop用户目录下kkbmaster # ssh-keygen -t rsa #一路回车完成秘钥生成kkbmaster $ cd .sshkkbmaster .ssh$ cat id_rsa.pub >> authorized_keys #将生成的公钥添加到认证文件中在普通用户下做ssh操作与上面root用户做ssh操作相同,三台都要做,只是多出一步将公钥添加到认证文件五.Hadoop安装包解压(此可以2.7.x版本,其他版本也可按此安装完成安装)0. 如何将windows下压

20、缩包移入虚拟机中0.1 直接使用鼠标左键将压缩包拖入虚拟机桌面然后再移动到的目标目录下例如:将压缩包从虚拟机桌面移入/software/hadoop目录下mv /root/Desktop/压缩包名 /software/hadoop0.2如果不能拖入则使用xshell软件点击新建,会话名称任意取,主机选项填入虚拟机IP,点击确定用户名输入root输入的root用户登录,点击确定点击下图中的绿色图标填入虚拟机IP,用户名,将后侧电脑中的文件拖入左侧虚拟机中即可1.进入Hadoop软件包,命令如下:先切回到root用户kkbmaster $ su - root创建/software/hadoop目录

21、rootmaster $ mkdir -p /software/hadoop/进入到hadoop目录下(压缩包可以使用鼠标将压缩包拖入虚拟机中)rootmaster $ cd /software/hadoop/解压Hadoop安装包命令如下:rootmaster hadoop$ tar -zxvf had op-2.7.3 tar.g2.配置环境变量hadoop-env sh环境变量文件中,只需要配置JDK的路径。rootmaster hadoop-2.7.3$ vi /software/hadoop/hadoop-2.7.3/etc/hadoop/hadoop-env.sh在文件的靠前的部分

22、找到下面的一行代码:export JAVA_HOME=$JAVA_HOME将这行代码修改为下面的代码:export JAVA_HOME=/usr/java/jdk1.8.0_211-amd64/然后保存文件。配置环境变量yarn-env.sh环境变量文件中,只需要配置JDK的路径。rootmaster hadoop-2.7.3$ vi /software/hadoop/hadoop-2.7.3/etc/hadoop/yarn-env.sh在文件的靠前的部分找到下面的一行代码:export JAVA_HOME=/home/y/libexec/jdk1.6.0/将这行代码修改为下面的代码(将#号去

23、掉):export JAVA_HOME=/usr/java/jdk1.8.0_131/然后保存文件。3.配置使用vi编辑:组件core-site.xmlrootmaster hadoop-2.7.3$ vi /software/hadoop/hadoop-2.7.3/etc/hadoop/core-site.xml用下面的代码替换core-site.xml中的内容:<?xml version="1.0" encoding="UTF-8"?><?xml-stylesheet type="text/xsl" href=&

24、quot;configuration.xsl"?><!- Put site-specific property overrides in this file. -><configuration><property><name>fs.defaultFS</name><value>hdfs:/master:9000</ alu ></property><property><name>hadoop.tmp.d r</nam ><value>/

25、software/hado p/hadoopdata</value></property></configuration>4.配置文件系统hdfs-site.xml使用vi编辑:rootmaster hadoop-2.7.3$ vi /software/hadoop/hadoop-2.7.3/et /hadoop/hdfs-site.xml用下面的代码替换hdfs-site.xml中的内容:<?xml version="1.0" encoding="UTF-8"?><?xml-stylesheet t

26、ype="text/xsl" href="configuration.xsl"?><!- Put site-specific property overrides in this file. -><configuration><property><name>dfs.replication</name><value>3</value></property></configuration>5.配置文件系统yarn-site.xml使用vi编辑:r

27、ootmaster hadoop-2.7.3$ vi /software/hadoop/hadoop-2 7.3/etc/hadoop/yarn-site.xml用下面的代码替换yarn-site.xml中的内容:<?xml version="1.0"?><configuration><property><name>yarn.nodemanager.aux-s rvices</name><value>mapreduce_shuffle</value></property><

28、property><name>yarn.resourcemanager.address</name><value>master:18040</value></property><property><name>yarn.resourcemanager.scheduler.address</name><value>master:18030</value></property><property><name>yarn.resourceman

29、ager.resource-tracker.address</name><value>master:18025 /value></property><property><name>yarn.resourcemanager.admin.address</name><value>master:18141</value></property><property><name>yarn.resourcemanager.webapp.address</name&g

30、t;<value>master:18088</value></property></configuration>6.配置计算框架mapred-site.xmlmapred-site-template.xml文件:rootmaster hadoop-2.7.3$ c /softw e/hadoop/hadoop-2.7.3/etc/hadoop/mapred-site.xml.template/software/hadoop/hadoop-2.7.3/etc/h doop/mapred-site.xml使用vi编辑:rootmaster $ vi

31、/software/hadoop/hadoop-2.7.3/etc/hadoop/mapred-site.xml用下面的代码替换mapred-site.xml中的内容<?xml version="1.0"?><?xml-stylesheet type="text/xsl" href="configuration.xsl"?><configuration><property><name></name><value

32、>yarn</value></property></configuration>7.在master节点配置slaves文件使用vi编辑:rootmaster hadoop-2.7.3$ vi /software/hadoop/hadoop-2.7.3/etc/hadoop/slaves用下面的代码替换slaves中的内容:slave01slave028.更改权限(三个节点都操作)给hadoop目录rootmaster hadoop-2.7.3$ chown kkb.kkb /software/hadoop/ -R8.使用下面到从节点令将已经配置完成的H

33、adoop到从节点HadoopSla e上:rootmaster hadoop-2.7.3$ su - kkbkkbmaster $ scp -r /softwa e/had op hadoop-2.7.3 kkbslave01:/software/hadoopkkbmaster $ scp -r /software/hadoop/h doop-2.7.3 kkbslave02:/software/hadoop注意:因为之前已经配置了免密钥登录,这里可以直接六. 启动Hadoop集群。1. 下面所有的操作都使用kkb用户,切换kkb用户su - kkb(如果已在普通用户下则不用再执行)2. 配

34、置Hadoop启动的系统环境变量令是:该节的配置需要同时在两个节点(HadoopMaster和HadoopSlave)上进行操作,操作命令如下:只需要在kkb用户下执行环境变量配置操作即可kkbmaster $ vi .bash_profile粘贴以下内容添加到到上面vi打开的文件中:JAVA_HOME=/usr/java/jdk1.8.0_211-amd64/ HADOOP_HOME=/software/hadoop/hadoop-2.7.3PATH=$PATH:$HOME/bin:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbinexport

35、 JAVA_HOME export HADOOP_HOMEexport PATH使改动生效命令:kkbmaster $ source /.bash_profile3.创建数据目录该节的配置需要同时在两个节点(HadoopMaster和HadoopSlave)上进行操作。 在kkb的用户主目录下,创建数据目录,命令如下:kkbmaster $ mkdir /software/hadoop/hadoopdata4. 启动Hadoop集群4.1 格式化文件系统格式化命令如下,该操作需要在HadoopMaster节点上执行:kkbmaster $ hdfs namenode -format4.2启动H

36、adoop使用start-all.sh启动Hadoop集群,首先进入 adoop安装主目录,然后执行启动命令:kkbmaster $ cd /hadoop-2.7 3kkbmaster $ start-all.sh执行命令后,提示输入yes/no时,输入yes。3、查看进程是否启动在HadoopMaster的终端执行jps命令,在打印结果中会看到4个进程,分别是ResourceManager、Jps、NameNode和SecondaryNameNode,如下图所示。如果出现了这4个进程表示主节点进程启动。在HadoopSlave的终端执行jps命令,在打印结果中会看到3个进程,分别是NodeM

37、anager、DataNode和Jps,如下图所示。如果出现了这3个进程表示从节点进程启动。5.Web UI查看集群是否先配置主机启动在本机路径C:WindowsSystem32driversetc下打开hosts文件添加上的虚拟机IP以及主机名在HadoopMaster上启动Firefox浏览器,在浏览器地址栏中输入输入namenode 和 datanode 是否正常。UI页面如下图所示。,检查在HadoopMaster上启动Firefox浏览器,在浏览器地址栏中输入输入Yarn是否正常,页面如下图所示。,检查验证mapreducekkbmaster # touch words使用vi命令向

38、words中输入如下内容:hello worldi like javai like java tookkbmaster # hadoop dfs -mkdir /test #创建test目录kkbmaster # hadoop dfs -ls / #查看test目录创建kkbmaster # hadoop dfs -put words /test #将创建好的words文件上传到hdfs文件系统中的test目录下kkbmaster # hadoop dfs -ls /test #查看文件上传是否执行:hadoop jar /software/hadoop/hadoop-2.7.3/share/

39、hadoop/mapreduce/hadoop-mapreduce-examples-2.7.3.jar wordcount /test/words /test/output可以看到结果七.HIVE安装地址1. 解压hive安装包将的tar包文件上传到node4(根据自身集群情况,在hadoop集群运行的情况下,选择一台剩余内存相对比较多的作为hive的安装节点)首先创建一个hive目录rootmaster mkdir /software/hiverootmaster cd /software/hiverootmaster hive# tar -xzvf apache-hive-3.1.1-b

40、in.tar.gz -C /software/hive/#将hive压缩包解压到/opt/bigdata/hive目录下apache-hive-3.1.1-bin/hcatalog/share/webhcat/svr/lib/jersey-servlet-1.19.jar apache-hive-3.1.1-bin/hcatalog/share/webhcat/svr/lib/hive-webhcat-3.1.1.jarapache-hive-3.1.1-bin/hcatalog/share/webhcat/svr/lib/wadl-resourcedoc-doclet-1.4.jar apa

41、che-hive-3.1.1-bin/hcatalog/share/webhcat/svr/lib/xercesImpl-2.9.1.jarapache-hive-3.1.1-bin/hcatalog/share/webhcat/svr/lib/xml-apis-1.3.04.jar apache-hive-3.1.1-bin/hcatalog/share/webhcat/svr/lib/comm ns-exec-1.1.jar apache-hive-3.1.1-bin/hcatalog/share/webhcat/svr/lib/jul to- lf j-1.7.10.jarapache-

42、hive-3.1.1-bin/hcatalog/share/webhcat/java-clie t/h v -webhcat-java-client-3.1.1.jar rootmaster # cd /software/hive/rootmaster hive# ll total 0drwxr-xr-x. 10 root root 184 Apr 25 15:49 apa he-h ve-3 1 1-bin rootmaster hive# 解压完成rootmaster hive# chown kkb.kkb software/h ve/ R2.配置HIVE_HOME环境变量rootmast

43、er # vi .bash_profile# .bash_profile# Get the aliases and functions if -f /.bashrc ; then. /.bashrcfi# User specific environment and startup programs JAVA_HOME=/usr/java/jdk1.8.0_211-amd64/ HADOOP_HOME=/opt/bigdata/hadoop/hadoop-3.1.2 HIVE_HOME=/opt/bigdata/hive/apache-hive-3.1.1-binPATH=$PATH:$HOME

44、/bin:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP HOME/sbin:$HIVE_HOME/binexport JAVA_HOME export HADOOP_HOME export HIVE_HOME export PATH:wq!rootmaster bin# hive -version#查看hive版本号,验证环境变量配置是否正确SLF4J: Class path contains mu tiple SLF4J bindings.SLF4J: Found binding in jar:file:/opt/bigdata/hive/apache-hi

45、ve-3.1.1-bin/lib/log4j-slf4j-impl- 2.10.0.jar!/org/slf4j/impl/StaticLoggerBinder.classSLF4J: Found binding in jar:file:/opt/bigdata/hadoop/hadoop-3.1.2/share/hadoop/common/lib/slf4j-log4j12-1.7.25.jar!/org/slf4j/impl/StaticLoggerBinder.classSLF4J: Seefor an explanation.SLF4J: Actual binding is of ty

46、pe org.apache.logging.slf4j.Log4jLoggerFactoryHive 3.1.1Git git:/daijymacpro-2.local/Users/daijy/commit/hive -r f4e0529634b6231a0072295da48af466cf2f10b7Compiled by daijy on Tue Oct 23 17:19:24 PDT 2018From source with checksum 6deca5a8401bbb6c6b49898be6fcb80e You have new mail in /var/spool/mail/roo

47、t3. 在hdfs上创建hive数据存放目录在master节点,使用kkb(su - kkb)用户登录,并以此执行以下命令创建临时目录和hive表存放路径hadoop fs -mkdir /tmphadoop fs -mkdir -p /user/hive/warehousehadoop fs -chmod g+whadoop fs -chmod g+w/tmp/user/hive/warehouse4. 初始化hive库schmahive安装目录下执行下面命令初始化hive 默认数据库为derby:./bin/schematool -dbType derby -initSche akkbma

48、ster apache-hive-3.1.1-bin$ ./bin/schematool -dbType derby -initSchema SLF4J: Class path contains multiple SLF4J bindings.SLF4J: Found binding in jar:file:/opt/bigdata/hive/apache-hive-3.1.1-bin/lib/log4j-slf4j-impl- 2.10.0.jar!/org/slf4j/impl/StaticLoggerBinder.classSLF4J: Found binding in jar:file

49、:/opt/bigdata/hadoop/hadoop-3.1.2/share/hadoop/common/lib/slf4j-log4j12-1.7.25.jar!/org/slf4j/impl/StaticLoggerBinder.classSLF4J: Seefor an explanation.SLF4J: Actual binding is of type org.apache.logging.slf4j.Log4jLoggerFactoryMetastore connection URL:jdbc:derby:;databaseName=metastore_db;create=tr

50、ueMetastore Connection Driver :org.apache.derby.jdbc.EmbeddedDriverMetastore connection User:APPStarting metastore schema initialization to 3.1.0 Initialization script hive-schema-3.1.0.derby.sql Initialization script completedschemaTool completedhadoopnode4 apache-hive-3.1.1-bin$初始化后就会在hive的安装目录下生成derby log日志文件和metastore_db数据库目录,目录中存放的是hive的数据库信息.4.启动hive注意事项:1. 在高版本的hive已经添加安全认证机制,所有需要使用hadoop用户启动.2. 保证hadoop集群的状态是非安全模式下 使用一下命令查看到的状态是OFF如果是O

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论