




版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领
文档简介
第一 关闭rootnode1susu–查看和关闭的运行状态serviceserviceiptables关闭serviceserviceiptables查看开机启动状态chkconfigchkconfig--list|grep关闭开机自启动chkconfigchkconfigiptables注:同理,在节点node2、node3、node4…….node14等节点做上述操作创建用roothadooprootnode1节点上,创建大数据平台安装和使用用户hadoop:创建用户组hadoop:groupadd 创建用户hadoop并分配至hadoopuseradd-m-ghadoop hadoophadoop设置hadoop用户(默认修改为与用户名相同passwdpasswd注:同理,在节点node2、node3、node4…….node14等节点做上述操作修改主主机名,以便后续的操作和。rootnode1viviNETWORKING=yesNETWORKING=yes#启动网络HOSTNAME=node1#主机名hostnamehostname注:同理,在节点node2、node3、node4…….node14等节点做上述操作并将HOSENAME依此设置为node2、node3、 node14rootnode1节点上 添加以下内容:具体IP以实际生产环境所有节点的IP为 注:同理,在节点注:同理,在节点node2、node3、node4…….node14等节点做上述操作配置时间同rootnode1节点vi ##Formoreinformationaboutthisfile,seetheman#ntp.conf(5),ntp_acc(5),ntp_auth(5),ntp_clock(5),ntp_misc(5)driftfile/var/lib/ntp/drift#Permittimesynchronizationwithourtimesource,butdo#permitthesourcetoqueryormodifytheserviceonthisrestrictdefaultkodnomodifynotrapnopeernoqueryrestrict-6defaultkodnomodifynotrapnopeernoquery#Permitallaccessovertheloopbackinterface.Thiscould#betightenedaswell,buttodosowouldeffectsomeof#theadministrativefunctions.restrictrestrict-6#Hostsonlocalnetworkareless#restrictmasknomodify#U#Pleaseconsiderjoiningthepool( #iburst#iburst#iburst#serverfudgestratum#broadcast55autokey#broadcastserver #broadcast#broadcastautokey #multicastserver#broadcastautokey #multicastserver #multicast#manycastserver54 #manycastserver 54autokey#manycast#Enablepublickeycryptography.includefile#Keyfilecontainingthekeysandkeyidentifiersusedwhenoperating#withsymmetrickeycryptography.#keys#Specifythekeyidentifierswhicharetrusted.#trustedkey4842#Specifythekeyidentifiertousewiththentpdcutility.#requestkey8#Specifythekeyidentifiertousewiththentpqutility.#controlkey8#Enablewritingofstatistics#statisticsclockstatscryptostatsloopstats注:注:只在node1节点做上述操su-vimrootsu-vim##Formoreinformationaboutthisfile,seetheman#ntp.conf(5),ntp_acc(5),ntp_auth(5),ntp_clock(5),ntp_misc(5)driftfile/var/lib/ntp/drift#Permittimesynchronizationwithourtimesource,butdo#permitthesourcetoqueryormodifytheserviceonthisrestrictdefaultkodnomodifynotrapnopeernoqueryrestrict-6defaultkodnomodifynotrapnopeernoquery#Permitallaccessovertheloopbackinterface.Thiscould#betightenedaswell,buttodosowouldeffectsomeof#theadministrativefunctions.restrictrestrict-6#Hostsonlocalnetworkareless#restrictmasknomodifyrestrict11masknomodify#U#Pleaseconsiderjoiningthepool( #iburst#iburst#iburst#serverfudge11stratum#broadcast55autokey#broadcastserver #broadcast#broadcastautokey #multicastserver #multicast#manycastserver54 #manycastserver 54autokey#manycast#Enablepublickeycryptography.includefile#Keyfilecontainingthekeysandkeyidentifiersusedwhenoperating#withsymmetrickeycryptography.keys#Specifythekeyidentifierswhicharetrusted.#trustedkey4842#Specifythekeyidentifiertousewiththentpdcutility.#requestkey8#Specifythekeyidentifierto#Specifythekeyidentifiertousewiththentpqutility.#controlkey8#Enablewritingofstatistics#statisticsclockstatscryptostatsloopstats注:注:同理在节点node3、node4、node5、node6...node14节点上做上述操chkconfigntpdrootnode1chkconfigntpdchkconfigchkconfig--list|grep启动ntpdserviceservicentpd5-10timeserverre-startingpollingserverevery64s10synchronisedtoNTPserver(11)atstratum10timecorrecttowithin23mspollingsynchronisedtoNTPserver(11)atstratum10timecorrecttowithin23mspollingserverevery512注:同理在节点node2node3node4...node14等节点上做上面操作配置免密钥登配置各节点的hadoop用户之间无登录到本节点和其他节点的过程。rootnode1节点注明:ssh中“Hostkeyverificationfailed.vi StrictHostKeyCheckingStrictHostKeyCheckinghadoopnode1susu-ssh-keygen-t并将生成的秘钥所有节点包含自ssh-copy-id-i~/.ssh/id_rsa.pubnode1ssh-copy-id-i~/.ssh/id_rsa.pubnode2ssh-copy-id-i~/.ssh/id_rsa.pubnode3ssh-copy-idssh-copy-id-i~/.ssh/id_rsa.pubnode1ssh-copy-id-i~/.ssh/id_rsa.pubnode2ssh-copy-id-i~/.ssh/id_rsa.pubnode3ssh-copy-id-i~/.ssh/id_rsa.pubssh-copy-id-i~/.ssh/id_rsa.pub注:同理,在节点node2,node3,node4….node14节点上执行上述操作以上所有登陆节点、传输文件过程都需要输入对应节点hadoop用户的登录服务器优su-visu-vi**vivi/etc/security/limits.d/90-注:注:同理,在节点node2,node3,node4….node14节点上执行上述操作建议安用root用户登录到node1节点,执行以下命令创建安 mkdirmkdir-pchown-Rhadoop:hadoop/opt/hadoopchown-Rhadoop:hadoop/opt/hadoop/data创建硬盘挂 (测试环境新建四个分 生产环境根据需求定义mkdir-p/data/{data01,data02,data03,data04}chown-Rhadoop:hadoop/datachownmkdir-p/data/{data01,data02,data03,data04}chown-Rhadoop:hadoop/datachown-Rhadoop:hadoop注:node2,node3,node4….node14节点上执行上述操作只在node1节点上新建mkdirmkdirchown-Rhadoop:hadoop硬盘挂以root登录到node1节点susu-fdiskfdisk-fdiskfdiskm//mnP//e是添加一个扩张分区,p是添加一个主分区,于是我键入p添加一个主分区(可选1 如回车(nne回 //如果后面输入 l回 小输入wfdiskfdisk-格式化上步所有新建分区为ext3文件系统格式:*mkfs.ext3mkfs.ext3mkfs.ext3/dev/sdb1mkfs.ext3/dev/sdb5mkfs.ext3/dev/sdb6mkfs.ext3挂载硬盘至 如果新建,无需执行卸载分区!卸载分区指定 根据需求自己定umountumount挂载分区到新 将下面*号的更改为自己的分区和路mountmount/dev/sdb*mount/dev/sdb1/data/data01mount/dev/sdb5/data/data02mount/dev/sdb6/data/data03mount/dev/sdb7vivi0000注:注:node2,node3,node4….node14节点上执行上述操作第二 安装部署Hadoop集安装软hadoopnode1节点上(默认用户为susu-上传hadoop_asse.tar.gz安装包到node1节点 cdcdtartar-zxvf将软件包放至指 cdcdmv*注:软 含hadoop、Hbase、zookeeper、hive、jdk、solr、配置环境变注:注:环境变量需在node1、node2、 node14等所有节点配su-sudovirootsu-sudoviexportexportexportHADOOP_HOME=/opt/hadoop/hadoop-2.5.1exportZOO_HOME=/opt/hadoop/zookeeper-3.4.6exportHBASE_HOME=/opt/hadoop/hbase-0.98.20-hadoop2exportHIVE_HOME=/opt/hadoop/apache-hive-0.14.0-binexportSOLR_HOME=/opt/hadoop/solr-5.3.1exportPATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/ssourcesource安装hadoopnode1注:JDK注:JDK安装在node1、node2、 node14等所有节su-scp-r/opt/hadoop/jdkscp-rscp-r测试JDKjavajava安装hadoopnode1修改配置文件cdcdvi修改或添加配置文件(配置文件全部内容<!--<!--zookeeper 空间,配置Myid的路径--<!--配置zookeeper安装的节点信息-->修改配置文件zookeeper-cdcdvizookeeper-修改或添加配置文件(配置文件全部内容exportexportexportZOOPIDFILE=/opt/hadoop/zookeeper-3.4.6/zookeeper_server.pidexportSERVER_JVMFLAGS=-Xmx1024mexportzookeeperdatanode注:zookeeper注:zookeeper安装在node3、 node14等所有datanode节点scp-r/opt/hadoop/zookeeper-3.4.6scp-r/opt/hadoop/zookeeper-scp-r/opt/hadoop/zookeeper-cdcdrm-rfzookeeper-在node3节点上新 并添加文件myid文cdcd/opt/hadoop/datamkdirzkdatacdtouch给myidechoecho1>将文件myid以及所在的文件夹到其他zookeeper安装节点的下注:先将到node4、 node14等节点中对应下scp-r/opt/hadoop/data/zkdatascpscp-r/opt/hadoop/data/zkdatascp-rscp-r注:给注:给node4、node5node14等节点的myid赋值为2、3、4 12node4myidechoecho2>node5myidechoecho3>node14myidechoecho12>启动forforiinnode3node4node5node6node7node8node9node10node11node12node14;dossh$i"$ZOO_HOME/bin/zkServer.shstart";停止forforiinnode3node4node5node6node7node8node9node10node11node12node14;dossh$i"$ZOO_HOME/bin/zkServer.shstop";查看状态forforiinnode3node4node5node6node7node8node9node10node11node12node14;dossh$i"$ZOO_HOME/bin/zkServer.shstatus";安装hadoopnode11、修改core-cdcdvicore-修改或者添加下面内容(配置文件全部内容<?xml<?xmlversion="1.0"encoding="UTF-<?xml-stylesheettype="text/xsl"LicensedundertheApacheLicense,Version2.0(the"License");youmaynotusethisfileexceptincompliancewiththeLicense.YoumayobtainacopyoftheLicenseatUnlessrequiredbyapplicablelaworagreedtoinwriting,distributeddistributedundertheLicenseisdistributedonan"ASIS"WITHOUTWARRANTIESORCONDITIONSOFANYKIND,eitherexpressorSeetheLicenseforthespecificlanguage erningpermissionsandlimitationsundertheLicense.See panyingLICENSEfile.<!--Putsite-specificpropertyoverridesinthisfile.--<description>thedefaultpathprefixusedbytheHadoopFSven.</description><!--NamenodeHAautomaticfailoverstarted--whennoneis zookeeper安装路径2、修改配置文件hadoop-cdcdvihadoop-在文件中找到对应的参数修改(配置文件部分内容exportexportexportHADOOP_PID_DIR=/opt/hadoop/hadoop-3、修改配置文件hdfs-cdcdvihdfs-添加或修改配置文件(配置文件全部内容<?xmlversion="1.0"encoding="UTF-<?xml-stylesheettype="text/xsl"LicensedundertheApacheLicense,Version2.0(the"License");youmaynotusethisfileexceptincompliancewiththeLicense.YoumayobtainacopyoftheLicenseatUnlessrequiredbyapplicablelaworagreedtoinwriting,softwaredistributedundertheLicenseisdistributedonan"ASIS"BASIS,WITHOUTWARRANTIESORCONDITIONSOFANYKIND,eitherexpressorSeetheLicenseforthespecificlanguage erningpermissionsandlimitationsundertheLicense.See panyingLICENSEfile.<!--Putsite-specificpropertyoverridesinthisfile.--<!--存放HDFS元数据名称路径,<!--<value>file:///opt/bigdata/dfs/sdb1/name,file:///opt/bigdata/dfs/sdc1/name</value>--><!--存放HDFS元数据文件路径,<!--<value>file:///opt/bigdata/dfs/sdb1/data,file:///opt/bigdata/dfs/sdc1/data,file:///opt/bigdata/dfs/sdd1/data,file:///opt/bigdata/dfs/sde1/data</value>--><!--NamenodeHAstarted--<!--配置namenode节点<!--配置zookeeper安装节点,一般只配置datanode,启动zookeeper的journalnode来管理namenode节点,--> <!--配置用户所 下免密登录秘钥文件路径(hadoop用户名)--<!--存放元数据日志 <!--NamenodeHAended--<!--NamenodeHAautomaticfailoverstarted--<!--NamenodeautomaticfailoverHAended--4、修改配置文件yarn-注:注:如果原文件内容与下面内容不一致,将原来文件中的所有内容删除替下面内容,更改里面的参数(这里是配置YARN的管理节点cdviyarn-修改或添加配置文件(配置文件全部内容<?xml<?xmlLicensedundertheApacheLicense,Version2.0(the"License");youmaynotusethisfileexceptincompliancewiththeLicense.YoumayobtainacopyoftheLicenseatUnlessrequiredbyapplicablelaworagreedtoinwriting,softwaredistributedundertheLicenseisdistributedonan"ASIS"BASIS,WITHOUTWARRANTIESORCONDITIONSOFANYKIND,eitherexpressorSeetheLicenseforthespecificlanguage erningpermissionsandlimitationsundertheLicense.See panyingLICENSEfile.<!--开启RM高可用<!--指定RM的clusterid--><!--指定RM的名字<!--分别指定RM<!--指定zookeeper集群地址5、修改配置文件mapred-cdcdvimapred-添加或修改配置文件(配置文件全部内容<?xml<?xml<?xml-stylesheettype="text/xsl"LicensedundertheApacheLicense,Version2.0(the"License");youmaynotusethisfileexceptincompliancewiththeLicense.YoumayobtainacopyoftheLicenseatUnlessrequiredbyapplicablelaworagreedtoinwriting,softwaredistributedundertheLicenseisdistributedonan"ASIS"BASIS,WITHOUTWARRANTIESORCONDITIONSOFANYKIND,eitherexpressorSeetheLicenseforthespecificlanguage erningpermissionsandlimitationsundertheLicense.See panyingLICENSEfile.<!--Putsite-specificpropertyoverridesinthisfile.--<!--ConfigurationsforMapReduceApplicationsstarted--<!--<value>yarn-tez</value>--<description>Thememoryrequiredforeachmaptask.Defaultsto1024.</descript<description>Thememoryrequiredforeachreducetask.Defaultsto1024.</descr<description>Javaoptsforthemaptask.Defaultsto1024.<description>Javaoptsforthereducetask.Defaultsto1024.<description>Javaoptsforthereducetask.Defaultsto1024.<!--ConfigurationsforMapReduceApplicationsended--<!--ConfigurationsforMapReduceJobHistoryServerstarted--<description>MapReduceJobHistoryServerIPChost:port.Defaultsto<!--ConfigurationsforMapReduceJobHistoryServerended--6、修改配置文件注注用来指定cdvi修改或添加下面参数(配置文件全部内容移动hadoop到其他所有节点scp-r/opt/hadoop/hadoop-2.5.1scp-r/opt/hadoop/hadoop-2.5.1scp-r/opt/hadoop/hadoop-2.5.1scp-r/opt/hadoop/hadoop-2.5.1scp-r/opt/hadoop/hadoop-2.5.1scp-r/opt/hadoop/hadoop-2.5.1scp-r/opt/hadoop/hadoop-注:注:hadoop安装在node1、node2、 node14等所有节点上首次启动datanodejournalnodeforforiinnode3node4node5node6node7node8node9node10node11node12node14;dossh$i"$HADOOP_HOME/sbin/hadoop-daemon.shstartjournalnode";namenode1(node1节点)hdfshdfsnamenode-将格式化生成的name文件夹到另外一台namenode(node2节点)scpscp-r/opt/hadoop/data/name格式化ZKFCzookeeper自带控制器用来切换hdfshdfszkfc-非首次启动关闭启动namenode1的ResourceManagerdatanodesshsshnode1"$HADOOP_HOME/sbin/start-namenode2执行启动sshsshnode2"$HADOOP_HOME/sbin/start-关闭namenode1的ResourceManagerdatanodesshnode1"$HADOOP_HOME/sbin/stop- namenode2执行关闭sshnode2"$HADOOP_HOME/sbin/stop- liblzo2.so.2.0.0两个文件至所有节点 下安装hadoopnode1修改Hbase-cdcdvihbase-修改或添加配置文件(配置文件全部内容<?xml<?xml<?xml-stylesheettype="text/xsl"*LicensedtotheApacheSoftwareFoundation(ASF)underormorecontributorlicenseagreements.SeetheNOTICEdistributedwiththisworkforadditionalregardingcopyrightownership.TheASFlicensesthistoyouundertheApacheLicense,Version2.0"License");youmaynotusethisfileexceptinwiththeLicense.YoumayobtainacopyoftheLicense**Unlessrequiredbyapplicablelaworagreedtoinwriting,distributedundertheLicenseisdistributedonan"ASIS"WITHOUTWARRANTIESORCONDITIONSOFANYKIND,eitherexpressorSeetheLicenseforthespecific erningpermissionslimitationsunderthe<!--配置zookeeper安装的节点,用zookeeper来管理hbase--><description>ThedirectorysharedbyRegionServers.<description>PropertyfromZooKeeper'sconfigzoo.cfg.<description>Temporarydirectoryonthelocalfilesystem.<!--<value>hdfs://t-namenode:9000/hbase</value>--<description>ThedirectorysharedbyRegionServers.<description>Themodetheclusterwillbein.Possiblevaluesarefalse:standaloneandpseudo-distributedsetupswithmanagedZookeepertrue:fully-distributedwithunmanagedZookeeperQuorum(seehbase-env.sh)</description><description>The<description>ThebindaddressfortheHBaseMasterweb修改文件hbase-cdcdvihbase-修改配置文件(配置文件部分内容exportexport 自带的zookeeoer,直接使用自己定义的zookeeoer-->exportHBASE_MANAGES_ZK=false修改注:只注:只配置安装在datanode节点上的hbase所在的节点名cdvi添加或修改配置文件(配置文件部分内容borz.jar到注注:在hbase-site.xml中配置borz.jar里面的内容,如果不先导入报找不到类cd在hbase-0.98.20-hadoop2/conf/$HADOOP_HOME/etc/hadoop下的hdfs-site.xml,hbase可以直接hdfs-site.xml。cdlnln-s$HADOOP_HOME/etc/hadoop/hdfs-site.xmlconf/hdfs-在hbase-0.98.20-hadoop2/lib/下$HADOOP_HOME/lib/native/文件夹可以直接hadoop的native文件夹下所有内cdcdlnln-s$HADOOP_HOME/lib/native/安装hbasescp-r/opt/hadoop/hbase-0.98.20-hadoop2scpscp-r/opt/hadoop/hbase-0.98.20-hadoop2scp-r/opt/hadoop/hbase-0.98.20-scp-r/opt/hadoop/hbase-0.98.20-注:hbase安装在node1、node3、 node14等节点上使用hadoop启动hbasenode1停止hbasenode2安装注释:注释:hive只在node1节点上安hadoopnode1安装hiveMySql数据库(node1节点上安装在mysql数据库中新建用户:用户名:hivemysqlmysql.jar上传到$HIVE_HOME/lib修改配置文件perties(配置文件部分内容cdcdvihive-修改hive-site.xml(配置文件部分内容注:配注:配置mysql数据的的连接信息,修改hive元数据存放在mysqlcdvihive-<description>ThriftURIfortheremotemetastore.Usedbymetastore toconnecttoremotemetastore.</description><!--<value>jdbc:derby:;databaseName=metastore_db;create=true</value>--<description>JDBCconnectstringforaJDBC<!--<value>org.apache.derby.jdbc.EmbeddedDriver</value>--<description>DriverclassnameforaJDBC<description>Usernametouseagainstmetastore<description>passwordtouseagainstmetastore修改hive-env.sh(配置文件部分内容cdcdvihive-exportHADOOP_HOME=/opt/hadoop/hadoop-2.5.1exportexportHADOOP_HOME=/opt/hadoop/hadoop-2.5.1exportHIVE_HOME=/opt/hadoop/apache-hive-0.14.0-binexportHBASE_HOME=/opt/hadoop/hbase-0.98.20-##Fortezstarted##Fortezstarted#foriin$(ls${TEZ_DIRS}/*.jar);doTEZ_JARS=$i:$TEZ_JARS;done#foriin$(ls${TEZ_DIRS}/lib/*.jar);doTEZ_JARS=$i:$TEZ_JARS;done#len=$((`exprlength$TEZ_JARS`-1))#export在HDFS上配置元数 待定不添hadoopfs-mkdir-p/user/hive-0.14/warehousehadoopfs-mkdir-p/tmphadoopfs- od777/user/hive-0.14/warehousehadoopfs- od777/tmphadoopfs-mkdir-p/user/hive-0.14/warehousehadoopfs-mkdir-p/tmphadoopfs- od777/user/hive-0.14/warehousehadoopfs- od777/tmpod777/opt/hadoop/apache-hive-注释:hive只在node1节点上安启动hive[hadoop@hadoop001[hadoop@hadoop001~]$退出hive测试hiveshowshowcreatetabletest(idint,namestring, droptabletest;文件cdcdod777-Rod777-Rhadtmpcd$HIVE_HOME/logsod777注释:hive权限控制时,其他用户无法或和文件注释:注释:下面步骤不用操启动hiveserver2:10001nohupnohuphive--servicehiveserver2--hiveconfhive.server2.thrift.port=10001>p/data/hiveserver2.log2>&1安装使用hadoop用户在node1注释:注释:如果此步所要新建文件夹和文件已存在,无需新建和操作,仅作参cdcdmkdirconf文件夹可从solr配置文件中上传schema.xmlnamenode2configsets/hbase_configs/confsolr索引,在这个文件<field>、将scp-r/opt/hadoop/solr-5.3.1scp-r/opt/hadoop/solr-5.3.1hadoop@node3:/opt/hadoopscp-r/opt/hadoop/solr-5.3.1hadoop@node4:/opt/hadoopscp-r/opt/hadoop/solr-5.3.1hadoop@node5:/opt/hadoopscp-r/opt/hadoop/solr-5.3.1注释:安装solr到node3、node4、 node14等节点cdcdrm-rfsolr-4、使用hadoop用户登录到node3cdcdmkdir注:在/opt/hadoop/data新建solr文件夹用来存放solr运行文5、将zoo.cfg和solr.xml两个文件到cpcp$ZOO_HOME/conf/zoo.cfgsolr.xml可从solr配置文件注注:其中zoo.cfg是zookeeper的配置文件,直接从$ZOO_HOME/conf过来。solr.xml文件是从测试环境$SOLR_HOME/home下来6、将运行环境所需文件到solr安装节scp-r/opt/hadoop/data/solrhadoop@node4:/opt/hadoop/datascpscp-r/opt/hadoop/data/solrhadoop@node4:/opt/hadoop/datascp-r/opt/hadoop/data/solrscp-r/opt/hadoop/data/solrcd启动bin/solrstart-cloud-s/opt/hadoop/data/solr-p8983–znode3,node4,node5,node6,nod停止bin/solrstop-cloud-s/opt/hadoop/data/solr-p8983-znode3,node4,node5,node6,node7、启动和关闭 -m指定大 -p指定端口cd启动bin/solrstart-cloud-s/opt/hadoop/data/solr-p8983–znode3,node4,node5,node6,nod停止bin/solrstop-cloud-s/opt/hadoop/data/solr-p8983-znode3,node4,node5,node6,nodeTitan初始 如果Titan未见成功执注注:titan数据库会在应用启动时自动新建,如果未建成功可执行下面步使用hadoop用户上传项目封版\titan初始化文件\initTitan.txt到/opt/hadoop/ cdcd/opt/hadoop/titan-1.0.0-vititan-hbase-初始化titancdcd/opt/hadoop/titan-1.0.0-bin/gremlin.sh安装注释:注释:mysql只安装到node1节点rootnode1su-rootgroupaddmysqluserdel-rmysqlsu-rootgroupaddmysqluserdel-rmysqluseradd-m-gmysql//更改passwd 解压tarcd/optcd/optmkdirmysqlchown-Rmysql:mysqlcdtartar-xzvfmysql-5.5.41-chown-Rmysql:mysqlmysql-5.5.41-susu-cd/opt/mysql/mysql-5.5.41-#执行下面语句,路径根据改为自己的mysql./mysql_install_db./mysql_install_db--user=mysql--basedir=/opt/mysql/mysql-5.5.41-x86_64--susu-viexport#sourcesource#以rootsusu-cd/opt/mysql/mysql-5.5.41-x86_64/support-filescpmysql.server/etc/init.d/mysqlvi#若mysql的安 是/usr/local/mysql,则可省略此## pid-chkconfigchkconfig--addchkconfigmysql启动#查看mysql启动或关闭mysqlserviceservicemysqlservicemysql登录mysql及改与配#修改rootmysqladminmysqladmin-urootpassword#登录mysql,mysqlmysql-uroot-#mysql>GRANTmysql>GRANTALLPRIVILEGESON*.*TO'root'@'%'IDENTIFIEDBY'root'WITHT#mysql>FLUSHmysql>FLUSH又装一次此版本的mysql发现root用户不能提示没权限使用mysqld_safe登进去发现user表居然是空的没有一个从其它地方导出了一份user表的sql语句,手动插入了一个用户,再登录就可以了。附:忘记root后,如何找cdcd./bin/mysqld_safe./bin/mysqld_safe--basedir=/data/mysql-5.6.21--datadir=/data/mysql-5.6.21/data--p-grant-tablesmysqlmysql-urootUPDATEUPDATEuserSETpassword=PASSWORD("new_password")WHEREFLUSH#登录mysqlmysqlmysql-uroot-#CREATECREATEUSER'hive'@localhostIDENTIFIEDBY#grantgrantallonhivedb.*tohive@localhostidentifiedby#删除用户(如果需要删除执行下面删除语句dropdropuser#登grantgrantallprivilegesonhivedb.*to'hive'@'%'identifiedby'hive'withgrant//mysql>flushmysql>flush#这样就创建了一个名为:hive为:hive的用户,供hive工具存放元数据使#mysql-uhive-p#登录MYSQL(有ROOT权限。我里我以ROOT登录mysqlmysql-uroot-#首先为用户创建一个数据库mysql>createmysql>createdatabase--创建GBKcreatedatabasehivedbDEFAULTCHARACTERSETgbkCOLLATECREATEDATABASEhivedbDEFAULTCHARACTERSETutf8COLLATE#dropdropdatabase#hive用户拥有hivedb数据库的所有权grantgrantallonhivedb.*tohive@11identifiedby#mysql>flushmysql>flush#如果想指定部分权限给一用户,可以这样来写mysql>grantmysql>grantselect,updateonhivedb.*totanzuai@localhostidentifiedby#mysql>flushmysql>flushshowdatabases;useshowdatabases;usedatabaseName;show安装注释:注释:db2安装到node1节点1rootnode1节点。2创建用户组和用户。##su-#groupdeldb2grp#groupdeldb2fgrp#groupdeldasadm#groupadddb2grp#groupadddb2fgrp#groupadddasadm#useradd-m-gdb2grp-d/home/db2inst-s/bin/bashdb2inst#useradd-m-gdb2fgrp-d/home/db2fenc-s/bin/bashdb2fenc#useradd-m-gdasadm-d/home/dasusr-s/bin/bashdasusr步骤3执行如下命令分别设置db2inst1、db2fenc和dasusr用户#passwd#passwddb2instNewpassword:db2instRe-enternewpassword:db2instPasswordchanged#passwd#passwd以上输入的用户仅作为示例,实际安装时请统一规划用2.安装db2#mkdir#mkdir1root#mkdir#mkdir步骤3将DB2安装包DB2_ESE_10_Linux_x86-64.tar.gz.iso拷贝到 下4解压DB2DB2_ESE_10_Linux_x86-64.tar.gz.iso释放到/home/db2installmountmount-oloop-tiso9660/file/DB2_ESE_10_Linux_x86-64.tar.gz.iso1rootDB2步骤2进 ##cd3运行DB2执行过之后会提示下面三个问题,选中 (/opt/ibm/db2/V10.1)中?[是/否] 指定下列其中一个关键字以安装DB2产品 要安装DB2pureClusterFeature吗?[是/否 1rootDB2步骤2进 ##cd3安装DB2license,命令如下##./db2licm-aDBA1rootDB2步骤2进 ##cd3创建DAS##./dascrt-u-udasusr表示指定DAS用户名。dasusrA.创建用户组和用户步骤2中创建的dasusr用4##./db2icrt-p50000-udb2fencThehostnamenode1isinvalid.Specifyavalidhostname.localhostlocalhost.locallocalhost4localhost4.local4 localhostlocalhost.locallocalhost6localhost6.local6-p50000参数表示指定DB250000-udb2fenc表示指定此实例使用的fence用户名5##su-db2inst@localhost:~>db2iauto-on1db2instDB2##su-2db2createdatabaseusingcodesetGBKterritory###db2createdatabasebigdbusingcodesetgbkterritory3首先创建路径--##su-#mkdir-p#chown-Rdb2inst--##su-#db2connectto--创建缓冲池 ##db2"createbufferpoolbp32kallnodessize-1pagesize32Ksize=-1buffpagebuffpagedb2getdbcfg|grepibuff参数查--#db2"createtablespacebigdb_dmspagesize32k#db2"createtablespacebigdb_dmspagesize32kmanagedbyusing(file'/opt/tablespace/db2file/bigdb_dms.dat'10M)autoresizeyesbufferpoolmaxsizemaxsize--##db2connect如需删除执行下面语##db2connectto#db2"DROPTABLESPACE如果上面执行创建表空间失败tablespace.s
温馨提示
- 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
- 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
- 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
- 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
- 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
- 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
- 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。
最新文档
- 2025-2030废物处理产业市场深度调研及发展趋势与投资战略研究报告
- 基于主题式教学模式的中级汉语综合课《租房只要一个条件》教学设计
- 施工合同管理监理措施与策略
- 新冠防控中的居家护理工作计划
- 医院应对疫情的防控措施与管理
- 教育管理者视角下的教师信息技术提升计划
- 应急情况下的医院保洁工作流程
- 菇面项目投资可行性研究分析报告(2024-2030版)
- 2025年中国麻凝土行业市场前景预测及投资价值评估分析报告
- 2025年远红外骨痛消贴项目投资可行性研究分析报告
- 立绘买断合同协议
- 2025春季学期国开电大本科《人文英语3》一平台在线形考综合测试(形考任务)试题及答案
- 针灸推拿治疗失眠的禁忌
- 利达消防L0188EL火灾报警控制器安装使用说明书
- 河南省驻马店市部分学校2024-2025学年高三下学期3月月考地理试题(含答案)
- 2025江苏盐城市射阳县临港工业区投资限公司招聘8人高频重点模拟试卷提升(共500题附带答案详解)
- 2025至2030年中国声音感应控制电筒数据监测研究报告
- DB50T 1041-2020 城镇地质安全监测规范
- 2025-2030年中国冰激凌市场需求分析与投资发展趋势预测报告
- 体育赛事运营方案投标文件(技术方案)
- 海绵城市施工质量保证措施
评论
0/150
提交评论