大家好,今天来介绍Hive安装详细教程(hive 安装)的问题,以下是渲大师小编对此问题的归纳和整理,感兴趣的来一起看看吧!
hiveos硬盘安装方法
不同电脑有不同的方法拆装硬盘。一些商务舱的设计可以让你通过拆卸一颗螺丝钉来更换硬盘,另一些可能需要你彻底拆卸机器底部,甚至取出键盘。你通常可以通过在网上搜索笔记本电脑制造商和型号找到具体的说明。
在这个例子中,我们更换硬盘。这个设计已经有几年的历史了,但是它太小了,需要把整个底部都拆掉,这是一种相当典型的硬盘升级设计。
要拆下原来的硬盘,我必须拆卸电池,然后取出八个不同的螺丝。
这样一来,金属机身板就松了,我就可以把它从电脑上拿下来了。您可以在左下角看到硬盘。
要将硬盘本身拔出来,我需要拆卸另一颗螺丝,将硬盘向上拉一点,然后将其从集成SATA接口上滑下来。
对于这种型号,硬盘盒只是一块薄铝片与橡胶保险杠。我把它拔下来,然后用换上新硬盘。
接着,按照相反的步骤,把新的硬盘插到笔记本电脑的SATA接口上,把电脑的后盖装回去。
再一次提醒大家,这一过程也会因笔记本电脑的不同而有很大的不同。如果你需要详细的拆装步骤说明,你可以尝试到网上搜索,你通常会发现至少有几个用户想做同样的事情,如果你幸运的话,也许会有一篇文章或一段视频。
1.在主板上找到M.2接口插槽。
2.拆卸位于M.2插槽对面的安装螺丝。
3.如上图所示,轻轻地将M.2固态硬盘插入插槽,注意凹槽的对应位置,如果不兼容或插反了是插不进去的。插入时,固态硬盘会自然地保持一个倾斜角度,这是正常的。
4.用螺丝把M.2固态硬盘的尾端固定在主板上
注:支持的M.2类型会依主板而异,有些有保护罩,但安装方法类似。
注意:在安装mSATA SSD时,用拇指和食指沿着SSD边缘握住它。
1.在主板上找到电脑的mSATA插槽(伍携请参阅主板手册找到确切位置)。
2.将mSATA SSD上的槽口与mSATA插槽上的槽口对齐,然后按照图例所示插入。
3.如果母板上包液谨括有螺丝,用螺丝将腔埋伏mSATA SSD拧入到位 ;对于使用夹子固定SSD的mSATA插槽。
hive的安装什么是hive的metastore的远程与本地
这里实验森碰基一下把hive.metastore.local参数设置为false的情况下怎么启动hive,
当然首先要修改为false,
hive.metastore.local
false
controls whether to connect to remove metastore server or open a new metastore server in Hive Client JVM
并加入配置thrift server的配置:
hive.metastore.uris thrift://127.0.0.1:9083
然后启动hadoop集群,启动win上的mysql,保证集群ok,测试mysql ok
然后启动metastore:hive –service metastore
这个过程会测试连接 建立schema 建表
继续启动thrift server:hive –service hiveserver
Starting Hive Thrift Server
这里会卡住,其实这是典型的前台启动,如果退出到shell,那么server就会停止,想后台启动的话可以采用nohup方式。
最后启动hive:hive
hive> show tables;
OK
tb
tb2
Time taken: 1.117 seconds
发现hive就可以启吵逗动起来了,其实我们只需要把hive理解为几个部分即可:metastore、thrift server和剩下的hive,这几个部分都是可以分开部署的,放在不同的服务器上,这样的设计增加了hive的ha和可扩展性 但是分开部署会牺牲很大的可维护性,也增加了运维的复杂性,所以一般还是把元数据留着mysql中 其他的部分放在一此谨个jvm中。
hive也是个cs结构的东西 thrift是负责client和server通信的
我想学习hive请问安装hive之前必须安装centos、hadoop、java这些吗
安装需要
java 1.6,java 1.7或更高版本。
Hadoop 2.x或更高, 1.x. Hive 0.13 版本也支持 0.20.x, 0.23.x
Linux,mac,windows操作系统。以下内容适用于linux系统。闹渣
安装打包好的hive
需要先到apache下载已打包好的hive镜像,然后解压悉模开该文件
$ tar -xzvf hive-x.y.z.tar.gz
设置hive环境变量
$ cd hive-x.y.z$ export HIVE_HOME={{pwd}}
设睁弯缓置hive运行路径
$ export PATH=$HIVE_HOME/bin:$PATH
编译Hive源码
下载hive源码
此处使用maven编译,需要下载安装maven。
以Hive 0.13版为例
编译hive 0.13源码基于hadoop 0.23或更高版本
$cdhive$mvncleaninstall-Phadoop-2,dist$cdpackaging/target/apache-hive-{version}-SNAPSHOT-bin/apache-hive-{version}-SNAPSHOT-bin$lsLICENSENOTICEREADME.txtRELEASE_NOTES.txtbin/(alltheshellscripts)lib/(requiredjarfiles)conf/(configurationfiles)examples/(sampleinputandqueryfiles)hcatalog/(hcataloginstallation)scripts/(upgradescriptsforhive-metastore)
编译hive 基于hadoop 0.20
$cdhive$antcleanpackage$cdbuild/dist#lsLICENSENOTICEREADME.txtRELEASE_NOTES.txtbin/(alltheshellscripts)lib/(requiredjarfiles)conf/(configurationfiles)examples/(sampleinputandqueryfiles)hcatalog/(hcataloginstallation)scripts/(upgradescriptsforhive-metastore)
运行hive
Hive运行依赖于hadoop,在运行hadoop之前必需先配置好hadoopHome。
export HADOOP_HOME=
在hdfs上为hive创建tmp目录和/user/hive/warehouse(akahive.metastore.warehouse.dir) 目录,然后你才可以运行hive。
在运行hive之前设置HiveHome。
$ export HIVE_HOME=
在命令行窗口启动hive
$ $HIVE_HOME/bin/hive
若执行成功,将看到类似内容如图所示
如何进行hive的简单操作
搭建Hive的图形界面 添加war包到hive的lib目录,需要大家耐心学习。
1、 启动hive因为需要借助于MySQL保存Hive的元数据,所以,请首枝燃先启动MySQL数据库
service mysql start # 可以在Linux的任何目录下执行该命令由于Hive是基于Hadoop的数据仓库,使用HiveQL语言撰写的查询语句,最终都梁塌会被Hive自动解析成MapReduce任务由Hadoop去具体执行,因此,需要启动Hadoop,然后再启动Hive。
cd /usr/local/hadoop
./sbin/start-dfs.sh下面,继续执行下面命令启动进入Hive:
cd /usr/local/hive
./bin/hive //启动Hive2、hive sql操作create database dbtaobao;
use dbtaobao;
show tables; #显示全部表格
show create table user_log; — 查看user_log表的各种属性;
desc user_log; –显示表的简单结构
相关推荐:
Hive安猛渣虚装简介
Hive命令行
hive在启动过程中会去环境变量中找哪个hadoop的变量
一、hive配置
1.安装环境
在hadoop-1.2.1集群上安装hive-1.2.1
2.将hive-1.2.1环境变量添加到PATH路径下
使用如下命令打开配置文件
nano /etc/profile
在打开的配置文件里添加如下代码
export HIVE_HOME=/opt/hive-1.2.1PATH=$HIVE_HOME/bin:$PATH
3.配置hive-default.xml和hive-site.xml
在/opt/hive-1.2.1/conf目录下没有这两个文件夹,只有一个hive-default.xml.template,复制hive-default.xml.template,命名为hive-default.xml。
然后修改hive-default.xml文件里的内容,将默认的路径换成绝对路径,具体修仔乎改如下图:
然后复制hive-default.xml,命名为hive-site.xml。
在/opt/hive-1.2.1/conf只有hive-env.sh.template文件,复制hive-site.sh.template并命名为hive-site.sh,然后修改hive-site.sh文件权限,使用如下命令
chmod u+x hive-env.sh
4.配置hive-log4j.properties
在/opt/hive-1.2.1/conf目录下只有hive-log4j.properties.template文件,复制hive-log4j.properties.template并命名为hive-log4j.properties,命令如谨空下
cp hive-log4j.properties.template hive-log4j.properties
将log4j.appender.EventCounter=org.apache.hadoop.hive.shims.HiveEventCounter
修改为:log4j.appender.EventCounter=org.apache.hadoop.log.metrics.EventCounter
否则会出现警告:
WARN conf.HiveConf: HiveConf of name hive.metastore.local does not exist
WARNING: org.apache.hadoop.metrics.jvm.EventCounter is deprecated. Please use org.apache.hadoop.log.metrics.EventCounter in all the log4j.properties files.
5.启动hive
使用祥戚瞎命令hive启动
二、在启动过程中出现的问题
1./tmp/hive文件权限问题
解决方案:需要使用如下命令修改/tmp/hive文件权限
hadoop fs -chmod -R 777 /tmp/hive
2.找不到路径问题
解决方案:需要按照上述步骤3来配置hive-default.xml和hive-site.xml文件。