HUE配置文件hue.ini 的hbase模块详解(图文详解)(分HA集群)


 

 

不多说,直接上干货!

 

  我的集群机器情况是 bigdatamaster(192.168.80.10)、bigdataslave1(192.168.80.11)和bigdataslave2(192.168.80.12)

  然后,安装目录是在/home/hadoop/app下。

 

  官方建议在master机器上安装Hue,我这里也不例外。安装在bigdatamaster机器上。

 

 Hue版本:hue-3.9.0-cdh5.5.4
 需要编译才能使用(联网)


 说给大家的话:大家电脑的配置好的话,一定要安装cloudera manager。毕竟是一家人的。
同时,我也亲身经历过,会有部分组件版本出现问题安装起来要个大半天时间去排除,做好心里准备。废话不多说,因为我目前读研,自己笔记本电脑最大8G,只能玩手动来练手。
纯粹是为了给身边没高配且条件有限的学生党看的! 但我已经在实验室机器群里搭建好cloudera manager 以及 ambari都有。

大数据领域两大最主流集群管理工具Ambari和Cloudera Manger

Cloudera安装搭建部署大数据集群(图文分五大步详解)(博主强烈推荐)

Ambari安装搭建部署大数据集群(图文分五大步详解)(博主强烈推荐)

 

 

 

https://www.cloudera.com/documentation/enterprise/latest/topics/cdh_ig_hue_config.html#concept_ezg_b2s_hl

 

 

 

 

 

  在hbase模块里,一定要重视这三步:

 

 

 

 

 

 

 

一、以下是默认的配置文件

###########################################################################
# Settings to configure HBase Browser
###########################################################################

[hbase]
# Comma
-separated list of HBase Thrift servers for clusters in the format of '(name|host:port)'.
# Use full hostname with security.
# If
using Kerberos we assume GSSAPI SASL, not PLAIN.
## hbase_clusters
=(Cluster|localhost:9090)

# HBase configuration directory,
where hbase-site.xml is located.
## hbase_conf_dir
=/etc/hbase/conf

# Hard limit of rows or columns per row fetched before truncating.
## truncate_limit
= 500

#
'buffered' is the default of the HBase Thrift Server and supports security.
#
'framed' can be used to chunk up responses,
# which
is useful when used in conjunction with the nonblocking server in Thrift.
## thrift_transport
=buffered

 

 

 

 

 

二、以下是跟我机器集群匹配的配置文件(非HA集群下怎么配置Hue的hbase模块)

  HBase配置文件修改,需要在hbase-site.xml中增加如下东西。

 

        <property>
<name>hbase.thrift.support.proxyuser</name>
<value>true</value>
</property>
<property>
<name>hbase.regionserver.thrift.http</name>
<value>true</value>
</property>

  这里bigdatamaster、bigdataslave1和bigdataslave2都操作。

  同时,前提是这些机器,都要已经安装过hbase-thrift。

yum install hbase-thrift -y  

 

  这里bigdatamaster、bigdataslave1和bigdataslave2都操作。(有些资料说,是这样安装。其实,现在HBase里都可以自带集成好了,没必要这么安装了

 

  

  大家,学东西时,一定不要似懂非懂,明白个之所以然。

  为什么要添加这些东西,因为HUE要访问HBase的thrift服务。

  参见:http://gethue.com/hbase-browsing-with-doas-impersonation-and-kerberos/

 

 

 

  这边的 (Cluster|bigdatamaster:9090) 里面的 Cluster并不是你的HDFS集群名字,只是一个显示在HUE界面上的文字,所以可以随便写,我这边保留 Cluster字样,后面的bigdatamaster:9090是thrift的访问地址,如果有多个用逗号分隔。如下:

###########################################################################
# Settings to configure HBase Browser
###########################################################################

[hbase]
# Comma-separated list of HBase Thrift servers for clusters in the format of '(name|host:port)'.
# Use full hostname with security.
# If using Kerberos we assume GSSAPI SASL, not PLAIN.
hbase_clusters=(Cluster1|bigdatamaster:9090,Cluster2|bigdataslave1:9090,Cluster3|bigdataslave2:9090)

# HBase configuration directory, where hbase-site.xml is located.
hbase_conf_dir=/home/hadoop/app/hbase/conf/

# Hard limit of rows or columns per row fetched before truncating.
truncate_limit = 500

# 'buffered' is the default of the HBase Thrift Server and supports security.
# 'framed' can be used to chunk up responses,
# which is useful when used in conjunction with the nonblocking server in Thrift.
thrift_transport=buffered

 

 

 

 

 

或者

  当然咯,大家也可以仅仅只在bigdatamaster上安装hbase-thrift,然后在Hue里配置时,如下即可。

HBase配置文件修改,需要在hbase-site.xml中增加如下东西。

 

        <property>
<name>hbase.thrift.support.proxyuser</name>
<value>true</value>
</property>
<property>
<name>hbase.regionserver.thrift.http</name>
<value>true</value>
</property>

  这里只在bigdatamaster操作。

  同时,前提是只要这台机器,已经安装过hbase-thrift。

yum install hbase-thrift -y  

   这里仅仅bigdatamaster操作。(有些资料说,是这样安装。其实,现在HBase里都可以自带集成好了,没必要这么安装了

 

 

 

 

 

 

修改【HUE_HOME/desktop/conf/】目录下的hue.ini文件中[hbase]中的配置

  HUE 配置文件设置,找到hbase标签,配置如下

###########################################################################
# Settings to configure HBase Browser
###########################################################################

[hbase]
# Comma
-separated list of HBase Thrift servers for clusters in the format of '(name|host:port)'.
# Use full hostname with security.
# If
using Kerberos we assume GSSAPI SASL, not PLAIN.
hbase_clusters
=(Cluster|bigdatamaster:9090)

# HBase configuration directory,
where hbase-site.xml is located.
hbase_conf_dir
=/home/hadoop/app/hbase/conf

# Hard limit of rows or columns per row fetched before truncating.
## truncate_limit
= 500

#
'buffered' is the default of the HBase Thrift Server and supports security.
#
'framed' can be used to chunk up responses,
# which
is useful when used in conjunction with the nonblocking server in Thrift.
thrift_transport
=buffered

  注意:hbase_clusters参数值中的Cluster只是在Hue的界面中显示的集群名称而已,可以修改成自己需要的。

    也就是说,一般保持默认Cluster。即我这里是,Cluster包括bigdatamaster、bigdataslave1和bigdataslave2。

  而,我的hbase是安装在bigdatamaster、bigdataslave1和bigdataslave2上。

 

 
  

 

 

 

 

 

 

 

 

   需要启动HBase的进程服务

[hadoop@bigdatamaster hbase]$ pwd
/home/hadoop/app/hbase
[hadoop@bigdatamaster hbase]$ bin
/start-hbase.sh
starting master, logging to
/home/hadoop/app/hbase/logs/hbase-hadoop-master-bigdatamaster.out
bigdataslave1: starting regionserver, logging to
/home/hadoop/app/hbase/bin/../logs/hbase-hadoop-regionserver-bigdataslave1.out
bigdataslave2: starting regionserver, logging to
/home/hadoop/app/hbase/bin/../logs/hbase-hadoop-regionserver-bigdataslave2.out
[hadoop@bigdatamaster hbase]$

  只需bigdatamaster操作就好。

 

 

 

 

   因为,是需要在hbase集群已经启动的基础上,再启动thrift,默认端口为9090。

  还需要启动HBase的thrift服务

$HBASE_HOME/bin/hbase-daemon.sh start thrift

 

[hadoop@bigdatamaster hbase]$ pwd
/home/hadoop/app/hbase
[hadoop@bigdatamaster hbase]$ $HBASE_HOME
/bin/hbase-daemon.sh start thrift
starting thrift, logging to
/home/hadoop/app/hbase/logs/hbase-hadoop-thrift-bigdatamaster.out
[hadoop@bigdatamaster hbase]$

 

  这个操作,bigdatamaster、bigdataslave1和bigdataslave2都操作。(如果只安装在bigdatamaster的话,就只需要启动这台即可。)

 

 

 

 

对于上述做个总结

  一般在Hue里配置hbase模块,无论是我这篇博客,还是网上其他相当的博客都是只配置到此为止,可以把HBase配置成功了。

但是呢,我这里,带大家进一步从官网深入来配置。

https://www.cloudera.com/documentation/enterprise/latest/topics/cdh_ig_hue_config.html#concept_ezg_b2s_hl

  配置到hbase-site.xml里

 

<property>
<name>hbase.security.authentication</name>
<value>kerberos</value>
</property>
<property>
<name>hbase.regionserver.kerberos.principal</name>
<value>hbase/_HOST@HADOOP.COM</value>
</property>
<property>
<name>hbase.regionserver.keytab.file</name>
<value>/home/hadoop/app/hbase/conf/hbase.keytab</value>
</property>
<property>
<name>hbase.master.kerberos.principal</name>
<value>hbase/_HOST@HADOOP.COM</value>
</property>
<property>
<name>hbase.master.keytab.file</name>
<value>/home/hadoop/app/hbase/conf/hbase.keytab</value>
</property>

 

   这一步,是有点难度,要开启kerberos。我这里暂时还没搞定这点。

http://www.tuicool.com/articles/YVbmIzm

   因为,要牵扯到,Kerberos server的安装等,

 https://yq.aliyun.com/articles/25542

 

 

 

 

   

 

 

 

 

三、以下是跟我机器集群匹配的配置文件(HA集群下怎么配置Hue的hbase模块)

   跟非HA配置是一样的。

   

 

智能推荐

注意!

本站转载的文章为个人学习借鉴使用,本站对版权不负任何法律责任。如果侵犯了您的隐私权益,请联系我们删除。



 
© 2014-2019 ITdaan.com 粤ICP备14056181号  

赞助商广告