4.如何为Hive集成RedHat7的OpenLDAP认证

Posted Hadoop实操

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了4.如何为Hive集成RedHat7的OpenLDAP认证相关的知识,希望对你有一定的参考价值。

温馨提示:要看高清无码套图,请使用手机打开并单击图片放大查看。


Fayson的github:https://github.com/fayson/cdhproject


提示:代码块部分可以左右滑动查看噢


1.文档编写目的



在前面的文章Fayson讲了《》、《》以及《》,在CDH中各个组件如何集成?本篇文章主要介绍如何为Hive集成RedHat7的OpenLDAP。


  • 内容概述

1.测试环境描述

2.Hive集成OpenLDAP

3.Hive集成验证


  • 测试环境

1.RedHat7.3

2.OpenLDAP版本2.4.44

3.CM和CDH版本为5.13.1

4.集群已启用Kerberos


  • 前置条件

1.OpenLDAP已安装且正常使用


2.测试环境描述



  • OpenLDAP服务信息



这里我们将172.31.24.169做为OpenLDAP的主节点,172.31.16.68做为OpenLDAP的备节点,具体RedHat7下OpenLDAP的HA实现可以参考《》


  • Hive服务信息

4.如何为Hive集成RedHat7的OpenLDAP认证


我们的测试集群安装了两个HiveServer2服务


3.Hive全局配置OpenLDAP



1.登录CM的Web控制台,进入Hive服务,关闭Hive的模拟功能


4.如何为Hive集成RedHat7的OpenLDAP认证


2.修改LDAP相关配置,通过这里可以进行全局配置,配置后所有的HiveServer2服务均使用该配置


4.如何为Hive集成RedHat7的OpenLDAP认证


保存配置,回到CM主页根据提示重启相应服务即可。


4.如何为Hive集成RedHat7的OpenLDAP认证


4.Hive集成OpenLDAP验证



1.testldap用户不存在与操作系统,却存在于OpoenLDAP,可以使用id查看到该用户


操作系统/etc/passwd文件不存在testldap用户


4.如何为Hive集成RedHat7的OpenLDAP认证


OpenLDAP存在该用户


[root@ip-172-31-6-148 ~]# ldapsearch -D "cn=Manager,dc=fayson,dc=com" -W |grep testldap

(可左右滑动)


4.如何为Hive集成RedHat7的OpenLDAP认证


在OS上使用id faysontest是可以看到该用户


4.如何为Hive集成RedHat7的OpenLDAP认证


注意:由于配置SSSD服务,在OS上可以查看到该用户并能使用SSH登录但该用户不存在本地OSpasswd文件中。一旦在OpenLDAP中新建用户,需要保证集群的所有节点上都有这个用户,如果你没启用SSSD,则需要手动在所有节点的OS中创建该用户,否则无法执行HadoopMapReduce/Spark/Impala等作业,因为Fayson的环境已经启用了SSSD,可以自动同步用户,所以可以省略该步骤。节点同步LDAP中的用户也可以使用其他商业或者开源工具。


2.通过beeline使用testldap用户分别登录两个HiveServer2服务

都输入错误的用户的密码登录HiveServer2


4.如何为Hive集成RedHat7的OpenLDAP认证

4.如何为Hive集成RedHat7的OpenLDAP认证


可以看到用错误的密码登录两个HiveServer2服务均提示“Error validating LDAP user(state=08S01,code=0)”


3.使用正确密码登录两个HiveServer2服务


[root@ip-172-31-16-68 shell]# beeline 
beeline> !connect jdbc:hive2://ip-172-31-21-83.ap-southeast-1.compute.internal:10000
Connecting to jdbc:hive2://ip-172-31-21-83.ap-southeast-1.compute.internal:10000
Enter username for jdbc:hive2://ip-172-31-21-83.ap-southeast-1.compute.internal:10000: testldap
Enter password for jdbc:hive2://ip-172-31-21-83.ap-southeast-1.compute.internal:10000: ******
Connected to: Apache Hive (version 1.1.0-cdh5.13.1)
Driver: Hive JDBC (version 1.1.0-cdh5.13.1)
Transaction isolation: TRANSACTION_REPEATABLE_READ
0: jdbc:hive2://ip-172-31-21-83.ap-southeast-> show databases;

(可左右滑动)


4.如何为Hive集成RedHat7的OpenLDAP认证


[root@ip-172-31-16-68 shell]# beeline 
beeline> !connect jdbc:hive2://ip-172-31-16-68.ap-southeast-1.compute.internal:10000
Enter username for jdbc:hive2://ip-172-31-16-68.ap-southeast-1.compute.internal:10000: testldap
Enter password for jdbc:hive2://ip-172-31-16-68.ap-southeast-1.compute.internal:10000: ******
Connected to: Apache Hive (version 1.1.0-cdh5.13.1)
Driver: Hive JDBC (version 1.1.0-cdh5.13.1)
Transaction isolation: TRANSACTION_REPEATABLE_READ
0: jdbc:hive2://ip-172-31-16-68.ap-southeast-> show databases;

(可左右滑动)


4.如何为Hive集成RedHat7的OpenLDAP认证


通过如上截图,我们可以看到使用正确的密码登录两个HiveServer2服务均能成功。


5.单个HiveServer2集成OpenLDAP



前面的配置可以对所有的HiveServer2服务生效,那么也可以针对单个HiveServer2服务进行配置,操作如下:


1.首先将集群OpenLDAP配置恢复至未集成LDAP状态


4.如何为Hive集成RedHat7的OpenLDAP认证


2.进入实例页面,我们选择ip-172-31-21-83的HiveServer2进行配置


4.如何为Hive集成RedHat7的OpenLDAP认证


进入HiveServer2的配置页面


4.如何为Hive集成RedHat7的OpenLDAP认证


3.添加如下配置


<property>
   <name>hive.server2.authentication</name>
   <value>LDAP</value>
</property>
<property>
   <name>hive.server2.authentication.ldap.url</name>
   <value>ldap://ip-172-31-24-169.ap-southeast-1.compute.internal</value>
</property>
<property>
   <name>hive.server2.authentication.ldap.baseDN</name>
   <value>ou=People,dc=fayson,dc=com</value>
</property>

(可左右滑动)


4.如何为Hive集成RedHat7的OpenLDAP认证


保存配置,回到CM主页根据提示重启相应服务。


4.验证配置是否生效

使用Beeline连接ip-172-31-21-83的HiveServer2服务


4.如何为Hive集成RedHat7的OpenLDAP认证


在使用faysontest用户登录190的HiveServer2时输入错误的密码提示”Error validating LDAP user”。使用正确的密码登录显示成功:


4.如何为Hive集成RedHat7的OpenLDAP认证


使用beeline连接ip-172-31-16-68的HiveServer2服务时,输入正确的用户名和密码提示“Unsupported mechanism type PLAIN”因为Fayson的集群启用了Kerberos


4.如何为Hive集成RedHat7的OpenLDAP认证


使用Kerberos账号登录ip-172-31-16-68,因为Fayson的集群启用了Hive的负载均衡并配置了Load Banlancer所以连接的是负载均衡所在的服务。



由此可以看出,我们可以针对某个HiveServer2服务配置集成OpenLDAP。


6.总结



  • 确保集群所有节点已配置OpenLDAP集成SSH登录并通过sssd同步用户

  • 通过CM界面可以方便的为Hive服务启用并配置OpenLDAP服务

  • 可以针对某个HiveServer2服务配置集成OpenLDAP,由于HiveServer2不能同时支持Kerberos和LDAP认证,如果在集群需要同时支持两种认证则需要配置多个HiveServer2服务。

  • 一旦集群启用了Kerberos,HiveServer2默认使用Kerberos认证,不需要单独配置。注意这里和OpenLDAP认证的区别。

  • 使用HiveCli命令可以绕过OpenLDAP认证,未确保Hive访问的安全,这里我们可以禁用HiveCLI,具体禁用可以参考Fayson前面讲的《》和《》。


提示:代码块部分可以左右滑动查看噢


为天地立心,为生民立命,为往圣继绝学,为万世开太平。

温馨提示:要看高清无码套图,请使用手机打开并单击图片放大查看。



推荐关注Hadoop实操,第一时间,分享更多Hadoop干货,欢迎转发和分享。


以上是关于4.如何为Hive集成RedHat7的OpenLDAP认证的主要内容,如果未能解决你的问题,请参考以下文章

hive - 如何为每个匹配选择前 N 个元素

如何为 Hive 自定义 UDF 添加 JAR,使其在 HDInsight 群集上永久可用?

如何为 Hive 创建架构以使用 SerDe 解析深度嵌套的 json(Azure Application Insights 输出)?

Hive 错误未知类型 TimeStamp 。您是不是忘记注册适配器。如何为外部包中使用的对象类型生成 TypeAdapter?

如何为 gitlab 集成 sourcetree

如何为@RabbitListener 注解编写集成测试?