大数据笔记- Hadoop Java kerberos认证
Posted 菜鸟老胡~
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了大数据笔记- Hadoop Java kerberos认证相关的知识,希望对你有一定的参考价值。
一.将kerberos相关认证文件放到项目目录下:
xxxx.keytab,krb5.conf
二.pom.xml引入包:
<dependency>
<groupId>org.apache.hadoop</groupId>
<artifactId>hadoop-common</artifactId>
<version>2.7.3</version>
</dependency>
<dependency>
<groupId>org.apache.hadoop</groupId>
<artifactId>hadoop-hdfs</artifactId>
<version>2.7.3</version>
</dependency>
三.验证方法:
private static void authKerberos(Configuration conf) throws IOException {
// kerberos配置文件路径。
String krb5File = "D:/code/maventest/src/main/resources/local/krb5.conf";
System.setProperty("java.security.krb5.conf", krb5File);
conf.set("hadoop.security.authentication", "kerberos");
UserGroupInformation.setConfiguration(conf);
// 用户验证,第一参是执行用户,第二参是keytab文件路径。
UserGroupInformation.loginUserFromKeytab("dw"
, "D:/code/maventest/src/main/resources/local/dw_host.keytab");
}
public static void main(String[] args) throws IOException {
// 创建配置文件
Configuration conf = new Configuration();
// kerberos认证,如果不需要kerberos可以注掉,我的集群是需要的
authKerberos(conf);
FileSystem fs = FileSystem.get(conf);
}
四.Hadoop怎么连,JAVA API代码看这个:
以上是关于大数据笔记- Hadoop Java kerberos认证的主要内容,如果未能解决你的问题,请参考以下文章
kerberized Hadoop 环境中的 Spark 和启用的高可用性:Spark SQL 只能在写入任务后读取数据