您的位置:首页 > 其它

Spark Standalone模式下操作有kerberos保护的Hbase时出现挂死的问题

2016-03-16 16:02 447 查看
最近在使用spark读取hbase时,因为hadoop集群配置了kerberos,所以必须通过票据进行访问,但是在实际使用时却出现了挂死问题,任何操作(GET,PUT,SCAN)都会长时间阻塞,最后抛出socket超时异常。经过调试,非spark程序中使用没问题,进而确定了票据和配置方法没有问题,通过深入排查,发现spark-submit进程内也是没有问题的,只有当任务分发出去后,也就是在executor进程中才会出现。

通过查阅spark executor的源代码,发现其中的SparkHadoopUtil.scala中用到了如下代码

def runAsSparkUser(func: () => Unit) {
val user = Utils.getCurrentUserName()
logDebug("running as user: " + user)
val ugi = UserGroupInformation.createRemoteUser(user)
transferCredentials(UserGroupInformation.getCurrentUser(), ugi)
ugi.doAs(new PrivilegedExceptionAction[Unit] {
def run: Unit = func()
})
}
spark的executor进程本身已经通过doAs做过一次用户的设置了,于是只能对访问hbase kerberos的方式进行修改。

修改方式如下,以前的配置方法不变,调用loginUserFromKeytabAndReturnUGI返回ugi,调用ugi的doAs,在其中创建hbase的链接。

ugi = UserGroupInformation.loginUserFromKeytabAndReturnUGI("xxx", keyStr);
_conn = ugi.doAs(new PrivilegedAction<Connection>(){

@Override
public Connection run() {
// TODO Auto-generated method stub
try {
return ConnectionFactory.createConnection(conf);
} catch (IOException e) {
e.printStackTrace();
}

return null;
}

});


该修改方法应该也对yarn模式下出现的此情况有效。
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签: