您的位置:首页 > 其它

spark使用hive出错,添加以下配置

2016-05-12 10:40 344 查看
错误:Failed to start database 'metastore_db' with class loader org.apache.spark.sql

SPARK_HOME/CONF/spark-env.sh中配置:

export HIVE_CONF_DIR=/opt/modules/hive-1.0.1/conf

export CLASSPATH=$CLASSPATH:/opt/modules/hive-1.0.1/lib

export SPARK_CLASSPATH=$SPARK_CLASSPATH:/opt/modules/hive-1.0.1/lib/mysql-connector-java-5.1.37-bin.jar

将hive-site.xml拷贝到SPARK_HOME/conf下

cp hive-site.xml /opt/modules/spark-1.6.0-bin-hadoop2.6/conf/
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签: