其他分享
首页 > 其他分享> > idea下spark连接hive

idea下spark连接hive

作者:互联网

spark连接hive步骤

  1. 将core-site.xml、hdfs-site.xml 、hive-site.xml放到配置文件夹下
  2. 设置hadoop用户名
    System.setProperty("HADOOP_USER_NAME","hadoop");
  1. 开启spark对hive的支持
val spark: SparkSession = SparkSession.builder()
      .appName(s"${this.getClass.getSimpleName}")
      //开启hive支持
      .enableHiveSupport()
      .master("local[*]")
      .getOrCreate()

标签:xml,SparkSession,hadoop,hive,idea,site,spark
来源: https://www.cnblogs.com/lcy2020/p/14210503.html