数据库
首页 > 数据库> > pyspark.sql.utils.AnalysisException: u"Table or view not found:`ods_fpos`.`sales_order_item_pro

pyspark.sql.utils.AnalysisException: u"Table or view not found:`ods_fpos`.`sales_order_item_pro

作者:互联网

解决 

pyspark.sql.utils.AnalysisException: u"Table or view not found:`ods_fpos`.`sales_order_item_promotion`

第一步:启动 hive的metastore元数据服务

hive --service metastore

第二步:配置hive的元数据

conf = SparkConf()  # 创建spark config 对象
        config = (
            ("spark.app.name",self.SPARK_APP_NAME), # 设置启动spark 的app名字
            ("spark.executor.memory",self.SPARK_EXECUTOR_MEMORY), # 设置app启动时占用的内存用量
            ('spark.executor.cores',self.SPARK_EXECUTOR_CORE), # 设置spark executor使用的CPU核心数,默认是1核心
            ("spark.master", self.SPARK_URL),  # spark master的地址
            ("spark.executor.instances", self.SPARK_EXECUTOR_INSTANCES),
            # ("spark.sql.warehouse.dir",self.HIVE_URL),
            ("hive.metastore.uris",self.HIVE_METASTORE),

        )
        conf.setAll(config)

第三步:设置配置

SparkSession.builder.config(conf=conf).enableHiveSupport().getOrCreate()

 

标签:pyspark,AnalysisException,self,hive,conf,found,spark,config,SPARK
来源: https://www.cnblogs.com/Live-up-to-your-youth/p/15919069.html