Spark on Hive
作者:互联网
文章目录
Spark on Hive 的配置
1.在spark安装包的conf目录下创建文件hive-site.xml文件配置 hive 的 metastore 路径
hive.metastore.uristhrift://node1:9083
2.启动hive的metastore服务
hive --service metastore &
3.启动 zookeeper 集群,启动 HDFS 集群
4. 启动 SparkShell 读取 Hive 中的表总数,对比 hive 中查询同一表查询总数测试时间。
具体java代码实现
import org.apache.spark.SparkConf;import org.apache.spark.api.java.JavaSparkContext;import org.apache.spark.sql.DataFrame;import org.apache.spark.sql.Row;import org.apache.spark.sql.SaveMode;import org.apache.spark.sql.hive.HiveContext;public class CreateDFFromHiveLocalTest { //-Xms800m -Xmx800m -XX:PermSize=64M -XX:MaxNewSize=256m -XX:MaxPermSize=128m public static void main(String[] args) { SparkConf conf = new SparkConf(); conf.setAppName("hive").setMaster("local"); JavaSparkContext sc = new JavaSparkContext(conf); //HiveContext是SQLContext的子类。 HiveContext hiveContext = new HiveContext(sc); hiveContext.sql("USE spark"); hiveContext.sql("DROP TABLE IF EXISTS student_infos"); //在hive中创建student_infos表 hiveContext.sql("CREATE TABLE IF NOT EXISTS student_infos (name STRING,age INT) row format delimited fields terminated by '\t' "); hiveContext.sql("load data local inpath 'data/student_infos' into table student_infos"); hiveContext.sql("DROP TABLE IF EXISTS student_scores"); hiveContext.sql("CREATE TABLE IF NOT EXISTS student_scores (name STRING, score INT) row format delimited fields terminated by '\t'"); hiveContext.sql("LOAD DATA " + "LOCAL INPATH 'data/student_scores'" + "INTO TABLE student_scores"); /** * 查询表生成DataFrame */// DataFrame df = hiveContext.table("student_infos");//第二种读取Hive表加载DF方式 DataFrame goodStudentsDF = hiveContext.sql("SELECT si.name, si.age, ss.score " + "FROM student_infos si " + "JOIN student_scores ss " + "ON si.name=ss.name " + "WHERE ss.score>=80"); hiveContext.sql("DROP TABLE IF EXISTS good_student_infos"); goodStudentsDF.registerTempTable("goodstudent"); DataFrame result = hiveContext.sql("select * from goodstudent"); result.show(); /** * 将结果保存到hive表 good_student_infos */ goodStudentsDF.write().mode(SaveMode.Overwrite).saveAsTable("good_student_infos"); Row[] goodStudentRows = hiveContext.table("good_student_infos").collect(); for(Row goodStudentRow : goodStudentRows) { System.out.println(goodStudentRow); } sc.stop(); }}
注意
如果使用 Spark on Hive 查询数据时,出现错误:
找不到 HDFS 集群路径,要在客户端机器 conf/spark-env.sh 中设置DFS 的 路 径
标签:hiveContext,hive,Hive,student,sql,spark,Spark,infos 来源: https://blog.51cto.com/u_13985831/2836522