博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
41、Hive数据源复杂综合案例
阅读量:5220 次
发布时间:2019-06-14

本文共 5399 字,大约阅读时间需要 17 分钟。

一、Hive数据源案例

1、概述

Spark SQL支持对Hive中存储的数据进行读写。操作Hive中的数据时,必须创建HiveContext,而不是SQLContext。HiveContext继承自SQLContext,但是增加了在Hive元数据库中查找表,以及用HiveQL语法编写SQL的功能。除了sql()方法,HiveContext还提供了hql()方法,从而用Hive语法来编译sql。使用HiveContext,可以执行Hive的大部分功能,包括创建表、往表里导入数据以及用SQL语句查询表中的数据。查询出来的数据是一个Row数组。将hive-site.xml拷贝到spark/conf目录下,将mysql connector拷贝到spark/lib目录下!!!HiveContext sqlContext = new HiveContext(sc);sqlContext.sql("CREATE TABLE IF NOT EXISTS students (name STRING, age INT)");sqlContext.sql("LOAD DATA LOCAL INPATH '/usr/local/spark-study/resources/students.txt' INTO TABLE students");Row[] teenagers = sqlContext.sql("SELECT name, age FROM students WHERE age<=18").collect();##将数据保存到表中Spark SQL还允许将数据保存到Hive表中。调用DataFrame的saveAsTable命令,即可将DataFrame中的数据保存到Hive表中。与registerTempTable不同,saveAsTable是会将DataFrame中的数据物化到Hive表中的,而且还会在Hive元数据库中创建表的元数据。默认情况下,saveAsTable会创建一张Hive Managed Table,也就是说,数据的位置都是由元数据库中的信息控制的。当Managed Table被删除时,表中的数据也会一并被物理删除。registerTempTable只是注册一个临时的表,只要Spark Application重启或者停止了,那么表就没了。而saveAsTable创建的是物化的表,无论Spark Application重启或者停止,表都会一直存在。调用HiveContext.table()方法,还可以直接针对Hive中的表,创建一个DataFrame。案例:查询分数大于80分的学生的完整信息

2、java案例实现

package cn.spark.study.sql;import org.apache.spark.SparkConf;import org.apache.spark.api.java.JavaSparkContext;import org.apache.spark.sql.DataFrame;import org.apache.spark.sql.Row;import org.apache.spark.sql.hive.HiveContext;/** * Hive数据源 * @author Administrator * */public class HiveDataSource {    @SuppressWarnings("deprecation")    public static void main(String[] args) {        // 首先还是创建SparkConf        SparkConf conf = new SparkConf()                .setAppName("HiveDataSource");        // 创建JavaSparkContext        JavaSparkContext sc = new JavaSparkContext(conf);        // 创建HiveContext,注意,这里,它接收的是SparkContext作为参数,不是JavaSparkContext        HiveContext hiveContext = new HiveContext(sc.sc());                // 第一个功能,使用HiveContext的sql()方法,可以执行Hive中能够执行的HiveQL语句                // 判断是否存在student_infos表,如果存在则删除        hiveContext.sql("DROP TABLE IF EXISTS student_infos");        // 判断student_infos表是否不存在,如果不存在,则创建该表        hiveContext.sql("CREATE TABLE IF NOT EXISTS student_infos (name STRING, age INT)");        // 将学生基本信息数据导入student_infos表        hiveContext.sql("LOAD DATA "                + "LOCAL INPATH '/usr/local/spark-study/resources/student_infos.txt' "                + "INTO TABLE student_infos");                // 用同样的方式给student_scores导入数据        hiveContext.sql("DROP TABLE IF EXISTS student_scores");         hiveContext.sql("CREATE TABLE IF NOT EXISTS student_scores (name STRING, score INT)");          hiveContext.sql("LOAD DATA "                + "LOCAL INPATH '/usr/local/spark-study/resources/student_scores.txt' "                + "INTO TABLE student_scores");                // 第二个功能,执行sql还可以返回DataFrame,用于查询                // 执行sql查询,关联两张表,查询成绩大于80分的学生        DataFrame goodStudentsDF = hiveContext.sql("SELECT si.name, si.age, ss.score "                + "FROM student_infos si "                + "JOIN student_scores ss ON si.name=ss.name "                + "WHERE ss.score>=80");                // 第三个功能,可以将DataFrame中的数据,理论上来说,DataFrame对应的RDD的元素,是Row即可        // 将DataFrame中的数据保存到hive表中                // 接着将DataFrame中的数据保存到good_student_infos表中        hiveContext.sql("DROP TABLE IF EXISTS good_student_infos");          goodStudentsDF.saveAsTable("good_student_infos");                  // 第四个功能,可以用table()方法,针对hive表,直接创建DataFrame                // 然后针对good_student_infos表,直接创建DataFrame        Row[] goodStudentRows = hiveContext.table("good_student_infos").collect();          for(Row goodStudentRow : goodStudentRows) {            System.out.println(goodStudentRow);          }                sc.close();    }    }
 
###可以登录hive,查看表数据;
###列之间有SOH分隔符[root@spark1 resources]# cat student_infos.txt leo18marry17jack19[root@spark1 resources]# cat student_scores.txt leo88marry99jack76

3、scala案例实现

package cn.spark.study.sqlimport org.apache.spark.SparkConfimport org.apache.spark.SparkContextimport org.apache.spark.sql.hive.HiveContext/** * @author Administrator */object HiveDataSource {    def main(args: Array[String]): Unit = {    val conf = new SparkConf()        .setAppName("HiveDataSource");    val sc = new SparkContext(conf);    val hiveContext = new HiveContext(sc);        hiveContext.sql("DROP TABLE IF EXISTS student_infos");    hiveContext.sql("CREATE TABLE IF NOT EXISTS student_infos (name STRING, age INT)");    hiveContext.sql("LOAD DATA "        + "LOCAL INPATH '/usr/local/spark-study/resources/student_infos.txt' "        + "INTO TABLE student_infos");        hiveContext.sql("DROP TABLE IF EXISTS student_scores");     hiveContext.sql("CREATE TABLE IF NOT EXISTS student_scores (name STRING, score INT)");      hiveContext.sql("LOAD DATA "        + "LOCAL INPATH '/usr/local/spark-study/resources/student_scores.txt' "        + "INTO TABLE student_scores");        val goodStudentsDF = hiveContext.sql("SELECT si.name, si.age, ss.score "        + "FROM student_infos si "        + "JOIN student_scores ss ON si.name=ss.name "        + "WHERE ss.score>=80");        hiveContext.sql("DROP TABLE IF EXISTS good_student_infos");      goodStudentsDF.saveAsTable("good_student_infos");          val goodStudentRows = hiveContext.table("good_student_infos").collect();      for(goodStudentRow <- goodStudentRows) {      println(goodStudentRow);      }  }  }

转载于:https://www.cnblogs.com/weiyiming007/p/11288035.html

你可能感兴趣的文章
POJ-1830 开关问题 高斯消元 | 搜索
查看>>
WEB_web2
查看>>
Spring进阶—如何用Java代码实现邮件发送(二)
查看>>
[LeetCode] 513. Find Bottom Left Tree Value
查看>>
LCIS
查看>>
算法:六种比较排序算法
查看>>
ztree总结
查看>>
Java&Selenium自动化测试之Page Object Model
查看>>
TynSerial流的序列(还原)
查看>>
我的Go语言学习之旅二:入门初体验 Hello World
查看>>
输入password登录到主界面,录入学生编号,排序后输出
查看>>
Java 实现适配器(Adapter)模式
查看>>
C#编程(二十五)----------接口
查看>>
Django笔记 3
查看>>
为openstack 制作CentOS镜像
查看>>
(六)电子邮件
查看>>
pip 或 pip3 升级操作
查看>>
[经验]创建支持多地区的分站功能
查看>>
鸡啄米vc++2010系列45(Ribbon界面开发:为Ribbon Bar添加控件)
查看>>
c如何弹出保存路径/保存文件对话框
查看>>