其他分享
首页 > 其他分享> > 离线电商数仓(四十九)之系统业务数据仓库(二十)数据导出与全流程调度

离线电商数仓(四十九)之系统业务数据仓库(二十)数据导出与全流程调度

作者:互联网

1 Sqoop导出脚本

1)编写Sqoop导出脚本

在/home/atguigu/bin目录下创建脚本hiveTomysql.sh

[atguigu@hadoop102 bin]$ vim hiveTomysql.sh

在脚本中填写如下内容

 

#!/bin/bash

hive_db_name=gmall
mysql_db_name=gmall_view

export_data() {
/opt/module/sqoop/bin/sqoop export \
--connect "jdbc:mysql://hadoop102:3306/${mysql_db_name}?useUnicode=true&characterEncoding=utf-8"  \
--username root \
--password 000000 \
--table $1 \
--num-mappers 1 \
--export-dir /warehouse/$hive_db_name/ads/$1 \
--input-fields-terminated-by "\t" \
--update-mode allowinsert \
--update-key $2 \
--input-null-string '\\N'    \
--input-null-non-string '\\N'
}

case $1 in
  "ads_uv_count")
     export_data "ads_uv_count" "dt"
;;
  "ads_user_action_convert_day") 
     export_data "ads_user_action_convert_day" "dt"
;;
  "ads_gmv_sum_day")
     export_data "ads_gmv_sum_day" "dt"
;;
  "ads_user_topic")
     export_data "ads_user_topic" "dt"
;;
   "all")
     export_data "ads_uv_count" "dt"
     export_data "ads_user_action_convert_day" "dt"
     export_data "ads_gmv_sum_day" "dt"
     export_data "ads_user_topic" "dt"
;;
esac

 

 关于导出update还是insert的问题

updateonly   只更新,无法插入新数据

        allowinsert   允许新增 

分别表示,将字符串列和非字符串列的空串和“null”转义。

官网地址:http://sqoop.apache.org/docs/1.4.6/SqoopUserGuide.html

Sqoop will by default import NULL values as string null.
Hive is however using string \N to denote NULL values and therefore predicates dealing with NULL(like IS NULL) will not work correctly.
You should append parameters --null-string and --null-non-string in case of import job or --input-null-string and --input-null-non-string in case of an export job if you wish to properly preserve NULL values.
Because sqoop is using those parameters in generated code, you need to properly escape value \N to \\N:

Hive中的Null在底层是以“\N”来存储,而MySQL中的Null在底层就是Null,为了保证数据两端的一致性。在导出数据时采用--input-null-string和--input-null-non-string两个参数。导入数据时采用--null-string和--null-non-string。

3)执行Sqoop导出脚本

[atguigu@hadoop102 bin]$ chmod 777 hiveTomysql.sh

[atguigu@hadoop102 bin]$ hiveTomysql.sh all

4)在MySQL中查看结果

SELECT * FROM ads_uv_count;

SELECT * FROM ads_user_retention_day_rate;

SELECT * FROM ads_user_action_convert_day;

SELECT * FROM ads_gmv_sum_day;

SELECT * FROM ads_gmv_sum_province;

2 Azkaban安装

详见:尚硅谷大数据技术之Azkaban

3 会员主题指标获取的全调度流程

1)修改配置文件中时间,生成数据

[atguigu@hadoop102 db_log]$ java -jar gmall-mock-db.jar

2)编写Azkaban程序运行job

(1)import.job文件

type=command
do_date=${dt}
command=/home/atguigu/bin/sqoop_import.sh all ${do_date}

(2)ods.job文件

type=command
do_date=${dt}
dependencies=import
command=/home/atguigu/bin/hdfs_to_ods_db.sh ${do_date}

(3)dwd.job文件

type=command
do_date=${dt}
dependencies=ods
command=/home/atguigu/bin/ods_to_dwd_db.sh ${do_date}

(4)dws.job文件

 

type=command
do_date=${dt}
dependencies=dwd
command=/home/atguigu/bin/dwd_to_dws.sh ${do_date}

 

(5)dwt.job文件

 

type=command
do_date=${dt}
dependencies=dws
command=/home/atguigu/bin/dws_to_dwt.sh ${do_date}    

 

(6)ads.job文件

 

type=command
do_date=${dt}
dependencies=dwt
command=/home/atguigu/bin/ads_user_topic.sh ${do_date}

 

(7)export.job文件

 

type=command
dependencies=ads
do_date=${dt}
command=/home/atguigu/bin/hiveTomysql.sh ads_user_topic ${do_date}

 

(8)将以上6个文件压缩成user-topic-job.zip文件

3)创建Azkaban工程,并上传user-topic-job.zip文件。

4)在浏览器中输入https://hadoop102:8443,并在页面上创建工程执行gmv-job.zip任务。

5)等待大约20分钟,在MySQL中查看结果

 

select * from ads_user_topic;

 

标签:商数,do,ads,--,离线,数据仓库,dt,null,string
来源: https://www.cnblogs.com/qiu-hua/p/13598678.html