其他分享
首页 > 其他分享> > 数据实时处理项目实战Spark Streaming第一天——概述

数据实时处理项目实战Spark Streaming第一天——概述

作者:互联网

1、实时需求:
输入数据是以序列化的方式一个个输入并进行处理的,在开始时并不知道所有的输入数据。与离线计算相比,运行时间短,计算量相对较小,强调计算过程的时间要短,即所查当下给出结果。
2、数据流程设计:

数据来源有两部分:
第一部分是web/App交互的业务日志数据(暂不讨论这部分);
第二部分是前端埋点用户行为数据(即用户点击操作等产生的数据),这里采用模拟生成数据的方式,编写日志服务器Springboot程序接收数据,使用Nginx进行负载均衡,然后发送给kafka…(后面做到再讲)
本项目需求:

  1. 当日用户首次登陆(日活)分时趋势图,昨日对比
    从项目的日志中获取用户的启动日志,如果是当日第一次启动,纳入统计。将统计结果保存到 ES 中,利用Kibana 进行分析展示
    在这里插入图片描述
  2. 当日新增付费用户(首单)分析(ods+dwd)
    按省份|用户性别|用户年龄段,统计当日新增付费用户首单平均消费及人数占比;无论是省份名称、用户性别、用户年龄,订单表中都没有这些字段,需要订单(事实表)和维度表(省份、用户)进行关联,形成宽表后将数据写入到 ES,通过 Kibana 进行分析以及图形展示。
    在这里插入图片描述
  3. 订单明细实付金额分摊体积交易额统计(dws)
    在这里插入图片描述
  4. ADS聚合及可视化(ads)
    以热门品牌统计为案例
    在这里插入图片描述
    采用到的技术:
    在这里插入图片描述

标签:实时处理,省份,用户,Streaming,当日,Spark,数据,日志,统计
来源: https://blog.csdn.net/yunweijie_cn/article/details/121431246