SparkSQL极速入门 整合Kudu实现广告业务数据分析
大数据离线处理核心技术 初中级大数据工程师工作提升利器
以案例驱动,全面讲解Spark SQL大数据离线处理必备的知识点。使用Kudu整合Spark进行广告业务功能的实现,并针对已实现的需求代码进行调优;通过扩展Presto和大数据平台建设方面的相关内容,进一步提升技能。
适合人群
具备相关技术储备,想快速提升Spark技能以及想转行投身
大数据行业的小伙伴
技术储备要求
熟悉linux常用操作 / 熟悉SQL基本使用
了解Hadoop基础知识 / 了解Scala基本语法
试看链接:https://pan.baidu.com/s/1Qf65cTASKaOa7PdkwMMtLg?pwd=kpoq
相关推荐:
MySQL数据库集群-PXC方案|完结
慕课体系-大数据工程师2024版(完结38周)
章节目录:
-
第1章 课程介绍&学习指南 试看2 节 | 13分钟
本章会对这门课程进行说明并进行学习方法介绍。
- 视频:1-1 课程导学 (12:07)试看
- 图文:1-2 ***学前必读***(助你平稳踩坑,畅学无忧,课程学习与解决问题指南)
-
第2章 为什么要学Spark21 节 | 149分钟
Spark作为近几年最火爆的大数据处理技术,是成为大数据工程师必备的技能之一。本章节将从如下几个方面对Spark进行一个宏观上的介绍:Spark产生背景、特性、环境部署、Spark与Hadoop的对比、Spark开发语言及运行模式等。
- 视频:2-1 课程目录 (01:55)
- 视频:2-2 MapReduce的槽点 (12:37)
- 视频:2-3 Spark特性详解 (15:24)
- 视频:2-4 Spark Stack (04:11)
- 视频:2-5 OOTB环境的使用 (06:43)
- 视频:2-6 JDK部署 (04:33)
- 视频:2-7 Maven部署 (06:37)
- 视频:2-8 IDEA部署 (01:40)
- 视频:2-9 HDFS部署 (13:42)
- 视频:2-10 YARN部署 (02:16)
- 视频:2-11 Hive部署 (11:50)
- 视频:2-12 Spark运行模式 (03:45)
- 视频:2-13 使用IDEA和Maven开发第一个Spark应用程序 (15:32)
- 视频:2-14 词频统计按照单词出现次数的降序排列 (05:10)
- 视频:2-15 local模式下spark-shell的使用 (07:50)
- 视频:2-16 local模式下使用spark-submit提交Spark应用程序 (06:51)
- 视频:2-17 YARN模式下提交Spark应用程序 (08:32)
- 视频:2-18 Standalone模式下提交Spark应用程序 (08:13)
- 视频:2-19 Hadoop和Spark生态圈对比 (06:20)
- 视频:2-20 Hadoop与Spark对比 (02:30)
- 视频:2-21 Spark和Hadoop的相互协作 (02:21)
-
第3章 Spark SQL快速入门 试看14 节 | 88分钟
Spark SQL面世已来,深受小伙伴们的喜爱,继续为Spark用户提供高性能SQL on Hadoop解决方案,还为Spark带来了通用、高效、多元一体的结构化数据处理能力。本章将从为什么要学习SQL/Spark SQL、SQL on Hadoop框架、Spark SQL概述、架构及快速入门,这几个角度进行展开讲解…
- 视频:3-1 课程目录 (01:40)
- 视频:3-2 为什么需要SQL (06:51)
- 视频:3-3 SQL on Hadoop (14:52)
- 视频:3-4 详解Spark SQL是什么以及常见误区解读 (10:02)
- 视频:3-5 Spark SQL概述 (03:02)
- 视频:3-6 为什么要学习Spark SQL (03:40)
- 视频:3-7 Spark SQL架构 (07:00)
- 视频:3-8 spark-shell使用详解 (09:04)
- 视频:3-9 spark-sql使用详解并结合讲解Catalyst的执行过程 (09:16)
- 视频:3-10 spark-shell启动流程分析之uname以及case匹配的使用 (07:18)试看
- 视频:3-11 spark-shell启动流程分析之dirname和if的使用 (06:03)
- 视频:3-12 spark-shell启动流程分析之传递参数详解 (03:54)
- 视频:3-13 spark-shell启动流程分析之spark-submit (02:36)
- 视频:3-14 spark-sql启动流程分析 (02:29)
-
第4章 Spark SQL API编程12 节 | 96分钟
DataFrame&Dataset是Spark2.x中最核心的编程对象,Spark2.x中的子框架能够使用DataFrame或Dataset来进行数据的交互操作。本章将从DataFrame的概述、DataFrame对比RDD、DataFrame API操作等方面对DataFrame做详细的编程开发讲解。
- 视频:4-1 课程目录 (02:05)
- 视频:4-2 认知SparkSession (09:35)
- 视频:4-3 了解SQLContext (05:59)
- 视频:4-4 认识DataFrame (07:59)
- 视频:4-5 DataFrame API基本使用 (13:17)
- 视频:4-6 DataFrame中前N条的取值方式 (08:27)
- 视频:4-7 通过实战案例学习DataFrame常用API (10:21)
- 视频:4-8 Dataset概述及操作 (07:05)
- 视频:4-9 DataFrame vs Dataset (06:46)
- 视频:4-10 Interoperating with RDD概述 (04:38)
- 视频:4-11 实现方式一 (11:07)
- 视频:4-12 实现方式二 (07:58)
-
第5章 Data Source API 试看11 节 | 70分钟
Spark SQL中的核心功能,可以使用Data Source API非常方便的对存储在不同系统上的不同格式的数据进行操作。本章将讲解如何使用Data Source API来操作text、json、Parquet、JDBC中的数据以及综合使用。
- 视频:5-1 课程目录 (05:13)
- 视频:5-2 Data Source概述 (04:58)试看
- 视频:5-3 text数据源读写案例 (08:49)
- 视频:5-4 SaveMode的使用详解 (05:25)
- 视频:5-5 json数据源案例 (07:33)
- 视频:5-6 Data Source API标准写法 (06:15)
- 视频:5-7 Parquet数据源案例 (04:18)
- 视频:5-8 Data Source格式转换 (03:15)
- 视频:5-9 jdbc数据源案例 (10:42)
- 视频:5-10 通过统一配置参数管理工程中使用到的参数 (12:53)
- 作业:5-11 【讨论题】关于拉链表得思考
-
第6章 整合Hive操作及函数9 节 | 59分钟
如何使用Spark对接已有数据仓库Hive中的数据,这是在生产中常见的问题。本章将讲解如何使用Spark无缝对接Hive中已有数据进行处理,thriftserver的使用、以及如何使用Spark SQL中的内置函数以及自定义函数。
- 视频:6-1 课程目录 (03:01)
- 视频:6-2 Spark对接Hive的原理及实操 (09:23)
- 视频:6-3 thriftserver&beeline的使用 (08:11)
- 视频:6-4 使用代码连接Server (04:55)
- 视频:6-5 Server模式vs例行作业模式(思考题) (04:12)
- 视频:6-6 hive数据源案例 (09:00)
- 视频:6-7 Spark SQL内置函数实战 (10:41)
- 视频:6-8 Spark SQL自定义UDF实战 (09:25)
- 作业:6-9 【讨论题】关于Spark ThriftServer的HA问题
-
第7章 Kudu入门7 节 | 73分钟
近两年,KUDU在大数据平台的应用越来越广泛,她是Cloudera开源的运行在Hadoop平台上的列式存储系统,能够为我们提供“fast analytics on fast data”。本章将从Kudu的核心概念、架构、部署、API操作以及Spark整合Kudu的使用展开讲解。…
- 视频:7-1 课程目录 (01:28)
- 视频:7-2 kudu概述&核心概念&架构 (21:30)
- 视频:7-3 kudu部署 (14:10)
- 视频:7-4 API操作之创建表 (10:28)
- 视频:7-5 API操作之插入数据&删除表&数据查询 (10:00)
- 视频:7-6 API操作之修改表数据及表名 (04:58)
- 视频:7-7 Spark整合Kudu的读写操作 (10:01)
-
第8章 基于Spark SQL和Kudu的广告业务项目实战(一)12 节 | 118分钟
本章使用Spark SQL整合Kudu对广告业务项目进行统计分析操作。涉及到的过程有:项目架构、数据清洗、数据统计、结果入库、项目重构。通过本实战项目将Spark SQL和Kudu中的知识点融会贯通,达到举一反三的效果 。
- 视频:8-1 课程目录 (02:08)
- 视频:8-2 广告业务背景 (10:00)
- 视频:8-3 项目需求 (02:47)
- 视频:8-4 项目架构及数据处理流程 (22:04)
- 视频:8-5 日志字段说明 (10:27)
- 视频:8-6 需求一之IP规则库解析 (13:16)
- 视频:8-7 需求一之使用API编程完成日志ip字段解析 (09:08)
- 视频:8-8 需求一之使用SQL方式完成日志ip字段解析 (05:49)
- 视频:8-9 需求一之ODS数据落地到Kudu (09:32)
- 视频:8-10 需求一之落地到Kudu表重构 (09:31)
- 视频:8-11 需求二功能实现 (13:20)
- 视频:8-12 需求一二代码结构大重构 (09:04)
-
第9章 基于Spark SQL和Kudu的广告业务项目实战(二)9 节 | 80分钟
基于上一章节做更复杂维度的统计分析,作业的封装、调度。
- 视频:9-1 课程目录 (02:02)
- 视频:9-2 需求三之第一阶段统计功能实现 (18:17)
- 视频:9-3 需求三之第二阶段统计功能实现 (03:56)
- 视频:9-4 需求三之统计结果落地到Kudu (03:43)
- 视频:9-5 需求四功能实现 (07:35)
- 视频:9-6 通过参数传递到Spark作业重构代码并打包 (15:19)
- 视频:9-7 将项目运行在服务器上 (14:22)
- 视频:9-8 定时调度提交Spark作业到服务器运行 (10:00)
- 视频:9-9 本章节小结 (03:47)
-
第10章 Spark调优策略10 节 | 67分钟
Spark应用调优是一个在生产上或者面试中老生常谈的问题,本章节将从资源设置、广播变量、Shuffle、JVM引发的相关角度逐一展开讲解。
- 视频:10-1 课程目录 (03:07)
- 视频:10-2 调优之资源设置 (11:45)
- 视频:10-3 广播变量在Spark中的使用一 (13:10)
- 视频:10-4 广播变量在Spark中是使用二 (05:31)
- 视频:10-5 广播变量思考题(重要) (02:42)
- 视频:10-6 Shuffle调优 (07:34)
- 视频:10-7 Spark与GC相关概念理解 (07:41)
- 视频:10-8 JVM GC引起的问题调优 (07:32)
- 视频:10-9 其他调优 (07:21)
- 作业:10-10 【讨论题】关于数据倾斜的思考
-
第11章 Presto初识8 节 | 53分钟
Preso也是当下用的非常多的一种SQL on Hadoop的解决方案。本章节将从Presto架构、API操作等角度出发,通过一个案例来进行综合演练。
- 视频:11-1 课程目录 (02:35)
- 视频:11-2 Presto是什么&能做什么&谁在使用它 (08:09)
- 视频:11-3 Presto架构 (06:19)
- 视频:11-4 Presto部署 (11:08)
- 视频:11-5 整合MySQL Connector (08:11)
- 视频:11-6 整合Hive Connector (04:36)
- 视频:11-7 Presto整合多个Connector操作 (06:43)
- 视频:11-8 Presto API操作 (05:17)
-
第12章 云平台建设的思考11 节 | 59分钟
本章将从如何建设大数据云平台的角度,涉及到数据平台的N个方面,是小伙伴以后进入大厂工作奠定基础,同时也会从Spark vs Flink的角度来为小伙伴们分析选型时的疑惑。
- 视频:12-1 课程目录 (02:58)
- 视频:12-2 大数据项目和平台的差异性对比 (06:59)
- 视频:12-3 认知云平台能为我们提供的能力 (07:45)
- 视频:12-4 大数据云平台功能架构 (09:52)
- 视频:12-5 数据湖架构 (05:41)
- 视频:12-6 数据存储和计算角度剖析 (07:57)
- 视频:12-7 资源角度剖析 (05:25)
- 视频:12-8 兼容性角度剖析 (03:54)
- 视频:12-9 执行引擎和运行方式适配角度剖析 (02:46)
- 视频:12-10 Spark和Flink的选择 (05:28)
- 作业:12-11 【讨论题】关于小文件的思考
-
第13章 (讨论群内直播内容分享)Spark3新特性6 节 | 47分钟
Spark3是一个里程碑版的版本,其中包含很多新的特性,本次直播中主要带大家知晓新特性有哪些,以及讲解动态分区裁剪、外部数据源V2、自适应查询执行等相关知识。
- 视频:13-1 Spark概述 (15:30)
- 视频:13-2 Spark3.x新特性 (05:13)
- 视频:13-3 DataSource API V2 (09:51)
- 视频:13-4 动态分区裁剪 (06:34)
- 视频:13-5 自适应查询执行 (08:57)
- 作业:13-6 【讨论题】简历项目问题
-
第14章 【福利加餐】Spark SQL必考的SQL功能及窗口函数19 节 | 92分钟
在离线业务的各种业务指标分析时,行列互转、累积问题及窗口函数是在工作以及面试时必须要掌握的技能。在本章节的课程中,将会通过知识点和案例带大家一起来掌握这项必备的技能。
- 视频:14-1 课程目录 (01:30)
- 视频:14-2 行转列功能需求分析 (04:40)
- 视频:14-3 行转列数据准备 (01:29)
- 视频:14-4 列转行功能需求分析 (02:52)
- 视频:14-5 转行功能实现 (03:52)
- 视频:14-6 窗口函数概述 (09:32)
- 视频:14-7 窗口函数之累计求和操作 (06:10)
- 视频:14-8 窗口函数之窗口划分原则 (08:38)
- 视频:14-9 窗口函数之NTILE的使用 (06:16)
- 视频:14-10 窗口函数之ROW_NUMBER&RANK&DENSE_RANK (05:29)
- 视频:14-11 窗口函数之LEAD&LAG (06:53)
- 视频:14-12 窗口函数之FIRST_VALUE和LAST_VALUE (02:43)
- 视频:14-13 窗口函数之CUME_DIST&PERCENT_RANK (07:00)
- 视频:14-14 窗口函数实战之数据准备 (02:31)
- 视频:14-15 窗口函数实战之功能一实现 (13:05)
- 视频:14-16 窗口函数实战之功能二实现 (02:52)
- 视频:14-17 窗口函数实战之功能三实现 (02:39)
- 视频:14-18 窗口函数实战之功能四实现 (02:00)
- 视频:14-19 作业 (01:22)
-
第15章 【福利加餐】基于Spark SQL的UDF函数开发及使用6 节 | 50分钟
强大的Spark SQL为我们自带了很多有用的函数,但在实际工作中还是需要我们自定义UDF函数来满足业务上的需求。在本章节的课程中,将为大家带来在Spark SQL中如何自定义UDF函数,以及在SQL和API的场景中关于UDF函数的使用。
- 视频:15-1 01-课程目录 (02:25)
- 视频:15-2 02-SQL结合自定义UDF函数 (13:43)
- 视频:15-3 03-API结合自定义UDF函数 (04:39)
- 视频:15-4 04-自定义UDF函数实现拼接功能 (11:59)
- 视频:15-5 05-自定义UDAF函数 (13:04)
- 视频:15-6 06-自定义UDAF函数扩展 (04:09)