Spark 部署与应用程序交互简单使用说明


文章目录

    • 前言
    • 步骤一:下载安装包
      • Spark的目录和文件
    • 步骤二:使用Scala或PySpark Shell
      • 本地 shell 运行
    • 步骤3:理解Spark应用中的概念
      • Spark Application and SparkSession
      • Spark Jobs
      • Spark Stages
      • Spark Tasks
    • 转换、立即执行操作和延迟求值
      • 窄变换和宽变换
    • Spark UI
    • 单机的应用程序
      • 计算巧克力豆的数量
      • 单机编译 Scala 程序
    • 总结

前言

本文将讲解 Spark 的部署,并通过三个简单的步骤来编写一个独立应用程序。
我们将使用本地模式,其中所有的处理都是在Spark shell中的一台机器上完成的——这是学习框架的一种简单方法,迭代执行的方式可以及时反馈直接结果。使用Spark shell,可以在编写复杂的Spark应用程序之前使用小数据集对Spark进行操作验证,但是对于想要获得分布式执行好处的大数据集或生产环境,建议使用YARN或Kubernetes部署模式。
虽然Spark shell只支持Scala、Python和R,但你可以用任何支持的语言(包括Java)编写Spark应用程序,并使用Spark SQL发出查询。

步骤一:下载安装包

进入Spark下载页面,在步骤2的下拉菜单中选择“Pre-built for Apache Hadoop 3.3”,然后点击步骤3中的“download Spark”链接(如图2-1所示)。
image.png
图2 - 1. Apache Spark下载页面
这将下载压缩包spark-3.5.1-bin-hadoop3.tgz。它包含在笔记本电脑上以本地模式运行Spark所需的所有与hadoop相关的二进制文件。或者,如果要将它安装在现有的HDFS或Hadoop安装上,可以从下拉菜单中选择匹配的Hadoop版本。如果想要以源码编译的方式部署,可以在官方文档中相关内容。
自Apache Spark 2.2发布以来,只关心在Python中学习Spark的开发人员可以选择从PyPI存储库安装PySpark。如果你只用Python编程,你不需要安装运行Scala、Java或R所需的所有其他库; 要从PyPI安装PySpark,只需运行pip install PySpark
可以通过pip install pyspark[SQL, ML, MLlib]安装SQL, ML和MLlib的一些额外依赖项(如果只想要SQL依赖项,也可以通过pip install pyspark[SQL])。

NOTE
需要在机器上安装Java 8或更高版本,并设置JAVA_HOME环境变量。有关如何下载和安装Java的说明,请参阅文档。

如果想以解释性shell模式运行R,则必须先安装R,然后再运行sparkR。要使用R进行分布式计算,还可以使用R社区创建的开源项目sparklyr

Spark的目录和文件

本文中的所有命令和指令都是在 Unix 系统上运行的。下载完tarball后,cd到下载目录,使用tar -xf spark-3.5.1-bin-hadoop3.tgz解压tarball内容,其中内容如下:

$ cd spark-3.0.0-preview2-bin-hadoop2.7
$ ls
LICENSE   R          RELEASE   conf    examples   kubernetes  python   yarn
NOTICE    README.md  bin       data    jars       licenses    sbin

README.md

  • 这个文件包含了关于如何使用Spark shell、如何从源代码构建Spark、如何运行独立的Spark示例、如何阅读Spark文档和配置指南的链接,以及如何为Spark做出贡献的新的详细说明.

bin

  • 顾名思义,该目录包含用于与Spark交互的大多数脚本,包括Spark shell (Spark -sql、pyspark、Spark -shell和sparkR)。我们将在后面使用这个目录中的shell和可执行文件,使用Spark -submit提交一个独立的Spark应用程序,并编写一个脚本,在Kubernetes支持下运行Spark时构建和推送Docker 镜像。

sbin

  • 该目录中的大多数脚本都是用于管理的,用于在集群的各种部署模式下启动和停止Spark组件。

kubernetes

  • 自从Spark 2.4发布以来,这个目录包含了用于在Kubernetes集群上为Spark发行版创建Docker镜像的Dockerfiles。它还包含一个文件,提供如何在构建Docker映像之前构建Spark发行版的说明。

data

  • 该目录中填充了*.txt文件,这些文件作为Spark组件的输入:MLlib、Structured Streaming和GraphX。

examples

  • Spark提供了Java、Python、R和Scala的示例,可以在学习该框架时用到它们。

步骤二:使用Scala或PySpark Shell

如前所述,Spark附带了四个广泛使用的解释器,它们就像交互式“shell”一样,支持临时数据分析:pyspark、Spark -shell、Spark-sql和sparkR。
这些shell已经支持连接到集群,并允许你将分布式数据加载到Spark worker的内存中。无论你是在处理千兆字节的数据还是小数据集,Spark shell都有助于快速学习Spark。
要启动PySpark, cd到 bin 目录并输入PySpark启动shell。如果你已经从PyPI安装了PySpark,那么只需输入PySpark就足够了:

$ pyspark
Python 3.7.3 (default, Mar 27 2019, 09:23:15)
[Clang 10.0.1 (clang-1001.0.46.3)] on darwin
Type "help", "copyright", "credits" or "license" for more information.
20/02/16 19:28:48 WARN NativeCodeLoader: Unable to load native-hadoop library 
for your platform... using builtin-java classes where applicable
Welcome to____              __/ __/__  ___ _____/ /___\ \/ _ \/ _ `/ __/  '_//__ / .__/\_,_/_/ /_/\_\   version 3.0.0-preview2/_/Using Python version 3.7.3 (default, Mar 27 2019 09:23:15)
SparkSession available as 'spark'.
>>> spark.version
'3.0.0-preview2'
>>>

要用Scala启动一个类似的Spark shell, cd到bin目录并输入Spark -shell:

$ spark-shell
20/05/07 19:30:26 WARN NativeCodeLoader: Unable to load native-hadoop library 
for your platform... using builtin-java classes where applicable
Spark context Web UI available at http://10.0.1.7:4040
Spark context available as 'sc' (master = local[*], app id = local-1581910231902)
Spark session available as 'spark'.
Welcome to____              __/ __/__  ___ _____/ /___\ \/ _ \/ _ `/ __/  '_//___/ .__/\_,_/_/ /_/\_\   version 3.0.0-preview2/_/Using Scala version 2.12.10 (Java HotSpot(TM) 64-Bit Server VM, Java 1.8.0_241)
Type in expressions to have them evaluated.
Type :help for more information.
scala> spark.version
res0: String = 3.0.0-preview2
scala>

本地 shell 运行

Spark计算被表示为算子。然后,这些算子被转换成低级的基于rdd的字节码作为任务,分发给Spark的执行器执行。
让我们看一个简短的示例,其中我们以DataFrame的形式读取文本文件,显示读取的字符串示例,并计算文件中的总行数。这个简单的例子说明了高级结构化api的使用。DataFrame上的show(10, false)操作只显示前10行,不截断。
默认情况下,截断布尔标志为true。下面是它在Scala shell中的样子:

scala> val strings = spark.read.text("../README.md")
strings: org.apache.spark.sql.DataFrame = [value: string]scala> strings.show(10, false)
+------------------------------------------------------------------------------+
|value                                                                         |
+------------------------------------------------------------------------------+
|# Apache Spark                                                                |
|                                                                              |
|Spark is a unified analytics engine for large-scale data processing. It       |
|provides high-level APIs in Scala, Java, Python, and R, and an optimized      |
|engine that supports general computation graphs for data analysis. It also    |
|supports a rich set of higher-level tools including Spark SQL for SQL and     |
|DataFrames, MLlib for machine learning, GraphX for graph processing,          |
| and Structured Streaming for stream processing.                              |
|                                                                              |
|<https://spark.apache.org/>                                                   |
+------------------------------------------------------------------------------+
only showing top 10 rowsscala> strings.count()
res2: Long = 109
scala>

让我们看一个使用Python解释性shell pyspark的类似示例:

$ pyspark
Python 3.7.3 (default, Mar 27 2019, 09:23:15)
[Clang 10.0.1 (clang-1001.0.46.3)] on darwin
Type "help", "copyright", "credits" or "license" for more information.
WARNING: An illegal reflective access operation has occurred
WARNING: Illegal reflective access by org.apache.spark.unsafe.Platform 
WARNING: Use --illegal-access=warn to enable warnings of further illegal 
reflective access operations
WARNING: All illegal access operations will be denied in a future release
20/01/10 11:28:29 WARN NativeCodeLoader: Unable to load native-hadoop library 
for your platform... using builtin-java classes where applicable
Using Spark's default log4j profile: org/apache/spark/log4j-defaults.properties
Setting default log level to "WARN".
To adjust logging level use sc.setLogLevel(newLevel). For SparkR, use 
setLogLevel(newLevel).
Welcome to____              __/ __/__  ___ _____/ /___\ \/ _ \/ _ `/ __/  '_//__ / .__/\_,_/_/ /_/\_\   version 3.0.0-preview2/_/Using Python version 3.7.3 (default, Mar 27 2019 09:23:15)
SparkSession available as 'spark'.
>>> strings = spark.read.text("../README.md")
>>> strings.show(10, truncate=False)
+------------------------------------------------------------------------------+
|value                                                                         |
+------------------------------------------------------------------------------+
|# Apache Spark                                                                |
|                                                                              |
|Spark is a unified analytics engine for large-scale data processing. It       |
|provides high-level APIs in Scala, Java, Python, and R, and an optimized      |
|engine that supports general computation graphs for data analysis. It also    |
|supports a rich set of higher-level tools including Spark SQL for SQL and     |
|DataFrames, MLlib for machine learning, GraphX for graph processing,          |
|and Structured Streaming for stream processing.                               |
|                                                                              |
|<https://spark.apache.org/>                                                   |
+------------------------------------------------------------------------------+
only showing top 10 rows>>> strings.count()
109
>>>

要退出任何Spark shell,按Ctrl-D。这种与Spark shell的快速交互不仅有利于快速学习,也有利于快速验证实验。
我们使用高级结构化api将文本文件读入Spark DataFrame而不是RDD,目前基本上已经很少直接使用 RDD 去操作数据,而是使用 API。

NOTE
在高级结构化api中表达的每一个计算都被分解为低级的RDD操作,然后转换为Scala字节码,供执行器的jvm使用。这个生成的RDD操作代码对用户来说是不可访问的,也与面向用户的RDD api不一样。

步骤3:理解Spark应用中的概念

要理解我们的示例代码在底层发生了什么,需要熟悉Spark应用程序的一些关键概念,以及代码如何作为任务在Spark执行器之间转换和执行:
Application

  • 使用Spark的 APIs 构建在Spark上的用户程序, 它由集群上的 driver 和 executors 组成。

SparkSession

  • 它提供了与底层Spark功能交互的入口点的一个实例化对象,并允许使用Spark的api对Spark进行编程。在交互式Spark shell中,Spark driver 会自动实例化一个SparkSession,而在Spark应用程序中,我们自己可以创建一个SparkSession对象。

Job

  • 由多个任务组成的并行计算,这些任务在响应Spark操作(例如,save() collect())时产生。

Stage

  • 每个任务被分成更小的任务集,称为阶段,这些阶段相互依赖。

Task

  • 将被发送到Spark executor 的操作命令或单个执行单元。

Spark Application and SparkSession

每个Spark application 的核心是Spark driver 程序,它创建一个SparkSession对象。当你使用Spark shell时,driver 是shell的一部分,并且创建了SparkSession对象(可通过变量Spark访问),正如在启动shell时在前面的示例中看到的那样。
在这些示例中,因为在笔记本电脑上本地启动了Spark shell,所以所有操作都在本地运行,在单个JVM中运行。但是,你可以像在本地模式下一样轻松地启动Spark shell来在集群上并行分析数据。命令Spark -shell——help或pyspark——help将向您展示如何连接到Spark集群管理器。图2-2显示了Spark在集群上的执行情况。
image.png
图2 - 2. 在Spark的分布式架构中,Spark组件通过Spark driver 进行通信
一旦有了SparkSession,就可以使用api对Spark进行编程来执行Spark操作。

Spark Jobs

在与Spark shell的交互会话中,Driver 将我们的Spark应用程序转换为一个或多个Spark作业(图2-3)。然后将每个作业转换为DAG。本质上,这就是Spark的执行计划,其中DAG中的每个节点可以是单个或多个Spark阶段。
image.png
图2 - 3. 创建一个或多个Spark作业的Spark Driver

Spark Stages

作为DAG节点的一部分,阶段是根据可以串行或并行执行的算子创建的(图2-4)。并非所有的Spark 算子都可以在一个阶段中发生,因此它们可以被划分为多个阶段。通常阶段是在运算符的计算边界上划分的,在那里它们规定了Spark executor 之间的数据传输。
image.png
图2 - 4. 创建一个或多个阶段的Spark job

Spark Tasks

每个阶段都由Spark任务(一个执行单元)组成,然后在每个Spark executor 上执行.
每个任务映射到一个核,在一个数据分区上工作(图2-5)。因此,一个16核的执行器可以在16个或更多的分区上并行运行16个或更多的任务,这使得Spark的任务执行并行度很高:
image.png
图2 - 5. 创建一个或多个任务以分发给 executor 的 Spark stage

转换、立即执行操作和延迟求值

分布式数据上的Spark操作可以分为两种类型: 转换执行操作。顾名思义,转换在不改变原始数据的情况下将Spark DataFrame转换为新的DataFrame,从而使其具有不可变性。
换句话说,像select()filter()这样的操作不会改变原始DataFrame;相反,它将返回转换后的操作结果作为一个新的DataFrame。
所有的转换都是延迟执行的,它们的结果不是立即计算出来的,而是作为一个转换关系被记录。这些记录允许Spark在稍后的执行计划中重新安排某些转换,合并它们,或者将转换优化到更有效的执行阶段。延迟计算是Spark延迟执行的策略,直到一个执行操作被调用或数据被“使用”(从磁盘读取或写入磁盘)。
执行操作触发所有转换记录的延迟计算。在图2-6中,所有的转换T都被记录下来,直到动作A被调用。每个转换T产生一个新的DataFrame。
image.png
图2 - 6. 延迟转换和立即执行求值的操作
延迟求值通过转换血缘关系和数据不变性提供了容错性,允许Spark通过链式调用转换来优化查询。由于Spark在转换血缘关系中记录了每个转换,并且dataframe在转换之间是不可变的,因此它可以通过简单地重新执行血缘关系的记录来重现其原始状态,从而在发生故障时提供弹性。
下边列出了一些转换和操作的示例:
image.png
这些动作和转换构成了一个Spark查询计划,在调用操作之前,查询计划中不会执行任何内容。下面的示例用Python和Scala显示,有两个转换——read()filter()——和一个立即执行操作 count()。该操作触发了作为查询执行计划的一部分记录的所有转换的执行。在这个例子中,在shell中执行filter .count()之前什么都不会发生:

# In Python 
>>> strings = spark.read.text("../README.md")
>>> filtered = strings.filter(strings.value.contains("Spark"))
>>> filtered.count()
20
// In Scala
scala> import org.apache.spark.sql.functions._
scala> val strings = spark.read.text("../README.md")
scala> val filtered = strings.filter(col("value").contains("Spark"))
scala> filtered.count()
res5: Long = 20s

窄变换和宽变换

如前所述,转换是Spark 延迟计算的操作。延迟求值方案的一个巨大优势是,Spark可以检查你的计算性查询,并确定如何优化它。这种优化可以通过连接或管道化一些操作并将它们分配到一个阶段来完成,或者通过确定哪些操作需要跨集群的shuffle或数据交换来将它们分解为阶段来完成。
转换可以分为窄依赖关系宽依赖关系。任何可以从单个输入分区计算单个输出分区的转换都是窄转换。例如,在前面的代码片段中,filter()contains()表示狭窄的转换,因为它们可以在单个分区上操作并生成结果输出分区,而无需交换任何数据
但是,groupBy()orderBy()之类的转换会指示Spark执行宽转换,其中来自其他分区的数据被读入、合并并写入磁盘。如果我们要通过调用.orderby()对前面示例中filtered后的DataFrame进行排序,那么每个分区都将在本地排序,但是我们需要强制对集群中每个执行器分区中的数据进行过滤,以便对所有记录进行排序。与窄转换相比,宽转换需要其他分区的输出来计算最终的聚合
下图说明了两种类型的依赖关系:
image.png

Spark UI

Spark包含一个图形用户界面,可以使用它来检查或监视Spark应用程序的各个分解阶段(即job、state 和 tasks)。根据Spark的部署方式,驱动程序启动一个web UI,默认在端口4040上运行,可以在其中查看指标和详细信息,例如:

  • 调度 stages 和 tasks 的列表
  • RDD大小和内存使用的概要描述
  • 运行环境相关信息
  • 正在运行的 executors 信息
  • 所有的Spark SQL 查询

在本地模式下,可以通过浏览器http://:4040访问该接口。

NOTE
当启动spark-shell时,输出日志部分会显示要在端口4040上访问的本地主机URL。

让我们看一下前边的Python示例是如何转换为job、stage 和 tasks的。要查看DAG的外观,单击web UI中的“DAG可视化”。如下图所示,Driver 创建了一个 job 和一个 stage:
image.png
注意,这里不需要Exchange(执行器之间交换数据的地方),因为只有一个阶段。每个单独的操作用蓝框表示。
stage 0由一个task 组成。如果你有多个任务,它们将并行执行。在“stages”页中可以查看各个stage的详细信息,如下图所示:
image.png
在后续的文章系列中,我会详细介绍 UI 界面的使用,这里先只做个简单的介绍。

单机的应用程序

Spark发行版为每个Spark组件提供了一组示例应用程序。
从本地机器上的安装目录中,可以运行使用该命令提供的几个Java或Scala示例程序之一:
bin/run-example _<class> [params]_

$ ./bin/run-example JavaWordCount README.md

这将在控制台上INFO 信息中输出 README.md 文件中每个单词的列表及其计数(计数单词是分布式计算的“Hello, World”)。

计算巧克力豆的数量

在前面的例子中,我们统计了文件中的单词。如果文件很大,它将分布在一个被划分为小数据块的集群上,我们的Spark程序将分配计算每个分区中每个单词的任务,并返回最终的聚合计数,但这个例子已经有点过时了。
让我们来解决一个类似的问题,但是使用更大的数据集,并使用更多Spark的分发功能和DataFrame api。
如下图有很多巧克力豆的饼干,我们需要将这些不同颜色的巧克力豆分配给不同的人。
image.png
让我们编写一个Spark程序,读取一个包含超过100,000个条目的文件(其中每行或每行都有一个<state, mnm_color, count>),并计算和汇总每种颜色和状态的计数。这些汇总的计数告诉我们每个人喜欢的m&m巧克力豆的颜色。下边给出了完整的 Python 代码:

# Import the necessary libraries.
# Since we are using Python, import the SparkSession and related functions
# from the PySpark module.
import sysfrom pyspark.sql import SparkSessionif __name__ == "__main__":if len(sys.argv) != 2:print("Usage: mnmcount <file>", file=sys.stderr)sys.exit(-1)# Build a SparkSession using the SparkSession APIs.# If one does not exist, then create an instance. There# can only be one SparkSession per JVM.spark = (SparkSession.builder.appName("PythonMnMCount").getOrCreate())# Get the M&M data set filename from the command-line argumentsmnm_file = sys.argv[1]# Read the file into a Spark DataFrame using the CSV# format by inferring the schema and specifying that the# file contains a header, which provides column names for comma-# separated fields.mnm_df = (spark.read.format("csv") .option("header", "true") .option("inferSchema", "true") .load(mnm_file))# We use the DataFrame high-level APIs. Note# that we don't use RDDs at all. Because some of Spark's # functions return the same object, we can chain function calls.# 1. Select from the DataFrame the fields "State", "Color", and "Count"# 2. Since we want to group each state and its M&M color count,#    we use groupBy()# 3. Aggregate counts of all colors and groupBy() State and Color# 4  orderBy() in descending ordercount_mnm_df = (mnm_df.select("State", "Color", "Count").groupBy("State", "Color").sum("Count").orderBy("sum(Count)", ascending=False))# Show the resulting aggregations for all the states and colors;# a total count of each color per state.# Note show() is an action, which will trigger the above# query to be executed.count_mnm_df.show(n=60, truncate=False)print("Total Rows = %d" % (count_mnm_df.count()))# While the above code aggregated and counted for all # the states, what if we just want to see the data for # a single state, e.g., CA? # 1. Select from all rows in the DataFrame# 2. Filter only CA state# 3. groupBy() State and Color as we did above# 4. Aggregate the counts for each color# 5. orderBy() in descending order  # Find the aggregate count for California by filteringca_count_mnm_df = (mnm_df.select("State", "Color", "Count").where(mnm_df.State == "CA").groupBy("State", "Color").sum("Count").orderBy("sum(Count)", ascending=False))# Show the resulting aggregation for California.# As above, show() is an action that will trigger the execution of the# entire computation. ca_count_mnm_df.show(n=10, truncate=False)# Stop the SparkSessionspark.stop()

创建 mnmcount.py 文件,mnn_datasets .csv 文件数据集下载地址,并使用安装的bin目录中的submit- Spark脚本将其作为Spark作业提交。将SPARK_HOME环境变量设置为在本地机器上安装Spark的根目录。

NOTE
前面的代码使用DataFrame API,读起来像高级DSL查询。我将在后续文章中介绍这个和其他api。与RDD API不同,你可以使用它来指示Spark做什么,而不是如何做,这是清晰和简单的!

为了避免将详细的INFO消息打印到控制台中,请复制 log4j.properties.template 模板文件到 log4j.properties。并设置log4j.conf/log4j.conf文件中的rootCategory=WARN
执行提交命令,提交上边的 Pyhton 代码至 Spark 集群:

$SPARK_HOME/bin/spark-submit mnmcount.py data/mnm_dataset.csv-----+------+----------+
|State| Color|sum(Count)|
+-----+------+----------+
|   CA|Yellow|    100956|
|   WA| Green|     96486|
|   CA| Brown|     95762|
|   TX| Green|     95753|
|   TX|   Red|     95404|
|   CO|Yellow|     95038|
|   NM|   Red|     94699|
|   OR|Orange|     94514|
|   WY| Green|     94339|
|   NV|Orange|     93929|
|   TX|Yellow|     93819|
|   CO| Green|     93724|
|   CO| Brown|     93692|
|   CA| Green|     93505|
|   NM| Brown|     93447|
|   CO|  Blue|     93412|
|   WA|   Red|     93332|
|   WA| Brown|     93082|
|   WA|Yellow|     92920|
|   NM|Yellow|     92747|
|   NV| Brown|     92478|
|   TX|Orange|     92315|
|   AZ| Brown|     92287|
|   AZ| Green|     91882|
|   WY|   Red|     91768|
|   AZ|Orange|     91684|
|   CA|   Red|     91527|
|   WA|Orange|     91521|
|   NV|Yellow|     91390|
|   UT|Orange|     91341|
|   NV| Green|     91331|
|   NM|Orange|     91251|
|   NM| Green|     91160|
|   WY|  Blue|     91002|
|   UT|   Red|     90995|
|   CO|Orange|     90971|
|   AZ|Yellow|     90946|
|   TX| Brown|     90736|
|   OR|  Blue|     90526|
|   CA|Orange|     90311|
|   OR|   Red|     90286|
|   NM|  Blue|     90150|
|   AZ|   Red|     90042|
|   NV|  Blue|     90003|
|   UT|  Blue|     89977|
|   AZ|  Blue|     89971|
|   WA|  Blue|     89886|
|   OR| Green|     89578|
|   CO|   Red|     89465|
|   NV|   Red|     89346|
|   UT|Yellow|     89264|
|   OR| Brown|     89136|
|   CA|  Blue|     89123|
|   UT| Brown|     88973|
|   TX|  Blue|     88466|
|   UT| Green|     88392|
|   OR|Yellow|     88129|
|   WY|Orange|     87956|
|   WY|Yellow|     87800|
|   WY| Brown|     86110|
+-----+------+----------+Total Rows = 60+-----+------+----------+
|State| Color|sum(Count)|
+-----+------+----------+
|   CA|Yellow|    100956|
|   CA| Brown|     95762|
|   CA| Green|     93505|
|   CA|   Red|     91527|
|   CA|Orange|     90311|
|   CA|  Blue|     89123|
+-----+------+----------+

首先我们看到每个地区的人喜欢的颜色的聚合数据,下边是单个地区的。
下边是 Scala 版本代码运行相同的应用程序:

package main.scala.chapter2import org.apache.spark.sql.SparkSession
import org.apache.spark.sql.functions._/*** Usage: MnMcount <mnm_file_dataset>*/
object MnMcount {def main(args: Array[String]) {val spark = SparkSession.builder.appName("MnMCount").getOrCreate()if (args.length < 1) {print("Usage: MnMcount <mnm_file_dataset>")sys.exit(1)}// Get the M&M data set filenameval mnmFile = args(0)// Read the file into a Spark DataFrameval mnmDF = spark.read.format("csv").option("header", "true").option("inferSchema", "true").load(mnmFile)// Aggregate counts of all colors and groupBy() State and Color// orderBy() in descending orderval countMnMDF = mnmDF.select("State", "Color", "Count").groupBy("State", "Color").sum("Count").orderBy(desc("sum(Count)"))// Show the resulting aggregations for all the states and colorscountMnMDF.show(60)println(s"Total Rows = ${countMnMDF.count()}")println()// Find the aggregate counts for California by filteringval caCountMnNDF = mnmDF.select("State", "Color", "Count").where(col("State") === "CA").groupBy("State", "Color").sum("Count").orderBy(desc("sum(Count)"))// Show the resulting aggregations for CaliforniacaCountMnMDF.show(10)// Stop the SparkSessionspark.stop()}
}

单机编译 Scala 程序

下边将说明如何使用Scala构建工具(sbt)构建一个Scala Spark程序。
build.sbt 是规范文件,与makefile类似,它描述并指示Scala编译器构建与Scala相关的任务,例如 jar 包、packages、要解析的依赖项以及在哪里查找它们。下边是一个简单构建的例子:

// Name of the package
name := "main/scala/chapter2"
// Version of our package
version := "1.0"
// Version of Scala
scalaVersion := "2.12.10"
// Spark library dependencies
libraryDependencies ++= Seq("org.apache.spark" %% "spark-core" % "3.0.0-preview2","org.apache.spark" %% "spark-sql"  % "3.0.0-preview2"
)

确保已经安装了Java开发工具包(JDK)和sbt,并设置了JAVA_HOME和SPARK_HOME,用一个命令,就可以构建Spark应用程序:

$ sbt clean package
[info] Updated file /Users/julesdamji/gits/LearningSparkV2/chapter2/scala/
project/build.properties: set sbt.version to 1.2.8
[info] Loading project definition from /Users/julesdamji/gits/LearningSparkV2/
chapter2/scala/project
[info] Updating 
[info] Done updating.
...
[info] Compiling 1 Scala source to /Users/julesdamji/gits/LearningSparkV2/
chapter2/scala/target/scala-2.12/classes ...
[info] Done compiling.
[info] Packaging /Users/julesdamji/gits/LearningSparkV2/chapter2/scala/target/
scala-2.12/main-scala-chapter2_2.12-1.0.jar ...
[info] Done packaging.
[success] Total time: 6 s, completed Jan 11, 2020, 4:11:02 PM

成功构建后,您可以运行Scala版本的计数示例,如下所示:

$SPARK_HOME/bin/spark-submit --class main.scala.chapter2.MnMcount \ 
jars/main-scala-chapter2_2.12-1.0.jar data/mnm_dataset.csv
...
...
20/01/11 16:00:48 INFO TaskSchedulerImpl: Killing all running tasks in stage 4: 
Stage finished
20/01/11 16:00:48 INFO DAGScheduler: Job 4 finished: show at MnMcount.scala:49, 
took 0.264579 s
+-----+------+-----+
|State| Color|Total|
+-----+------+-----+
|   CA|Yellow| 1807|
|   CA| Green| 1723|
|   CA| Brown| 1718|
|   CA|Orange| 1657|
|   CA|   Red| 1656|
|   CA|  Blue| 1603|
+-----+------+-----+

总结

在本章中,我们介绍了开始使用Apache Spark所需的三个简单步骤:下载框架,熟悉Scala或PySpark交互shell,掌握高级Spark应用程序概念和术语。我们快速概述了使用转换和操作来编写Spark应用程序的过程,并简要介绍了使用Spark UI来检查所创建的job、stage和task。
最后,通过一个简短的示例,展示了如何使用高级结构化api来告诉Spark要做什么——在下一篇文章我将更详细地介绍这些api。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/795148.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

设计模式总结-外观模式(门面模式)

外观模式 模式动机模式定义模式结构外观模式实例与解析实例一&#xff1a;电源总开关实例二&#xff1a;文件加密 模式动机 引入外观角色之后&#xff0c;用户只需要直接与外观角色交互&#xff0c;用户与子系统之间的复杂关系由外观角色来实现&#xff0c;从而降低了系统的耦…

leetcode.面试题 02.07. 链表相交

题目 给你两个单链表的头节点 headA 和 headB &#xff0c;请你找出并返回两个单链表相交的起始节点。如果两个链表没有交点&#xff0c;返回 null 。 图示两个链表在节点 c1 开始相交&#xff1a; 思路 假a在链表A上移动,b在链表B上移动&#xff0c;a移动完在B上开始&…

mysql中主键索引和联合索引的原理解析

mysql中主键索引和联合索引的原理解析 一、主键索引二、什么是联合索引? 对应的B树是如何生成的?1、建立索引方式2、什么是最左前缀原则?3、回表4、为什么要遵守最左前缀原则才能利用到索引?5、什么是覆盖索引?6、索引扫描底层原理7、order by为什么会导致索引消失&#x…

OA系统:把复杂流程和操作简单化,十分考验设计对业务的理解。

面向企业端的管理系统功能是越来越臃肿&#xff0c;每个厂商都想把功能做的大而全&#xff0c;如果不这么做就会给你留下市场空挡给竞争对手&#xff0c;在这种复杂化不可逆转的情形下&#xff0c;如何用操作简单化呢&#xff0c;本文给出几点建议。 1. 简化流程&#xff1a; …

opencv使用问题记录一二

opencv介绍 opencv是一个计算机视觉处理软件库&#xff0c;拥有强大的功能和高效的性能。 但是由于早期版本的原因&#xff0c;存在一些与目前主流使用不兼容的问题 问题与解决 RGB通道顺序 一般图片处理类库的通道顺序就是RGB&#xff0c;但是opencv的是反过来的&#xf…

RabbitMQ小记

参考书籍&#xff1a;朱忠华的《RabbitMQ实战指南》 一、基础概念 1.Exchange 1.1 创建方法的参数&#xff0c;exchangeDeclare() exchange&#xff1a;交换器的名称type&#xff1a;交换器的类型durable&#xff1a;是否持久化&#xff0c;true代表持久化。&#xff08;持…

【APUE】网络socket编程温度采集智能存储与上报项目技术------多路复用

作者简介&#xff1a; 一个平凡而乐于分享的小比特&#xff0c;中南民族大学通信工程专业研究生在读&#xff0c;研究方向无线联邦学习 擅长领域&#xff1a;驱动开发&#xff0c;嵌入式软件开发&#xff0c;BSP开发 作者主页&#xff1a;一个平凡而乐于分享的小比特的个人主页…

Git命令(1)[删除,恢复与移动]

文章目录 1.删除文件1.1命令----rm <filename>1.2命令----git rm <filename>1.1命令----git rm <filename> -f 2.恢复文件2.1命令----git restore <filename>2.1命令----git restore --staged <filename> 3.重命名文件3.1命令----mv 旧文件 新文…

八股面试速成—Java语法部分

暑期实习面试在即&#xff0c;这几天八股和算法轮扁我>_ 八股部分打算先找学习视屏跟着画下思维导图&#xff0c;然后看详细的面试知识点&#xff0c;最后刷题 其中导图包含的是常考的题&#xff0c;按照思维导图形式整理&#xff0c;会在复盘后更新 细节研究侧重补全&a…

租用阿里云的服务器多少钱?30元、61元、99元、165元、199元

租个阿里云的服务器多少钱&#xff1f;很便宜&#xff0c;云服务器2核2G3M固定带宽99元一年、2核4G服务器30元3个月、199元一年&#xff0c;轻量应用服务器2核2G3M配置61元一年、2核4G4M带宽165元一年&#xff0c;可以在阿里云CLUB中心查看 aliyun.club 当前最新的优惠券和活动…

GitOps - 为 OpenShift GitOps 配置邮件通知

《OpenShift 4.x HOL教程汇总》 说明&#xff1a;本文已经 在OpenShift 4.15 OpenShift GitOps 1.11.2 环境中验证 文章目录 ArgoCD 的 Notification 功能简介启动 OpenShift GitOps 的 Notification 功能配置邮件通知验证参考 说明&#xff1a;先根据《OpenShift 4 之 GitOp…

学习 Git 基础知识 - 日常开发任务手册

欢迎来到我关于 Git 的综合指南&#xff0c;Git 是一种分布式版本控制系统&#xff0c;已经在软件开发中彻底改变了协作和代码管理方式。 无论你是经验丰富的开发者还是刚开始编程之旅的新手&#xff0c;理解 Git 对于正确掌控代码、高效管理项目和与他人合作至关重要。 在本…

App应用的服务器如何增加高并发能力

大家好&#xff01;我是你们的好朋友咕噜铁蛋&#xff01;近年来&#xff0c;随着移动互联网的蓬勃发展&#xff0c;各类App应用如雨后春笋般涌现&#xff0c;用户量呈现爆发式增长。然而&#xff0c;随之而来的高并发访问问题也开始频繁出现&#xff0c;给服务器带来了极大的挑…

UV胶水与聚氯乙烯PVC材料的塑料粘接,效果如何?

UV胶水可以与聚氯乙烯PVC很好地粘接。 PVC是一种常见的塑料材料&#xff0c;UV胶水通常对PVC具有良好的粘接性能。UV胶水可以在紫外线照射下迅速固化&#xff0c;形成坚固的粘接&#xff0c;因此通常被用于PVC制品的粘接和修复。 UV胶水与PVC粘接的优点&#xff1a; 1. 快速固…

java数据结构与算法刷题-----LeetCode172. 阶乘后的零

java数据结构与算法刷题目录&#xff08;剑指Offer、LeetCode、ACM&#xff09;-----主目录-----持续更新(进不去说明我没写完)&#xff1a;https://blog.csdn.net/grd_java/article/details/123063846 文章目录 数学&#xff1a;阶乘的10因子个数数学优化:思路转变为求5的倍数…

wordpress全站开发指南-面向开发者及深度用户(全中文实操)--创建新主题

前言 你可以在wordpress里面下载使用人家打包好的主题&#xff0c;但可能不是很好用&#xff0c;接下来就自己做一个自己的主题。你需要先找到xampp文件夹–htdocs–wordpress(我给更名为wplocal)–wp-content–themes 进入该文件夹之后你可以看到你之前下载导入的所有主题文件…

vue + koa + Sequelize + 阿里云部署 + 宝塔:宝塔数据库连接

之前文章已经介绍了宝塔上传前后端代码并部署&#xff0c;不清楚的请看这篇文章&#xff1a; vue koa 阿里云部署 宝塔&#xff1a;宝塔前后端部署 下面是宝塔创建数据库&#xff1a; 我用的 koa Sequelize 连接的数据库&#xff0c;Sequelize 非常适合前端使用&#xf…

【Python】字符串处理技巧大揭秘:从基础到高级

欢迎来CILMY23的博客 本篇主题为 字符串处理技巧大揭秘&#xff1a;从基础到高级 个人主页&#xff1a;CILMY23-CSDN博客 Python系列专栏&#xff1a;http://t.csdnimg.cn/HqYo8 上一篇博客&#xff1a; http://t.csdnimg.cn/5NRlT C语言专栏&#xff1a; http://t.csdnim…

虚幻UE5智慧城市全流程开发教学

一、背景 这几年&#xff0c;智慧城市/智慧交通/智慧水利等飞速发展&#xff0c;骑士特意为大家做了一个这块的学习路线。 二、这是学习大纲 1.给虚幻UE5初学者准备的智慧城市/数字孪生蓝图开发教程 https://www.bilibili.com/video/BV1894y1u78G 2.UE5数字孪生蓝图开发教学…

Docker 安装 Linux 系统可视化监控 Netdata

docker 安装 netdata 前提准备Docker 两种方式部署 Netdata1、使用 docker run 命令运行 netdata 服务2、使用 docker compose 运行 netdata 服务 Netdata 服务可视化界面Netdata 汉化处理 前提准备 说明&#xff1a;此处使用 windows11 安装的 docker desktop & wsl2/apli…