Spark 起源发展与项目架构说明

文章目录

    • 前言
    • Spark 的起源
    • Spark 是什么
      • 速度
      • 易用性
      • 模块化
      • 可扩展性
    • 分析方法的统一
      • Spark SQL
      • Spark MLlib
      • Spark Structured Streaming
      • GraphX
    • Spark的分布式执行
      • Spark driver
      • SparkSession
      • Cluster manager
      • Spark executor
      • 部署模式
      • 分布式数据和分区
    • 开发的经验
      • Spark 的使用人群与使用目的

前言

本文主要讲解 Spark 的起源及其基本理念,Spark 项目的主要组件及其分布式体系结构。

Spark 的起源

谷歌的大数据和分布式计算
当提到互联网的数据规模,我们不禁会想到谷歌,谷歌的搜索引擎可以以闪电般的速度搜索全球互联网数据。如今,谷歌已经成为了规模的代名词和先进技术的引路者。

像关系数据库管理系统(RDBMSs)这样的传统存储系统和命令式编程方式都无法处理Google想要构建和搜索互联网索引文档的规模。对新方法的需求导致了Google文件系统(GFS)、 MapReduce (MR) 和 Bigtable的创建。

GFS在集群群中的许多商用硬件服务器上提供了容错和分布式的文件系统,而Bigtable提供了跨GFS的结构化数据的可伸缩存储。MR引入了一种新的基于函数式编程的并行编程范式,用于大规模处理分布在GFS和Bigtable上的数据。

本质上,我们写的MR应用程序与MapReduce系统交互的方式是MapReduce系统将计算代码(map和reduce函数)发送到数据所在的位置,这利用了数据的局域性和机架的相关性,而不是将数据发送到应用程序所在的代码位置那里。

集群中的 worker 会聚合并减少中间计算,并从reduce函数生成追加的最终输出,然后将其写入应用程序可访问的分布式存储中。这种方法显著减少了网络流量,并将大部分输入/输出(I/O)保持在磁盘本地,而不是分布在网络上。

Hadoop at Yahoo!
Google在GFS论文中表达的计算挑战和解决方案为Hadoop文件系统(HDFS)提供了一个蓝图,包括作为分布式计算框架的MapReduce实现。它于2006年4月被捐赠给Apache软件基金会(ASF),成为Apache Hadoop框架相关模块的一部分:Hadoop Common、MapReduce、HDFS和Apache Hadoop YARN。

尽管 Hadoop 已经在雅虎之外获得了广泛的采用,但HDFS上的MapReduce框架有一些缺点。

首先,它难以管理,操作复杂。
其次,它的通用批处理MapReduce API过于冗长,需要大量样板设置代码,容错能力很弱。
第三,对于大数据量的作业和许多对MR任务,每对中间计算结果都要被写入本地磁盘,以供其后续阶段的操作(见图1-1)。这种重复的磁盘I/O对性能造成了损失:大型MR作业可以连续运行几个小时,甚至几天。
image.png
图1 - 1,map和reduce计算之间的读写交替迭代

最后,尽管Hadoop MR有利于一般批处理的大规模作业,但它在结合其他数据工作内容(如机器学习、流或交互式sql类查询)时却有所不足。

为了处理这些新的工作内容,工程师们又开发了定制的系统(Apache Hive, Apache Storm, Apache Impala, Apache Giraph, Apache Drill, Apache Mahout等),每个系统都有自己的api和集群配置,进一步增加了Hadoop的操作复杂性和开发人员的学习曲线。

然后问题变成了没有一种方法可以让Hadoop和MR更简单、更快?

Spark早年在AMPLab的经历
加州大学伯克利分校(UC Berkeley)的研究人员此前曾从事Hadoop MapReduce的研究,他们发起了一个名为Spark的项目,迎接了这一挑战。他们承认MR对于交互或迭代计算工作是低效的(或难以处理的),并且是一个复杂的学习框架,所以从一开始他们就接受了让Spark更简单、更快和更容易的想法。这项努力始于2009年的RAD实验室,后来成为AMPLab(现在被称为RISELab)。

早期发表在Spark上的论文表明,在某些工作上,它比Hadoop MapReduce快10到20倍。今天,它的速度快了许多个数量级。Spark项目的核心是引入借鉴于Hadoop MapReduce的思想,使新系统变得更强: 具有高度容错性和并行性,支持在内存中交互迭代映射结果,并减少计算,提供多种语言的简单易用的API,并以统一的方式支持其他工作方式。

到2013年,Spark已经得到了广泛的应用,它的一些原始创造者和研究人员——matei Zaharia、Ali Ghodsi、reynolds Xin、Patrick Wendell、Ion Stoica和Andy konwinski——将Spark项目捐赠给了ASF,并成立了一家名为Databricks的公司。

Databricks和开源开发者社区在ASF的管理下,于2014年5月发布了Apache Spark 1.0。这是第一个主要版本,为Databricks和100多家商业供应商为Apache Spark频繁发布和贡献重要特性奠定了基础。

Spark 是什么

Apache Spark是一个统一的引擎,专为大规模分布式数据处理而设计,可以在数据中心或云中部署。

Spark为中间计算提供内存存储,使其比Hadoop MapReduce快得多。它包含了用于机器学习的可组合api (MLlib)、用于交互式查询的SQL (Spark SQL)、用于与实时数据交互的流处理(结构化流)和图形处理(GraphX)的库。
Spark的设计理念围绕着四个关键特征:

  • 速度
  • 易用性
  • 模块化
  • 可扩展性

速度

Spark以多种方式来达到追求速度的目标。首先,它的内部实现极大地受益于硬件行业最近在提高cpu和内存的价格和性能方面所取得的巨大进步。今天的商品服务器价格便宜,具有数百gb的内存、多个内核,底层基于unix的操作系统利用了高效的多线程和并行处理。该框架经过优化,充分利用了所有这些因素。

其次,Spark将查询计算构建为有向无环图(DAG);它的DAG调度器和查询优化器构建了一个高效的计算图,通常可以将其分解为在集群上的worker之间并行执行的任务。第三,它的物理执行引擎Tungsten使用全阶段代码生成来生成紧凑的执行代码。

由于所有中间结果都保留在内存和有限的磁盘I/O中,这给了它巨大的性能提升。

易用性

Spark通过提供简单逻辑数据结构的基本抽象(称为弹性分布式数据集(RDD))来实现简单性,所有其他高级结构化数据抽象(如dataframe和Datasets)都是在此基础上构建的。通过提供一组转换和操作作为算子,Spark提供了一个简单的编程模型,可以使用熟悉的语言构建大数据应用程序。

模块化

Spark操作可以应用于多种类型的工作负载,并以任何支持的编程语言表示:Scala、Java、Python、SQL和r。Spark提供了统一的库,其中包含文档完备的api,其中包括以下模块作为核心组件:Spark SQL、Spark结构化流、Spark MLlib和GraphX,将所有工作负载组合在一个引擎下运行。

我们可以编写一个可以完成所有工作的Spark应用程序——不需要为不同的工作内容使用不同的引擎,也不需要学习单独的api。使用Spark,我们可以为我们的工作内容获得一个统一的处理引擎。

可扩展性

Spark专注于其快速、并行的计算引擎,而不是存储。与同时包含存储和计算的Apache Hadoop不同,Spark将两者解耦。这意味着可以使用Spark读取存储在无数数据源中的数据——Apache Hadoop、Apache Cassandra、Apache HBase、MongoDB、Apache Hive、rdbms等等——并在内存中处理这些数据。Spark的DataFrameReadersdataframerwriters也可以扩展到从其他来源(如Apache Kafka、Kinesis、Azure Storage和Amazon S3)读取数据到它的逻辑数据抽象中,并在其上进行操作。

Spark开发人员社区维护着一个第三方Spark包列表,作为不断增长的生态系统的一部分(见图1-2)。这个丰富的软件包生态系统包括用于各种外部数据源、性能监视器等的Spark连接器。
image.png
图1 - 2. Apache Spark的连接器生态系统

分析方法的统一

虽然统一的概念不是Spark独有的,但它是其设计理念和演变的核心组成部分。2016年11月,美国计算机协会(ACM)认可了Apache Spark,并授予其原始创建者享有盛誉的ACM奖,以表彰他们将Apache Spark描述为“大数据处理的统一引擎”。这篇获奖论文指出,Spark用一个统一的组件堆栈取代了所有独立的批处理、图形、流和查询引擎,如Storm、Impala、Dremel、Pregel等,可以在一个分布式快速引擎下处理不同的工作负载。

统一技术栈的Apache Spark组件
如图1-3所示,Spark为不同的工作负载提供了四个不同的组件作为库:Spark SQL、Spark MLlib、Spark Structured Streaming和GraphX。这些组件中的每一个都与Spark的核心容错引擎分开,因为要使用api编写Spark应用程序,然后Spark将其转换为由核心引擎执行的DAG。因此,无论你是使用Java、R、Scala、SQL还是Python提供的结构化api编写Spark代码,底层代码都会被分解成高度紧凑的字节码,并在集群中的worker jvm中执行。
image.png
图1 - 3. Apache Spark组件和API栈

Spark SQL

这个模块可以很好地处理结构化数据。您可以读取存储在RDBMS表中的数据或从具有结构化数据(CSV, text, JSON, Avro, ORC, Parquet等)的文件格式中读取数据,然后在Spark中构建永久或临时表。此外,当在Java、Python、Scala或R中使用Spark的结构化api时,你可以组合类似sql的查询来查询刚刚读入Spark DataFrame的数据。到目前为止,Spark SQL是ANSI SQL:2003兼容的,它也可以作为一个纯SQL引擎。

例如,在这个Scala代码片段中,你可以从存储在Amazon S3上的JSON文件中读取,创建一个临时表,并对作为Spark DataFrame读入内存的结果发出类似sql的查询:

// In Scala
// Read data off Amazon S3 bucket into a Spark DataFrame
spark.read.json("s3://apache_spark/data/committers.json")
.createOrReplaceTempView("committers")
// Issue a SQL query and return the result as a Spark DataFrame
val results = spark.sql("""SELECT name, org, module, release, num_commitsFROM committers WHERE module = 'mllib' AND num_commits > 10ORDER BY num_commits DESC""")

你可以用Python、R或Java编写类似的代码片段,生成的字节码将是相同的,从而获得相同的性能。

Spark MLlib

Spark附带了一个库,其中包含称为MLlib的常见机器学习(ML)算法。自从Spark第一次发布以来,由于Spark 2的出现,这个库组件的性能得到了显著提高。X的底层引擎增强。MLlib提供了许多流行的机器学习算法,这些算法构建在基于数据框架的高级api之上,用于构建模型。

NOTE
从Apache Spark 1.6开始,MLlib项目被分成两个包:Spark;Mllib和spark.ml。基于数据框架的API是后者,而前者包含基于rdd的API,后者现在处于维护模式。所有的新特性都在spark.ml中。

这些api允许你在部署期间提取或转换特性,构建管道(用于训练和评估),并保持模型(用于保存和重新加载它们)。其他实用程序包括使用常见的线性代数运算和统计。MLlib包括其他低级的ML原语,包括通用的梯度下降优化。以下Python代码片段封装了数据科学家在构建模型时可能执行的基本操作:

# In Python
from pyspark.ml.classification import LogisticRegression
...
training = spark.read.csv("s3://...")
test = spark.read.csv("s3://...")# Load training data
lr = LogisticRegression(maxIter=10, regParam=0.3, elasticNetParam=0.8)# Fit the model
lrModel = lr.fit(training)# Predict
lrModel.transform(test)
...

Spark Structured Streaming

Apache Spark 2.0引入了一个实验性的连续流模型和结构化流api,构建在Spark SQL引擎和基于数据框架的api之上。到Spark 2.2,结构化流媒体已经普遍可用,这意味着开发人员可以在他们的生产环境中使用它。

大数据开发人员需要对来自Apache Kafka等引擎和其他流数据源的静态数据和流数据进行实时组合和反应,新模型将流视为一个不断增长的表,最后添加新的数据行。开发人员可以将其视为结构化表,并像处理静态表一样对其进行查询。

在结构化流模型之下,Spark SQL核心引擎处理所有方面的容错和后期数据语义,允许开发人员相对轻松地专注于编写流应用程序。这个新模型消除了Spark 1中的旧DStreams模型。此外,Spark 2.x和Spark 3.0扩展了流数据源的范围,包括Apache Kafka、Kinesis和基于hdfs或云存储。

下面的代码片段展示了结构化流应用程序的典型剖析。它从localhost套接字读取并将单词计数结果写入Apache Kafka主题:

# In Python
# Read a stream from a local host
from pyspark.sql.functions import explode, split
lines = (spark .readStream.format("socket").option("host", "localhost").option("port", 9999).load())# Perform transformation
# Split the lines into words
words = lines.select(explode(split(lines.value, " ")).alias("word"))# Generate running word count
word_counts = words.groupBy("word").count()# Write out to the stream to Kafka
query = (word_counts.writeStream .format("kafka") .option("topic", "output"))

GraphX

顾名思义,GraphX是一个用于操作图(例如,社交网络图,路由和连接点,或网络拓扑图)和执行图并行计算的库。它提供了用于分析、连接和遍历的标准图形算法,这些算法由社区中的用户贡献:可用的算法包括PageRank、Connected Components和Triangle Counting。

下面的代码片段展示了一个如何使用GraphX api连接两个图的简单示例:

// In Scala
val graph = Graph(vertices, edges)
messages = spark.textFile("hdfs://...")
val graph2 = graph.joinVertices(messages) {(id, vertex, msg) => ...
}

Spark的分布式执行

Spark是一个分布式数据处理引擎,它的组件在一个机器集群上协同工作。

让我们从图1-4所示的每个单独组件以及它们如何适应体系结构开始。在Spark架构的高层,Spark应用程序由一个驱动程序组成,该程序负责编排Spark集群上的并行操作。驱动程序通过SparkSession访问集群中的分布式组件——Spark执行器和集群管理器。
image.png
图1 - 4. Apache Spark组件和架构

Spark driver

作为Spark应用程序中负责实例化SparkSession的部分,Spark driver 有多个角色:它与集群管理器通信;它向集群管理器请求资源(CPU,内存等),用于Spark的执行器(jvm);它将所有Spark操作转换为DAG计算,对其进行调度,并将其作为任务分发给Spark executors。一旦分配了资源,它就直接与 executors 通信。

SparkSession

在Spark 2.0中,SparkSession成为所有Spark操作和数据的统一管道。它不仅包含了Spark之前的入口点,如SparkContext、SQLContext、HiveContext、SparkConf和StreamingContext,而且还使Spark的工作更简单、更容易。

在Spark 2中, 虽然SparkSession包含了所有其他上下文,但仍然可以访问各个上下文及其各自的方法。通过这种方式,社区保持了向后兼容性。那就是旧1.x代码, 使用SparkContext或SQLContext的仍然可以工作。

通过这个管道,可以创建JVM运行时参数、定义dataframe和Datasets、从数据源读取数据、访问目录元数据以及发出Spark SQL查询。SparkSession为Spark的所有功能提供了一个统一的入口点。

在独立的Spark应用程序中,可以使用选择的编程语言中的高级api之一创建SparkSession。在Spark shell中创建SparkSession,可以通过一个名为Sparksc的全局变量访问它.

而在Spark 1中, 将不得不创建单独的上下文(用于流,SQL等),引入额外的样板代码。在Spark 2中,可以在每个JVM上创建一个SparkSession,并使用它来执行一些Spark操作。
让我们来看一个例子:

// In Scala
import org.apache.spark.sql.SparkSession// Build SparkSession
val spark = SparkSession
.builder
.appName("LearnSpark")
.config("spark.sql.shuffle.partitions", 6)
.getOrCreate()
...
// Use the session to read JSON 
val people = spark.read.json("...")
...
// Use the session to issue a SQL query
val resultsDF = spark.sql("SELECT city, pop, state, zip FROM table_name")

Cluster manager

集群管理器负责为运行Spark应用程序的节点集群管理和分配资源。目前,Spark支持四种集群管理器:内置的独立集群管理器、Apache Hadoop YARN、Apache Mesos和Kubernetes。

Spark executor

集群中的每个工作节点上都运行一个Spark执行器。执行程序与驱动程序通信,并负责在工作程序上执行任务。在大多数部署模式中,每个节点只运行一个执行器。

部署模式

Spark的一个吸引人的特性是它支持多种部署模式,使Spark能够在不同的配置和环境中运行。因为集群管理器不知道它在哪里运行(只要它能管理Spark的执行器并满足资源请求),所以Spark可以部署在一些最流行的环境中——比如Apache Hadoop YARN和kubernetes——并且可以在不同的模式下运行。部署方式如表1-1所示。

表1 - 1. Spark部署模式说明

ModeSpark driverSpark executorCluster manager
Local运行在单个JVM上,如笔记本电脑或单个节点运行在与driver相同的JVM上在同一主机上运行
Standalone可以在集群中的任何节点上运行集群中的每个节点将启动自己的执行器JVM可以任意分配给集群中的任意主机
YARN (client)在客户机上运行,而不是集群的一部分YARN的NodeManager的容器YARN的资源管理器与YARN的资源管理器一起工作
YARN (cluster)与YARN应用程序主一起运行与YARN客户端模式相同与YARN客户端模式相同
Kubernetes在Kubernetes pod中运行每个 worker 都在自己的 po d 中运行Kubernetes Master

分布式数据和分区

实际的物理数据以分区的形式分布在HDFS或云存储中(见图1-5)。当数据作为分区分布在整个物理集群中时,Spark将每个分区视为一个高级逻辑数据抽象——作为内存中的一个DataFrame。最好为每个Spark executor 分配一个任务,该任务需要它观察数据位置读取网络中离它最近的分区,虽然这并不是一定的.
image.png
图1 - 5. 数据分布在物理机器上

分区允许有效的并行性。将数据分解成块或分区的分布式方案允许Spark执行器只处理与它们接近的数据,从而最大限度地减少网络带宽。也就是说,每个执行器的核心都被分配了自己的数据分区(参见图1-6)。
image.png
图1 - 6. 每个执行器的核心都有一个数据分区来处理

例如,下面的代码片段将把存储在集群上的物理数据分解成八个分区,每个执行器将获得一个或多个分区来读入其内存:

# In Python
log_df = spark.read.text("path_to_large_text_file").repartition(8)
print(log_df.rdd.getNumPartitions())

这段代码将创建一个包含10000个整数的DataFrame,分布在内存的8个分区上:

# In Python
df = spark.range(0, 10000, 1, 8)
print(df.rdd.getNumPartitions())

这两个代码片段都将输出8。

开发的经验

在所有开发人员的乐趣中,没有什么比一组可组合的api更吸引人了,这些api可以提高生产力,并且易于使用、直观和表达。Apache Spark对开发人员的主要吸引力之一是其易于使用的api,可以跨语言(Scala、Java、Python、SQL和R)操作小到大的数据集。

Spark 2 的一个主要目的是通过限制概念的数量来统一和简化框架,引入了高级抽象api作为特定于领域的语言结构,这使得Spark编程具有高度的表现力和愉快的开发体验。只需要表达你希望任务或操作计算什么,而不是如何计算它,并让Spark确定如何最好地为你完成它。

Spark 的使用人群与使用目的

毫不奇怪,大多数处理大数据的开发人员都是数据工程师、数据科学家或机器学习工程师。他们之所以被Spark所吸引,是因为它允许他们使用一个引擎和熟悉的编程语言构建一系列应用程序。

当然,开发人员可能身兼数职,有时会同时从事数据科学和数据工程任务,尤其是在初创公司或较小的工程团队中。然而,在所有这些任务中,数据——海量的数据——是基础。

数据科学任务
作为一门在大数据时代崭露头角的学科,数据科学就是用数据讲故事。但在他们讲述故事之前,数据科学家必须清理数据,探索数据以发现模式,并建立模型来预测或建议结果。其中一些任务需要统计学、数学、计算机科学和编程方面的知识。

大多数数据科学家都精通使用SQL等分析工具,熟悉NumPy和pandas等库,熟悉R和Python等编程语言。但是他们还必须知道如何处理或转换数据,以及如何使用已建立的分类、回归或聚类算法来构建模型。他们的任务通常是迭代的、互动的或特别的,或者是实验性的,以证明他们的假设。

幸运的是,Spark支持这些不同的工具。Spark的MLlib提供了一套通用的机器学习算法来构建模型管道,使用高级估计器、变压器和数据特性。Spark SQL和Spark shell促进了对数据的交互式和临时探索。

此外,Spark使数据科学家能够处理大型数据集并扩展他们的模型训练和评估。Apache Spark 2.4引入了一个新的组调度程序,作为Project Hydrogen的一部分,以适应以分布式方式训练和调度深度学习模型的容错需求,Spark 3.0引入了在单机、YARN和Kubernetes部署模式下支持GPU资源收集的能力。这意味着需要深度学习技术的开发人员可以使用Spark。

数据工程任务
在构建模型之后,数据科学家通常需要与其他团队成员合作,他们可能负责部署模型。或者,他们可能需要与其他人密切合作,将原始的脏数据构建并转换为其他数据科学家易于消费或使用的干净数据。例如,分类或聚类模型不是孤立存在的;它可以与其他组件一起工作,比如web应用程序或流引擎(如Apache Kafka),或者作为更大的数据管道的一部分。这个管道通常由数据工程师构建。

数据工程师对软件工程原理和方法有深刻的理解,并拥有为既定业务用例构建可伸缩数据管道的技能。数据管道支持对来自无数源的原始数据进行端到端转换——对数据进行清理,以便开发人员可以在下游使用它,将其存储在云中、NoSQL或rdbms中以生成报告,或者通过商业智能工具使数据分析师可以访问它。

Spark 2.x 引入了一种演进式的流模型,称为结构化流的连续应用程序。使用结构化流api,数据工程师可以构建复杂的数据管道,使他们能够从实时和静态数据源中获取ETL数据。

数据工程师之所以使用Spark,是因为它提供了一种简单的方法来并行计算,并隐藏了分布和容错的所有复杂性。这使得他们可以专注于使用基于数据框架的高级api和领域特定语言(DSL)查询来执行ETL,读取和组合来自多个数据源的数据。

由于SQL的Catalyst优化器和用于紧凑代码生成的Tungsten,Spark 2.x 和 Spark 3.0 中的性能得以改进,使数据工程师的工作变得更加轻松。他们可以选择使用适合手头任务的三种Spark api (rdd、dataframe或dataset)中的任何一种,并获得Spark的好处。

无论你是数据工程师、数据科学家还是机器学习工程师,你都会发现Spark对以下用例很有用:

  • 并行处理分布在集群中的大型数据集
  • 执行特别或交互式查询以探索和可视化数据集
  • 使用MLlib构建、训练和评估机器学习模型
  • 从海量数据流中实现端到端数据管道
  • 分析图形数据集和社交网络

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/788299.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

App测试中ios和Android的区别

1、Android长按home键呼出应用列表和切换应用,然后右滑则终止应用; 2、多分辨率测试,Android端20多种,ios较少; 3、手机操作系统,Android较多,ios较少且不能降级,只能单向升级&…

越南工厂连接中国总部服务器解决方案---案例分享

随着全球化的不断深入,许多中国企业走出国门,在世界各地设立分支机构和生产基地。然而,随之而来的是跨国网络通信的挑战。近期,客户越南的工厂与中国总部之间的网络连接出现了一些问题,这直接影响了企业的日常运营效率…

vscode shadertoy插件,非常方便的glsl着色器编写工具

很著名的shadertoy网站,集合了非常多大神利用数学写出美妙的shader效果。像shadertoy创始人之一的IQ大神它在这方面有很多的建树。他的利用光线步进和躁声可以创建很多不可思议的3D场景。 vscode有一件shadertoy的插件,安装后可以新建一个*.glsl文件&am…

使用 FinalShell 进行远程连接(ssh 远程连接 Linux 服务器)

目录 前言 基本使用教程 新建远程连接 连接主机 自定义命令 路由追踪 前言 后端开发,必然需要和服务器打交道,部署应用,排查问题,查看运行日志等等。一般服务器都是集中部署在机房中,也有一些直接是云服务器&am…

Synchronized锁升级过程

无锁-->偏向锁---> 轻量级锁---->重量级锁 ①、从无锁到偏向锁: 当一个线程首次访问同步块时,如果此对象无锁状态且偏向锁未被禁用,JVM 会将该对象头的锁标记改为偏向锁状态,并记录下当前线程的 ID。此时,对…

Flume学习笔记

视频地址:https://www.bilibili.com/video/BV1wf4y1G7EQ/ 定义 Flume是一个高可用的、高可靠的、分布式的海量日志采集、聚合和传输的系统。 Flume高最要的作用就是实时读取服务器本地磁盘的数据,将数据写入HDFS。 官网:https://flume.apache.org/releases/content/1.9.0/…

云智慧发布对象关系型数据库CloudPanguDB,打破传统技术壁垒

近日,云智慧推出关系型数据库CloudPanguDB(中文名称:盘古数据库),旨在通过高兼容性能和创新技术架构,降低企业项目整体运营成本。 无论是处理海量复杂数据,还是构建清晰有序的数据结构关系&…

练习 17 Web [极客大挑战 2019]PHP

常见的网站源码备份文件名和后缀,反序列化攻击 unserialize():wakeup绕过,private类以及属性序列化后的%00修改 开靶机 提到”备份“ 那看看有没有backup.php啥的 如果网站存在备份文件,常见的备份文件后缀名有:“.gi…

嵌入式数据库-Sqlite3

阅读引言: 本文将会从环境sqlite3的安装、数据库的基础知识、sqlite3命令、以及sqlite的sql语句最后还有一个完整的代码实例, 相信仔细学习完这篇内容之后大家一定能有所收获。 目录 一、数据库的基础知识 1.数据库的基本概念 2.常用数据库 3.嵌入式…

Qt中的OpenGL

一、OpenGL简介 1.1什么是OpenGL Open Graphics Library,它是一个由Khronos组织制定并维护的规范(Specification)OpenGL核心是一个C库,同时也支持多种语言的派生 1.2 核心模式(Core-profile) 也叫可编程管线,提供了…

网络安全应急响应:保护网络安全的最后一道防线

网络安全应急响应:保护网络安全的最后一道防线 网络安全是当今信息社会中至关重要的问题,网络攻击的频繁发生使得企业、政府和个人面临着越来越大的安全威胁。为了及时有效地应对网络安全事件,网络安全应急响应成为了必不可少的一环。 小德将…

WPF中继承ItemsControl子类控件数据模板获取选中属性

需求场景 列表类控件&#xff0c;如 ListBox、ListView、DataGrid等。显示的行数据中&#xff0c;部分内容依靠选中时触发控制&#xff0c;例如选中行时行记录复选&#xff0c;部分列内容控制显隐。 案例源码以ListView 为例。 Xaml 部分 <ListView ItemsSource"{Bi…

【卫星家族】 | 高分六号卫星影像及获取

1. 卫星简介 高分六号卫星&#xff08;GF-6&#xff09;于2018年6月2日在酒泉卫星发射中心成功发射&#xff0c;是高分专项中的一颗低轨光学遥感卫星&#xff0c;也是我国首颗精准农业观测的高分卫星&#xff0c;具有高分辨率、宽覆盖、高质量成像、高效能成像、国产化率高等特…

37.HarmonyOS鸿蒙系统 App(ArkUI) 创建第一个应用程序hello world

HarmonyOS App(ArkUI) 创建第一个应用程序helloworld 线性布局 1.鸿蒙应用程序开发app_hap开发环境搭建 3.DevEco Studio安装鸿蒙手机app本地模拟器 打开DevEco Studio,点击文件-》新建 双击打开index.ets 复制如下代码&#xff1a; import FaultLogger from ohos.faultL…

nginx | nginx反向代理/负载均衡/缓存

文章目录 一、Nginx 反向代理1.1 nginx 文件结构1.2 默认的nginx配置文件1.3 实践中的 nginx.conf 二、Nginx 负载均衡2.1 热备负载均衡2.2 轮询负责均衡2.3 加权轮询负载规则2.4 ip_hash 负载均衡2.5 对特定资源实现负载均衡2.6 对不同域名实现负载均衡2.7 实现带有URL重写的负…

JAVAEE之JavaScript

1.JavaScript JavaScript (简称 JS) 是世界上最流行的编程语言之一 是一个脚本语言, 通过解释器运行 主要在客户端(浏览器)上运行, 现在也可以基于 node.js 在服务器端运行. 脚本是什么&#xff1f; 脚本&#xff08;script&#xff09;是使用一种特定的描述性语言&#x…

浅谈物联网高速公路智慧配电室系统构建方案

关键词&#xff1a;高速公路&#xff1b;智慧供配电&#xff1b;电力监控&#xff1b;配电室智能运维托管&#xff1b;安全隐患 0、引言 随着高速公路事业的不断发展和路网的不断延伸&#xff0c;传统的管理方式已难以满足日益增长的需求&#xff0c;动态管理和安全隐患预警成…

视频汇聚/安防监控/视频存储EasyCVR平台EasyPlayer播放器更新:新增【性能面板】

视频汇聚/安防监控/视频存储平台EasyCVR基于云边端架构&#xff0c;可以在复杂的网络环境中快速、灵活部署&#xff0c;平台视频能力丰富&#xff0c;可以提供实时远程视频监控、视频录像、录像回放与存储、告警、语音对讲、云台控制、平台级联、磁盘阵列存储、视频集中存储、云…

今日头条signature参数js逆向(爬虫)

今日头条是ajax动态加载 话不多说&#xff0c;直接上代码 windowglobal;window.location{"ancestorOrigins": {},"href": "https://www.toutiao.com/","origin": "https://www.toutiao.com","protocol": "…

pymc,一个灵活的的 Python 概率编程库!

目录 前言 安装与配置 概率模型 贝叶斯推断 概率分布 蒙特卡罗采样 贝叶斯网络 实例分析 PyMC库的应用场景 1. 概率建模 2. 时间序列分析 3. 模式识别 总结 前言 大家好&#xff0c;今天为大家分享一个超强的 Python 库 - pymc Github地址&#xff1a;https://gith…