Spark知识点总结

1. Spark支持哪几种运行模式?

  1. 本地模式(Local Mode):在这种模式下,Spark在单个机器上运行。所有的Spark操作都在一个单独的JVM进程中进行。这种模式适合开发和测试,但不适合处理大规模的数据。

  2. 集群模式(Cluster Mode):在集群模式下,Spark可以分布在多个机器上运行,从而处理大规模的数据。集群模式包括:

    • Standalone Mode:这是Spark自带的集群管理系统。在Standalone模式下,你需要手动启动Spark主节点和工作节点。

    • YARN (Yet Another Resource Negotiator):YARN是Hadoop的资源管理系统。如果你已经有一个运行Hadoop的集群,你可以在YARN上运行Spark,这样可以让Spark和其他Hadoop应用共享集群资源。

    • Apache Mesos:Mesos是一个更通用的集群管理系统,可以运行各种应用,包括Spark。使用Mesos,你可以在同一个集群上运行Spark和其他应用。

    • Kubernetes (K8s):Kubernetes是一个开源的容器编排系统,可以用来管理和部署应用。从Spark 2.3版本开始,Spark也可以在Kubernetes上运行。

2. Spark的Standalone集群架构有哪些角色及功能?

  1. Master:也被称为主节点,它负责管理整个Spark集群。Master的主要任务包括:

    • 负责管理从节点

    • 接收客户端请求

    • 资源管理:Master需要跟踪集群中每个Worker的状态,包括它们的CPU和内存使用情况。当接收到新的Spark应用请求时,Master需要决定如何分配资源给这个应用。

    • 任务调度:当Spark应用提交作业时,Master需要将作业划分为多个任务,并将这些任务分配给不同的Worker。

  2. Worker:也被称为从节点,它们执行由Master分配的计算任务。Worker的主要任务包括:

    • 利用自己节点的资源运行主节点分配的计算任务

3. Spark支持哪些开发语言?

Python、Java、Scala、SQL、R

4. RDD是什么?

- 定义:弹性分布式数据集
- 理解:高度类似于列表,区别在于RDD是分布式的,RDD的数据可以存储多个节点上

5. RDD的五大特性是什么?

  1. 分区(Partitioned):每个RDD都由多个分区构成。分区是数据的基本单位,每个分区都可以在集群的不同节点上并行处理。

  2. 并行操作(Parallel Operation):对RDD的转换操作实质上是对RDD所有分区的并行操作。Spark会尽量在所有可用的节点上并行执行任务。

  3. 依赖关系(Dependencies):每个RDD都会保留与其他RDD之间的依赖关系,这些依赖关系被称为血统(Lineage)。血统信息使得Spark可以在数据丢失时重新计算丢失的部分。

  4. (可选择)持久化(Persistence):RDD可以被持久化到内存中,以便在多个并行操作中复用。持久化的级别可以是内存存储,磁盘存储,或者两者的混合。

  5. (可选择)任务调度(Task Scheduling):Spark在分配任务给Executor运行的时候,会尽量选择数据局部性较好的节点进行计算,也就是优先在数据所在节点进行计算,这样可以减少数据的网络传输,提高计算效率。

6. RDD的弹性是什么意思?

- RDD的弹性主要体现的是数据安全和性能的灵活性
- 安全:血脉机制,Task自动恢复
- 性能:Persist持久化机制和Checkpoint检查点机制
- 开发者可以自由的在安全和性能之间做选择

  1. 容错性(Fault-tolerance):这是通过RDD的血统(Lineage)机制实现的。每个RDD都会记住它是如何从其他RDD转换过来的。这意味着,如果某个分区的数据丢失(例如,因为节点失败),Spark可以使用血统信息重新计算这个分区的数据,而不是从其他节点复制数据。这种自动恢复的能力增加了Spark的弹性。

  2. 可伸缩性(Scalability):RDD的弹性也体现在它可以很容易地在更大或更小的集群上运行。如果你增加了更多的节点,Spark会自动将数据和计算任务分配给这些新的节点。同样,如果你减少了节点,Spark也能够处理这种情况。

  3. 持久化(Persistence):RDD支持多种持久化级别,允许用户根据需要将数据存储在内存中、磁盘上,或者以序列化的形式存储。这种灵活性可以帮助你根据你的应用的需求和资源限制来平衡存储和计算的开销。

  4. 检查点(Checkpointing):RDD还支持检查点机制,这可以将RDD的某个状态保存到磁盘(通常是分布式文件系统如HDFS),以减少在失败恢复时的计算量。这是一种弹性的体现,因为它允许你在数据安全性和计算效率之间做出权衡。

7. Spark的算子分为几类?

  1. 转换(Transformation):这些操作会产生一个新的RDD。例如,map函数会对RDD中的每个元素应用一个函数,并返回一个包含结果的新RDD。转换操作是惰性的,也就是说,它们不会立即执行,而是在动作操作被调用时才执行。这样可以让Spark更有效地计划整个数据处理流程。转换操作在Spark中是非常重要的概念,因为它们允许我们构建一个处理流程,然后一次性地在数据上执行这个流程。

  2. 动作(Action):这些操作会触发实际的计算,并返回一个值给Driver程序,或者将数据写入外部系统(例如,文件系统或数据库)。例如,count函数会返回RDD中的元素数量,saveAsTextFile函数会将RDD的内容写入一个文本文件。当动作操作被调用时,Spark会开始实际的计算,包括执行所有的转换操作。

转换一般不会触发job构建task,返回值一定是一个RDD

动作一定会触发job构建task,返回值一定不是一个RDD

8. Spark的常用算子有哪些?

转换算子(Transformation):

  • map(func):返回一个新的RDD,由每一个输入元素经过func函数转换后组成。
  • flatMap(func):类似于map,但是每一个输入元素可以被映射为零个或多个输出元素(所以func应该返回一个序列,而不是单一元素)。
  • filter(func):返回一个新的RDD,只包含满足func的元素。
  • reduceByKey(func):在(K,V)对的RDD上调用,返回一个(K,V)对的RDD,其中每个key的值都是通过func函数聚合所有同样key的值得到的。
  • join(otherDataset):在两个键值对的RDD上调用,返回一个相同key对应的所有元素联接在一起的RDD。
  • distinct([numTasks])):返回一个包含源RDD中不同元素的新RDD。
  • union(dataset):返回一个新的RDD,包含源RDD和指定RDD的所有元素。
  • keys():返回一个仅包含键值对RDD中的key的RDD。
  • values():返回一个仅包含键值对RDD中的value的RDD。
  • mapValues(func):在键值对RDD上调用,应用函数func到每个value,生成一个新的键值对RDD。

动作算子(Action):

  • foreach(func):应用函数func到RDD的每个元素。
  • take(n):返回RDD的前n个元素。
  • first():返回RDD的第一个元素。
  • count():返回RDD的元素个数。
  • collect():返回RDD中的所有元素。
  • collectAsMap():将结果以Map的形式返回,以便查找。
  • saveAsTextFile(path):将数据集的元素以textfile的形式保存到本地文件系统,HDFS或者其他Hadoop支持的文件系统。
  • top(n):返回RDD的前n个元素,按照自然结果排序。
  • takeOrdered(n, [ordering]):返回该RDD排序后的前n个元素。

9. persist、cache、checkpoint之间的区别

  1. cache():这是一种特殊的持久化操作,其实就是persist(MEMORY_ONLY),也就是说,它会将RDD的数据存到内存中。如果内存不够,那么没有存到内存中的分区就会在需要的时候重新计算。

  2. persist():这是一个更一般的持久化操作,可以让你自己选择存储级别。例如,你可以选择将数据存到磁盘上,或者以序列化的方式存到内存中,或者将数据复制到多个节点等等。

  3. checkpoint():这是一种特殊的持久化操作,它会将RDD的数据保存到一个可靠的文件系统(如HDFS)中。这个操作会切断RDD的血脉(Lineage)信息,也就是说,一旦数据被checkpoint了,它的父RDD就可以被丢弃了,因为如果需要的话,我们可以总是从checkpoint的数据重新计算出这个RDD的数据。

  • 存储位置
    - persist:将RDD缓存在内存或者磁盘中,可以自己指定
    - checkpoint:将RDD的数据存储在磁盘中
  • 生命周期
    - persist:当遇到了unpersist或者程序结束,缓存的数据会被自动释放
    - checkpoint:不会被自动释放,只能手动删除
  • 存储内容
    - persist:将整个RDD的对象缓存,保留RDD的血脉关系
    - checkpoint:只存储了RDD的数据,不会保留RDD的血脉关系

10. reduceByKey和groupByKey的区别

reduceByKey(func)

reduceByKey操作可以在每个分区内部先对输出进行本地的reduce,因此需要发送到不同节点上进行全局reduce的数据量就会大大减小。这就使得reduceByKeygroupByKey具有更低的网络传输开销和更好的性能。

groupByKey()

groupByKey操作将会根据键值对的键进行分组。在这个过程中,同一个键的所有值都会被拉取到一个节点上然后进行reduce操作。这就意味着,对于大数据量的应用,groupByKey可能会导致大量的数据在节点间进行传输,从而导致较大的性能开销。

因此,一般来说,我们推荐在可能的情况下,尽量使用reduceByKey或者其他能够减少数据传输的操作(如aggregateByKeyfoldByKey),而尽量避免使用groupByKey

11. repartition和coalesce的区别

repartition(numPartitions)

repartition操作将通过网络shuffle重新分配数据,从而创建出新的分区集合。你可以使用这个操作来增加或减少RDD的分区数。由于需要通过网络shuffle数据,所以repartition操作的开销比较大。

coalesce(numPartitions, shuffle = False)

coalesce操作用于减少RDD的分区数,以减少数据在不同分区间的传输。在默认情况下,coalesce不会进行shuffle操作,所以比repartition更高效。但如果你设置shuffle = True,那么coalesce就会和repartition一样,通过网络shuffle来重新分配数据。

12. map和mapPartitions的区别

map(func)

map操作是一种对元素级别的转换,它会对RDD的每一个元素应用一个函数,然后返回一个新的RDD。

mapPartitions(func)

mapPartitions操作是一种对分区级别的转换,它会对RDD的每一个分区应用一个函数,然后返回一个新的RDD。

在性能和资源使用上,mapmapPartitions有以下的差异:

  • map操作会对每一个元素都调用一次函数,这可能会带来一些额外的开销,特别是当函数调用开销较大的时候。
  • mapPartitions操作只会对每个分区调用一次函数,所以它可以有效地利用资源,减少函数调用的开销。但是,因为它需要在内存中处理整个分区的数据,所以如果一个分区的数据量很大,mapPartitions可能会占用大量的内存。

13. top和sortByKey的区别?

top(n)

top操作将从RDD中返回前n个元素,元素按照自然顺序排序。这个操作不需要对整个数据进行shuffle,但是需要将所有数据加载到驱动程序的内存中,所以它只适合于数据量较小的情况。

sortByKey(ascending=True)

sortByKey操作将RDD中的数据按照键进行排序。你可以选择升序或降序排序。这个操作需要对数据进行shuffle,所以它的开销相对较大,但是它可以处理大数据量,因为它不需要将所有数据都加载到内存中。

top:Action操作,不经过Shuffle,只能降序排序,适合于小数据量
sortByKey:Transformation操作,经过Shuffle,可以降序或者升序,适合于大数据量

14. Spark的程序由几个部分组成及每个部分的功能是什么?

- 在集群模式下,每个Spark程序都由两种进程构成
- Driver:驱动进程,先启动,只有1个
  - 负责申请资源启动Executor
  - Driver负责解析代码构建Task
  - 负责将Task调度分配给Executor运行,并监控Task运行
- Executor:计算进程,后启动,可能有多个
  - Executor启动运行在从节点上
  - 负责运行Task

15. Spark程序的运行流程是什么?

  1. 客户端提交Spark应用:首先,用户会使用spark-submit命令(或者其他方式)提交Spark应用。这个命令可以指定应用的代码、类和任意的命令行参数。

  2. 启动Driver:一旦Spark应用被提交,Driver程序就会启动。Driver程序可以在用户的本地机器上运行,也可以在集群的主节点上运行,这取决于用户提交应用时的配置。

  3. Driver请求资源:Driver程序会通过集群管理器(如YARN、Mesos或Standalone)请求启动Executor的资源。

  4. 启动Executor:集群管理器会在集群的Worker节点上启动Executor进程。每个Executor进程都有一定数量的核和内存。

  5. Executor注册:一旦Executor进程启动,它们会向Driver程序注册。这样,Driver程序就知道了有哪些Executor可以用于运行任务。

  6. Driver解析代码:Driver程序会解析用户代码,生成一系列的Task。这些Task是由Transformation和Action操作生成的。

  7. 构建DAG和Stage:Driver程序会使用DAGScheduler组件将这些Task组织成一个DAG,并且根据数据的依赖关系将DAG划分为多个Stage。

  8. 划分TaskSet:每个Stage会被进一步划分为一个TaskSet,TaskSet中的每个Task都是可以并行执行的。

  9. 调度Task:最后,Driver程序会使用TaskScheduler组件将Task调度到Executor上执行。

16. Spark为什么比MR要快?

  1. 内存计算和DAG执行模型:Spark允许用户将数据保存在内存中,从而避免了频繁的磁盘I/O操作,这使得Spark比MapReduce更快。此外,Spark使用DAG(有向无环图)执行模型,可以在一个阶段(stage)中执行多个操作,而不需要像MapReduce那样在每个操作之后都将结果写入磁盘。

  2. 智能Shuffle:Spark的Shuffle过程比MapReduce更加智能。在MapReduce中,Shuffle包括排序和合并等操作,这些操作通常会消耗大量的计算资源。而在Spark中,Shuffle过程可以根据数据量和计算需求进行优化,例如,对于reduce类的操作,Spark可以避免不必要的排序。

  3. 任务调度:在MapReduce中,每个任务都是一个单独的JVM进程,这意味着任务的启动和结束都需要消耗资源。而在Spark中,所有任务都运行在同一个Executor进程的不同线程中,这减少了任务启动和结束的开销。

17. Spark支持哪些模块?

  1. Spark Core:这是Spark的基础模块,提供了Spark的基本功能,包括任务调度、内存管理、错误恢复、与存储系统的交互等。此外,Spark Core还提供了Resilient Distributed Dataset (RDD) API,这是Spark的基本数据结构。

  2. Spark SQL:这个模块提供了处理结构化和半结构化数据的接口。用户可以使用SQL查询数据,也可以使用Dataset或DataFrame API进行编程。Spark SQL模块还包括一个强大的查询优化器,叫做Catalyst。

  3. Spark Streaming:这个模块允许用户处理实时数据流。它使用了Spark Core中的RDD模型,并提供了一个高级API,用于处理数据流。

  4. Struct Streaming:这是一个基于Spark SQL引擎的流处理框架。它提供了一种处理无限数据流的新方法,用户可以像处理批数据一样处理流数据。

  5. MLlib (Machine Learning Library):这个模块是Spark的机器学习库,提供了常见的机器学习算法,包括分类、回归、聚类、协同过滤等。此外,MLlib还提供了一些机器学习的工具,如特征提取、转换、降维等。

  6. GraphX:这是Spark的图计算库,用于处理图形数据和计算。它包括一系列图形算法,如PageRank和Connected Components。

18. DataFrame、DataSet是什么,与RDD比较有什么区别?

- RDD:分布式集合,类似于列表,支持泛型,但没有Schema
- DataFrame:分布式表,类似于数据表,不支持泛型,拥有Schema
- DataSet:分布式表 ,类似于数据表,支持泛型,拥有Schema

19. 为什么要用Spark on YARN?

- 资源统一化管理,YARN是公共的资源管理平台,可以运行各种分布式程序:MR、Tez、Spark、Flink
- YARN的资源和任务调度机制更加成熟完善

20. Spark on YARN的不同deploymode的区别?

- deploy-mode:决定Driver进程运行位置
  - client:Driver运行在客户端节点
  - cluster:Driver运行在从节点
- 问题:只要是Spark程序就一定有Driver,只要运行在YARN就有AppMaster
- client模式:两者共存
  - Driver运行在客户端节点,负责解析代码构建Task、分配Task运行
  - AppMaster运行从节点上,负责申请资源启动Executor
- cluster模拟:两者合并
  - Driver以子进程方式运行在AppMaster内部,实现整体功能

21. 什么是宽依赖和窄依赖?

- 宽依赖:父RDD的一个分区的数据给了子RDD多个分区,一对多
  - 宽依赖会导致Shuffle产生,Spark程序中会按照宽依赖划分Stage
- 窄依赖:父RDD的一个分区的数据只给了子RDD的一个分区,一对一,多对一
  - 窄依赖可以直接在内存中完成,Spark程序中一个Stage内部全部是窄依赖过程

22. Spark的Shuffle过程和MRShuffle有什么区别?

- 从整体的角度来看,两者并没有大的差别。 
  - 都是将 mapper(Spark 里是 ShuffleMapTask)的输出先进行分区
  - 不同的 分区的数据最终送到不同的 reducer(Spark 里是 ShuffleReadTask)。
  - Reducer 以内存作缓冲区,对数据进行聚合或者排序等操作
- 从细节的角度来看,两者有一些重要差别。 
  - MapReduce 是 sort-based,所有数据不论怎么样经过shuffle都会被排序,对大量数据的处理计算比较友好,但灵活性较差
  - Spark中的Shuffle有多种方案可以选择排序或者不排序,并且实现了基于内存和网络传输的优化方案,提升了性能
- 从实现角度来看,两者也有一些差别。 
  - MapReduce 将处理流程划分出明显的几个阶段:map, spill, merge, shuffle, sort, reduce 等。
  - 在 Spark 中,没有这样功能明确的阶段,只有不同的 stage 和一系列的 transformation(),所以 spill, merge, aggregate 等操作需要蕴含在 transformation 中。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/24209.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

C语言--strcat(拼接)

字符串拼接strcat使用及实现 拼接—strcat 原型:charstrcat(chardest,const charsrc) 把src所指向的字符串(包括’\0’)复制到dest所指向的字符串后面(删除dest原来末尾的’\0’),要保证dest足够长&#xf…

STM32的电动自行车信息采集上报系统(学习)

摘要 针对电动自行车实时监管不便的问题,设计了一种基于STM32的电动自行车信息采集系统,通过获取电池、位置和行驶状态信息并上报到服务器中,实现实时监管。 通过多路串口请求电池、行驶状态和位置信息,以并发方式进行数据接收、…

Podman Desktop安装与使用-Windows10

下载 containers/podman 地址 Podman Desktop Downloads 地址 我这里演示的是podman-v4.4.4.msi和podman-desktop-0.13.0-setup.exe 安装 先决条件:由于 Podman 使用 WSL,因此您需要最新版本的 Windows 10 或 Windows 11。在 x64 上,WSL…

centos 7 系统上重启 mysql 时报错 Failed to restart mysqld.service: Unit not found.

在 centos 7 系统上,使用常规命令:systemctl restart mysql 或 service mysqld restart 重启 mysql 时都会报如下错误: Failed to start mysqld.service: Unit not found. 根据所报错误,在网上搜罗了一圈,未果&#x…

【Unity3D应用案例系列】Unity3D中实现文字转语音的工具开发

推荐阅读 CSDN主页GitHub开源地址Unity3D插件分享简书地址我的个人博客 大家好,我是佛系工程师☆恬静的小魔龙☆,不定时更新Unity开发技巧,觉得有用记得一键三连哦。 一、前言 在开发中,会遇到将文字转语音输出的需求&#xff0…

Stable Diffusion系列课程二:ControlNet

AUTOMATIC1111/stable-diffusion-webui参考B站Nenly视频《零基础学会Stable Diffusion》、视频课件推荐网站:stable-diffusion-art、Civitai(魔法) 、libilibi、AI艺术天堂推荐Stable Diffusion整合资料: NovelAI资源整合、《AI绘…

Vivado使用入门之一:Schematic图

目录 一、前言 二、Schematic类型 2.1 Schematic分类 2.2 RTL ANALYSIS 2.3 SYSTHESIS 2.4 IMPLEMENTATION 三、Schematic功能 3.1 界面工具栏 3.2 右键功能项对比 3.3 右键功能项说明 3.4 逻辑图界面 一、前言 在一个设计中,有时因定位或其他原因需要去查…

MySQL字段类型与存储空间的关系

在 MySQL 中,对于整数类型(如 INT)、字符类型(如 VARCHAR)、浮点数类型(如 DOUBLE)等,参数(括号中的数字或长度)通常用于限制数据的范围或精度,但…

【IMX6ULL驱动开发学习】22.IMX6ULL开发板读取ADC(以MQ-135为例)

IMX6ULL一共有两个ADC&#xff0c;每个ADC都有八个通道&#xff0c;但他们共用一个ADC控制器 1.设备树 在imx6ull.dtsi文件中已经帮我们定义好了adc1的节点部分信息 adc1: adc02198000 {compatible "fsl,imx6ul-adc", "fsl,vf610-adc";reg <0x0219…

【Java】智慧工地管理系统源码(SaaS模式)

智慧工地是聚焦工程施工现场&#xff0c;紧紧围绕人、机、料、法、环等关键要素&#xff0c;综合运用物联网、云计算、大数据、移动计算和智能设备等软硬件信息技术&#xff0c;与施工生产过程相融合。 一、什么是智慧工地 智慧工地是指利用移动互联、物联网、智能算法、地理信…

elementUi重置Select选择器样式、option、deep、vue3、plus

文章目录 前言select选框样式(element-plus)option选项面板样式(element-plus) 前言 样式标签属性为<style scoped lang"scss"></style> select选框样式(element-plus) // 设置选择框的背景样式 ::v-deep .el-input__wrapper {background: transparent;b…

向日葵远程情况下VS2019黑屏问题解决办法

文章目录 一. 电脑在身边情况下二. 只能远程情况下 一. 电脑在身边情况下 直接操作远程的电脑&#xff0c;打开vs&#xff0c;选择工具&#xff0c;点击选项 选择常规&#xff0c;取消勾选 二. 只能远程情况下 远程通过VS打开一个项目&#xff0c;可以看到一片空白 选中VS…

mysql的collations

在 MySQL 数据库中&#xff0c;Collation&#xff08;排序规则或字符集排序规则&#xff09;是用于指定字符集的字符比较和排序方式的一组规则。它决定了在比较和排序字符时&#xff0c;字符的顺序、大小写敏感性、重音符号等特性。 每个 MySQL 数据库都有一个默认的字符集和排…

数据库简介

1、数据库安装: rpm (redhat package manager) 也是个包管理工具: rpm -ivh 安装 rpm -e 表示卸载,卸载的时候有可能出现依赖的问题,可以用 --nodeps 忽略依赖卸载。 rpm -qa 搜索系统中安装的rpm的应用。 如果使用离线包,安装顺序不要乱。 m…

【java安全】CommonsBeanUtils1

文章目录 【java安全】CommonsBeanUtils1前言Apache Commons BeanutilsBeanComparator如何调用BeanComparator#compare()方法&#xff1f;构造POC完整POC 调用链 【java安全】CommonsBeanUtils1 前言 在之前我们学习了java.util.PriorityQueue&#xff0c;它是java中的一个优…

SpringIOC注入的两种方式讲解以及代码示例

Ioc是Spring全家桶各个功能模块的基础&#xff0c;创建对象的容器。 AOP也是以IoC为基础&#xff0c;AOP是面向切面编程&#xff0c;抽象化的面向对象 AOP功能&#xff1a;打印日志&#xff0c;事务&#xff0c;权限处理 AOP的使用会在下一篇文章进行介绍 IoC 翻译为控制反…

filebeat kibana elasticsearch 日志监控

解压三个压缩包 一、filebeat的安装部署 1、打开filebeat的配置文件 2、Filebeat inputs 处打开日志输入开关&#xff0c;设置要监控的路径 3、Outputs 输出中设置Elasticsearch output的输出地址 4、配置kibana 的地址 5、执行 ./filebeat setup -e 二、Elasticsearch 安装…

Debian 系列 Linux 的静态 DNS 、gateway 、IP 设置和网络重启

文章目录 DNS 设置DNS 配置文件DNS 配置文件内容 gateway、IP 设置网络适配器配置文件网络适配器配置文件内容 网络重启 各个 Linux 发行版的网络设置有很大不同。根据最近对 Debian 系列&#xff08;含 Debian 12、基于 Debian 12 的Proxmox 8.0-2 以及基于Debian 11 的 openm…

electron+vue3全家桶+vite项目搭建【25】使用electron-updater自动更新应用

文章目录 引入实现效果实现步骤引入依赖配置electron-buidler文件封装版本升级工具类主进程调用版本更新校验渲染进程封装方法调用 测试版本更新 引入 demo项目地址 electron-updater官网 我们不可能每次发布新的版本都让用户去手动下载安装最新的包&#xff0c;而是应用可以…

通过easyui实现动态控制表格字段显示、导出表格数据

前言 学过layui前端框架的都知道&#xff0c;layui默认帮我们实现了控制表格字段显示以及数据的导出功能。 1、控制表格字段显示 2、数据导出 3、导出为pdf&#xff1a;导出按钮的右边那个按钮就是打印pdf的 那么&#xff0c;easyui要怎么实现这些功能呢&#xff1f;这篇文章就…