「深入浅出」主流前端框架更新批处理方式

76a322e7dd0b325897f8fba64e62bc4d.gif

作者 | 👽

来源 | 前端Sharing

背景

在不同的技术框架背景下,处理更新的手段各不相同,今天我们来探讨一下,主流的前端框架批量处理的方式,和其内部的实现原理。

通过今天的学习,你将收获这些内容:

  •  主流前端框架的批量更新方式。

  •  vue 和 react 批量更新的实现。

  •  宏任务和微任务的特点。

一次 vue 案例

首先来想一个问题。比如在 vue 中一次更新中。

<template><div>姓名: {{ name }}年龄: {{ age }}<button @click="handleClick" >点击</button></div>
</template><script>
export default {data(){return {age:0,name:''}},methods:{handleClick(){this.name = 'alien'this.age = 18}}
}
</script>

如上是一个非常简单的逻辑代码,点击按钮,会触发 nameage 的更新。那么首先想一个问题就是:

  • 正常情况下,vue 的数据层是通过响应式处理的,那么比如 age 和 name 可以理解成做了一层属性代理,字符串模版 template 里面的属性 ( name 和 age ) 的 get 会和组件的渲染 watcher ( vue3.0 里面的 effect )建立起关联。

  • 一次重新赋值会触发 set ,那么根据响应式,会触发渲染 watcher 重新执行,然后就会重新更新组件,渲染视图。

那么暴露的问题就是,我们在 handleClick 中,同时改变了 name 和 age 属性,那么按照正常情况下,会分别触发 name 和 age 的 set,那么如果不做处理,那么会让渲染 watcher 执行两次,结果就是组件会 update 两次,但是结果是这样的吗?

结果是:vue 底层通过批量处理,只让组件 update 一次。

一次 react 案例

上面介绍了在 vue 中更新批处理的案例之后,我们来看一下在 react 中的批量更新处理。把上述案例用 react 来实现一下:

function Index(){const [ age , setAge ] = React.useState(0)const [ name, setName ] = React.useState('')return <div>姓名: {name}年龄: {age}<button onClick={()=>{setAge(18)setName('alien')}}>点击</button></div>
}

点击按钮,触发更新,会触发两次 useState 的更新函数。那么 React 的更新流程大致是这样的。

  • 首先会找到 fiberRoot 。

  • 然后进行调和流程。执行 Index 组件,得到新的 element。

  • diff fiber,得到 effectList。

  • 执行 effect list,得到最新的 dom ,并进行渲染绘制。

那么按常理来说,Index 组件会执行两次。可事实是只执行一次 render。

批量处理意义

通过上面的案例说明在主流框架中,对于更新都采用批处理。一次上下文中的 update 会被合并成一次更新。那么为什么要进行更新批处理呢?

批处理主要是出于对性能方面的考虑,这里拿 react 为例子,看一下批处理前后的对比情况:

🌰例子一:假设没有批量更新:

/ ------ js 层面 ------

  • 第一步:发生点击事件触发一次宏任务。

  • 第二步:执行 setAge ,更新 fiber 状态。

  • 第三步:进行 render 阶段,Index 执行,得到新的 element。得到 effectlist.

  • 第四步:进行 commit 阶段,更新 dom。

  • 第五步:执行 setName ,更新 fiber 状态。

  • 第六步:重复执行第三步,第四步。

/ ------ 浏览器渲染 ------

  • js 执行完毕,渲染真实的 dom 元素。

我们可以看到如果没有批量更新处理,那么会多走很多步骤,包括 render 阶段 ,commit 阶段,dom 的更新等,这些都会造成性能的浪费,接下来看一下有批量更新的情况。

🌰例子二:存在批量更新。

/ ------ js 层面 ------

  • 第一步:发生点击事件触发一次宏任务。

  • 第二步:setAge 和 setName 批量处理 ,更新 fiber 状态。

  • 第三步:进行 render 阶段,Index 执行,得到新的 element。得到 effectlist.

  • 第四步:进行 commit 阶段,更新 dom。

/ ------ 浏览器渲染 ------

  • js 执行完毕,渲染真实的 dom 元素。

从上面可以直观看到更新批处理的作用了,本质上在 js 的执行上下文上优化了很多步骤,减少性能开销。

简述宏任务和微任务

在正式讲批量更新之前,先来温习一下宏任务微任务,这应该算是前端工程师必须掌握的知识点。

所谓宏任务,我们可以理解成,<script> 标签中主代码执行,一次用户交互(比如触发了一次点击事件引起的回调函数),定时器 setInterval ,延时器 setTimeout 队列, MessageChannel 等。这些宏任务通过 event loop,来实现有条不紊的执行。

例如在浏览器环境下,宏任务的执行并不会影响到浏览器的渲染和响应。我们来做个实验。

function Index(){const [ number , setNumber ] = useState(0)useEffect(()=>{let timerfunction run(){timer = setTimeout(() => {console.log('----宏任务执行----')run()}, 0)}run()return () => clearTimeout(timer)},[])return <div><button onClick={() => setNumber(number + 1 )}  >点击{number}</button></div>
}

如上简单的 demo 中,通过递归调用 run 函数,让 setTimeout 宏任务反复执行。

这种情况下 setTimeout 执行并不影响点击事件的执行和页面的正常渲染。

什么是微任务呢 ?

那么我们再来分析一下微任务,在 js 执行过程中,我们希望一些任务,不阻塞代码执行,又能让该任务在此轮 event loop 执行完毕,那么就引入了一个微任务队列的概念了。

微任务相比宏任务有如下特点:

  • 微任务在当前 js 执行完毕后,立即执行,会阻塞浏览器的渲染和响应。

  • 一次宏任务完毕后,会清空微任务队列。

常见的微任务,有 PromisequeueMicrotask ,浏览器环境下的 MutationObserver ,node 环境下 process.nextTick 等。

我们同样做个实验看一下微任务:

function Index(){const [ number , setNumber ] = useState(0)useEffect(()=>{function run(){Promise.resolve().then(()=>{run()})}run()},[])return <div><button onClick={() => setNumber(number + 1 )}  >点击{number}</button></div>
}
  • 在这种情况下,浏览器直接卡死了,没有了响应,证实了上述的结论。

微任务|宏任务实现批量更新

讲完了宏任务和微任务,继续来看第一种批量更新的实现,就是基于宏任务微任务 来实现。

先来描述一下这种方式,比如每次更新,我们先并不去立即执行更新任务,而是先把每一个更新任务放入一个待更新队列 updateQueue 里面,然后 js 执行完毕,用一个微任务统一去批量更新队列里面的任务,如果微任务存在兼容性,那么降级成一个宏任务。这里优先采用微任务的原因就是微任务的执行时机要早于下一次宏任务的执行。

典型的案例就是 vue 更新原理,vue.$nextTick原理 ,还有 v18 中 scheduleMicrotask 的更新原理。

以 vue 为例子我们看一下 nextTick 的实现:

runtime-core/src/scheduler.ts

const p = Promise.resolve() 
/* nextTick 实现,用微任务实现的 */
export function nextTick(fn?: () => void): Promise<void> {return fn ? p.then(fn) : p
}
  • 可以看到 nextTick 原理,本质就是 Promise.resolve() 创建的微任务。

再看看 react v18 里面的实现。

react-reconciler/src/ReactFiberWorkLoop/ensureRootIsScheduled

function ensureRootIsScheduled(root, currentTime) {/* 省去没有必要的逻辑 */if (newCallbackPriority === SyncLane) {/* 支持微任务 */if (supportsMicrotasks) {/* 通过微任务处理 */scheduleMicrotask(flushSyncCallbacks);}}
}

接下里看一下 scheduleMicrotask 是如何实现的。

/* 向下兼容 */
var scheduleMicrotask = typeof queueMicrotask === 'function' ? queueMicrotask : typeof Promise !== 'undefined' ? function (callback) {return Promise.resolve(null).then(callback).catch(handleErrorInNextTick);
} : scheduleTimeout;

scheduleMicrotask 也是用的 Promise.resolve ,还有一个 setTimeout 向下兼容的情况。

接下来模拟一下,这个方式的实现。

class Scheduler {constructor(){this.callbacks = []/* 微任务批量处理 */queueMicrotask(()=>{this.runTask()})}/* 增加任务 */addTask(fn){this.callbacks.push(fn)}runTask(){console.log('------合并更新开始------')while(this.callbacks.length > 0){const cur = this.callbacks.shift()cur()}console.log('------合并更新结束------')console.log('------开始更新组件------')}
}
function nextTick(cb){const scheduler = new Scheduler()cb(scheduler.addTask.bind(scheduler))
}/* 模拟一次更新 */
function mockOnclick(){nextTick((add)=>{add(function(){console.log('第一次更新')})console.log('----宏任务逻辑----')add(function(){console.log('第二次更新')})})
}mockOnclick()

我们来模拟一下具体实现细节:

  • 通过一个 Scheduler 调度器来完成整个流程。

  • 通过 addTask 每次向队列中放入任务。

  • 用 queueMicrotask 创建一个微任务,来统一处理这些任务。

  • mockOnclick 模拟一次更新。我们用 nextTick 来模拟一下更新函数的处理逻辑。

可控任务实现批量更新

上述介绍了通过微任务的方式实现了批量更新,还有一种方式,通过拦截把任务变成可控的,典型的就是 React v17 之前的 batchEventUpdate 批量更新。这种情况的更新来源于对事件进行拦截,比如 React 的事件系统。

以 React 的事件批量更新为例子,比如我们的 onClick ,onChange 事件都是被 React 的事件系统处理的。外层用一个统一的处理函数进行拦截。而我们绑定的事件都是在该函数的执行上下文内部被调用的。

那么比如在一次点击事件中触发了多次更新。本质上外层在 React 事件系统处理函数的上下文中,这样的情况下,就可以通过一个开关,证明当前更新是可控的,可以做批量处理。接下来 React 就用一次就可以了。

来看一下 React 的底层实现逻辑:

react-dom/src/events/ReactDOMUpdateBatching.js

export function batchedEventUpdates(fn, a) {/* 开启批量更新  */const prevExecutionContext = executionContext;executionContext |= EventContext;try {/* 这里执行了的事件处理函数, 比如在一次点击事件中触发setState,那么它将在这个函数内执行 */return fn(a);} finally {/* try 里面 return 不会影响 finally 执行  *//* 完成一次事件,批量更新  */executionContext = prevExecutionContext;if (executionContext === NoContext) {/* 立即执行更新。  */flushSyncCallbackQueue();}}
}

在 React 事件执行之前通过 isBatchingEventUpdates=true 打开开关,开启事件批量更新,当该事件结束,再通过 isBatchingEventUpdates = false; 关闭开关,然后在 scheduleUpdateOnFiber 中根据这个开关来确定是否进行批量更新。

比如一次点击事件中:

const [ age , setAge ] = React.useState(0)
const [ name, setName ] = React.useState('')
const handleClick=()=>{setAge(18)setName('alien')
}
  • 那么首先 handleClick 是由点击事件产生的,那么在 React 系统中,先执行事件代理函数,然后执行 batchedEventUpdates。这个时候开启了批量更新的状态。

  • 接下来 setAge 和 setName 在批量状态下不会立即更新。

  • 最后通过 flushSyncCallbackQueue 来立即处理更新任务。

接下来我们模拟一下具体的实现:

<body>  <button onclick="handleClick()" >点击</button>
</body>
<script>let  batchEventUpdate = false let callbackQueue = []function flushSyncCallbackQueue(){console.log('-----执行批量更新-------')while(callbackQueue.length > 0 ){const cur = callbackQueue.shift()cur()}console.log('-----批量更新结束-------')}function wrapEvent(fn){return function (){/* 开启批量更新状态 */batchEventUpdate = truefn()/* 立即执行更新任务 */flushSyncCallbackQueue()/* 关闭批量更新状态 */batchEventUpdate = false}}function setState(fn){/* 如果在批量更新状态下,那么批量更新 */if(batchEventUpdate){callbackQueue.push(fn)}else{/* 如果没有在批量更新条件下,那么直接更新。 */fn()}}function handleClick(){setState(()=>{console.log('---更新1---')})console.log('上下文执行')setState(()=>{console.log('---更新2---')})}/* 让 handleClick 变成可控的  */handleClick = wrapEvent(handleClick)</script>

分析一下核心流程:

  • 本方式的核心就是让 handleClick 通过 wrapEvent 变成可控的。首先 wrapEvent 类似于事件处理函数,在内部通过开关 batchEventUpdate 来判断是否开启批量更新状态,最后通过 flushSyncCallbackQueue 来清空待更新队列。

  • 在批量更新条件下,事件会被放入到更新队列中,非批量更新条件下,那么立即执行更新任务。

8073fcca4f2e0f7a5ce3b11cc13e465e.gif

fdb3eed38ee626ad231f6b53c7c3573a.png

往期推荐

Redis 缓存击穿(失效)、缓存穿透、缓存雪崩怎么解决?

如果被问到分布式锁,应该怎样回答?

三分钟教你用 Scarlet 写一个 WebSocket App

Java 底层知识:什么是 “桥接方法” ?

033a74f90cf3759e9c1bc5f557360fc2.gif

点分享

a19c79061ccb3fc52e07030562bf3c94.gif

点收藏

8636aa3f5496f1978e06110b31805e5f.gif

点点赞

3e820475263971ba31f5fa63472daa4e.gif

点在看

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/512183.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

钉钉宜搭3.0发布!易连接、酷数据、更安全

简介&#xff1a; 10月20日&#xff0c;在2021云栖大会低代码分论坛上&#xff0c;阿里巴巴资深技术专家叶周全&#xff08;花名骁勇&#xff09;发布钉钉宜搭3.0版本。 10月20日&#xff0c;在2021云栖大会低代码分论坛上&#xff0c;阿里巴巴资深技术专家叶周全&#xff08;…

基层数字化治理困境如何破局?

简介&#xff1a; 10月20日&#xff0c;2021云栖大会低代码分论坛如约举行。在这场低代码行业的盛会上&#xff0c;兰溪市大数据发展中心党组书记、主任芦建洪分享的内容获得了在场观众的热烈反响&#xff0c;兰溪市使用钉钉宜搭低代码破解基层数字化治理困境的成功经验也为全国…

形式化验证工具TLA+:程序员视角的入门之道

简介&#xff1a; 女娲是飞天分布式系统中提供分布式协同的基础服务&#xff0c;支撑着阿里云的计算、网络、存储等几乎所有云产品。在女娲分布式协同服务中&#xff0c;一致性引擎是核心基础模块&#xff0c;支持了Paxos&#xff0c;Raft&#xff0c;EPaxos等多种一致性协议&a…

性能突出的 Redis 是咋使用 epoll 的?

作者 | 闪客来源 | 低并发编程我是个 redis 服务&#xff0c;我马上就要启动了因为我的主人正在控制台输入&#xff1a;./redis-server宏观上看下我的流程突然&#xff0c;主人按下了回车键&#xff0c;不得了了。shell 程序把我的程序加载到了内存&#xff0c;开始执行我的 ma…

阿里云重磅发布业务中台产品 BizWorks,中台发展进入下一个阶段

简介&#xff1a; 业务中台产品BizWorks重磅发布&#xff0c;这可以看作是阿里云在 “做厚中台” 战略上继 “云钉一体”之后的又一个新动作&#xff01; 10 月 19 日&#xff0c;2021 云栖大会正式开幕&#xff0c;连续举办多年的云栖大会俨然已经成为了国内科技产业展示前沿…

java32位怎么用eclipse_无法在Windows 7 32位上打开eclipse

我正在使用Eclipse Indigo(eclipse-jee-indigo-SR2-win32) . 当我双击eclipse.exe时&#xff0c;会出现以下对话框&#xff1a;日志文件的内容如下&#xff1a;!SESSION 2013-05-27 17:55:26.853 -----------------------------------------------eclipse.buildIdM20120208-080…

云栖发布|企业级互联网架构全新升级 ,助力数字创新

简介&#xff1a; 云原生产品家族全面升级&#xff0c;让业务技术团队有了更多选择&#xff0c;通过简单、丰富、开放和低成本的 PaaS 服务&#xff0c;帮助企业客户更简单、更高效的进行在云上创新&#xff0c;搭建更符合业务需要和团队情况的技术体系。 作者&#xff5c;白玙…

当类的泛型相关时,如何在两个泛型类之间创建类似子类型的关系呢

作者 | 阿Q来源 | 阿Q说代码事情是这样的&#xff1a;对话中的截图如下&#xff1a;看了阿Q的解释&#xff0c;你是否也和“马小跳”一样存在疑问呢&#xff1f;请往&#x1f447;看我们都知道在java中&#xff0c;只要是类型兼容&#xff0c;就可以将一种类型的对象分配给另一…

java 垃圾回收 新生代_Java垃圾回收

一、概述Java垃圾回收器实现内存的自动分配和回收&#xff0c;这两个操作都发生在Java堆上(还包括方法区&#xff0c;即永久代)。垃圾回收操作不是实时的发生(对象死亡不会立即释放)&#xff0c;当内存消耗完或者是达到某一指标(threshold,使用内存占总内存的比列&#xff0c;比…

一图看懂云栖大会「云原生」发布

简介&#xff1a; 云原生产品全新升级 原文链接 本文为阿里云原创内容&#xff0c;未经允许不得转载。

明明还有大量内存,为啥报错“无法分配内存”?

作者 | 张彦飞allen来源 | 开发内功修炼近日小伙伴和我说了线上服务器出现一个诡异的问题&#xff0c;执行任何命令都是报错“fork:无法分配内存”。这个问题最近出现的&#xff0c;前几次重启后解决的&#xff0c;但是每隔 2-3 天就会出现一次。# service docker stop -bash f…

先行一步,7大技术创新和突破,阿里云把 Serverless 领域的这些难题都给解了

简介&#xff1a; 函数计算 FC 首创 GPU 实例、业内首发实例级别可观测和调试、率先提供端云联调和多环境部署能力、GB 级别镜像启动时间优化至秒级、VPC 网络建连优化至200ms&#xff0c;Serverless 应用引擎 SAE 支持微服务框架无缝迁移、无需容器化改造、业内首创混合弹性策…

基于Delta lake、Hudi格式的湖仓一体方案

简介&#xff1a; Delta Lake 和 Hudi 是流行的开放格式的存储层&#xff0c;为数据湖同时提供流式和批处理的操作&#xff0c;这允许我们在数据湖上直接运行 BI 等应用&#xff0c;让数据分析师可以即时查询新的实时数据&#xff0c;从而对您的业务产生即时的洞察。MaxCompute…

如何新建java内部类_java内部类-1(内部类的定义)

小胖从官网出发&#xff0c;研究下为什么我们需要些内部类&#xff0c;内部类的区别和联系。思考三个问题&#xff1a;(1)为什么需要内部类&#xff1f;静态内部类和非静态内部类有什么区别&#xff1b;(2)为什么内部类可以无条件访问外部类成员&#xff1b;(3)为什么jdk1.8之前…

stack vs heap:栈区分配内存快还是堆区分配内存快 ?

作者 | 码农的荒岛求生来源 | 码农的荒岛求生有伙伴问到底是从栈上分配内存快还是从堆上分配内存快&#xff0c;这是个比较基础的问题&#xff0c;今天就来聊一聊。栈区的内存申请与释放毫无疑问&#xff0c;显然从栈上分配内存更快&#xff0c;因为从栈上分配内存仅仅就是栈指…

CDP 平台简介

简介&#xff1a; EDC 建立在 Cloudera Data Platform(CDP) 之上&#xff0c;该产品结合了 Cloudera Enterprise Data Hub 和 Hortonworks Data Platform Enterprise 的优点&#xff0c;并在技术堆栈中增加了新功能和对已有技术提供了增强功能。这种统一的发行是一个可扩展且可…

400倍加速, PolarDB HTAP实时数据分析技术解密

简介&#xff1a; PolarDB MySQL是因云而生的一个数据库系统, 除了云上OLTP场景&#xff0c;大量客户也对PolarDB提出了实时数据分析的性能需求。对此PolarDB技术团队提出了In-Memory Column Index(IMCI&#xff09;的技术方案&#xff0c;在复杂分析查询场景获得的数百倍的加速…

建立数字化、学习型人事平台,HR 与业务终于不再「隔空对话」

本篇文章暨 CSDN《中国 101 计划》系列数字化转型场景之一。 《中国 101 计划——探索企业数字化发展新生态》为 CSDN 联合《新程序员》、GitCode.net 开源代码仓共同策划推出的系列活动&#xff0c;寻访一百零一个数字化转型场景&#xff0c;聚合呈现并开通评选通道&#xff…

OpenYurt 深度解读|开启边缘设备的云原生管理能力

简介&#xff1a; 北京时间 9 月 27 号&#xff0c;OpenYurt 发布 v0.5.0 版本。新发布版本中首次提出 kubernetes-native非侵入、可扩展的边缘设备管理标准&#xff0c;使 Kubernetes 业务负载模型和 IOT 设备管理模型无缝融合。 作者&#xff5c;贾燚星(VMware), 何淋波(阿里…

Cloudera Manager 术语和架构

简介&#xff1a; 本文介绍了Cloudera Manager 的常见术语和架构 Cloudera Manager 术语 为了有效地使用Cloudera Manager&#xff0c;您应该首先了解其术语。 术语之间的关系如下所示&#xff0c;其定义如下&#xff1a; 有时&#xff0c;术语服务和角色用于同时指代类型和…