W3C 战败:无权再制定 HTML 和 DOM 标准!

640?wx_fmt=jpeg

来源:CSDN


历史性时刻!——近日,W3C正式宣告战败:HTML和DOM标准制定权将全权移交给浏览器厂商联盟WHATWG。


由苹果、Google、微软和Mozilla四大浏览器厂商组成的WHATWG已经与万维网联盟(World Wide Web Consortium,即W3C)开展了多年的拉锯战。他们想证明,如果没有他们的支持,W3C将无法管理网络标准。


而经过了多年的PK,W3C终于无奈放权了。


网络标准的分久必合之势


所谓WHATWG,即网页超文本应用技术工作小组(Web Hypertext Application Technology Working Group,简称WHATWG),成立于2004年,其目的是为了推动现代化HTML标准。当时W3C计划将HTML推向XHTML(这是一种类似XML的结构),而各大浏览器厂商表示不同意。


最初,WHATWG由苹果、Opera和Mozilla基金会组成,他们认为处于领导地位的W3C,包括许多与浏览器无关的实体,并没有将Web开发社区的利益放在心上。


于是,他们成立了反W3C联盟组织,并开发了之后的HTML 5标准,后来在得到了所有浏览器厂商的支持后,W3C也正式批准HTML 5标准成为HTML网络标准的主流版本。


两大组织的暗流涌动


多年来,这两大组织一直在通力合作,但大多数与Web标准相关的工作总是由WHATWG出面完成,然后再提交给W3C作为官方标准。


不过在很多时候,Chrome或Mozilla会在得到W3C的最终确定并正式批准之前,领先一步发布所有的建议标准。这表明在大多数情况下,众多浏览器厂商认为W3C的批准只是一种形式,在WHATWG自行决定了某个标准之后,W3C并没有太大影响力。


直到2018年4月,这两大组织出现了正面冲突,当时WHATWG所有的成员——苹果、Google、微软和Mozilla——强烈且明确地反对W3C批准DOM标准4.1。


尽管W3C拥有数百个其他成员,但DOM v4.1标准最终未能推行下去,而且至今也未能在Web浏览器中实现。从那以后,这两大组织一直在制定不同的标准。


HTML和DOM的控制权移交给了WHATWG!


最近,W3C和WHATWG宣布他们将放下分歧,并签署了新的谅解备忘录(https://www.w3.org/2019/04/WHATWG-W3C-MOU.html)。

640?wx_fmt=jpeg

根据这项新协议,W3C正式放弃发布HTML和DOM标准,他们将支持WHATWG,将控制权完整地交回到浏览器厂商手中。


今后,W3C及其数百名成员将负责起草Web标准的“建议书”。然后,由 WHATWG来决定他们的产品中将包含哪些功能。


WHATWG目前维护的HTML Living Standard(https://html.spec.whatwg.org/multipage/)将成为官方的HTML标准,而DOM Living Standard(https://dom.spec.whatwg.org/)将成为官方的DOM 标准。


640?wx_fmt=jpeg

这项公告标志着Web标准格局的巨大变化,从此以后,所有重大的Web标准都将由浏览器厂商代替W3C全权负责。


未来智能实验室是人工智能学家与科学院相关机构联合成立的人工智能,互联网和脑科学交叉研究机构。


未来智能实验室的主要工作包括:建立AI智能系统智商评测体系,开展世界人工智能智商评测;开展互联网(城市)云脑研究计划,构建互联网(城市)云脑技术和企业图谱,为提升企业,行业与城市的智能水平服务。


  如果您对实验室的研究感兴趣,欢迎加入未来智能实验室线上平台。扫描以下二维码或点击本文左下角“阅读原文”


640?wx_fmt=jpeg

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/491687.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

java 快捷工具,如何清理不需要的引用

Ctrl shift O转载于:https://www.cnblogs.com/hcfan/p/4913410.html

tf.cast()类型转换函数

tf.cast(x, dtype, nameNone) 参数 x:输入dtype:转换目标类型name:名称 返回:Tensor 例子: import tensorflow as tfa [1,0,1,0] b [1,2,3,4] c [True, True, False] d tf.cast(a, dtypebool) e tf.cast(b, d…

PyTorch框架学习十二——损失函数

PyTorch框架学习十二——损失函数一、损失函数的作用二、18种常见损失函数简述1.L1Loss(MAE)2.MSELoss3.SmoothL1Loss4.交叉熵CrossEntropyLoss5.NLLLoss6.PoissonNLLLoss7.KLDivLoss8.BCELoss9.BCEWithLogitsLoss10.MarginRankingLoss11.HingeEmbedding…

化合物半导体的机遇

来源:国盛证券半导体材料可分为单质半导体及化合物半导体两类,前者如硅(Si)、锗(Ge)等所形成的半导体,后者为砷化镓(GaAs)、氮化镓(GaN)、碳化硅(…

TensorFlow 中三种启动图用法

转自https://blog.csdn.net/lyc_yongcai/article/details/73467480 TensorFlow 中有三种启动图的方法:tf.Session(),tf.InteractivesSession(),tf.train.Supervisor().managed_session() 它们各自的用法如下: (1&am…

PyTorch框架学习十三——优化器

PyTorch框架学习十三——优化器一、优化器二、Optimizer类1.基本属性2.基本方法三、学习率与动量1.学习率learning rate2.动量、冲量Momentum四、十种常见的优化器(简单罗列)上次笔记简单介绍了一下损失函数的概念以及18种常用的损失函数,这次…

最全芯片产业报告出炉,计算、存储、模拟IC一文扫尽

来源:智东西最近几年, 半导体产业风起云涌。 一方面, 中国半导体异军突起, 另一方面, 全球产业面临超级周期,加上人工智能等新兴应用的崛起,中美科技摩擦频发,全球半导体现状如何&am…

python向CSV文件写内容

f open(r"D:\test.csv", w) f.write(1,2,3\n) f.write(4,5,6\n) f.close() 注意:上面例子中的123456这6个数字会分别写入不同的单元格里,即以逗号作为分隔符将字符串内容分开放到不同单元格 上面例子的图: 如果要把变量的值放入…

PyTorch框架学习十四——学习率调整策略

PyTorch框架学习十四——学习率调整策略一、_LRScheduler类二、六种常见的学习率调整策略1.StepLR2.MultiStepLR3.ExponentialLR4.CosineAnnealingLR5.ReduceLRonPlateau6.LambdaLR在上次笔记优化器的内容中介绍了学习率的概念,但是在整个训练过程中学习率并不是一直…

JavaScript数组常用方法

转载于:https://www.cnblogs.com/kenan9527/p/4926145.html

蕨叶形生物刷新生命史,动物界至少起源于5.7亿年前

来源 :newsweek.com根据发表于《古生物学》期刊(Palaeontology)的一项研究,动物界可能比科学界所知更加古老。研究人员发现,一种名为“美妙春光虫”(Stromatoveris psygmoglena)的海洋生物在埃迪…

TensorFlow保存和载入训练模型

保存:使用saver.save()方法保存 载入:使用saver.restore()方法载入 下面是个完整例子: 保存: import tensorflow as tfW tf.Variable([[1, 1, 1], [2, 2, 2]], dtypetf.float32, namew) b tf.Variable([[0, 1, 2]], dtypetf…

PyTorch框架学习十五——可视化工具TensorBoard

PyTorch框架学习十五——可视化工具TensorBoard一、TensorBoard简介二、TensorBoard安装及测试三、TensorBoard的使用1.add_scalar()2.add_scalars()3.add_histogram()4.add_image()5.add_graph()之前的笔记介绍了模型训练中的数据、模型、损失函数和优化器,下面将介…

C++与linus

1、linus炮轰C原帖(英文) http://thread.gmane.org/gmane.comp.version-control.git/57643/focus57918 2、2007年,linus之父炮轰C:糟糕程序员的垃圾语言(中文) CSDN刘江的博客,包括事件前因后果…

CNN、RNN、DNN的内部网络结构有什么区别?

来源:AI量化百科神经网络技术起源于上世纪五、六十年代,当时叫感知机(perceptron),拥有输入层、输出层和一个隐含层。输入的特征向量通过隐含层变换达到输出层,在输出层得到分类结果。早期感知机的推动者是…

plt.subplots中的ax = ax.flatten()

在用plt.subplots画多个子图中,ax ax.flatten()将ax由n*m的Axes组展平成1*nm的Axes组 以下面的例子说明ax ax.flatten()的作用: fig, ax plt.subplots(nrows2,ncols2,sharexall,shareyall) ax ax.flatten() for i in range(4):img image[i].resh…

L2级自动驾驶量产趋势解读

来源:《国盛计算机组》L2 级自动驾驶离我们比想象的更近。18 年下半年部分 L2 车型已面世,凯迪拉克、吉利、长城、长安、上汽等均已推出了 L2 自动驾驶车辆。国内目前在售2872个车型,L2级功能渗透率平均超过25%,豪华车甚至超过了6…

PyTorch框架学习十六——正则化与Dropout

PyTorch框架学习十六——正则化与Dropout一、泛化误差二、L2正则化与权值衰减三、正则化之Dropout补充:这次笔记主要关注防止模型过拟合的两种方法:正则化与Dropout。 一、泛化误差 一般模型的泛化误差可以被分解为三部分:偏差、方差与噪声…

HDU 5510 Bazinga 暴力匹配加剪枝

Bazinga Time Limit: 20 Sec Memory Limit: 256 MB 题目连接 http://acm.hdu.edu.cn/showproblem.php?pid5510 Description Ladies and gentlemen, please sit up straight.Dont tilt your head. Im serious.For n given strings S1,S2,⋯,Sn, labelled from 1 to n, you shou…

将tensor转array

如果对tensor使用extend方法,如下面这个例子: import tensorflow as tfa tf.convert_to_tensor([1,2,3]) b [] with tf.Session() as sess:b.extend(a) 会报错“Tensor objects are only iterable when eager execution is enabled. To iterate over…