图灵奖得主 Yann LeCun 最新文章 :自监督学习,人工智能世界的“暗物质”

来源:AI前线

作者:Yann LeCun ,Ishan Misra

译者:王强

策划:刘燕

近年来,AI 产业在开发“可以从大量经过细致标记的数据中学习的 AI 系统”这个研究领域上取得了巨大进步。这种监督学习的范式在训练专业模型方面有着非常好的成绩,这类模型在完成它们针对训练的任务时表现颇为出色。不幸的是,只靠监督学习,人工智能领域的前景是有局限的。

监督学习是构建更智能的通用模型道路上面临的一个瓶颈。这种通用模型可以无需大量标记数据就执行多种任务并获得新技能。实际上,想要标记世界上的所有事物是不可能做到的。还有一些任务根本没有足够的标记数据,例如针对一些资源匮乏的语言的翻译系统。如果 AI 系统能够超越训练数据集所指定内容的范畴,对现实做出更深入、更细致的理解,那么它们就会有更多用途,并最终发展出更接近人类的 AI 智能。

在婴儿时期,我们主要通过观察来了解世界是如何运转的。我们学习诸如事物恒久性和重力之类的概念,从而形成了关于世界中各种事物的通用预测模型。随着我们成长,我们开始观察世界,对其采取行动,再次观察并建立假设,以通过尝试和错误来解释我们的行为是如何改变环境的。

一个可行的假设是,关于世界的通行知识,或者说常识,构成了人类和动物具备的生物智能的主要基础。这种常识能力对于人类和动物来说都是天然存在的,但是自 AI 研究起步以来,它一直都是一项未解决的挑战。从某种意义上说,常识就是人工智能领域的暗物质。

常识可以帮助人们学习新技能,而无需为每项任务都做大量的教学指导。例如,我们只需向小孩子展示几张母牛的画像,他们最后就能识别出他们看到的任何母牛。相比之下,受监督学习训练的 AI 系统需要许多母牛图像的样本,即便如此也可能无法识别出特殊情况下的母牛(例如躺在沙滩上的牛)。

在几乎没有监督的情况下,人们是如何在大约 20 个小时的练习中学会驾驶汽车的呢?相比之下,全自动驾驶系统为什么需要动用我们最优秀的 AI 系统,接受来自人类驾驶员的数千小时数据的训练?简单的答案是,人类依赖的是他们之前获得的有关世界运作方式的背景知识。

我们如何让机器也能做到这一点呢?

我们相信,自监督学习(self-supervised learning,SSL)是建立这种背景知识,并在 AI 系统中建立一种近似常识形式的最有前途的方法之一。

自监督学习让 AI 系统能够从很少的数据中学习知识,这样才能识别和理解世界上更微妙、更不常见的表示形式。自监督学习在自然语言处理(NLP)领域取得了显著的成就,包括 Collobert-Weston 2008 模型、Word2Vec、GloVE、fastText,以及最近的 BERT、RoBERTa、XLM-R 等成果。与仅以监督方式做训练的系统相比,以这种方式进行预训练的系统所提供的性能要高得多。

我们最新的研究项目 SEER 利用了 SwAV 等方法,在一个包含十亿张随机未标记图像的大型网络上做预训练,进而在各种视觉任务集上获得了最顶尖的准确性水平。这一进展表明,自监督学习也可以胜任复杂现实环境中的 CV 任务。

在这篇文章中,我们会向大家分享为什么自监督学习可能有助于解锁智能研究领域的暗物质,以及 AI 产业下一个前沿领域的细节。我们还将重点介绍关于 AI 系统中自监督学习和推理的一些最有希望的新方向,包括在不确定环境下用于预测的基于能量的模型、联合嵌入方法和潜在变量架构。

自监督学习是预测性学习

自监督学习是利用数据的基础结构来从数据本身获取监督信号的。一般来说,自监督学习使用的技术是根据输入的任何观察到的或非隐藏的部分,来预测输入的任何未观察到的或隐藏的部分(或属性)。例如,在 NLP 中很常见的例子是,我们可以隐藏句子的一部分,并从其余单词中预测隐藏的单词。我们还可以根据当前帧(观察到的数据)预测视频中的过去帧或未来帧(隐藏数据)。由于自监督学习使用的是数据本身的结构,因此它可以在多种共现模式(例如视频和音频)和大型数据集中利用各种监督信号,而无需依赖标记。

在自监督学习中,训练系统以从输入的可见部分(绿色)预测输入的隐藏部分(灰色)

由于自监督学习是由监督信号推动的,因此与之前使用的术语“无监督学习”相比,“自监督学习”这个术语更容易被接受。无监督学习是一个定义不清、具有误导性的术语,让人觉得这种学习根本用不到监督。实际上,自监督学习并不是无监督的,因为它使用的反馈信号比标准的监督学习和强化学习方法要多得多。

自监督的语言与视觉学习

自监督学习对 NLP 产生了特别深远的影响,使我们能够在大型的未标记文本数据集上训练 BERT、RoBERTa、XLM-R 等模型,然后将这些模型用于下游任务。这些模型在自监督阶段进行预训练,然后针对特定任务(例如分类文本主题)进行微调。在自监督的预训练阶段,系统会显示一段简短的文本(通常包含 1,000 个单词),其中一些单词已被屏蔽或替换。系统经过训练可以预测被屏蔽或替换的单词。通过这种方式,系统学会了表示文本的含义,这样它就可以很好地填写“正确的”单词,或者说在上下文中有意义的单词。

预测输入的缺失部分是 SSL 预训练的更常见的任务之一。要完成诸如“()在非洲草原上追赶()”这样的句子,系统必须知道狮子或猎豹可以追捕羚羊或牛羚,但猫是在厨房而非热带草原中追逐老鼠的。训练的结果是,系统学会了如何表示单词的含义、单词在句子中的作用以及整段文本的含义。

但是,这些技术不能轻松扩展到新领域,例如 CV 上。尽管 SSL 取得了令人鼓舞的早期成果,但它尚未在计算机视觉方面带来我们在 NLP 领域中看到的那种改进(尽管这种情况将会改变)。

主要原因是,在图像的预测任务中表示不确定性要比在单词中表示不确定性困难得多。当系统无法准确预测缺失的单词时(是“狮子”还是“猎豹”?),系统可以对词汇表中所有可能的单词打出分数或概率:“狮子”“猎豹”和其他一些掠食者拿到高分,词汇表中其他单词的得分都较低。

规模这么大的训练模型还需要一种在运行时和内存方面都有很高效率,而又不影响准确性的模型架构。幸运的是,FAIR 在架构设计领域的最新创新催生了一个新的模型家族,名为 RegNets,可以完全符合这些需求。RegNet 模型都是 ConvNet,能够扩展到数十亿甚至可能是数万亿的参数,并且可以进行针对优化以适应不同的运行时和内存限制。

但是,当我们预测视频中丢失的帧或图像中缺少的色块时,我们不知道如何有效地表示不确定性。我们无法列出所有可能的视频帧,也无法给每个可能的视频帧打出分数,因为它们的数量是无限的。尽管这一问题限制了视觉领域中 SSL 带来的性能改进,但诸如 SwAV 之类的新 SSL 技术开始打破视觉任务中的准确性记录。SEER 系统就是一个最佳证明,它使用了一个经过数十亿样本训练的大型卷积网络。

对预测中的不确定性建模


为了更好地理解这一挑战,我们首先需要了解与 NLP 相比,CV 中预测不确定性及其建模的方式。在 NLP 中,缺失单词的预测工作需要计算词汇表中每个可能单词的预测分数。虽然词汇量本身很大,并且预测缺失单词会带来一些不确定性,但系统可以生成词汇表中所有可能单词的列表以及该位置可能出现单词的概率估计。典型的机器学习系统会将预测问题视为分类问题,并使用巨大的所谓的 softmax 层来计算每个结果的分数,进而将原始分数转换为单词的概率分布以实现上述目的。使用这种技术,只要存在有限数量的可能结果,预测的不确定性就可以通过所有可能结果的概率分布来表示。

相比之下,在 CV 领域中,预测视频中“丢失”的帧、图像中缺少的块或语音信号中缺失片段的类似任务需要对高维连续对象做预测,而不是对离散结果做预测。给定的视频帧后面可以跟随的视频帧有无数种合理的可能。系统不可能明确表示所有可能的视频帧并为它们给出预测分数。实际上,我们可能永远也没有适当地表示高维连续空间(例如所有可能视频帧的集合)上概率分布的技术。

这似乎是一个棘手的问题。

自监督方法的统一视角

基于能量的模型(energy-based model,EBM)这一统一框架为 SSL 提供了一种思路。EBM 是一种可训练的系统,在给定两个输入 x 和 y 的情况下,它能告诉我们它们彼此之间的不相容程度。例如,x 可以是一段短视频剪辑,而 y 可以是另一个建议的视频剪辑。机器会告诉我们 y 在多大程度上是 x 的良好后续。为了指出 x 和 y 之间的不相容程度,机器会生成一个称为能量的数字。如果能量较低,则认为 x 和 y 相互趋于相容;否则,x 和 y 被认为是不相容的。

基于能量的模型(EBM)测量观测值 x 与建议的预测值 y 之间的相容性。如果 x 和 y 相容,则能量很小。如果它们不相容,则能量较大。

EBM 的训练过程包括两部分:(1)向其展示 x 和 y 相容的示例并对其进行训练以产生一个较低的能量(2)找到一种方法来确保对于特定 x,与 x 不相容的 y 值产生的能量比与 x 相容的 y 值更高。第一部分很简单,但第二部分就是困难所在。

为了进行图像识别,我们的模型将 x 和 y 这两个图像作为输入。如果 x 和 y 是同一图像的略有变形的版本,则用它们训练该模型以使其输出产生低能量。例如,x 可以是一辆汽车的照片,而 y 可以是同一辆汽车的照片,只是在一天中的不同时间从稍有不同的位置拍摄的,因此相比 x 中的汽车,y 中的汽车可以移动、旋转、更大、更小,或者显示的颜色和阴影略有不同。

联合嵌入,暹罗网络

一种特别适合这一用途的深度学习架构是所谓的暹罗网络或称联合嵌入(joint embedding)架构。这个想法可以追溯到 Geoff Hinton 实验室和 Yann LeCun 小组的论文(1990 年代初,这里和这里;2000 年代中,这里,这里,和这里)。它过去一直没得到很好的重视,但自 2019 年底以来重新成为了热门话题。联合嵌入架构由同一网络的两个相同(或几乎相同)的副本组成。一个网络用 x 输入,另一个网络用 y 输入。这些网络生成称为嵌入(embedding)的输出向量,分别表示 x 和 y。第三个模块将这些网络头对头连接起来,将能量计算为两个嵌入向量之间的距离。当模型看到同一图像的不同变形版本时,可以轻松调整网络参数,以使它们的输出靠得更近。这将确保网络生成对象的几乎相同的表示(或嵌入),而不管该对象的特定视图是什么样子。 

联合嵌入架构。顶部的函数 C 产生一个标量能量,该标量能量测量由共享相同参数(w)的两个相同的双胞胎网络生成的表示向量(嵌入)之间的距离。当 x 和 y 是同一图像的稍有不同的版本时,系统经过训练以生成一个低能量,这迫使模型为两个图像生成相似的嵌入向量。困难的部分是训练模型,以便为不同的图像生成高能量(即,不同的嵌入)。

困难在于当 x 和 y 是不同的图像时,如何确保网络生成高能量,即不同的嵌入向量。如果没有特定的方法,这两个网络可能会愉快地忽略它们的输入,并始终生成相同的输出嵌入。这种现象称为崩溃。当发生崩溃时,x 和 y 不匹配的能量不会比 x 和 y 匹配的能量更高。

有两种避免崩溃的技术:对比方法和正则化方法。

基于能量的 SSL 的对比方法

对比方法基于以下简单思想:构造不相容的 x 和 y 对,并调整模型的参数,以使相应的输出能量较大。

用对比方法训练 EBM 的方法包括同时降低训练集中相容的(x,y)对的能量(由蓝点表示),提高挑选出来的不相容的(x,y)对的能量(以绿点表示)。在这个简单的示例中 x 和 y 都是标量,但在实际情况下,x 和 y 可以是具有数百万个维度的图像或视频。找出让能量按照预期方式涨落的不相容对是一大挑战,需要庞大的计算资源。 

通过屏蔽或替换某些输入词来训练 NLP 系统的方法属于对比方法的类别。但是它们不使用联合嵌入架构。取而代之的是,他们使用了一种预测架构,其中模型直接生成 y 的预测。模型从文本 y 的一个完整段开始,然后通过屏蔽某些单词来破坏它,以生成观察值。损坏的输入将输入到一个大型神经网络,该网络经过训练可以重现原始文本 y。未损坏的文本将被重建为自身(低重建错误),而已损坏的文本将被重建为自身的未损坏版本(较大的重建错误)。如果将重建错误解释为一种能量,它将具有所需的属性:“干净”文本的能量较低,而“损坏”文本的能量较高。

训练模型以恢复输入的损坏版本的一般性技术被称为降噪自动编码器。这个想法的早期形式可以追溯到 1980 年代,2008 年由蒙特利尔大学的 PascalVincent 和同事们复兴。这一理念被 Collobert 和 Weston 引入 NLP 领域,并由我们在谷歌的同行在 BERT 论文中发扬光大。 

屏蔽语言模型是降噪自动编码器的一个实例,它本身是对比自监督学习的一个实例。变量 y 是一个文本段;x 是文本中某些单词被屏蔽的版本。网络经过训练可以重建未损坏的文本。

正如我们之前指出的,这种类型的预测架构只能对给定的输入生成单个预测。由于模型必须能够预测多个可能的结果,因此预测结果不是单个单词集,而是针对每个缺失单词位置的词汇表中各个单词的分数系列。

但是我们不能对图像使用这种技术,因为我们无法枚举所有可能的图像。存在解决这一问题的方法吗?简单的回答就是不存在。在这个方向上有一些有趣的想法,但是它们尚未产生与联合嵌入架构一样好的结果。一种有趣的途径是潜在变量(latent-variable)预测架构。 

潜在变量预测架构。给定一个观测值 x,该模型必须能够生成一组由图中的 S 形色带表示的多个相容预测。当潜在变量 z 在一个用灰色正方形表示的集合内变化时,输出在该组合理的预测范围内变化。

潜在变量预测模型包含一个额外的输入变量(z)。之所以称其为潜在,是因为系统从未观察到它的值。对于经过适当训练的模型,由于潜在变量在给定的集合上变化,因此输出预测在与输入 x 相容的合理预测的集合上变化。

可以使用对比方法来训练潜在变量模型。生成对抗网络(GAN)就是一个很好的例子。批评者(或称鉴别器)可以被视为计算能量,该能量指示输入 y 是否看起来不错。生成器网络经过训练以生成对比样本,批评者被训练到对比样本以关联高能量。

但是对比方法有一大问题:它们的训练效率很低。在诸如图像之类的高维空间中,一张图像与另一张图像的区别可以有很多表现形式。找到涵盖所有可能与给定图像不同之处的对比图像集合几乎是不可能的任务。就像托尔斯泰名著《安娜·卡列尼娜》中的名言:“幸福的家庭都是相似的;不幸的家庭都有自己的不幸。”看来,这一规则也适用于任何高维对象系列。

怎样才能在不显著提高许多不相容对的能量的情况下,确保不相容对的能量高于相容对的能量呢?

基于能量的 SSL 的非对比方法

应用于联合嵌入架构的非对比方法可能是目前 SSL 视觉领域中最热门的话题。这个领域还有大片需要探索的未知事物,但它似乎很有希望。

联合嵌入的非对比方法包括 DeepCluster、ClusterFit、MoCo-v2、SwAV、SimSiam、Barlow Twins、来自 DeepMind 的 BYOL 等等。他们使用各种技巧,例如为一组相似的图像计算虚拟目标嵌入(DeeperCluster、SwAV、SimSiam),或者通过架构或参数向量来让两种联合嵌入架构出现细微差异(BYOL、MoCo)。BarlowTwins 则试图最小化嵌入向量各个分量之间的冗余。

从长远来看,也许更好的选择是设计潜在变量预测模型的非对比方法。主要的障碍是它们需要一种方法来最小化潜在变量的容量。容纳潜在变量变化的集合大小限制了消耗低能量的输出的大小。通过最小化这一大小,可以自动以正确的方式来排布能量。

这种方法的一个成功例子是变分自编码器(Variational Auto-Encoder,VAE),其将潜在变量设为“模糊”,从而限制了其容量。但是,尚未证明 VAE 可以为下游的视觉任务提供良好的表示。另一个成功的例子是稀疏建模(sparse modeling),但其用例仅限于简单的架构。似乎没有完美的方法可以限制潜在变量的容量。

未来几年我们面临的挑战可能是为潜在变量基于能量的模型设计非对比方法,这种方法应该能成功生成图像、视频、语音和其他信号的良好表示形式,并在不需要大量标记数据的情况下在下游监督任务中获得最佳性能。

推进视觉领域的自监督学习

最近,我们创建并开源了一种称为 SEER 的,具有十亿参数的自监督 CV 新模型,它已被证明可有效处理复杂的高维图像数据。它基于应用于卷积网络架构(ConvNet)的 SwAV 方法,可以用大量随机图像训练,而无需任何元数据或注释。ConvNet 足够大,可以从庞大而复杂的数据中捕获和学习每个视觉概念。在对 10 亿张随机、未标记和未整理的公共 Instagram 图像集合进行预训练,并在 ImageNet 上进行了监督微调之后,SEER 的表现超过了最先进的自监督系统,在 ImageNet 上的 top-1 准确度达到了 84.2%。

这些结果表明,我们可以将自监督的学习范式拓展到计算机视觉领域。

在 Facebook 应用自监督学习

在 Facebook,我们不仅在多个领域通过基础、开放的科学研究推进自监督学习技术,我们还将这项前沿工作应用到了生产中,以快速提高我们平台安全性产品中内容理解系统的准确度,

像我们的预训练语言模型 XLM 这样的自监督领域研究正在为 Facebook 上的许多重要应用程序提供动力——包括主动检测仇恨言论的系统。我们已经部署了 XLM-R,该模型利用了我们的

RoBERT 架构,以改进我们在 Facebook 和 Instagram 上针对多种语言的仇恨语音分类器,这样即使在训练数据很少的语言中我们也可以实现仇恨语音检测。

近年来,自监督学习的进展让我们倍感鼓舞,尽管要让这种方法帮助我们发现 AI 智能的暗物质还有很长的路要走。自监督是通往人类水平智能的道路上的重要一步,但这一步背后肯定有许多积累,所谓千里之行始于足下。因此,我们在努力与更大范围内的 AI 社区合作,以实现我们在未来的某一天创造出具有人类智能的机器的目标。我们的研究已公开发布并在顶级会议上发表。我们还组织了研讨会并发布了一些库,以帮助加快这一领域的研究。

作者介绍

Yann LeCun,VP 兼首席 AI 科学家;Ishan Misra,研究科学家。

原文链接:

https://ai.facebook.com/blog/self-supervised-learning-the-dark-matter-of-intelligence

未来智能实验室的主要工作包括:建立AI智能系统智商评测体系,开展世界人工智能智商评测;开展互联网(城市)云脑研究计划,构建互联网(城市)云脑技术和企业图谱,为提升企业,行业与城市的智能水平服务。

  如果您对实验室的研究感兴趣,欢迎加入未来智能实验室线上平台。扫描以下二维码或点击本文左下角“阅读原文”

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/485002.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

无脑人:我们真的需要大脑吗?

© Mental Floss来源:神经科技编辑:Yezi审阅:mingzlee7在一次讨论中,有位德高望重的人(我不会透露这个人是谁)告诉我:“我认为自我存在于心脏!而不是大脑!那些声称意…

JS数组的需要注意的问题

一、在js中数组是我们经常使用的数据类型,也为我们提供了很多方法。但是有些方法需要注意使用: 1、indexOf(args):匹配一个数组中与args相等的项的索引位置,如果该数组包含这个匹配项则返回第一个匹配的索引,并停止匹配…

基金委最新改革:9大科学部整合为4个板块资助布局

来源:微信公众号科学网(sciencenet-cas)3月24日,国家自然科学基金委员会(以下简称自然科学基金委)第八届委员会第四次全体会议在北京召开。会议上,自然科学基金委主任、党组书记李静海作全委会工…

Leetcode--236. 二叉树的最近公共祖先(Java)

给定一个二叉树, 找到该树中两个指定节点的最近公共祖先。 百度百科中最近公共祖先的定义为:“对于有根树 T 的两个结点 p、q,最近公共祖先表示为一个结点 x,满足 x 是 p、q 的祖先且 x 的深度尽可能大(一个节点也可以是它自己的…

万恶之源 - Python运算符与编码

格式化输出 现在有个需要我们录入我们身边好友的信息,格式如下: ------------ info of Alex Li ----------Name : Alex LiAge : 22job : Teacher Hobbie: girl------------- end ---------------- 我们现在能想到的办法就是用一下方法: name input(请输入姓名:) age …

世界最大、最复杂的GPU!这颗集成1000亿个晶体管的芯片长什么样?

来源:EETOP3月25日消息 英特尔于昨日举办了直播活动,新上任的 CEO 帕特基辛格(Pat Gelsinger) 发表了演讲,并展示了采用 7nm 工艺的 Xe-HPC 高性能 GPU,代号 “Ponte Vecchio”。这款产品封装了 47 个芯片&…

Lucene全文检索

目录结构: 1.全文检索 2.Lucene入门 3.Lucene进阶 全文检索 一, 生活中的搜索: 1.Windows系统中的有搜索功能:打开“我的电脑”,按“F3”就可以使用查找的功能,查找指定的文件或文件夹。搜索的范围是整个电脑中的文件资源。 2.Eclipse中的帮助…

区块链架构下 智慧城市发展加速

来源:中国经济时报智慧城市与区块链技术结合愈加紧密在城市建设和管理上,越来越多的城市开始尝试推动区块链技术在智慧城市项目中应用。中国有杭州聚能城、雄安新区;韩国有“区块链首尔城”;瑞士有“加密谷”楚格;爱沙尼亚和圣马力诺等国家也在纷纷构筑自…

揭秘人工智能背后鲜为人知的人工力量——数据标注

来源:帮尼资讯部分参考来源:大数据文摘、点宽DigQuant图片来源:网络尽管随着AI的普及,我们在生活中越来越依赖于人工智能,但“人工智障”的相关调侃也从来没有消失过。相信大家都知道,如果我们想要让AI准确…

诺贝尔奖也难以衡量其贡献,杨振宁的杨-米尔斯理论到底多厉害?

来源:宇宙时空杨振宁先生的贡献,宇称不守恒,打破了诺贝尔奖颁奖的时间记录,比爱因斯坦快了整整16年。可是,跟杨-米尔斯理论相比,它简直不值一提。如果把人类的科学发展比作一场大型的通关游戏现场&#xff…

美国科研欲重回阿波罗登月水平,基础科学投入计划翻倍

来源:机器之心编辑:泽南、小舟在与中国的全面竞争中,美国希望能在基础科学领域里保持领先,对此其不惜准备将经费投入重新提高到 20 世纪 60 年代「阿波罗登月计划」时期的最高水平。美国众议院科学委员会希望在未来五年内将国家科…

django模板系统(上)

filters 过滤 default 替代作用 filesizeformat 格式化为人类可读 add 给变量加参数 lower 小写 upper 大写 title 标题 ljust 左对齐 rjust 右对齐 center 居中 length 返回value的长度 slice 切片 first 取第一个元素 last 取最后…

模仿大脑:下一代计算机

《环球科学》供图光明图片/视觉中国光明图片/视觉中国文章来源:光明日报作者:茱莉格洛利耶【环球科技】引 言在过去几年中,人工智能算法取得了巨大的进步。它在我们日常生活中的应用越来越普遍,经常被用于分析文本或图片的内容&a…

新能源关键技术预见的研究

来源:微信公众号科学家,原载于《今日科苑》2020年第11期作者:刘进萍、卢世刚1. 引言新能源是指采用新技术和新材料正在开发利用的新型能源,既包括风能、太阳能、生物质能等可再生能源,也包括核能、氢能等其他非化石能源…

谷歌前CEO:美国科技优势面临最危险时刻

文章来源:VOA,2021-03-28 ,不代表本平台立场图片来源:GETTY IMAGES、知乎、网络等编辑:阿丽西娅中国在人工智能(AI)发展的多项指标上直逼美国优势,有些领域甚至已经实现超越。许多分…

CoreJava学习第五课 --- 进入第二阶段:面向对象编程思想

面向对象编程思想 1.面向过程 ​ 从计算机执行角度出发 ,代码执行过程核心为从程序的运行过程出发,构建编程思路,例: 哥德巴赫猜想 // 面向过程1 用户输入一个数n2 验证数字的正确性2.1 正确就继续向下2.2 错误就重复输入3 拆数 循环 nab4.判断 a和b同…

波士顿动力的仓库机器人Strentch来了,挑战每小时搬运800个箱子

来源: 雷锋网作者:杨丽编译:TheVerge雷锋网讯,波士顿动力以其机器狗Spot和双足人形机器人Atlas而闻名。不过近年来,该公司开始将目光投放到物流领域,并于日前发布了一款名为Strentch的新型仓库物流机器人。…

下一代人工智能

来源:人机与认知实验室翻译:朱浩然摘要:人工智能和机器学习的最新研究在很大程度上强调了通用学习和越来越大的训练集以及越来越多的计算。相反,我提出了一种以认知模型为中心的混合,知识驱动,基于推理的方…

Arm十年最大更新:V9架构正式发布

来源:由半导体行业观察(ID:icbank)编译:「anandtech」自Arm在2011年10月首次发布Armv8架构以来,已经过去了近十年的时间。这对Arm来说是一个相当可观的十年,因为在这段时间内,他们的指令集架构受…

Lodop打印设计界面生成代码带”...(省略)”

Lodop的设计界面中,菜单里的生成代码,如果打印项内容过多,后面会显示”...(省略)”,省略的是打印项的内容值,无论是纯文本还是超文本,都可以用选中打印项-右键-设置属性里找到该打印项的全部值,…