揭示世界本质的「机器科学家」,比深度神经网络还强?

1ed994c89229587c389ab7dbfb2dfcec.png

来源:AI科技评论

作者:Charlie Wood

编译:王玥、刘冰一

编辑:陈彩娴

我们正处于“GoPro 物理学”的风口浪尖。无论摄像机聚焦于什么事件,算法都可以识别其中潜在的物理方程。

2017 年,西北大学化学与生物工程系的助理教授Roger Guimerà和罗维拉-威尔吉利大学的物理学教授Marta Sales-Pardo发现了细胞分裂的原因。

该研究推动了生物学的进展,但他们并没有从自己的数据中发现关键信息,反而是他们的一个未曾公开的发明——他们称之为“机器科学家”的虚拟助理将这些信息指了出来。

Guimerà 回忆道:“我们只是给机器科学家输入了一个算法,然后就得到了答案。虽然这就是事实,但没有审稿人会信。”

62dd455d36fad3022c61f83e354b0ef9.png

图注:URV 化学工程系的研究人员 Marta Sales-Pardo(左) 和 Roger Guimerà(右)

两人与他们的前同学、加泰罗尼亚生物工程研究所的Xavier Trepat进行合作,想要确认哪些因素可能引发细胞分裂。许多生物学家认为细胞超过一定大小就会分裂,而Trepat 觉得这其中仍有探索空间。他的团队破译了成群细胞争夺位置时在柔软表面留下的纳米级印记并积累了详尽的数据集,其中记录了形状、力量和其他十几种细胞特征,单单是测试这些细胞特征对细胞分裂的影响大概就得花一辈子。

可是,如果将数据提供给机器科学家,在几分钟内机器科学家就能反馈给他们一个简洁方程。就预测一个细胞何时分裂而言,该方程比仅使用细胞大小或任何其他单一特征的方程精确 10 倍。据机器科学家所说,细胞分裂与否,取决于一个细胞的大小乘以它旁边的细胞挤压它的力度。

“机器科学家能够发现一些我们没有发现的东西。”Trepat说。

由于研究人员没有公开过「机器科学家」的信息,因此他们只好进行二次分析。经过数百对变量的测试,他们得出了和「机器科学家」一致的答案,并在2018年将该研究发表在了Nature Cell Biology上。

d521673e75fc92f5081811c3ca334525.png

图注:西班牙 Rovira i Virgili 大学的 Roger Guimerà 和 Marta Sales-Pardo 主导构建了一个强大的符号回归算法,并称之为“贝叶斯机器科学家”。

四年后,这种方法迅速成为一种公认的科学发现方法。Sales-Pardo 和 Guimerà 是少数几位开发最新一代工具的研究人员之一,该工具能够实现符号回归。

符号回归算法不同于深度神经网络。深度神经网络算法可能会吸收数千个像素,让像素渗透数百万个节点组成的迷宫,并通过不透明的机制输出“dog”这个词。而符号回归算法识别复杂数据集,然后输出一种人类能很好理解的简短方程式。这些算法类似于超级版本的 Excel 曲线拟合函数,但这些算法不只寻找直线或抛物线拟合一组数据点,还寻找数十亿个不同的公式。通过这种方式,「机器科学家」可以让人类了解细胞分裂的原因,而神经网络只能预测细胞何时分裂。

几十年来,研究人员一直在与这样的机器科学家打交道,小心翼翼地诱导机器科学家从简单的数据集中重新发现教科书式的自然法则,并将其排列起来,从中寻找某种模式。但是近年来,这些算法已经变得足够成熟,可以在真实数据中探索出从湍流如何影响大气层到暗物质如何聚类等此前未被发现的关联。

“毫无疑问,整个领域都在向前发展。”哥伦比亚大学的机器人专家Hod Lipson说。他在13年前开始了符号回归的研究。

ebb778cfc6ba9a765e6b88546d8e4b60.png

图注:机器人专家 Hod Lipson

1

机器科学家的崛起

物理学家偶尔会单凭推理寻找真理,比如爱因斯坦通过从一束光束的角度想象另一束光束,从而感受空间和时间的柔韧性。

但是更多时候,理论是从马拉松式的数据处理中诞生的。

16 世纪的天文学家布拉赫去世后,开普勒接触到了布拉赫笔记本中的天体观测,花了四年时间才确定火星在天空中描绘的是一个椭圆,而不是他之前认为的蛋形。通过粗暴计算,他又另外发现了两个关系,遵循了“第一定律”,这些规律便是牛顿指出万有引力定律的基础。

符号回归的目标是加速这种开普勒式的试错,遍历将变量与基本数学运算联系起来的无数方法,从而找到最能准确预测系统行为的方程。

4288a9825727f6259ba91c874301f941.gif

图注:天体物理学家以两种方式对太阳系的行为进行建模。他们首先使用了NASA多年数据来训练一个神经网络。然后使用符号回归算法将该模型提炼成一个方程式。在视频中——显示真实位置为实体物体,而模型预测为金属网轮廓——神经网络(左)的表现远不如比起符号回归算法(右)。

首个取得重大进展的程序叫做BACON。它由当时在卡内基梅隆大学的认知科学家和人工智能研究员 Patrick Langley 在1970年代末开发。BACON 包含一列轨道周期和一列不同行星的轨道距离,然后以不同的方式系统地组合这些数据:周期除以距离、周期平方乘以距离等。如果 BACON 在各种数据的不同组合中找到一个常数,例如,如果周期的平方除以距离的立方总是给出相同的数字,就说明它找到了开普勒第三定律。一个常数意味着它已经确定了两个成比例的量,换句话说,当 BACON 找到一个方程时,它就达到了目的,停止计算。

尽管重新发现了开普勒第三定律和其他教科书上的经典内容,但在计算能力有限的时代,BACON仍然是一种奇特的存在。研究人员仍然需要手动分析大多数据集,最终使用类似Excel的软件,在给定特定类别的方程时找到简单数据集的最佳拟合。直到2009年,康奈尔大学的机器人专家 Lipson 和 Michael Schmidt 开发了一种名为 Eureqa 的算法。这个算法可以找到描述任何数据集的正确模型。在 Eureqa 成功开发以前,这个概念一直处于沉睡状态。

他们的主要目标是建立一台机器,能够将一列又一列的变量的拓展数据集归纳为一个涉及少数实际重要变量的方程。Lipson说:“这个方程最终可能有四个变量,但我们事先不知道是哪些。我们得把所有可能的变量都扔进去。天气也许很重要,每平方英里牙医的数量或许也很重要。”

处理众多变量已经是一个难点。研究人员表示,他们还需要具备一定的灵活性,尝试各种可能走向死胡同的方法、并从中走出来。而当算法可以从直线跳到抛物线,或增加一个正弦波纹时,它掌握尽可能多数据点的能力也可能变得更糟。为了克服这些挑战,1992年,计算机科学家John Koza提出了 “遗传算法”,这种算法将随机“突变”引入方程,经过多次试验,最初无用的功能要么演变得强大,要么消亡。

Lipson和Schmidt将这一技术提升到了新的水平。一方面,他们生成了方程式。另一方面,他们随机选择了一些数据点来测试方程,“最适合”的点是那些对方程最有挑战的点。“这就像军备竞赛一样,我们需要建立两个不断发展的事物,而非一个。”Lipson说。

Eureqa算法可以压缩涉及十多个变量的数据集。它可以成功地反馈出高级方程,比如描述一个钟摆悬挂在另一个钟摆上的运动。

ed1359a057dcf75336c91c2a5e943eb8.png

图注:机器科学家是如何工作的

与此同时,其他研究人员正在寻找训练深度神经网络的技巧。到2011年,深度神经网络在学习区分猫和狗以及执行无数其他复杂任务方面取得了巨大成功。但是一个训练有素的神经网络由数百万个具有数值价值的“神经元”组成,这些神经元不会明示它们已经学会识别哪些特征。可Eureqaque却可以用人类的语言传达自己的发现。

当 Sales-Pardo 第一次使用 Eureqa 时,她感到很惊讶:“我认为这是不可能的,这些人怎么做到的?” 她和 Guimerà 很快就开始使用 Eureqa 为他们自己的网络研究建立模型,虽然结果不一致,但他们对 Eureqa 的强大功能印象深刻。该算法会演化出预测方程,但它也可能会弄巧成拙、然后得出一个过于复杂的方程。只要研究人员稍微调整他们的数据,Eureqa 就会返回一个完全不同的公式。于是Sales-Pardo 和 Guimerà 便从头开始设计新的机器科学家。

2

压缩程度

在他们看来,遗传算法的问题在于过于依赖创造者的口味。开发人员需要指导算法,以平衡简单性和准确性。一个方程总是可以通过附加项来触碰到数据集中的更多点。但最好忽略有些离题的点。研究者可以把简单性定义为方程的长度,把准确性定义为曲线与数据集中每个点的接近程度,但这只是众多选项中的两个定义。

Sales-Pardo 、 Guimerà 与合作者一起,利用物理学和统计学方面的专业知识,根据贝叶斯理论的概率框架来重新定义进化过程。他们首先下载了维基百科中的所有方程式。然后对这些方程进行统计分析,看看哪些类型最常见。这种办法能让算法少走弯路,例如让算法尝试使用比较常见的加法,而不是比较少见的双曲余弦。然后该算法使用随机抽样方法生成方程变体,该方法已在数学上被证明可以探索数学领域的每一个角落。

在每个步骤中,该算法以方程式对数据集的压缩程度对各类方程式进行评估。例如,随机散布的点根本不能被压缩,我们需要知道每个点的位置。如果1000个点沿着一条直线落下,它们可以被压缩成两个数字(直线的斜率和高度)。这对学者发现,压缩程度为比较各个方程提供了一种独特且稳定的方法。Guimerà说:“我们可以证明,正确的模型就是压缩数据最多的那个,这不存在任意性。”

经过多年研究,他们使用自己的算法找出了触发细胞分裂的因素,2020年,他们和同事们在《Bayesian machine scientist》中介绍了他们的 “贝叶斯机器科学家”。

3

数据海洋

从那时起,研究人员用贝叶斯机器科学家来改进预测国家能源消耗的SoTA方程,而另一组则使用该方程来模拟通过网络的渗透。开发人员认为这类算法将在像 Trepat 那样的生物学研究中发挥巨大作用,因为在这种研究当中科学家们面对的是海量数据。

机器科学家也帮助物理学家理解跨越多尺度的系统。物理学家通常对原子使用一组方程,对台球使用一组完全不同的方程,但这种零散的方法不适用于气候科学等学科研究。

其中一位研究人员是纽约大学的Laure Zanna 。她在模拟海洋湍流的工作中经常发现自己夹在两个极端之间:超级计算机可以模拟城市大小的涡流,也可以模拟洲际洋流,但不能同时模拟两种尺度。她的工作是帮助计算机生成包含较小漩涡影响的全局图片,而无需直接模拟这些图。最初,她转向深度神经网络来提取高分辨率模拟的整体效果,并相应地更新更粗略的模拟。“深度神经网络太棒了,”她说,“但我是一名气候物理学家。”她的意思是她想通过压力和温度等原理来了解气候是如何运作的——“但是很难采集到成千上万的参数,更别说是满意的参数了。”

然后她发现了由华盛顿大学应用数学家Steven Brunton、Joshua Proctor和 Nathan Kutz设计的算法。他们的算法采用了一种被称为稀疏回归(Sparse Regression)的方法,这种方法与符号回归的精神类似。这种方法没有在变异方程中挑起大混战,而是从一个可能有上千个函数比如 x^2、 x/(x − 1)  和 sin(x)的库开始。该算法在库中搜索给出最准确预测的术语组合,删除最没用的术语,并继续直到库里只剩下少数几个术语。与符号回归算法相比,稀疏回归闪电般的过程可以处理更多的数据,其代价是探索的空间更小,因为最终方程必须由库项构建。

为了了解其工作原理,Zanna 从头开始重写了稀疏回归算法,然后将修改后的版本应用于海洋模型。当她输入高分辨率影片并要求算法寻找精确的缩小草图时,算法返回了一个与涡度以及流体如何拉伸和剪切有关的简洁方程。当她将这个方程输入到她的大规模流体流动模型中时,她看到了以能量的函数形式变化的流体,且看得比以前更真切。

“该算法使用了额外的术语,”Zanna 说,然后生成了一个“美丽”的方程,“这个方程能够真正体现洋流的一些十分重要的特性,比如拉伸、剪切和旋转。”

4

合作更强大

通过将自身优势与深度神经网络的优势相结合,其他团队也为机器科学家提供了助推力。

普林斯顿大学天体物理学研究生Miles Cranmer开发了一种类似于 Eureqa 的开源符号回归算法,称为 PySR。这个算法在数字“岛屿”上建立了不同的方程组,并让最适合数据的方程周期性地“搬家”,然后与其他岛屿上的方程竞争。Cranmer 与 来自 DeepMind 以及纽约大学的计算机科学家,还有 Flatiron 研究所的天体物理学家合作,提出了一种混合方案。他们首先训练神经网络完成任务,再让PySR给出一个描述神经网络的特定部分完成了何种任务的方程。

该小组将该程序应用于暗物质模拟,并根据相邻云的特性生成了一个公式,该公式给出了暗物质云中心的密度。该方程比现有的人工设计方程更适合数据。

2 月,该小组向系统输入了30年来太阳系行星和卫星在天空中的真实位置。该算法完全跳过了开普勒定律,直接推断出牛顿的万有引力定律以及行星和卫星的质量。其他小组最近则使用 PySR 发现了描述粒子碰撞特征的方程、结体积的近似值以及暗物质云在其中心塑造星系的方式。

对于机器科学家越来越多的情况(另一个值得关注的例子是麻省理工学院的物理学家 Max Tegmark 和 Silviu-Marian Udrescu 创建的“ AI Feynman ”),人类研究人员说,越多越好。“我们真的需要这些技术,”库茨说,“全都需要,越多越好,因为没有一个技术是万能的。”

3b461b78885f3fad55da3c90ffdcb084.png

论文地址:https://www.science.org/doi/10.1126/sciadv.aay2631

Kutz 相信机器科学家正在将该领域带到他所谓的“GoPro 物理学”的风口浪尖,研究人员只需将相机对准目标,就能得到一个抓住正在发生的事情本质的方程式。(目前的算法仍然需要人类提供一长串潜在相关变量,比如位置和角度。)

这就是 Lipson 最近一直在做的事情。在12 月的预印本中,他与合作学者描述道,他们首先训练了一个深度神经网络来接收视频的几帧,并预测接下来的几帧。然后,该团队减少了神经网络允许使用的变量数量,到其预测开始失败为止。

e74b48b4c9990b6e5d4b44200c188b69.png

论文链接:https://arxiv.org/abs/2112.10755

该算法能够计算出需要多少变量来模拟像钟摆那样的简单系统,或者像火舌那样没有明显的变量可供跟踪的复杂系统。

5

(机器)科学的边

机器科学家不会取代深度神经网络,因为深度神经网络能够在混乱或极其复杂的系统中大放异彩。

然而,当涉及到围绕行星运行、流体晃动和细胞分裂时,机器科学家仅利用少量运算得出的简明方程式却十分准确,令人费解。诺贝尔奖获得者 Eugene Wigner 在他 1960 年的论文《自然科学中数学的不合理有效性(The Unreasonable Effectiveness of Mathematics in the Natural Sciences)》中将其称为“我们既不理解也不配得的美妙礼物” 。正如 Cranmer 所说,“你去看看任何物理考试方程式的小抄,上面都是极其简单的代数表达式,但这些小抄帮助太大了。”

Cranmer 及其同事推测,基础运算之所以如此出色,是因为它们代表了空间中的基本几何动作,这使得它们成为描述现实的自然语言。加法将对象向下移动到数轴。乘法将平坦区域变成 3D 体积。出于这个原因,他们怀疑,当我们在猜测方程式时,往简单了猜是永远有道理的。

不过,宇宙虽然有潜在的简单性,却并不能保证每次这么猜测都对。

Guimerà 和 Sales-Pardo 最初构建了他们在数学上严格的算法,因为 Eureqa 有时会为相似的输入找到截然不同的方程。然而,令他们沮丧的是,他们发现,即使是贝叶斯机器科学家有时也会为给定的数据集返回多个同样好的模型。

两人最近表明,原因在于数据本身。他们利用机器科学家探索了各种数据集,发现数据集分为两类:干净的和有噪声的。在干净的数据中,机器科学家总能找到生成数据的方程式。但超过一定的噪声阈值,就不可能找到了。换句话说,噪声数据可以很好地(或很差地)匹配任意数量的方程。因为研究人员已经证明了他们的算法总是能找到最好的方程,他们知道,如果算法失败了,那就没有任何人类或者机器能够成功。

“我们发现这是一个基本的限制,”吉梅拉说。“所以我们需要机器科学家。”

参考链接:

https://www.quantamagazine.org/machine-scientists-distill-the-laws-of-physics-from-raw-data-20220510/

https://www.icrea.cat/Web/ScientificStaff/roger-guimera-manrique-512

Marta Sales-Pardo (0000-0002-8140-6525)

Hod Lipson

https://www.science.org/doi/10.1126/science.1165893

https://laurezanna.github.io/

未来智能实验室的主要工作包括:建立AI智能系统智商评测体系,开展世界人工智能智商评测;开展互联网(城市)大脑研究计划,构建互联网(城市)大脑技术和企业图谱,为提升企业,行业与城市的智能水平服务。每日推荐范围未来科技发展趋势的学习型文章。目前线上平台已收藏上千篇精华前沿科技文章和报告。

  如果您对实验室的研究感兴趣,欢迎加入未来智能实验室线上平台。扫描以下二维码或点击本文左下角“阅读原文”

32451605cbe646e0552441c5b3c29d71.png

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/482128.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

AI 与合成生物学「联姻」的五大挑战:技术、数据、算法、评估与社会学

来源:ACM通讯编译:王玥编辑:陈彩娴在过去的二十年里,生物学发生了翻天覆地的变化,建立在生物系统上的工程成为了可能。赋予了我们细胞遗传密码(DNA)排序能力的基因组革命是这一巨大变化的主要推…

物理学家:时间旅行有可能实现,但前提是……

来源:机器之心作者:Barak Shoshany原文链接:https://phys.org/news/2022-04-parallel-timelines.html时间旅行是科幻电影、小说中经久不衰的话题,然而直到现在,我们依然无法确定这种幻想是否可行。在这篇文章中&#x…

二叉树----数据结构:二叉树的三种遍历及习题

二叉树----数据结构:二叉树的三种遍历,利用递归算法。 关于二叉树的遍历,应用非常广泛,不单单是访问打印结点,还可以进行一系列的操作,如赋值、删除、查找、求二叉树的深度等等。 有递归和非递归两种算法,非递归用到了…

谷歌硬件主管:AR眼镜还在开发,环境计算是未来目标

来源:网易智能5月13日消息,谷歌硬件主管里克奥斯特洛 (Rick Osterloh)日前在接受采访时表示,“环境计算”是谷歌未来的目标和愿景。奥斯特洛周三在接受采访时表示:“计算应该能够无缝帮助你解决任何问题,而且就在你身边…

大脑衰老可逆转,只需注入年轻脑脊液,「返老还童」登Nature

来源:FUTURE远见 选编:闵青云 「老喽,记不住喽。」随着年龄的不断增长,不少人都会发出这样的感叹——记忆力逐渐下降。那么是否存在一种方法,可以让这种自然现象「逆天改命」呢?Nature说:有的。…

人工智能在苍蝇眼的帮助下监测无人机:新的仿生算法从噪声中提取信号

来源:国际仿生工程学会2018年12月,由于有报道称附近有无人机飞行,数千名度假旅客被困在伦敦盖特威克机场。导致这个欧洲非常繁忙的机场关闭了两天,造成重大延误,并使航空公司损失了数百万美元。商业空域中未经授权的无…

树的知识点总结-数据结构

** 一:树的基本术语 1.定义 树是一种非线性结构,只有一个根结点,除根结点外每个孩子结点可以有多个后继,没有后继的结点叫叶子结点。 2.概念 根结点:没有前驱; 孩子:有前驱的结点;…

NLP预训练范式大一统,不再纠结下游任务类型,谷歌这个新框架刷新50个SOTA

来源:机器之心编辑:张倩、小舟在这篇论文中,来自谷歌的研究者提出了一种统一各种预训练范式的预训练策略,这种策略不受模型架构以及下游任务类型影响,在 50 项 NLP 任务中实现了 SOTA 结果。当前,NLP 研究人…

赫夫曼树编码的算法及应用习题--数据结构

赫夫曼树编码的算法及应用习题 1.构造赫夫曼树的方法 1.根据给定的n个权值{w1,w2,---wn},构成n棵二叉树的集合F{T1,T2...,Tn},其中每棵二叉树中只有一个带权为Wi的根结点,其左右子树为空。 2.在F中选取两棵根结点的权值最小的树作为左右子树&#xff…

吴咏时:未来基础学科发展的“铁三角”

来源: 节选自《物理》2022年第5期《圆桌论坛:对21世纪物理学的愿景展望》。2021年9月,在清华大学举行“庆祝杨振宁先生百年华诞思想研讨会”圆桌论坛环节上,美国犹他大学教授吴咏时对今后基础物理学做了一番展望。他指出了基础物理…

树的叶子结点与完全二叉树结点计算方法

一:完全二叉树中结点问题 分析: 设叶子节点个数为n0,度为1的节点个数为n1,度为2的节点个数为n2 侧有 n0n1n2n (1) 对于二叉树有: n0n21 (2) 由(1)(2) > n0(n1-n1)/2 (3) 由完全二叉树…

图的知识点总结-数据结构

一&#xff1a;图的基本概念和术语 1.图之间的关系可以是任意的&#xff0c;任意两个数据元素之间都可能相关。 2.顶点&#xff1a;数据元素。 3.边or弧&#xff1a;从一个顶点到另一个顶点的路径。<V, W>表示弧&#xff0c;&#xff08;V,W&#xff09;表示边&#x…

当物理学遇到机器学习:基于物理知识的机器学习综述

来源&#xff1a;集智俱乐部作者&#xff1a;潘佳栋 审校&#xff1a;梁金编辑&#xff1a;邓一雪摘要物理信息机器学习&#xff08;Physics-informed machine learning&#xff0c;PIML&#xff09;&#xff0c;指的是将物理学的先验知识&#xff08;历史上自然现象和人类行为…

图的遍历——深度优先搜索+广度优先搜索

一&#xff1a;图的遍历——深度优先搜索 在本文其他内容中只是大体概括了主要的图论内容&#xff0c;更加详细的代码实现及算法分析在此给出。 深度优先搜索&#xff08;DFS&#xff09;类似树的先序遍历。 假设初始状态是图中所有顶点未曾被访问&#xff0c;则深度优先搜索…

RISC-V何以成功?

来源&#xff1a;AI前线作者&#xff1a;BRIAN BAILEY译者&#xff1a;王强策划&#xff1a;刘燕RISC-V 处理器架构的诞生毫无疑问让很多人都为之兴奋不已。然而&#xff0c;尽管许多人都说 RISC-V 预示着我们将迎来更广泛的开源硬件运动&#xff0c;但这种架构究竟为什么取得成…

最小生成树——普里姆算法和克鲁斯卡尔算法

最小生成树 用来解决工程中的代价问题。 一&#xff1a;普里姆算法 具体代码用C语言实现如下&#xff1a; typedef int VRType;typedef char InfoType;#define MAX_NAME 3 /* 顶点字符串的最大长度1 */#define MAX_INFO 20 /* 相关信息字符串的最大长度1 */typedef char Vert…

大雅之美:十位大数学家心中最美的公式

来源&#xff1a;本文译自 http://www.concinnitasproject.org/portfolio/&#xff0c;中译文曾发表于 《中国数学会通讯》2017 年第 1 期。译者&#xff1a;刘云朋&#xff0c;天津大学理学院校译&#xff1a;林开亮大雅之美&#xff1a;十位大数学家心中最美的公式牛顿法Ste…

TabError的解决方法

问题&#xff1a;Python文件运行时报TabError: inconsistent use of tabs and spaces in indentation 原因&#xff1a;说明Python文件中混有Tab和Space用作格式缩进。这通常是使用外部编辑器编辑Python文件时&#xff0c;自动采用Tab进行格式缩进。 解决&#xff1a;将Tab转…

《Nature》:给老年小鼠注射年轻小鼠的脑脊液可以改善记忆力!

来源&#xff1a;生物通一个国际研究团队发现&#xff0c;向老年小鼠注射年轻小鼠的脑脊液可以改善记忆。在发表在《自然》(Nature)杂志上的论文中&#xff0c;该小组描述了一种技术&#xff0c;可以从年轻小鼠体内取出少量脑脊液&#xff0c;并将其注射到年老小鼠的大脑中&…

HashSet存储自定义对象保证元素唯一性图解原理及代码优化

HashSet存储自定义对象保证元素唯一性图解原理及代码优化 1.原理&#xff1a; * 1.HashSet原理 * 我们使用Set集合都是需要去掉重复元素的, 如果在存储的时候逐个equals()比较, 效率较低,哈希算法提高了去重复的效率, 降低了使用equals()方法的次数 * 当Hash…