【强基固本】现在的人工智能是否走上了数学的极端?

317151612910d1021be95530fe1bca3d.png

来源:知乎—谢凌曦

地址:

https://www.zhihu.com/question/519393525/answer/2430233113

“强基固本,行稳致远”,科学研究离不开理论基础,人工智能学科更是需要数学、物理、神经科学等基础学科提供有力支撑,为了紧扣时代脉搏,我们推出“强基固本”专栏,讲解AI领域的基础知识,为你的科研学习提供助力,夯实理论基础,提升原始创新能力,敬请关注。

01

人工智能在当下如火如荼,有一个很重要的原因是计算机的计算和存储能力达到了一个新的高度,让原来不敢想的事情成为可能。但是,这种计算能力的高度是基于数字电路、集成电路的高速发展带来的。

目前我所了解的人工智能领域,包括机器视觉,包括语义分析知识图谱等,都是基于逻辑和结构的基础上去找答案,去找特征,去组织关系,是数字的结构的。但最大的问题就在这里,当开发者依据个人的倾向去组织数据确定逻辑和结构的时候,已经不存在所谓的智能了,就已经将核心固化了。

所以,我理解智能应该是存在很大程度上的巧合的,也存在很大程度上的随机,凭借数学公式是不能实现的。所以,我想,在数字技术之上的模拟技术是否才是这个问题的答案?有么有类似的案例?结果怎么样?

02

这是一个很有价值的问题,对于初学者尤其重要。从题主的补充说明中,可以看出题主进行过深入的思考。只是题主或许不太熟悉人工智能的早期发展历史,同时稍微混淆了几个概念。下面,我尝试提供一些观点。

按照普遍的认知,现代意义上的人工智能,正式提出于1956年的达特茅斯会议。相比于古早时期的幻想(如中国战国时期的偃师和西方中世纪炼金术中的Homunculus),1956年的定义明确了“智能可以独立于肉体存在” ,然而站在今天的视角看,当时人们对于人工智能的定义仍然很不清晰。从当年proposal的首页截图中,可以看到他们提出的前两个问题是“自动化的计算机”和“如何编写程序让计算机学会使用语言”。前者显然是非常模糊的说法;而后者(也许是受到了图灵测试[1]的影响)看似跟今天的自然语言处理非常相似,可细看描述就会发现,先驱们并没有把具体任务形式化地定义下来。也许是这些不明确的定义给了人们莫名的信心,当时的10个参与者提出了“两个月内解决人工智能基础问题” 的豪言壮语,让今天的人们忍俊不禁。后来的事情大家是知道的:这些基础问题直到今天也没有解决(甚至接近解决),但是这10位先驱中有5人先后荣获图灵奖。所以挖坑早是多么重要!(最后一句划掉)

83b3f9d3180cf4140be164ada9468e4d.png

达特茅斯暑期研究计划的proposal首页如果对人工智能早期历史感兴趣,可以浏览维基百科的人工智能史页面,也可以开2倍速听下我的讲解(第1课第2部分):

谢凌曦:第1课 人工智能综述:https://zhuanlan.zhihu.com/p/452444873

回到正题上来。无论早期人工智能的定义多么幼稚,有一个事实是确定的:现代人工智能,脱胎于数学、神经科学和当时尚在襁褓中的计算机科学。我们再看维基百科对于人工智能的定义:

人工智能(英语:artificial intelligence,缩写为AI)亦称智械、机器智能,指由人制造出来的机器所表现出来的智能。通常人工智能是指通过普通计算机程序来呈现人类智能的技术。

也就是说,现代人工智能的共同特点,就是通过高速计算机来实现(有时候甚至可以说复现)人类行为。以此可以回应题主的第一段话:确实,如果未来人类没有造出仿生机器,那么人工智能只能通过数字集成电路来实现。 一个有趣的例子是,科学家们通过把电极插入老鼠和猴子的大脑,可以记录它们对于各种外界刺激的反应。如果我们将这个系统理解为一个机器,那么它确实在一定程度上不依靠数学实现了智能(或许应该叫做鼠工智能或者猴工智能)。当然,出于伦理的考虑,我们是绝无可能把人脑当成机器来使用的(虽然有各种类似的研究)。

再回到主线上来。题主第二段说,“目前我所了解的人工智能领域,……,都是基于逻辑和结构的基础上去找答案,去找特征,去组织关系,是数字的结构的”。正是通过这句话,我判断题主不太熟悉早期人工智能史。事实上,从1950年代开始,人工智能就存在着三个彼此竞争的流派:逻辑演绎、归纳统计、类脑计算。直至今日,也没有人从理论上论证三个流派孰优孰劣,虽然归纳统计在今天占据了压倒性的优势(包括机器学习和从中发展出的深度学习)。这其中,类脑计算的思想很终极也很容易理解:搞清楚人脑是如何工作的,然后用数学模型去复现它;可惜的是,虽然21世纪是生命科学的世纪(大雾),脑科学的进展还是没能满足人工智能的需求。

除了高冷的类脑计算派,逻辑演绎派和归纳统计派也进行了长达数十年的竞争。它们的本质分歧在于:逻辑演绎派希望能对任何任务建立起规则,并且通过严谨的逻辑推理来解决问题;而归纳统计派则认为,严格建模即不现实也不必要,“这个世界就是描述它自己最好的模型”[2]。1970年代,逻辑演绎派在符号人工智能的框架下搞出了专家系统[3],一举带来人工智能的第二次繁荣期;但是很快,人们就发现专家系统的使用场景过于受限,同时维护规则库的开销太大,人工智能进入第二次低谷期。带领业界走出第二次低谷期的,正是归纳统计派,包括后来被归为亚符号人工智能的统计学习理论[4]。再后来,手工设计模型遇到瓶颈,而1950年代就存在的连接主义(人工神经网络)在大数据的驱动下,进化为深度学习理论,基本上统治了人工智能领域,直至今日。

因此对于第二个问题的回答是:人工智能里存在其他学派,但是它们目前还没有跟归纳统计派抗衡的能力。但是,统计学习方法的缺陷是非常明显的(这正是题主的观点,也是业界普遍的担忧)。从我个人的观点看,我不相信统计学习能够实现真正的人工智能,但是它确实是当前人类掌握的最有力工具。特别是在深度学习出现以后,统计学习方法能够解决很多受限场景下的实际问题,因而形成了正向循环,获取了政府和工业界的大量投资。因而,从观感上,有一种“人工智能只剩下统计学习”的错觉,但我相信其他流派也还在努力,等待翻身的一天。

最后,我不太能够从数学上理解“智能存在很大程度上的随机”的含义。不知道是否有生物学或者遗传学专家,能够从物种进化的角度来分析。不过针对第三段所说的“数字技术之上的模拟技术”,我相信前面的介绍已经多少回答了这个问题:类脑计算就是希望模拟人脑,但是当前还不能在实际问题中看到应用。这里必须澄清:虽然人脑也是分区分层的,不过我向来反对将深度神经网络看做类脑计算(brain-like computing),它最多只能算做脑启发的计算(brain-inspired computing)。许多年前,我听过一个有趣的哲学辩论:人类的大脑,是否能够理解大脑本身?可惜我现在找不到相关材料了。

总之,人工智能的范畴很广,价值也很大。许多我们能够想到的问题,之前都已经有人做过各种各样的思维实验。我强烈建议初学者们,不要仅仅局限在深度学习的框架内,有空可以看看早期各种有趣的故事,至少要搞清楚业界是怎样一步步走到深度学习的,这对于形成完整的人工智能世界观大有裨益。 最后的最后,说到未来,那一定是“道阻且长”,只有保持永恒的探索欲,才有可能突破当前瓶颈,找到新的道路。

参考

1.Turing A M. Computing machinery and intelligence[M]//Parsing the turing test. Springer, Dordrecht, 2009: 23-65.

2.Brooks R A. Elephants don't play chess[J]. Robotics and autonomous systems, 1990, 6(1-2): 3-15.

3.Shortliffe E H, Buchanan B G. A model of inexact reasoning in medicine[J]. Mathematical biosciences, 1975, 23(3-4): 351-379.

4.Vapnik V. The nature of statistical learning theory[M]. Springer science & business media, 1999.

声明:所有内容均只代表作者本人观点,均有可能被推翻,二次转载务必连同声明一起转载。

未来智能实验室的主要工作包括:建立AI智能系统智商评测体系,开展世界人工智能智商评测;开展互联网(城市)大脑研究计划,构建互联网(城市)大脑技术和企业图谱,为提升企业,行业与城市的智能水平服务。每日推荐范围未来科技发展趋势的学习型文章。目前线上平台已收藏上千篇精华前沿科技文章和报告。

  如果您对实验室的研究感兴趣,欢迎加入未来智能实验室线上平台。扫描以下二维码或点击本文左下角“阅读原文”

605bd30eb0b50e6a98f72ff632cab544.png

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/482032.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

智源发布线虫生命模型,超级人脑有望在未来15-30年实现

出品:CSDN(ID:CSDNnews)作者:田玮靖 5月31日,作为国际性、权威性、专业性和前瞻性的“内行AI盛会”——智源大会开幕,会上,智源研究院发布了其最新研究成果线虫生命模型——天宝…

Aquarium华人CEO分享:机器学习在自动驾驶中落地,核心不是模型,是管道

来源:AI科技评论作者:Peter Gao编译:刘冰一编辑:陈彩娴作者 Peter Gao 是 Aquarium 公司的联合创始人和首席执行官(CEO),Aquarium 公司建立了寻找和修复深度学习数据集问题的工具。在 Aquarium …

数据科学中的 10 个重要概念和图表的含义

大数据文摘转载自数据派THU来源:DeepHub IMBA“当算法给你一条曲线时,一定要知道这个曲线的含义!”1、偏差-方差权衡这是一个总是在机器学习最重要理论中名列前茅的概念。机器学习中的几乎所有算法(包括深度学习)都努力…

Java总结:Spring5框架(1)

Spring5框架(1) 一:什么是Spring? Spring框架是由于软件开发的复杂性而创建的。Spring使用的是基本的JavaBean来完成以前只可能由EJB完成的事情。然而,Spring的用途不仅仅限于服务器端的开发。从简单性、可测试性和松耦合性角度而…

专访|79岁图灵奖获得者迈克尔·斯通布雷克谈“数字经济”与“元宇宙”

迈克尔斯通布雷克(Michael Stonebraker)被誉为“世界上最重要的数据库专家之一”,是数据库领域的第4位图灵奖得主来源:数据观撰稿:黄玉叶编辑:蒲蒲如果说硅是未来的新型石油,那么数据就好比新型…

Windows下如何搭建Gradle环境?

QUESTION:Windows下如何搭建Gradle环境? 目录 QUESTION:Windows下如何搭建Gradle环境? ANSWER: 1.开发环境 2.安装步骤 (1)下载最新的Gradle压缩包 (2)解压下载的压缩包到指定位置,比如: (3)配置环境变量 3.测试配置是否成功 ANSWER: 1.开发环境…

2029年会实现通用人工智能吗?Gary Marcus「叫板」马斯克:赌十万美元如何?

来源:AI科技评论作者:王玥编辑:陈彩娴5月30日,世界级红人埃隆马斯克(Elon Musk)发了一条推文,称:2029年是关键的一年,如果那时候我们还没有实现通用人工智能(…

Java总结:SpringBoot的使用cmd命令进行Gradle构建

QUESTION:SpringBoot的使用cmd命令进行Gradle构建 ANWSER: 目录 QUESTION:SpringBoot的使用cmd命令进行Gradle构建 ANWSER: 一:下载SpringBoot工程 二:CMD命令构建gradle 一:下载SpringBoot工程 打开:https://spring.io/pr…

Python之父Guido Van Rossum:炒作之火或将“摧毁” Web 3

来源:Yin Long Ma译者:核子可乐策划:刘燕去中心化互联网压根没戏,Web 3 开发者都是小丑:关于 Web 3,我们到底该相信什么?去中心化互联网是怎么回事?互联网源自 Web 1.0 时代&#xf…

Python:使用matplotlib进行绘图时中文变成乱码的解决

QUESTION:Python:使用matplotlib进行绘图时中文变成乱码的解决? ANSWER: 在绘图前加上下面的代码: plt.rcParams[font.sans-serif][SimHei] #用来正常显示中文标签 plt.rcParams[axes.unicode_minus]False #用来正常显示负号例子: from matplotlib import pyplot as plt pl…

两篇Nature最新研究成果:令细胞衰老的基因突变作用机制的新理论

来源:生物通研究人员发现,基因突变在人的一生中是缓慢积累的,从而导致70岁后血液形成发生巨大变化,这为衰老提供了一种新的理论。一项新的研究揭示了贯穿一生、在血液干细胞中缓慢积累的基因变化可能是导致70岁后血液生产发生巨大…

美国陆军:2045年20项新兴科技趋势报告

来源:硅谷智库 这份报告是美国陆军公布的一份长达35页的《2016-2045年新兴科技趋势报告》。它是美国在过去几年由政府机构、咨询机构、智囊团、科研机构等发表的32份科技趋势相关研究调查报告的基础上提炼形成的。通过对近700项科技趋势的综合比对分析&#xff…

利用宇宙的能力来处理数据!「物理网络」远胜深度神经网络

来源:AI科技评论作者:Charlie Wood编译:王玥编辑:岑峰轮到物理学家来揭示神经网络的本质了:他们在尝试让宇宙为我们处理数据。在一个隔音的板条箱里有着一个世界上最糟糕的神经网络。在看到数字6的图像后,这…

银行家算法总结及实现

QUESTION:银行家算法总结及实现? 目录 QUESTION:银行家算法总结及实现? ANSWER: 一:银行家算法介绍 1.1什么是银行家算法 1.2背景 1.3数据结构 1.4算法分析 二:安全状态和不安全状态 2.1概念 2.2安全性检查 三:算法实现 3.1流…

用10000个电极窃听大脑

来源:大数据文摘作者:BARUN DUTTA原文标题:EAVESDROPPING ON THE BRAIN WITH 10,000 ELECTRODES让我们想象一台由 860 亿个交换机组成的计算机:其通用智能足以构建一个航天文明——但重量仅为1.2公斤,仅消耗20 瓦的功率…

四项研究,人工智能助力观测检测技术

来源:ScienceAI编辑:萝卜皮目录研究人员使用机器学习来加快微塑料的计数科学家利用人工智能增强 X 射线数据分析从显微镜图像中提取特征的弱监督机器学习模型两体微透镜系统中普遍存在的统一简并研究人员使用机器学习来加快微塑料的计数微塑料无处不在—…

电脑恢复删除文件及注册表实现

QUESTION:电脑恢复删除文件及注册表实现 目录 QUESTION:电脑恢复删除文件及注册表实现 ANWSER: 一:恢复文件 二:修复注册表 ANWSER: 一:恢复文件 在删除了一些C盘的文件后,导致电脑一些设置不能使用,出现文件的…

图灵测试是人工智能的标准吗?

来源:赛先生编者按科学就是一个可以被证伪的学说。任何一个科学论述,都要能够被实验检验。比如说,要科学地解释定义什么是自我意识,其本质就是设计一个实验。比如观察动物在镜子里看到自己时候的行为,是寻找镜子后面的…

科学家在类脑芯片上实现类似LSTM的功能,能效高1000倍

来源:机器学习研究组订阅格拉茨技术大学的计算机科学家在 Nature 子刊上发表的一篇论文表明,他们找到了一种在神经形态芯片上模拟 LSTM 的方案,可以让类脑神经形态芯片上的 AI 算法能效提高约 1000 倍。随着智能手机的普及,手机游…

人类为什么活得这么累?Nature论文解开谜底:人总是选择做加法来解决问题

来源:【iNature】想象一座由乐高积木制成的桥。一侧有三个支撑件,另外两个。你将如何稳定这座桥?一项新的研究表明,大多数人会添加一块,这样每边都有三个支撑。但是为什么不移除一块,让每一侧都有两个支撑呢…