来源:AI科技评论
是的,最近这些年,无人机可以说是爆发式发展。以前,它仅用于神秘的军事用途。如今,却在我们的日常生活中见怪不怪。
人工智能对人类会产生什么影响,一直是值得讨论的话题,它会更好地帮助人类,还是攻击人类?本周,由斯坦福伦理与社会中心、斯坦福以人为中心的人工智能研究所和斯坦福人文中心举办了一场关于“人工智能”人工智能的活动,人工智能领域的先驱之一——李飞飞参与其中,以下是活动讨论内容,雷锋网全文编译如下。
“用一种以人为中心的方式,重新构建人工智能和技术的教育、研究和对话”
主持人:谢谢斯坦福大学邀请我们来到这里。我希望这次谈话分为三个部分:首先,说明我们现在所处的位置;然后谈谈我们现在必须做出的一些选择;最后,给大厅里所有的人提一些建议。飞飞,你有博士学位和计算机科学学位,还是斯坦福大学的教授,你认为生物知识乘以计算能力,乘以数据等于入侵人类的能力吗?
李飞飞:作为一名工程师和科学家,我觉得我们现在有一场危机必须解决。当提到人工智能危机的时候,我坐在那里思考,这是一个我热爱的领域,我对这个领域充满热情,并且研究了20年,这是一个年轻的科学家成为人工智能博士的科学好奇心。但20年后发生了什么,人工智能变成了一场危机?事实上,它讲的是人工智能的演变,这让我和斯坦福大学的同事们有了今天以人为中心的人工智能的位置,这是一项革命性的技术。这是一项新兴技术。与物理、化学、生物学相比,人工智能仍是一门新兴科学,但凭借数据、计算的能力,以及人工智能正在产生的各种影响,正如你所说,人工智能正以广泛而深刻的方式影响着人类生活和商业。针对人类面临的这些问题和危机,我认为斯坦福大学正在努力提出的解决方案之一,是我们能否用一种以人为中心的方式,重新构建人工智能和技术的教育、研究和对话?我们今天不一定要找到一个解决方案,但我们能让人道主义者、哲学家、历史学家、政治学家、经济学家、伦理学家、法律学者、神经学家、心理学家以及更多的其他学科的在下个阶段进入研究和发展人工智能。
主持人:别那么肯定我们今天不会得到答案。还有72分钟,让我们试一试。人们说人工智能有很多危机,对吧?他们说人工智能正变得有意识,这意味着什么?他们谈论着工作替换,谈论着偏见。但这是思考人工智能的人应该关注的具体问题吗?
李飞飞:当然。人类从火开始创造的任何技术都是一把双刃剑。人工智能可以改善生活、工作和社会,但它也会带来风险。你知道,我每天醒来都会担心人工智能的多样性和包容性问题。我们担心公平或者缺乏公平,隐私,劳动力市场。因此,我们绝对需要关注,也正因为如此,我们需要扩大研究,发展政策以及人工智能的对话,进入人类的房间,进入社会问题,而不仅仅是代码和产品。所以我完全同意你的观点,现在是开启对话的时刻,开启对这些问题的研究。
人工智能的诞生是人工智能科学家与生物学家,尤其是神经科学家的对话。人工智能的诞生很大程度上受到大脑活动的启发。快进到60年后的今天,今天的人工智能正在医疗保健领域取得巨大进步。我们从生理和病理中收集了很多数据,并利用机器学习来帮助我们。
“AI能让我爱上观众中的某个人吗?”
主持人:让我们来关注一下攻击大脑是什么意思。现在,某种程度上我的大脑被黑了,对吧?这个设备有一个吸引人的地方,它想让我不断地检查它,就像我的大脑被黑客入侵了一样。你的没有,因为你每天冥想两个小时,但我的有,可能大多数人都有。但是未来的大脑黑客到底会是什么样子?飞飞,在反乌托邦A,自由民主的反乌托邦,是否存在人类特有的不能被入侵的东西?
李飞飞:当你在两分钟前问我这个问题时,我首先想到的是爱。爱可以被入侵吗?但这两个反乌托邦,我没有答案。但我想继续说的是,这正是为什么现在是我们需要寻求解决方案的时刻。正因为如此,我们现在认为,人工智能的新篇章需要由人文主义者、社会科学家、商界领袖、公民社会、政府等各方的共同努力来书写,才能坐到同一张桌子上,展开多边合作对话。我认为,你们确实凸显了这场潜在危机的紧迫性、重要性和规模。但我认为,面对这种情况,我们需要采取行动。
主持人:你认为这个装置在未来的某一天会比现在强大得多,它能让我爱上观众中的某个人吗?
李飞飞:这就是我的研究领域,我想说两点意见,就个人而言,我们在谈话的这一部分做了两个非常重要的假设。其一,人工智能是如此的无所不能,它已经达到了一种状态,超越了对任何物理现象的预测,它达到了意识层面,甚至达到了爱的极限。我十分确定我们认识到我们离那个非常、非常、非常远。这项技术还处于萌芽阶段。我对今天的人工智能的部分担忧是对其能力的过度炒作。所以我并不是说这不是一个有效的问题。但我认为这部分对话是建立在这项技术已经变得十分强大的假设之上的,而我甚至不知道我们离那个时代还有多少年。第二个相关的假设是,我觉得我们的谈话是基于这样的假设,即我们谈论的世界或世界的状态是只有强大的人工智能存在,或者只有一小群制造了强大的人工智能并打算攻击人类的人的存在。但事实上,我们人类社会是如此复杂,我们有很多人,对吧?我的意思是,人类在其历史上见证过很多项技术,如果我们把它单独地放在一个糟糕的玩家手中,没有任何管理,跨国合作,规则,法律,道德准则,技术也许不是攻击人类,而是以巨大的方式摧毁人类或伤害人类。这已经发生了,但是从历史的观点来看,我们的社会大体上正在走向更加文明和受控。因此,我认为重要的是要看到更大的社会,并把其他参与者和人们带到这个对话中来。所以我们不会说只有全能的人工智能决定把一切都破坏到最后。这让我想到了你的话题,除了在你谈论的那个层次上攻击人类,还有一些非常紧迫的问题:多样性、隐私、劳工、法律变化,国际地缘政治。我认为现在解决这些问题非常关键。
以人为本的人工智能
主持人:我喜欢和人工智能研究人员交谈,因为在五年前,所有的人工智能研究人员都说它比你想象的要强大得多。现在他们说,它没有你想象的那么强大。好的,我来问一下——
李飞飞:这是因为五年前,你不知道人工智能是什么,现在你推算出太多了。
主持人:我并不是说那是错误的。我只是说事情就是这样。让我们谈谈我们今天能做些什么,当我们思考人工智能的风险和人工智能的好处时,告诉我们,你认为我们应该用人工智能思考的最重要的事情是什么。
李飞飞:我们今天可以做很多事情。我想再谈谈在斯坦福所做的努力,因为我认为这是一个我们相信我们可以做很多努力的良好代表。在以人为本的人工智能中,这是一个整体的主题,我们认为人工智能的下一章应该以人为本,我们相信三大原则。其中一个原则是投资于下一代人工智能技术,这种技术更多地反映了我们想要的那种人类智能。我刚才在想您关于数据依赖的评论,以及数据的政策和管理应该如何出现以规范和治理人工智能的影响。我们应该开发能够解释人工智能的技术,我们称之为可解释的人工智能,或者人工智能可解释性研究;我们应该把重点放在对人类智能有更微妙的理解的技术上。我们应该投资开发不那么依赖数据的人工智能技术,这将考虑到直觉、知识、创造力和其他形式的人类智能。所以人类智能激发的人工智能是我们的原则之一。
第二个原则是,再次欢迎人工智能的多学科研究。与经济学、伦理学、法学、哲学、历史学、认知科学等学科交叉。因为在社会、人类、人类学和伦理影响方面,我们需要了解的还有很多。作为技术人员,我们不可能单独做到这一点。我们中的一些人甚至不应该这样做。伦理学家和哲学家应该参与到这些问题中来,并与我们合作。这是第二个原则。在这方面,我们与政策制定者合作,召集多边利益相关者的对话。
然后是第三点,也是最后一点但并非最不重要的一点,尼克,你在对话一开始就说过,我们需要促进这项技术的人性化、合作性和辩论性方面。你说得有道理。即使在那里,它也可能变得具有操控性。但我们需要从这种机警感、理解开始,但仍然要促进这项技术的善意的应用和设计。至少,这是斯坦福大学以人为本的人工智能研究所所基于的三条原则。我感到非常自豪,在这个研究所成立的短短几个月里,这个校园里有200多名教师参与了这种研究、对话、学习和教育,而且这个数字还在增长。
主持人:在这三个原则中,让我们开始深入探讨。我们来看第一个,可解释性,这是人工智能中一个非常有趣的辩论。有些实践者说你应该有算法来解释他们做了什么和他们做了什么选择。听起来非常合理。但你是怎么做到的呢?我做各种各样的决定,但我不能完全解释清楚。比如,我为什么要雇佣这个人,而不是那个人?我可以讲一个我为什么这么做的故事。但我不确定。如果我们对自己不够了解,不能总是如实、全面地解释我们所做的事情,我们怎么能指望一台使用人工智能的电脑做到这一点呢?如果我们在西方要求这样做,那么世界上其他地方就不会要求谁能够更快地采取行动。所以第一部分是,如果我们自己都很难解释,我们能得到可解释性吗?
李飞飞:嗯,我很难把两个数字相乘,但是,你知道,计算机可以做到这一点。所以对人类来说有些事情很难并不意味着我们不应该让机器来做。尤其是,你知道,毕竟所有这些算法都是基于非常简单的数学逻辑。当然,我们现在处理的神经网络有数百万个节点和数十亿个连接。所以可解释性实际上很难。这是正在进行的研究。但我认为这是一片肥沃的土地。当涉及到医疗决定、财务决定、法律决定时,这是非常关键的。有很多情况下,这项技术可能是非常有用的。有了这种可解释的能力,我们必须尝试,我很有信心,有很多聪明的头脑,这是一件容易破解的事情。
最重要的是,我认为你有一个观点,如果我们有技术可以解释算法的决策过程,它会使它更难操纵和欺骗。对吧?这是一个技术解决方案,而不是整个解决方案,这将有助于澄清这项技术正在做什么。
如果人工智能用概率给出了2000个潜在特征的维度,这是不可理解的,但人类文明史上的整个科学史就是能够以越来越好的方式传达科学的结果。对吧?就像我刚做了年度体检,一大堆电话号码打到了我的手机上。首先,我的医生,专家,可以帮助我解释这些数字。现在,就算是维基百科也能帮助我解释其中的一些数字,并且解释这些数字的技术改进将会改进。如果我们只是把200或2000个维度的概率数字扔给你,这就是我们作为技术专家的失败。
AI 算法偏见
主持人:在我们结束这个话题之前,我想转移到一个非常相关的问题上,我认为这是最有趣的问题之一,那就是算法中的偏见问题,这是你已经说得很清楚的。让我们从金融体系开始说起。你可以想象一个算法被银行用来决定是否应该贷款给某些人。你还可以想象用种族主义的历史数据训练它。我们不想这样。所以,让我们来看看如何确保这些数据不是种族主义的,让它向人们提供不分种族的贷款。我们在座的每一个人都认为这是一个很好的结果。我们假设,分析历史数据表明,女性比男性更有可能偿还贷款。我们要把它去掉吗?还是我们允许它继续存在?如果你允许它继续存在,你会得到一个稍微更有效率的金融体系?如果你把它去掉,你会发现以前男女之间的平等程度更高。你如何决定哪些偏见是你想要消除的,哪些是可以保留的?
李飞飞:是的,这是一个非常好的问题,尼克。我的意思是,我个人不会给出答案,但我认为你触及了一个真正重要的问题,那就是,首先,机器学习系统偏见是真实存在的。就像你说的,它从数据开始,可能从我们收集数据的那一刻开始,从我们收集数据的类型开始,到整个管道,然后一直到应用程序。但是偏见以非常复杂的方式出现。在斯坦福,我们有机器学习科学家研究偏见的技术解决方案,比如,去偏置数据或使某些决策正常化。但是我们也有人文主义者争论什么是偏见,什么是公平,什么时候偏见是好的,什么时候偏见是坏的?所以我认为你刚刚为这个话题的研究,辩论和对话开启了一个完美的话题。我还想指出的是,你们已经用了一个非常相关的例子,一个机器学习算法有可能暴露偏见。对吧?你知道,我最喜欢的研究之一是几年前的一篇论文,分析了好莱坞电影,并使用机器学习人脸识别算法,这在当今是一项非常有争议的技术,来系统地识别好莱坞给男演员比女演员更多的屏幕时间。没有人可以坐在那里数所有的脸的帧数是否存在性别偏见,这是一个使用机器学习来揭露的完美例子。因此,总的来说,我们应该研究一系列丰富的问题,再一次呼吁,把人文主义者,伦理学家,法律学者,性别研究专家融入到研究中。
主持人:同意。不过,在那篇文章发表之前,我就知道好莱坞是性别歧视的。
李飞飞:你是个聪明人。
主持人:让我来问你,因为有三四人问这个问题,那就是,似乎人工智能的集中力让数据和最好的电脑更强大,然后,无论是在国内还是在世界范围内,都会加剧收入不平等,对吧?正如你所提到的国家那样,首先中美两国拔得头筹,而欧洲各国紧随其后,而加拿大更逊色一筹,但它们都要遥遥领先于中美洲。这一现象会加剧全球收入不平等。A,你觉得有可能吗?B,你有多担心?
李飞飞:我们一遍又一遍注意到的一件事,即使是在建立以人为本的人工智能社区以及内部和外部人员交谈的过程中,世界各地的企业和世界各国政府是有机会考虑他们的数据和人工智能策略的。对公司和国家而言,仍然有很多机会让他们真正认识到,这是他们的国家,他们的地区,他们的企业进入数字时代的重要时刻。我认为,当你谈到这些潜在的危险和世界上那些还没有真正赶上数字变革的地方缺乏数据的时候,现在是时候了,我们希望提高这种意识并鼓励这种变革。
“这是一个在分享和传播知识和技术方面非常开放的全球社区”
主持人:下一个问题是:这里有斯坦福大学的人员,他们将帮助建立一些公司,将进一步推动数据殖民化进程,或逆转或将建立,至少由斯坦福大学资助的,努力创建一个虚拟墙和基于人工智能的世界正在迅速崛起。对在座的所有学生,你希望他们如何看待人工智能?你想让他们学到什么?让我们用最后10分钟的时间来讨论一下在座各位应该做些什么。
李飞飞:如果你是计算机科学或工程学的学生,那就选Rob的课程。如果你是人文主义者,就上我的课。我教的是深度学习。但说真的,我想说的是斯坦福的学生,你们有很好的机会。我们有一段把这项技术带到生活的自豪的历史。斯坦福处于人工智能诞生的最前沿。事实上,我们的教授 John McCarthy创造了人工智能这个词,他于1963年来到斯坦福大学,建立了这个国家最古老的人工智能实验室之一。从那时起,斯坦福大学的人工智能研究一直处于每一波人工智能变革的最前沿。2019年,我们也站在了以人为中心的人工智能革命的最前沿,或者说,我们正在书写新的人工智能篇章。在过去的60年里,我们为你们做了这一切,为那些走进来的人,为那些即将毕业成为实践者、领导者和公民社会的一部分的人,这就是我们的底线所在。以人为中心的人工智能需要由下一代的技术人员来编写,这些技术人员上过像Rob这样的课程,去思考伦理含义,人类的福祉。它也将由那些来自斯坦福大学人文学科和商学院的潜在未来决策者来撰写,他们精通技术的细节,他们理解这项技术的含义,他们有能力与技术专家交流。也就是说,无论我们如何同意或不同意,最重要的是,我们需要这种多语言的领导人、思想家和实践者。这就是斯坦福大学以人为中心的人工智能研究所的宗旨。
主持人:好的,飞飞,让我们快速地看几个问题。我们经常谈论来自大公司的自上而下的人工智能,我们应该如何设计个人的人工智能来帮助加速我们的生活和事业?我对这个问题的解释是,很多人工智能都是在大公司里工作的。如果你想在小公司或个人拥有人工智能,能做到吗?
李飞飞:首先,确实有很多投资、努力和资源投入到大公司的人工智能研究和开发中,但并不是所有的人工智能都发生在那里。我想说的是学术界继续在人工智能的研究和发展中发挥着巨大的作用,尤其是在人工智能的长期探索中。什么是学术界?学术界是一个由学生和教授组成的世界范围的网络,他们对不同的观点进行非常独立和创造性的思考。所以从这个角度来看,这是人工智能研究中的一种非常基层的努力,这种努力还在继续。小企业和独立研究机构也可以发挥作用。有很多公开可用的数据集。这是一个在分享和传播知识和技术方面非常开放的全球社区。所以,是的,无论如何我们都希望全球参与进来。
主持人:好吧,这是我最喜欢的问题。不幸的是,这是匿名者发来的。如果我在八年级,我还需要学习吗?
李飞飞:作为一个妈妈,我会告诉你是的。回去写作业吧。
主持人:飞飞,75分钟前,你说我们不会得出任何结论你觉得我们有什么进展吗?
李飞飞:嗯,我们开启了人文主义者和技术专家之间的对话,我想看到更多这样的对话。
主持人:太好了。非常感谢。谢谢你,飞飞。
via:
https://www.wired.com/story/will-artificial-intelligence-enhance-hack-humanity/
未来智能实验室是人工智能学家与科学院相关机构联合成立的人工智能,互联网和脑科学交叉研究机构。
未来智能实验室的主要工作包括:建立AI智能系统智商评测体系,开展世界人工智能智商评测;开展互联网(城市)云脑研究计划,构建互联网(城市)云脑技术和企业图谱,为提升企业,行业与城市的智能水平服务。
如果您对实验室的研究感兴趣,欢迎加入未来智能实验室线上平台。扫描以下二维码或点击本文左下角“阅读原文”