吴恩达 Andrew Ng, 斯坦福大学前教授,Google Brain项目发起人、领导者。
Coursera 的联合创始人和联合主席,在 Coursera 上有十万用户的《机器学习》课程;斯坦福大学计算机科学前教授。百度前副总裁、前首席科学家;谷歌最成功的人工智能项目之一——Google Brain的发起人、领导者。
参考链接: AI for everyone
AI是超能力superpower
我们对AI技术太乐观 而且不顾实际的话, 可能会让人觉得AI是 强人工智能时代即将到来, 并因此认为我们要投入大量的资源 来抵御可怕的AI杀人机器,这些不必要的恐惧让我们分心 不去关注一些真正的问题 也引起了社会对AI的不必要恐惧。
我们也不能对AI太过悲观 认为AI什么都做不了 有些事情AI不可能完成 所以AI的冬天将要到来。
正确的看法是:如今的AI技术 与几十年前冬眠期不同的是 AI已经创造了巨大的经济价值。虽然AI不能做所有的事情,但是可以继续改变多个行业, 创造更多价值。
AI歧视:
他们发现 人工智能通过阅读互联网上的文本 可以学习单词 并且你可以让它进行推理类比 比如现在你问它 根据在互联网上阅读的文本,
男人与女人的对应关系,相当于父亲和谁的对应关系? 人工智能系统会回答母亲 这反映了互联网中 单词的常用方式
问同样的系统 男人对女人 就像国王对什么 它会回答王后 同样,基于互联网中 单词的常用方式
这个答案是说得通的
但研究人员发现 如果你问它 男人对程序员就像女人对什么 输出的答案是: 女人对家庭主妇 我认为得出这种答案是很不幸的 含有较低偏见的答案应该是 女人对程序员 如果我们想让人工智能理解 男人和女人都能是程序员
AI歧视的简单原理:
为什么AI歧视这么重视?
如今的AI系统执行了许多关键决策 在将来也会继续这样做 偏见问题值得重视
比如有一家公司 使用人工智能招聘员工, 结果却发现他们的招聘系统 明显歧视女性 这显然不公平 于是这个公司就停用了他们的人工智能招聘工具
又比如,还有一些 人脸识别系统 对浅肤色的人的特征辨别 比对深肤色的人更加准确 如果人工智能系统针对 浅肤色的数据进行训练 则在这一类人中 表现的更加准确 比如在刑侦调查领域 这就可能对深肤色的人 造成极大的偏见与不公 因此许多人脸识别团队现今都在 努力探索以确保系统 不展现这样的偏见
人工智能在进行 贷款审批时 也有可能 歧视少数民族 开出了更高的利息 银行需要努力探索以确保 减少或者消除他们审批系统里的这种偏见
最后,我认为很重要的一点是人工智能系统 不应该加剧过去存在的 刻板与错误印象带来的有害作用 比方说,一个八岁的女孩 上图像搜索引擎上 搜索首席执行官 如果她看到的只是男人的图片或者 看不到一张和她一样种族或者性别的人的图片 我们不希望当她 有一天想从事一种职业并 成为一个大公司的首席执行官 的梦想就此被挫伤
解决AI偏见
人工智能社区正投入大量的 精力解决这些问题 对抗偏见 我们逐渐有 越来越好的技术解决方法 来减少人工智能系统中的偏见
研究人员发现当人工智能系统 从大量不同的数字学习, 并用来存储单词时, 其中有一些数字
跟这些偏见有关联 如果零初始化它们, 即将它们设置为零, 产生的偏见将显著减少。
第二个解决方案是尽量使用 存在较少偏差和(或)更具包容性的数据 如果你正在 建立一个人脸识别系统 并确保包含来自多个种族、 所有性别的数据,那么 你的系统将会有更少的偏见,更具包容性
其次,许多人工智能团队 要求系统有良好透明度 和审计流程 从而可以随时 检查存在何种类型的偏见 如果发现AI系统中有偏见, 至少我们能够 及时发现,并且采取一定 的措施来纠正它 举例来说,许多的人脸识别团队 会系统地检查 它们系统的数据 是否对深肤色和 浅肤色的人种 有较准确的代表。 举一个例子。 一个透明性的 并带有审计的系统 能够提升快速发现问题的几率 就像刚提到的例子一样,因此我们便能解决它
最后,根据我的经验 拥有多元员工背景的团队也有助于减少偏见 如果你有一个多样化的劳动力 那么其中的个人 更有可能发现不同的问题 也许他们首先会帮助你的数据 更多样化,更具包容性 通过在构建人工智能系统时 拥有更多独特的视角 这将帮助所有人开发 具备更少偏见的应用程序 AI系统如今正做着许多重要决策 因此偏见或潜在的偏见 是我们必须花功夫避免的 。
对抗性/敌对攻击:
尽管现代AI非常强大, 但也有一定的局限性, 特别在深度学习领域, 有时它可以被愚弄, 有时容易受到对抗性攻击
篡改像素
假设你给了AI系统一张 鸟的图片,并要它对这只鸟分类识别 系统输出这是一只蜂鸟。 但是, 让我们对这个图像做一个小的改动。 这个小改变是指图片像素 就改变很小,小到 人眼无法分辨的改动 这同一个AI系统这时会认为这是一个锤子 现在,你可能会说 "这怎么可能, 左图跟右图 看起来完全一样 事实上,这些变化 是人眼无法察觉的 但是,AI系统看世界是 有别于你我的,而且差距非常大
计算机看待 图片的方式和人类很不同 这给了计算机优势和劣势 比如,计算机系统 比你和我都擅长 读取条形码和二维码 但是深度学习系统运作的方式 也使得它受到 这些特别的, 没有人类会被愚弄的攻击
物理攻击:
来自于谷歌的一组研究员的研究, 如果你给一个AI系统看这张图片 它会说这是一个香蕉 但是这些研究员
设计了一个贴纸 如果把贴纸放在这个香蕉图里, 它会对错误分类这个香蕉, 让我给你看一个这些研究者做的视频 左边显示的是 分类器的输入, 右边显示的是输出 这里,分类器认为
这很有可能是一根香蕉, 然后在很小概率下,
可能是一个子弹。 这结果看起来还行。我们来看下 当放一个贴片图会如何。 当把一个贴片图放在图中时, AI系统几乎肯定 这是一张烤面包片机的照片。
防御攻击
但不幸的是,这个实验研究说明 任何人都可以轻松地攻击这些AI系统 那我们可以做些什么来防御 这些对抗性攻击呢? 幸运的是,AI世界一直以来在努力研究 新技术使它们更难被攻击。 防御系统往往技术含量比较高, 但有一些方法可以修改神经网络和 其它AI系统,使他们更难被攻击。 但这种防护功能会让AI系统付出一定的‘代价’, 比如,AI系统的运行速度也许会变慢一些。 不过,这是一个 正在被研究的领域,我们还有很长的路要走。 我们距离拥有一个好到足以防护 所有AI应用程序的 防御系统还有很远的距离, 对于很多AI系统, 大多人并没有进行攻击的动机。 比如,如果你运行 一个自动的视觉检查系统 用于检查你工厂的咖啡杯是否有刮痕 也许不会有很多人 有动机去尝试 误导你的AI系统,导致它错误认为 一个有刮痕的咖啡杯并没有刮痕。 但是有一些 AI程序确实会受到攻击。 对这些程序,类似于垃圾邮件 和反垃圾邮件, 垃圾邮件制作者试图发送垃圾邮件 垃圾邮件过滤器试图阻止它们 我认为有一些应用 将参加一场类似军备竞赛的情况, AI团队构建防御系统的同时 攻击AI系统的群体也在试图愚弄我们的防御系统
恶意利用AI
AI 技术已被用来创造 DeepFakes (深度学习视频篡改技术) 这意味着可以合成虚假视频 里面的内容是人们从来没有实际做过的行为 网站 buzzfeed, 创建了一个视频 展示美国前总统巴拉克·奥巴马 说一些他从来没有实际说过的话。 buzzfeed 是透明的 当他们发布视频时 这是很明显的, 因为它告诉 每个人这是一个假的视频。 但是, 如果这种类型的技术被用来针对 一个人, 让别人认为 他们说过或做过一些他们从未实际做过的事情, 那么这些人可能会受到伤害, 他们必须保留 证据来反驳证明视频中是 他们从未真正做过的事情。 类似于垃圾邮件与反垃圾邮件的战争, 目前已可以使用 AI 技术来 检测视频是否为使用 DeepFake 制作。 但在当今社交媒体的世界里 一个谣言传播到世界各个角落 的速度比真相能赶上的要快 人们非常担心 DeepFake 是否会伤害到某个人。
还有一些使用 AI 技术的风险 如破坏民主和隐私 世界上许多政府在历史的某个阶段 试图改善他们公民的生活 我尊重这些政府领导人 想要提升公民生活的愿望 但也存在一些压制人民的政权, 正对他们的公民做错误的事 从而可能寻求使用 AI 技术 对他们的公民进行压迫性监视。 虽然政府有合法的理由来 改善公共安全和减少犯罪, 也有一些对 AI 的使用, 只会使 公民更受压迫而不是生活得到提升。
与此紧密相关的是 人工智能可以产生的虚假评论的兴起。 目前已可以使用 AI 技术来 生成虚假的评论。 无论是商业方面 对产品的虚假评论, 或者是政治讨论中 关于政治问题的虚假评论 在公民言论中, 虚假评论有时会 比真人类写的评论更有效, 所以, 侦查出这样的虚假评论,并清除他们, 是一项重要的技术,用以维护 我们在网络中的相互信任。
类似于垃圾邮件与反垃圾邮件之间的战争, 或者欺诈与反欺诈, 我认为对于所有这些问题, 可能会有一场比赛, 比赛双方会僵持相当长的一段时间, 还是类似于垃圾邮件与反垃圾邮件的战争, 欺诈与反欺诈,
AI和发展中国家:
重视AI
随着早期的技术浪潮, 很多经济体展现了,他们能 从发达国家跳到 更高科技的经济体。 比如, 在美国,大部分人都有固定电话, 以前通过电线连接的通信设备。 因为大部分人是有固定电话, 所以从固话转移到移动电话的时候 我们花了不少时间。 相比之下,许多发展中国家, 包括印度和中国, 不需要费心去铺设电话线 可以直接跳到移动手机。 因此,这是技术跨越的一个点 发展中国家可以直接跳过 早期的技术迭代, 不需要考虑 在每一户人家 铺设那么多物理电缆, 而是直接跳到手机。 我们也看到了类似的技术跨越 发生在移动支付上。很多发达国家 有成熟的信用卡体系 这也放缓 了他们转向 手机支付的进程, 跟部分发展中国家对比, 他们没有那么根深蒂固的信用卡产业。 我也看到了发展中国家 在线教育的迅速规模化。 在那些还没来得及 铺设国家所需线下学校和 大学的地方, 很多教育界的领导和政府 在更迅速地拥抱 在线教育, 相比已经有 完备的教育基础设施 的发达国家。 在发达国家积极响应 这些高新科技的同时, 发展中国家所拥有的优势是 他们没有根深蒂固的体系。 也许在某些领域, 他们可以走的更快。 现阶段,美国和中国处于领先地位, 英国和加拿大,以及其他几个国家 也有充满活力的 AI 社区。 但整个社区依旧不成熟 我觉得人工智社区还不成熟 这意味着尽管人工智能正在 创造巨大的经济价值 但大部分要创造的价值 在未来仍将消失 这给了每个国家成为 一个重要角色的机会,
强化AI
我对发展中经济体的建议是专注于人工智能 以增强一个国家的垂直产业 例如,当今大多数国家 不应该试图建立自己的网络搜索引擎 因为经过四十年的竞争 已经有很棒的网络搜索引擎了 相反,如果一个国家有一个 非常强大的垂直产业 比如咖啡豆制造 那么这个国家实际上是 唯一有资格从事人工智能 咖啡制造工作的国家 而建设人工智能 将进一步加强这个国家擅长的领域 所以, 与其
每个国家跟 美国和中国在通用的AI应用层面竞争 我会建议大多数国家使用人工智能 去强化这个国家擅长的领域 和国家想在未来做的事
AI与就业
AI impact on Jobs
麦肯锡全球研究院, 做了一项研究,他们估计, 到2030年人工智能自动化 将取代4亿至8亿个工作岗位。 这是一个非常大的数字 另一方面, 这份报告也估计 AI创造的工作岗位数量可能更大。
那些工作容易被AI取代?
哪些是最有可能 或最不可能通过人工智能和自动化取代的工作? 经济合作与发展组织是一个
备受尊重的政府间机构, 这个图估算哪些类型的工作 最可能或最不可能被自动化。 未来很难准确预测, 但也许并不令人惊奇的是, 许多包含 日常重复性任务的工作种类 将会更容易被自动化, 而许多重复性较低, 常规较少或涉及 与人们进行更多社交互动的任务 可能不易受自动化影响。
解决方案
这些是一些解决方案,
一,条件性基本收入保障。 你可能听说过普遍基本收入保障, 政府会向公民无条件发放一定的收入, 我认为人们应该有一个安全网, 对于失业了,但能够自主学习 的个人, 我认为更有效的版本可能是 有条件的基本收入, 这个机制提供安全保障,
但同时鼓励人们继续 学习并投资于自己的发展, 通过提供一个机制来 帮助那些可以自主学习的人, 这将增加这些人 重新进入劳动力,并且 为自己,为家庭,和社会
作出贡献的可能性 以及为纳税人作出贡献。
第二,建立一个提倡不断学习的社会, 由于你现在正在学习这门课程, 你可能已经成为 这个终身学习社会的一部分, 旧的教育模式是 你上四年大学, 然后在剩下的40年‘平行移动’ (不用学习新东西) 这将不再适用于 这个快速变化的世界。 通过政府,公司和个人 我们逐渐意识到
所有人都需要继续学习, 这将提高每个人都能 获得更好地位的可能性, 即便工作可能会被取代。 因此,也要学会利用新产生的工作。 在未来,即使在完成大学学业之后, 我认为大多数人应该 在一生中继续学习。
最后,还有一些政治解决方案 正在被关注。 从激励或帮助 创造新的就业机会, 到立法,以确保人们得到公平对待。 我希望社会能够找到 正确的政治解决方案 以应对人工智能对就业的影响。