1. 工作 1.1. 技术性失业问题 1.1.1. 约翰·梅纳德·凯恩斯(John Maynard Keynes)在其著名的文章《我们后代在经济上的可能前景》中提出了技术性失业问题 1.1.1.1. 他在1930年写了这篇文章,当时大萧条在英国造成了大规模失业 1.1.2. 那些反对技术性失业概念的人经常提到银行出纳员和零售收银员,银行出纳员的部分工作可以通过自动取款机完成,零售收银员的工作则通过商品上的条形码和RFID(射频识别)标签来加速 1.2. 技术的直接影响是双向的 1.2.1. 通过提高生产率,技术可以降低一项服务的价格,从而增加需求以及增加就业 1.2.2. 技术的进一步发展意味着需要的人力越来越少 1.2.2.1. 当雇主发现可以用一种机械方法来完成以前由人完成的工作时,就业就会立即减少 1.2.2.2. 一幅迅速浮现的经济图景是,因为工作是不必要的,所以工作的人要少得多 1.3. 经济学家曾试图在自动化程度有所提高的各个行业中衡量这些影响的大小,但结果通常是不确定的 1.3.1. 自动化提高了生产率,从整体上说,人类的境况更好了,因为我们用同样的工作量享受到了更多的商品和服务 1.3.2. 自动化增加了资本持有者(即房屋喷漆机器人的所有者)的收入份额,减少了劳动力(即曾经的房屋油漆工)的收入份额 1.4. 每一次卡车运输的长途部分很有可能很快变成自主的,而人类将暂时处理城市中的运输、接车和送货 1.5. 在2018年的一次竞赛中,人工智能软件在分析标准保密协议方面的得分超过了经验丰富的法学教授,并且前者完成任务的速度比后者快了200倍 1.6. 常规形式的计算机编程,即今天经常被外包的那种编程工作,也可以实现自动化 1.6.1. 几乎任何可以外包的东西都是自动化的绝好选择,因为外包涉及将作业分解为任务,这些任务可以打包并以去情境化的形式分发 1.6.2. 机器人流程自动化产业生产的软件工具完全可以在在线执行的办公任务方面实现这种效果 1.6.3. 随着人工智能的发展,在未来几十年里,所有常规的体力劳动和脑力劳动基本上都将由机器以更低的成本完成,这当然是可能的,甚至实现的可能性非常大 1.6.4. 从几千年前我们脱离狩猎采集者的角色以来,我们的社会就把大多数人当作机器人来使用,他们执行重复性的体力和脑力劳动,所以这些角色很快被机器人取代也许并不奇怪 1.6.5. 机械运输变得比养马更便宜,所以马成了宠物 1.6.5.1. 面对等同于马变成宠物的社会经济问题,人类将会对他们的政府感到非常不满 1.7. 数据科学对一艘巨大的游轮而言不过只是一艘小小的救生艇 1.8. 普遍基本收入的资金来源是增值税或资本收入税,无论情况如何,普遍基本收入都会为每个成年人提供合理的收入 1.8.1. 对某些人而言,普遍基本收入代表了某种形式的天堂 1.8.2. 对另一些人而言,这代表着承认失败,说明大多数人对社会没有任何经济价值 1.8.3. 真相总是介于二者之间,这在很大程度上取决于人们如何看待人类心理 1.9. 奋斗和享乐之间的联系是我们理解如何创造美好未来的中心主题 1.9.1. 奋斗是普通人的习惯和本能,是经过无数代人培养出来的,而不是“生活的真正价值”之一 1.9.2. 真正的享乐和持久的满足来自拥有一个目标并实现它(至少是努力尝试),这通常需要面对困难,而不是被动地消费眼前的快乐 1.9.3. 大多数人将从事提供人际关系服务的工作,这些服务只能由人类提供,或者说我们更愿意由人类提供这些服务 1.9.3.1. 这类职业包括心理治疗师、高管教练、导师、顾问、共事者以及照顾儿童和老人的人 1.9.3.2. “护理行业” 1.9.3.2.1. 对于提供护理的人有积极的含义 1.9.3.2.2. 对于接受护理的人有依赖和无助的负面含义 2. 人类角色 2.1. 拥有人性是我们的主要“卖点”,那么制造人造人类似乎是一个坏主意 2.2. 我们不应该费太大的力气去制造具有最明显的人类特征而非智力特征的机器,比如人形机器人 2.2.1. 其结果就像人造假花一样,不伦不类 2.2.2. 除了通过面部表情和动作来传达非语言信息的基本能力(即使兔八哥也能轻松做到这一点),我们没有充分的理由要让机器人具有人形 2.2.3. 不去制造人形机器人也有很好的实际原因 2.2.3.1. 例如与四足运动相比,我们的两足姿态相对不稳定 2.2.3.2. 也许四条腿,两只手,人首马身的形态会是一个很好的标准 2.3. 2017年10月25日沙特阿拉伯授予索菲娅公民身份,索菲娅是一个人形机器人 2.4. 从长远来看,为机器人创造一个具体的法律地位,至少可以让最先进的自主机器人获得电子人的地位,为它们可能造成的任何损害负责 2.4.1. 机器人自身将承担其造成的损害的法律责任,它的所有者或制造商则不用负责 2.4.2. 这意味着机器人将拥有金融资产,它们如果不遵守规则,就会受到制裁 2.4.2.1. 从字面上看,这是没有意义的 2.4.3. 除了毫无必要甚至荒谬地提高机器人的地位之外,在影响人类的决策中越来越多地使用机器还可能降低人类的地位和尊严 2.5. 对人类尊严的侵犯 2.5.1. 通过赋予机器凌驾于人类之上的权力,我们把自己降到了二等地位,并失去了参与影响我们的决策的权利 2.5.1.1. 一种更极端的形式是赋予机器杀人的权力 2.5.2. 即使你认为做决定的不是机器,而是设计和委托制造机器的人,这些人类设计师和专员却认为在这种情况下权衡每个人类主体的个人情况并不值得,这表明他们认为他人的生命价值不大 2.5.2.1. 由人类服务的精英阶层与由机器服务和控制的广大社会底层之间开始严重分化的一个征兆 2.6. 趋势是明显的:在许多领域,机器在越来越高的权力级别上做出决策 2.6.1. 航空公司为例 2.6.1.1. 首先,计算机帮助编制航班时刻表 2.6.1.2. 很快,它们接管了机组人员排班、预订座位和日常维护的工作 2.6.1.3. 接下来,它们被连接到全球信息网络,向航空公司经理提供实时状态报告,以便经理能够有效地应对异常情况 2.6.1.4. 现在,它们正在接管管理异常情况的工作:更改飞机航线,重新安排工作人员,重新为乘客订票,以及修改维护计划 2.7. 人类变成了计算机系统的工具,即人类在必要时提供信息并修复漏洞,但不再深入了解整个系统是如何工作的? 2.7.1. 2018年4月3日出现的一次“计算机故障”导致欧洲1.5万个航班严重延误或取消 2.7.2. 2010年交易算法导致纽约证券交易所“闪电崩盘”,几分钟内1万亿美元蒸发,此时唯一的解决办法是关闭交易所,而人们连发生了什么事还都没弄清楚 2.8. 在一切技术都没出现之前,人类和大多数动物一样,只能勉强糊口 2.8.1. 技术逐渐让我们登上了机器的金字塔,扩大了我们作为个体和物种所能涉及的范围 2.8.2. 我们可以用不同的方式来设计人与机器之间的关系 2.9. 如果我们设计机器是为了让人类保留足够的理解、权威和自主,那么系统的技术部分就可以极大地放大人类的能力,使我们每个人都能站在一个巨大的能力金字塔上,如果愿意,我们可以说人类成了“半人半神” 3. 偏见 3.1. 对自主决策的所有担忧都源自潜在的算法偏见 3.1.1. 机器学习算法倾向于在贷款、住房、工作、保险、假释、判决、大学录取等方面产生不恰当的有偏见的决策 3.1.2. 并不意味着通过将种族排除在数据之外,我们就一定能做出不带有种族偏见的决定 3.2. 决策过程必须服从检查,以确保不会出现其他“偶然”的偏见 3.3. 算法偏见产生的原因可能在于数据,而不在于公司故意作恶 3.3.1. 产生数据的文化中预先存在偏见 3.3.1.1. 男性CEO的数量远远多于女性CEO 3.3.2. “偏见主要存在于数据中”这一事实并不意味着我们没有义务采取措施来解决这个问题 3.4. 机器学习方法的幼稚应用会产生有偏见的结果,这里面还有其他更偏向技术性的原因 3.5. 机器无法维持长时间的对话,也缺乏对广泛决策相关因素的基本理解