信任的进化:
信任是我们最宝贵的资产。而现在,它正像黑色星期五促销的廉价平板电视一样,被一点点拆解。在过去,世界很简单:人们相信晚间新闻、那些满是灰尘书籍的教授,或者手持病历、眉头紧锁的医生。而如今?一个TikTok上的AI虚拟形象,用一本正经的声音讲解金融市场;聊天机器人提供医疗诊断,甚至比一些家庭医生还要靠谱。
信任是关键。但“钥匙链”在哪?
问题是什么? 信息与虚假信息的传播速度一样快。这对我们的信任意味着什么?谁来决定什么才是真相?更重要的是:我们能信任一台没有道德、没有真正判断力、只是模拟这些特质的机器吗?当然,信任是会进化的。
唯一的问题是——它会往哪个方向进化?
AI能成为启蒙者吗?
最近的两项研究——一项由Costello、Pennycook和Rand发表在《Science》期刊上,另一项由Goel等人发布的研究报告——提供了AI可以帮助人们远离错误认知的初步科学证据。
• Costello等人:在一项有 2190 名参与者的研究中,与GPT-4 Turbo进行个性化对话平均减少了20%的阴谋论信仰。这一影响持续了两个月以上,表明人们的观念发生了持久变化。尤其值得注意的是:即便是那些深信阴谋论的“铁杆信徒”,他们的信念也有明显下降。
这令人震惊——同时也让人害怕。
如果一个AI聊天机器人能够减少阴谋论信仰,那它就同样可以加强这种信仰。这种影响能持续两个月?在舆论塑造的世界里,这已经是永恒。真正的问题是:谁在掌控叙事?
因为如果算法可以塑造信念,那主导世界的就不再是人类,而是机器——或是那些操控机器的人。
• Goel等人:在一项涉及 1690 名美国参与者的实验中,研究人员探讨了人们是否更信任AI生成的信息,而非人类来源的信息。结果表明,GPT-4 在纠正错误认知方面与一名普通人同样有效,但说服力比不上公认的专家。
研究结果表明,AI可以成为启蒙工具,但存在局限性。人们对信息源的信任不仅取决于事实的准确性,还取决于其可信度。
简单来说:AI能传递事实,但它不能强行建立信任。人们相信人,尤其是那些有权威的人。 GPT-4 确实很有说服力,但它缺少专家的个人魅力。
真正的问题是:当机器不仅精准,还学会了“魅力”会发生什么?
信任的心理学
人们信任“面孔”,而不是代码。
AI聊天的水平已经能与人类对话媲美,这确实很惊人。但它的能力是有上限的。研究表明,人们更愿意相信一个头发花白、拥有博士学位的专家,而不是一个匿名的信息源,即使两者讲述的内容完全相同。为什么?因为我们的大脑被编程为尊重权威。
Goel等人的研究正好印证了这一点:专家能说服,AI只能提供信息。区别就在于——信任。
信任不仅仅是逻辑问题,更是心理问题。
这就是矛盾之处:AI可以提供客观、基于事实的答案,但人们依然更愿意信任人类。 为什么?因为信任不仅仅是一个理性过程,它是情感化的、社交性的、文化嵌入式的。即便AI可以显著减少阴谋论信仰,它的影响可能永远有限。
信任不仅建立在准确性上,更建立在人际连接上。
我们需要看到眼神,听到声音,感受到故事。
真正的挑战不是AI是否讲述事实,而是我们是否愿意去听。
黑暗的一面
虽然这些研究表明,AI可以传播知识、减少误解,但它同样存在风险。
Costello等人强调,AI能否发挥积极作用,很大程度上取决于人们如何看待它。
如果AI被视为一种操纵工具,它可能反而会加深人们的不信任。
更进一步的问题是:长期接触AI,会不会让人们逐渐丧失对人类专家的信任?
信任是脆弱的。一旦被动摇,就难以修复。 这正是AI的风险所在。
没错,它可以传播知识、打击虚假信息、塑造信念。但如果人们把它视为操控者,而非助手,信任将成为最大的牺牲品。
那么,长期来看,我们还会信任教授、记者或医生吗? 还是说,我们会逐渐认为算法更懂我们?
这就是讽刺之处:一种本应增强信任的技术,却同样有可能摧毁信任。
AI到底是启蒙者,还是操纵者? 这个问题不是由机器决定的,而是由我们决定的。
另一个问题是,AI不仅能用于启蒙,也可以用于制造虚假信息。深度伪造(Deepfake)、自动化假新闻生成器、算法偏见——都表明,同样的技术既能用来教育,也能用来操纵。
这让我想起 加德纳剃刀定律(Gardner’s Razor):
“如果一个系统需要所有人类行为都完美无缺才能正常运作,那它必然会失败。”
如果我们天真地认为AI只会被用于善良的目的,那不仅是天真,而是过度乐观到荒谬的程度**。
人类仍然是决定性因素
Costello等人和Goel等人的研究清楚地表明:AI可以对抗虚假信息,但它无法重塑人类的心理模式。
信任不仅仅建立在事实之上,它是由社会动态塑造的。
我们信任的不是冰冷的数据点,而是具体的人。
一个富有魅力的专家,永远会胜过一个再完美的算法。
真正的挑战是什么?
让AI成为盟友,而不是奥威尔式的思想警察。
如果人们感觉机器在掌控一切,最终最大的牺牲品不会是虚假信息,而是信任本身。
AI不会通过单纯的信息传递来改变我们对真相的认知,
它的影响,取决于我们如何在社会环境中解读它。
真正的问题不仅仅是——我们是否更信任机器,而不是人类?
更重要的是——在这个由科技驱动的社会中,我们如何重新定义“信任”的机制?
剩下的是什么?
信任并不是一个静态的概念,
而是一个不断演变的、由期望、经验和社会构造编织而成的网络。
在这个科技驱动的时代,问题不仅仅是我们是否更信任机器,而不信任人类,
而是:
当算法替我们做决定,透明度被复杂性取代,错误不再是“人为失误”,而是系统性缺陷时,信任的本质将如何转变?
信任的进化——从感官到工具,再到机构
人类从来都是出于必要而选择信任:
最初,我们信任自己的感官,
后来,我们信任工具,
再后来,我们信任机构。
而现在,我们正站在下一个进化阶段的门槛上:
我们是否愿意去信任,那个不以人类标准衡量自己,而是自我进化的“智能体”?
信任机器,不是盲目信仰,而是一个关于可靠性、透明度和伦理编程的计算过程。
但当信任不再与责任捆绑时,它还能持续多久?
这就是信任的悖论:
机器越完美,人们对它的错误就越无法原谅。
一个人类医生可以犯错;
但一个AI不可以——尽管两者都在基于概率运作。
最终的问题不是——我们如何信任机器?
而是——我们如何重新定义对错误和不可预测性的容忍度?
真正的挑战,不仅仅是技术,
更在于,我们是否能够在这个日益不透明的时代,塑造一种新的信任模式。
问题依然存在——
我们信仰AI吗?