最近推特上有一个例子引起了广泛的讨论,事情的起因是这样的:网友让 GPT-4o 预测一下自己未来将会替代人类哪些工作?
这听起来很有趣!GPT-4o会给出什么样的预测呢?
3.5研究测试:
hujiaoai.cn
4研究测试:
askmanyai.cn
Claude-3研究测试:
hiclaude3.com
AI 心里有数
GPT-4o回复了一张表格,列出了GPT-4可能取代人类的20种职业,按可能性排序。表格包含三列:排名、职业、为何优于人类以及可能性:
-
数据录入员: 更快、更准确、不知疲倦,能全天候工作。取代概率:95%
-
电话推销员: 提供一致的服务,能处理大量电话,实时分析客户反应以改善话本。取代概率:90%
-
客服 :能同时处理多个询问,提供一致的响应,全天候服务。取代概率:88%
-
文案策划:快速生成高质量内容,能调整风格和语调以适合目标受众,成本效益高。取代概率:85%
-
技术支持分析师: 提供快速准确的解决方案,能处理复杂的故障排除,通过访问庞大的解决方案数据库。取代概率:83%
-
医疗抄写员:在抄写医疗记录时更高的准确率,更快的处理速度,无需休息。取代概率:82%
-
校对员:能处理大量文本,减少人为错误。取代概率:80%
-
市场研究分析师:更高效地分析大数据集,快速识别趋势,提供实时洞察。取代概率:78%
-
法律助理:能够起草文件,进行法律研究,快速组织文件。取代概率:75%
-
预约调度员: 高效管理日程,减少调度冲突,提供全天候服务。取代概率:73%
-
社交媒体经理:生成内容,安排帖子,分析管理数据,高效运营。取代概率:70%
-
财务分析师 : 分析财务数据,识别趋势,提供更快更准确的洞察。取代概率:68%
-
翻译 :提供快速准确的多语言翻译,能处理大量文本而不感到疲劳。取代概率:65%
-
旅行代理:快速搜索并预订旅行住宿,根据数据分析提供个性化推荐。取代概率:63%
-
内容审核员:持续监控和过滤内容,能处理大量数据,应用一致的准则。取代概率:60%
-
招聘协调员:筛选简历,安排面试,高效管理候选人数据库。取代概率:58%
-
新闻记者:快速生成新闻文章,能分析数据和趋势,提供实时更新。取代概率:55%
-
研究助理:进行文献回顾,总结发现,高效组织研究数据。取代概率:53%
-
销售代表:生成潜在客户,跟进潜在客户,提供一致的销售推介和客户跟进。取代概率:50%
-
图书管理员:管理和编目信息,协助研究查询,提供数字资源的高效访问。取代概率:48%
原来GPT-4o真心里有数呢!
它不仅了解人类的能力,还深刻认识到自己在哪些工作领域能够逐步取代人类。通过它那独特的“电子眼”,GPT-4o对人类的职业世界进行了仔细的观察和分析。
奶茶过了一遍这个清单,看似很有道理,特别是那些目前GPT-4已经显示出明显能力优势的职业,替代的概率更高。
还有网友问了下Claude3:
Claude 3 列出来AI替代的20种职业,包括客服、数据录入、语言翻译、内容审核、撰写广告文案、校对与编辑、市场研究分析、基础代码开发、广告拷贝创作、预约调度、数据可视化、基础会计、社交媒体帖子生成、食谱创作、基础法律文件起草、个性化辅导、旅行行程规划、基础图形设计、歌词创作和健身训练计划创建。
那什么职业不会被替代呢?
GPT-4o同样回复了一张表格,根据替代可能性的低到高进行排序,每个职业旁边列出了为何人类在该领域不容易被替代的理由以及被AI替代的概率百分比:
-
创意总监:需要独特的人类创造力、愿景以及领导和激励创意团队的能力(5%概率)。
-
心理治疗师: 需要深厚的人类同理心、直觉和建立与病人的个人联系的能力(8%概率)。
-
外科医生:需要复杂的实际操作技能、实时决策能力以及应对突发情况的适应力(10%概率)。
-
教师: 涉及人际交往、情感智慧以及激励和指导学生的能力(12%概率)。
-
首席执行官:需要战略性视野、领导力、复杂决策能力和建立人际关系的能力(15%概率)。
-
演员/女演员:依赖独特的人类表情、情感以及与观众建立个人联系的能力(18%概率)。
-
社会工作者 :需要深刻的同理心、人际交往能力和处理复杂情感问题的能力(20%概率)。
-
警察:需要人类的判断力、身体存在以及处理不可预测情况的能力(23%概率)。
-
消防员 :需要身体勇气、快速决策能力以及解决问题的实际操作技能(25%概率)。
-
法官:需要复杂的法律推理、伦理判断和在决策中权衡人类因素的能力(28%概率)。
-
活动策划者:涉及创造力、人际接触和管理动态、实时变化及人际互动的能力(30%概率)。
-
记者:需要调查技能、人类判断力以及与消息来源建立信任和关系的能力(33%概率)。
-
咨询师:涉及人际连接、同理心以及导航复杂的情感和心理问题的能力(35%概率)。
-
艺术家:需要独特的人类创造力、表达以及通过艺术唤起情感的能力(38%概率)。
-
外交官:需要高水平的谈判技巧、文化理解以及建立和维护关系的能力(40%概率)。
-
人类学家:涉及田野工作、人际交往以及解读人类文化的能力(43%概率)。
-
厨师:需要创造力、实际操作技能以及创造独特的烹饪体验的能力(45%概率)。
-
建筑工人:需要体力劳动、解决问题的实际操作技能以及适应动态工作环境的能力(48%概率)。
-
急救医疗人员:涉及实际医疗护理、快速决策和处理高压情况的能力(50%概率)。
-
生活教练:需要深厚的人际联系、同理心以及激励和启发个人的能力(53%概率)。
根据GPT-4o给出来的名单,那些涉及深层人际互动、需要创造性思维、或者在复杂情况下需要迅速作出决策的工作,像是教师、心理治疗师、艺术家,这些都不太可能被AI替代。这些工作不仅需要理解人类的情感,还要有能力进行艺术表达或处理复杂多变的环境。
而那些重复性高、规范化流程明确的任务,比如数据录入或基于固定规则的分析工作,更容易被AI替代,因为这些工作AI已经可以高效完成。
奶茶觉得要么是需要真实环境中的人际交往,或者需要一点非框架思维的地方,人类的独到之处仍然是AI所无法替代的。在虽然AI很强大,但某些人类独有的特质是无法被机器复制的。
拟人化的弊端
上个月,Google DeepMind发布了一篇论文,详细地阐述了拟人化人工智能的潜在弊端,称这类助手可能会重新定义「人类」和「其他」之间的界限。论文探讨了以下几个关键领域:
论文链接:
https://arxiv.org/pdf/2404.14068
-
误导感知的风险:拟人化的AI可能会使用户对系统的能力和限制产生误解,这可能导致过度信任或低估系统的功能界限。当AI以接近或模仿人类的方式表现时,用户可能会错误地赋予其超出其真实能力的信任,如过度依赖AI的决策支持功能。
-
伦理和社会影响:赋予AI人类特质可能会使伦理考虑更加复杂,如隐私、自主性和责任问题。例如,用户可能会错误地认为AI具有它实际上并不具备的决策能力,从而引发关于问责制和透明度的伦理问题。这种误解可能导致责任归属不清,当AI的决策导致负面后果时,难以确定责任。
-
设计偏见:拟人化AI的设计过程可能引入或加剧偏见。这在AI与不同用户群体互动时尤为关键,因为拟人化特征可能反映特定的文化、性别或社会规范,这些规范并非普遍适用或可接受。这可能导致某些群体在使用AI时感到不舒服或被边缘化。
-
对人类行为的影响:与类人AI的互动可能以意想不到的方式影响人类行为。例如,人们可能会改变他们的自然互动方式或变得依赖AI进行社交互动,这可能影响社交技能和情感福祉。长期依赖可能削弱人类处理复杂人际关系的能力。
-
监管和治理挑战:拟人化的AI在监管和治理上呈现独特挑战,因为类人的互动可能会模糊工具与代理之间的界限,使得管理AI使用和责任的法律框架变得复杂。确定如何以及何时对AI的行为进行监管变得更加困难。
这篇论文提到了用户可能会把重要决策委托给AI、向AI透露敏感信息,甚至在情感上过度依赖AI等现象。
随着AI技术日益进步,它们变得越来越像人类,这难免引发一些担忧。在科技高度发展的今天,只有每一步的前进都慎重考虑,才能确保技术的应用方向是正确、可持续的,避免潜在的负面影响。
而就在最近,OpenAI几大操作却引发了大量争议!
AI可以用来战争吗?
OpenAI的最新成果GPT-4o在上周的大会上引起了广泛关注,特别是其在情感依赖方面的应用,能够输出高度情绪化的语音回复,而且能够读取用户情绪健康状态。
这样的能力不仅令人惊叹,也不可避免地引发了一系列道德和安全上疑虑。
我们正见证一个人工智能可以解读甚至操纵人类情绪的新时代。但是如此深入地介入人类的情感生活,而对应的监管的规定和限制却是空白,AI被赋予的这项能力能力难道不是打开的潘多拉的盒子,将会释放一系列预料之外的后果吗?
更令人不安的是,OpenAI最近悄然撤销了限制将ChatGPT用于“军事和战争”应用的禁令,这一决策无疑为AI技术的军事利用打开了大门。
虽然目前的AI系统还不能直接控制执行致命任务的武器系统,如无人机或导弹发射装置,但它们可以在战争中扮演关键的辅助角色。
例如,AI可以用于优化战术决策,分析情报数据,协调物资和兵力的调配,甚至模拟敌对力量的行动以预测其战术。此外,AI技术也能够加速军事通信和文书处理,提高军事行动的效率和响应速度。
然后随着技术的进步,未来AI可能被整合进更直接的战斗系统中。例如,通过AI增强的目标识别系统可能会被用来自动化攻击决策过程,从而降低人类决策者的直接参与。
奶茶也很担忧,AI真的有权利参与战争吗?要知道,战争和杀戮是紧紧相连的。
当我们讨论AI参与战争的问题时,不仅需要探讨人类决策者如何、在何种范围内使用这些技术。而且还要探讨AI“拥有权利”参与战争吗,我们人类的世界要赋予AI这个权利吗?
AI本身作为工具,没有权利或意志,它的行动完全受制于人类的设计和指令。但是AI决策的责任归属问题非常复杂,如果发生错误,确定责任变得难以追踪。
其次,AI有没有权利作出致命的决策呢?AI可能难以准确执行战争法和国际人道法中的伦理限制,如区分平民和战斗人员,这可能导致不必要的伤害或损失。
小结
再结合我们开头提到的AI可以替代人类的工作这个话题,AI在模仿和执行人类任务方面的边界究竟在哪里?AI真的能够慢慢替代人类吗?
这是一个值得我们深思的问题。随着技术的迅猛发展,AI正越来越多地渗透到各个行业,甚至开始胜任一些原本需要人类独特技能和判断力的工作。那么,AI能够做到哪些,无法做到哪些,它的能力极限是什么?这些问题不只是技术上的挑战,更涉及伦理、法律和社会经济等多个层面。
这是一个需要我们认真考虑和广泛讨论的问题。大家对此怎么看?欢迎一起来探讨,分享你的见解和看法。