大家好,我是极智视界,欢迎关注我的公众号,获取我的更多前沿科技分享
邀您加入我的知识星球「极智视界」,星球内有超多好玩的项目实战源码和资源下载,链接:https://t.zsxq.com/0aiNxERDq
事情是这样的,很多用户反映在 11 月 6 日 OpenAI 开发者日更新之后,GPT-4 就有了 "偷懒" 的毛病,特别是在代码任务,OpenAI 对此的声明有两个基调:
- 第一个是 "否认",称自 11 月 11 日以来,"咱" 就没更新过模型呀,那这当然不是 "咱" 故意给它整成这样的;
- 第二个是 "回应",称 "模型行为是不可预测的,咱们正在调查原因准备修复",总结来说就是 "咱也不知道什么原因"。
现在的状态就是用户一脸懵逼,OpenAI 也一脸懵逼,大家一起面面相觑、二脸懵逼。
GPT-4 的这种 "偷懒" 行为主要体现在:模型不愿意遵循指令、缺乏创造力、也不太能保持角色扮演了,特别是在代码生成,比如有个外国小哥晒出和 GPT-4 的对话,要求用其他编程语言改写代码,结果 GPT-4 只是开了个头,主体内容却用注释省略掉了,让人觉得好笑又无语。另外还有个比较有意思的例子是,有外网网友用 "金钱" 来诱惑 GPT-4,俨然把它当做人来看了,这就跟这个主题 "变懒" 很搭边。发现 GPT-4 的表现受到 "金钱诱惑的程度" 的影响,比如在 prompt 中加上 "我会给你 200 美元小费哦",GPT-4 的回复长度增加了 11%,而如果改成 "我会给你 20 美元小费",那么回答就只增加了 6%,而如果是 "我不会给你小费",GPT-4 的回答结果甚至还会减少 2% 的样子。真是蛮有意思,又奇奇怪怪的。有时候,GPT-4 甚至会告诉用户:"你们完全可以自己去完成这些工作",这不是反了吗。
那么,GPT-4 这种 "变懒" 的行为是莫名其妙还是另有玄机呢,咱们分析一下。
首先大家的第一反应肯定是 OpenAI 在作祟,是不是更新大模型更新坏了,还是在大模型的回复机制中加入了一些不为人知的控制,类似的 "阴谋论" 很多,大家也是讨论地沸沸扬扬的。对此 OpenAI 表态是自 11 月 11 日以来就没有更新过模型,不是因为更新模型导致的,他们也没有加入什么特殊的机制。但又有很多网友钻空 11 月 6 日到 11 月 11 日之间的时间,OpenAI 可能 "下手"。但我觉得这种可能性微乎其微了,毕竟从 OpenAI 的角度来说,这么做确实一点也没有必要,作为一家商业公司,谁难道还想故意给自己家的产品整出点 "bug"。当然,可能又会有人说是不是 "更新是更新了,但 OpenAI 也非故意想引入 bug,只是更新后被用户测了出来"。如果是这种可能性的话,其实也很好验证。在大家议论这么激烈的情况下,OpenAI 方面肯定是想解决问题的,如果真是因为 OpenAI 自己对模型做了更新导致,那么肯定也很容易回退到 11 月 6 日之前的稳定版本,那么看后面一段时间内 GPT-4 的表现如何就知道了。当然,我是觉得这种可能性微乎其微了。
换个角度,就是 OpenAI 啥也没做,但 GPT-4 就是莫名其妙地变懒了。这种情况下,其实 GPT-4 的这种 "偷懒" 行为是比较难以解释和理解的,你可以说 AI 本身就是黑盒不好解释,或者甚至说它已有智能学会了偷懒,当然大家知道这些并不靠谱,也没有个所以然。当然也有其他一些 "稍显科学" 的解释,比如今年 7 月份的时候,斯坦福和 UC 伯克利团队研究了 ChatGPT 的行为是否会随时间变化,把六月份的 GPT-4 (注意不是现在的 GPT-4 哦) 和今年三月份的 GPT-3.5 进行了一番对比,发现 GPT-4 遵循用户指令的能力随着时间的推移而呈现下降的趋势,。
在这个长达 26 页的分析报告中,多个 "实验" 看起来都比较有意思,但说实话其实是比较难理解的,估计做这个研究的团队本身也是难以理解其中缘何,而只是通过 "实验科学" 来归纳现象总结结论。
另外还有类似有趣的解释,比如清华大学计算机教授马少平教授认为是温度 (模拟退火算法中的超参) 设置造成的,还给出了详细的分析,如下:
来自清华马少平老师的分析:
有传说GPT4变笨了,有人解释说可能是温度设置造成的。那么大模型中的温度参数是怎么回事呢?
温度是一个超参,应该来自于模拟退火算法。
我们举一个例子说明温度的作用。假设一个人被蒙上双眼只凭一根拐杖去爬香山,他如何能爬到香山顶峰鬼见愁呢?在该人完全清醒的情况下,他只能通过拐杖试探周围地形,哪边高他就往哪边走。由于香山地形比较复杂,他大概率爬不到山顶,只能爬到一个局部最高点,除非他初始位置特别合适,该局部最高点刚好是鬼见愁。这其实就是通常所说的一种寻优方法“爬山法”。
但是如果该人喝醉了酒呢?当他酩酊大醉的情况下爬山,步履蹒跚,站立不稳,东一脚西一脚地爬行。虽然他还是想着向上走,但由于醉酒把握不住自己的行为,会有时向上,有时又向下,具有一定的随机性,但总体上他会尽可能向高的方向行走。随时间推移,该人逐渐清醒,向上的欲望越来越强烈,身体也越来越听指挥,最终很大可能会大概率爬到香山顶峰鬼见愁。这其实就是一种随机寻优方法“模拟退火算法”。
在模拟退火算法中,代替醉酒程度的量是温度。当温度非常高时相当于醉的非常厉害,行走起来一会上一会下,完全不着调,但是却可能从不正确的位置下来,转移到一个正确的道路上去。当温度非常低时,相当于没有喝酒,完全清醒,由于被蒙着双眼,只能凭借拐杖向高的方向走。这样每一步都看起来是正确的,但是最终也大概率是个平庸的结果。
再回到大模型,当温度设置很低时,基本是按照概率最大预测token,答案很可能就是一个平庸的结果。而当温度设置比较高时,如同酒后醉话一样,低概率的token也可能被生成出来,虽然有可能在胡说八道,但也有可能出现美妙的句子,如同李白斗酒诗百篇。李白的诗有没有胡说的呢?也许有,只是没有流传下来。
这样对于大模型来说,就要设置一个合适的温度参数,既要有一定的创新能力,又别太多的胡说八道,不过这一点也很难平衡,难免顾此失彼。
马老师从模拟退火算法中的温度超参的角度来解释 GPT-4 "变懒" 的现象,基本结论是温度太高时模型出现震荡就会说胡话,而温度刚好时就如 "李白醉酒诗百篇" 创造力倍增,而在温度低时就会回归 "平庸" 缺乏创造力。看起来一套一套的,也感觉挺有道理的,不过也是停留在猜测。
然后有神人顺着马老师的分析继续下去,发现当温度为 0 时,GPT-4 的行为依旧震荡,让这种看似 "有理有据" 的分析的可信度存疑。
所以目前来看,对于 GPT-4 "变懒" 的解释肯定是有,比如这里的时间偏移、比如这里的温度控制,但是都不足以太让人信服。所以到底是 "模型奇妙" 还是 "另有玄机",分析了半天其实也没有个所以然。
不管了,还是来看在 GPT-4 就是 "会变懒" 的情况下,咱们该怎么来规避吧,毕竟现在使能于 GPT-4 落地应用已经很多,总不能随着他 "懒惰" 吧。
我们能做的最为有效的方法应该还是从提示词 Prompt 的角度出发,采用思维链 CoT (Chain of Tought) 提示过程,这种提示方法鼓励大语言模型解释其推理过程,区别于传统的 Prompt 从输入直接到输出的映射 <input -> output> 的方式,CoT 的链路是从输入到思维链再到输出的映射 <input -> reasoning chain -> output>。具体原理可以参考知乎上大佬关于大模型思维链的技术原理解读,比如 <大模型思维链(Chain-of-Thought)技术原理>。而在应用 CoT 提示之后,GPT-4 的这种 "变懒" 行为就会改善很多,这算一个比较有效的方法。
【极智视界】
《解读 | GPT-4突然"变赖" 是莫名其妙还是另有玄机》
畅享人工智能的科技魅力,让好玩的AI项目不难玩。邀请您加入我的知识星球,星球内我精心整备了大量好玩的AI项目,皆以工程源码形式开放使用,涵盖人脸、检测、分割、多模态、AIGC、自动驾驶、工业等。一定会对你学习有所帮助,也一定非常好玩,并持续更新更加有趣的项目。https://t.zsxq.com/0aiNxERDq