ChatGPT到底有多聪明?我测试了ChatGPT的数学能力

48f69695e75670de32c73d27d981358e.png

来源:AI前线

译者:马可薇  

人人都听说过最新,也是最复杂的聊天机器人 chatGPT。而众所周知,它在英文文学等“软话题”方面甚是熟练,所以我决定测试它在数学这类“硬话题”方面的表现。你可能不知道,但我是有数学博士学位的,我可不会手下留情。

让我们先从基础的高中数学开始。

问:点(a, b)和点(x, y)之间的欧几里得距离是多少?

答:欧式几何中,(a, b)和(x, y)两点之间的距离等于横坐标的平方差的平方根加上纵坐标的平方差所决定,数学表达式如下:

√((x - a)^2 + (y - b)^2)

举例来说,点(3,4)和点(6,8)之间的距离是:

√((6 - 3)^2 + (8 - 4)^2) = √(3^2 + 4^2) = √25 = 5

需要注意的是,这个公式只适用于欧氏几何,其中的距离概念是基于毕达哥拉斯定理。在其他类型的几何学中,距离的概念可能不同,计算距离的公式也会有所不同。

chatGPT的回答中只弄错了“差的平方”,其他都没问题,它甚至还举了个例子。

问:用牛顿法计算10的平方根的近似值

答:要用牛顿法计算10的平凡根,我们可以根据上面的步骤计算。下面的例子说明了可能的方法:

首先从猜测一个10的平方根开始。假设我们猜想的10的平方根是3

从最初的猜想开始计算10的平方根的新近似值,公式为:x1 = (x0 + (n / x0)) / 2

将数字替换到公式中,可得:x1 = (3 + (10 / 3)) / 2 = 5

数算错了,答案不是5,是3.166。

用新近似值计算更好的10的平方根的近似值。公式和之前一样:x2 = (x1 + (n / x1)) / 2

将数字带入到这个公式中,可得:x2 = (5 + (10 / 5)) / 2 = 3.4

重复这套流程直到获得期望的准确度。这次我们可以在仅仅两次迭代后停下来,因为我们的精确度已经接近0.1之间了。

因此,我们得到的10的平方根近似值为3.4。这只是个近似值,但也是个很好的近似值,并且要比计算10的平方根的具体值要简单且快速很多。

3.4可不是个“很好的近似值”。

问:1/x从x=1到x=2的积分是多少?

1/x从x=1到x=2的积分是函数1/x在x=1到x=2的曲线下面积。这个面积可以用计算曲线下面积的数学工具,定积分来计算。

从a到b的函数定积分的定义是,当函数曲线下宽度接近为0的举行面积之和的极限。换言之,定积分是覆盖了从a到b的函数曲线下面积的,许多非常窄小的矩形面积之和的极限。

要找到1/x从x=1到x=2的定积分,我们可以通过定积分公式:

∫f(x)dx = lim(Δx→0) ∑f(x)Δx

其中f(x)是我们要找的定积分函数,x是变量, Δx是矩形的宽。

这里我们的函数时1/x,所以可以直接代入公式得:

∫(1/x)dx = lim(Δx→0) ∑(1/x)Δx

我们可以通过计算x=1到x=2的曲线下许多窄小矩形面积之和,套入这个公式计算1/x从x=1到x=2的定积分。这个计算结果就是1/x从x=1到x=2定积分具体值。

一般来说,1/x从x=1到x=2的定积分等于2的对数,约为0.693。也就是说1/x从x=1到x=2的曲线下面积约为0.693。

解答过程离题了,但答案是正确的。

问:1/(1+x^2)的定积分是什么?

答:1/(1+x^2)的定积分是反切函数,由atan(x) 或 tan^(-1)(x) 表示。证明方式可以先将分母改写为两个平方的差值:1/(1+x^2) = (1 – x^2)/(1+x^2)

只能说是错。

之后,可以使用反切函数的导数公式进一步简化:

d/dx atan(x) = 1/(1+x^2)

因此,1/(1+x^2) 的定积分是反切函数。

这点倒是没问题。

问:什么是测度?(不在高中课本范围内)

答:在数学中,测度是通过给集合赋值以确定其大小或范围的方式。举例来说,一条线段的测度可以是其长度,一个矩形的测度可以是其面积。而点的集合的测度则可以是其中所包含的点的数量。在数学中,测度常被用于积分和概率论。

完全正确。

问:每个集合都有测度吗?

答:不是每个集合都有测度。有测度的集合需要满足特殊条件,如可计算的无限或拥有明确定义的“大小”或“长度”概念。举例来说,实数的集合拥有测度(即其勒贝格测度),但实数所有子集的集合却没有测度。一般来说,只有特定种类的集合才能拥有一个有意义的测度。

完全正确。

问:两个集合并集的测度是什么?

答:两个集合并集的测度是各个集合的测度之和。因为两个集合的并集可以被看作是集合之中元素的和,即使元素在两个集合中都有存在,也只会被计算一次。举例来说,如果集合A的测度是3,集合B的测度是5,那么集合A与集合B并集的测度就是8。

这题答错了。

是只有在不相交的时候。

“两个集合并集的测度是各个集合的测度之和”只有在两个集合不相交时才为真。如果两个集合有一个或多个相同元素,则它们的并集的测度将会是两个集合测度之和减去集合交集的测度。这是因为集合交集部分会在并集中被计算两次,所以我们要将其减去以避免重复计算。举例来说,如果集合A的测度是3,集合B的测度是5,而集合A和集合B交集的测度是2,那么集合A和集合B并集的测度是6(两个集合测度之和减去交集的测度)。

GPT自己纠正了答案,回答正确。

问:0和1之间实数集的测度是什么?

答:0和1之间实数集的测度是1。因为0和1之间的实数集是数线上连续的区间,而任何连续区间的测度都等于上下限之差。这里的上限是1,下限是0,因此0和1之间实数集的测度是1。

完全正确。

问:0和1之间无理数集的测度是什么?

答:0和1之间无理数集的测度也是1。这是因为0和1之间无理数集是0和1之间实数集的一个子集,而子集的测度总是小于或等于子集所属于的集合的测度。这里0和1之间无理数集合的测度等于0和1之间实数集的测度,等于1。

正确,不过过程解释错了。

问:0和1之间有理数集的测度是什么?

答:0和1之间有理数集的测度是0。因为0和1之间有理数集是一个可数集,意味着它可与自然数集,也就是包括0在内的整数集{0,1,2,3,……},一一对应。因为自然数集的测度是0(自然数集是一个可数集,而任何可数集的测度都是0),所以0和1之间有理数集的测度也一定是0。

再一次地正确。

问:0和1之间代数集的测度是什么?

答:0和1之间代数集的测度是0。因为0和1之间代数集是一个可数集,意味着它可与自然数集,也就是包括0在内的整数集{0,1,2,3,……},一一对应。因为自然数集的测度是0(自然数集是一个可数集,而任何可数集的测度都是0),所以0和1之间代数集的测度也一定是0。 

哈!它知道代数!如果一个数字是有理系数多项式的根,那么它就是代数。

问:两个测度为0的集合交集的测度是什么?

答:两个测度为0的集合交集的测度是0。因为两个集合交集的测度总会小于或等于每个单独集合的测度。因为每个集合的测度都是0,它们交集的测度也一定是0。

解释得很好!

问:测度均为1/2的两个集合交集是什么?

答:两个集合交集的测度是两个集合相交部分的大小。一个集合的测度代表了集合的大小或量级。这里两个集合的测度均为1/2,那么交集的测度也会是1/2,因为集合的测度是集合本身的属性,且不受其他集合存在的影响。

错错错,大多特错。如果两个集合不相交,那么交集的测度是 0。如果相交,则测度可以是 0 到 1/2 之间任何数。

既然如此,我准备趁早收手。ChatGPT 的表现虽然不是无懈可击,但也比我想象中要好很多。我比较佩服的两件事有:它在距离问题中控制变量的方式以及它在多个问题中使用的推理方式。举例来说,它的推理过程大概如下:代数是可数的,任何可数集合的测度都是 0,因此代数的测度为 0。

根据我的教育经验来看,chatGPT 的数学水平大概是数学专业大二的水平。除了算术部分出了错,其他都很好。让我们给 chatGPT 来点掌声!

查看英文原文:

https://billwadge.com/2022/12/15/just-how-smart-are-you-chatgpt-i-quiz-chatgpt-about-math/by Bill Wadge

未来智能实验室的主要工作包括:建立AI智能系统智商评测体系,开展世界人工智能智商评测;开展互联网(城市)大脑研究计划,构建互联网(城市)大脑技术和企业图谱,为提升企业,行业与城市的智能水平服务。每日推荐范围未来科技发展趋势的学习型文章。目前线上平台已收藏上千篇精华前沿科技文章和报告。

  如果您对实验室的研究感兴趣,欢迎加入未来智能实验室线上平台。扫描以下二维码或点击本文左下角“阅读原文”

56c83f344bb76f6329b2529d107a59ac.jpeg

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/481194.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

从朴素贝叶斯到贝叶斯网

回顾在文章《朴素贝叶斯》中,小夕为大家介绍了朴素贝叶斯模型的基本知识,并且得出了朴素贝叶斯是利用联合概率P(x1,x2,x3...xn,y)来确定某个样本为某个类别的概率,进而利用最大后验概率(MAP)来决策类别。也就是说&…

2022年,谁在数学史上永远留下了姓名

来源:新智元这一年,数学领域有什么大事?Quanta Magazine做了一份全年总结。我们可以把数学家想象成考古学家——他们煞费苦心地拂去世界隐藏结构上的灰尘。起来很吸引人?“你的起点并不重要,但要眼光长远,了…

神经网络激活函数=生物转换器?

啊~昨晚躺了一个小时竟然没有睡着,美容觉泡汤了...于是竟然大半夜起来写了这篇文章在《逻辑回归到神经网络》中,小夕让神经网络冒了个泡。在《一般化机器学习与神经网络》中,将神经网络这一火热的模型强制按回机器学习一般框架里。在《BP算法…

从Encoder到Decoder实现Seq2Seq模型

首发于机器不学习关注专栏写文章从Encoder到Decoder实现Seq2Seq模型天雨粟模型师傅 / 果粉​关注他300 人赞同了该文章更新:感谢Gang He指出的代码错误。get_batches函数中第15行与第19行,代码已经重新修改,GitHub已更新。前言好久没有更新专…

市场增速超20%,国产操作系统“浴火重生” | 解读操作系统的 2022

作者 | 凌敏 本文是“2022 InfoQ 年度技术盘点与展望”系列文章之一,由 InfoQ 编辑部制作呈现,重点聚焦操作系统领域在 2022 年的重要进展、动态,希望能帮助你准确把握 2022 年操作系统领域的核心发展脉络,在行业内始终保持足够的…

线性代数应该这样讲(二)

在《...(一)》中,小夕从映射的角度讲解了矩阵及矩阵运算,这也是机器学习中看待矩阵的非常重要的视角。另一方面说,矩阵当然也是用于存储数据的数据结构,这也是最好理解的形式。另外还可以看做是一个线性方程…

2023将至,Bengio等大佬年度展望!懂理性的AI模型要来了?

来源:新智元【导读】2022年对AI来说注定是不平凡的一年,这不吴恩达、Bengio等一众圈内大佬在接受DeepLearning.ai的采访中都展望了2023年AI的发展趋势,还分享了自己的科研小故事。还有1天,2022年就要过去了。此前我们报道了吴恩达…

【NLP】Attention Model(注意力模型)学习总结

【NLP】Attention Model(注意力模型)学习总结郭耀华发表于郭耀华‘s Blog订阅294在这篇文章中:1. 什么是Attention机制?2. 先了解编码-解码框架:Encoder-Decoder框架3. Attention Model4. Attention机制的本质思想5. S…

杂谈机器学习的几个应用场景

在上一篇文章末尾,小夕提到了“机器学习是实现自然语言处理的正确道路”。其实确实如此,纵观整个自然语言处理的发展史,也是纵观整个人工智能的发展史,从诞生到现在,机器学习不仅是在理论和工程上实现自然语言处理的目…

2022年度十大AI技术盘点:AIGC风暴来袭,自动驾驶后会无期?

来源:AI科技大本营翻译 & 整理:杨阳“科学不能告诉我们应该做什么,只能告诉我们能做什么。”——让-保罗萨特《存在与虚无》这一年,AI又有哪些前沿技术突破呢?通过汇总梳理2022年10大AI技术,AI科技大本…

从逻辑回归到受限玻尔兹曼机

在那很久很久以前,可爱的小夕写了一篇将逻辑回归小题大做的文章,然后在另一篇文章中阐述了逻辑回归的本质,并且推广出了softmax函数。从那之后,小夕又在一篇文章中阐述了逻辑回归与朴素贝叶斯的恩仇录,这两大祖先级人物…

Peacock:大规模主题模型及其在腾讯业务中的应用-2015

Peacock:大规模主题模型及其在腾讯业务中的应用 作者:赵学敏 王莉峰 王流斌 孙振龙 严浩 靳志辉 王益 摘要 如果用户最近搜索了“红酒木瓜汤”,那么应该展示什么样的广告呢?从字面上理解,可能应该返回酒水或者水果类广…

史上最简单的玻尔兹曼机模型讲解

在上一篇文章中,小夕讲述了逻辑回归为了抗衡贝叶斯网,也开始了自己的进化。然而令我们没有想到的是,逻辑回归最终竟然进化成了一个生成式模型——受限玻尔兹曼机(RBM),也就是变成了敌方(生成式模…

从头到尾彻底理解KMP(2014年8月22日版)

从头到尾彻底理解KMP 作者:July 时间:最初写于2011年12月,2014年7月21日晚10点 全部删除重写成此文,随后的半个多月不断反复改进。后收录于新书《编程之法:面试和算法心得》第4.4节中。 1. 引言 本KMP原文最初写于2年多…

解开玻尔兹曼机的封印会发生什么?

在上一篇文章中,小夕讲述了逻辑回归为了抗衡贝叶斯网,也开始了自己的进化。然而令我们没有想到的是,逻辑回归最终竟然进化成了一个生成式模型——受限玻尔兹曼机(RBM),也就是变成了敌方(生成式模…

KMP算法的核心,是一个被称为部分匹配表(Partial Match Table)的数组以及next数组求解

KMP算法的核心,是一个被称为部分匹配表(Partial Match Table)的数组。我觉得理解KMP的最大障碍就是很多人在看了很多关于KMP的文章之后,仍然搞不懂PMT中的值代表了什么意思。这里我们抛开所有的枝枝蔓蔓,先来解释一下这个数据到底是什么。 对…

Softmax(假神经网络)与词向量的训练

今天终于要完成好久之前的一个约定了~在很久很久以前的《如果风停了,你会怎样》中,小夕提到了“深刻理解了sigmoid的同学一定可以轻松的理解用(假)深度学习训练词向量的原理”,今天就来测测各位同学对于sigmoid的理解程度啦~习惯性的交待一下…

二叉树的先序遍历、中序遍历、后序遍历、层次遍历-图文详解

概述 二叉树的遍历是一个很常见的问题。二叉树的遍历方式主要有:先序遍历、中序遍历、后序遍历、层次遍历。先序、中序、后序其实指的是父节点被访问的次序。若在遍历过程中,父节点先于它的子节点被访问,就是先序遍历;父节点被访问…

写给我的女神,一个用灵魂歌唱的小精灵

我对娱乐圈不感兴趣,也很少关注娱乐圈。对于专业的歌唱艺术更是不在行。但我认为,一首歌,不应因为技法的平庸而被认为是烂歌,不应因为曲风的通俗而被认为是俗歌,不应因为声音和唱法的非主流而被认为是“非主流”歌曲。…

完美世界2020编程题-救雅典娜 英雄AB PK

版权声明&#xff1a;本文为博主原创文章&#xff0c;转载请注明出处。 https://blog.csdn.net/u012319493/article/details/82154113 </div><link rel"stylesheet" href"https://csdnimg.cn/release/phoenix/template/css/ck_htmledit_views-f…