这周我们来看一下傅里叶变换。傅里叶变换是一种在数学和许多科学领域中广泛应用的分析方法,它允许我们将信号或函数从其原始域(通常是时间域或空间域)转换到频域表示。在频域中,信号被表示为其组成频率的幅度和相位,这为理解和操作信号提供了一种强大的方式。
这次我不会从它普遍的推导方式来理解,而是从一个更简单的角度来理解----向量的点积。
向量点积
先简单介绍一下向量的点积。假如我们现在有一个向量a长度为6,又有一个向量b长度为8,它们的夹角为60°,那么它们的点积的就是用它们的模长乘以夹角的余弦值,得到24.
那么这样定义有什么用呢?它得出来的数值说明了什么呢?我们现在把夹角调小到30°,现在我们就看到啊,向量b在a方向上得投影变得比之前长了,而点积的结果也变成了24倍的根号3。
大家观察一下啊,角度调整前后的向量b谁和向量a更像啊?那自然是夹角更小的那个了,所以点积或者说点乘这样子来定义的一大作用呢,就是可以衡量一个东西和另一个东西有多像,也就是相似度,
而点积出来的数值越大,相似度呢就越高。这时如果把向量具象化为一个观察者,而观察者呢只能看到和感知到它自己这个维度方向上的东西,所以向量b在向量a 的眼里呢也还是一个向量,并且和自己是一条线上的。
那么在a的眼里,b向量有多长呢?那就得算向量b在a方向上的投影是多少了,也就是拿b向量的模长乘以他们夹角的余弦。
如果用上刚刚点乘的定义呢,就是ab点积再除以a的模长,
这个就是b在a上的投影长度了。如果向量b垂直于向量a,那么b在a上的投影就是0,点积结果就是0。也就是说它们两个一点都不“像”,那么我们a作为观察者,它压根就感知不到向量b的存在。
当夹角变成钝角的时候,情况又出现了新的变化,向量b在向量a的方向上又有了投影,只不过方向和刚刚相反了,点积就变成了负值,它们仍然具有相似性。
既然引出了观察者这个概念,那么我们就可以从一个全新的角度去看了,虽然每一个观察者都只能看到一个片面,但是我们把所有观察者都看到的都综合起来,就可以得到真相了。
观察者角度看向量分解
我们找来两个相互垂直的观察者i和j,它们的长度都是1,你想看i眼里的向量m,那么我们就可以用i和m进行点积,假如我们得到的数值是4,同理,看j眼里的向量m可以用j和m进行点积,结果为3,这时候向量m就可以表示为4i加3j了。
可以看出,向量m对观察者向量i的影响更大,它们也更相似。大家注意,上面两个观察者i和j的长度被定义为1,这其实就是归一化操作,为什么要归一化呢?那总不能让作为基准的东西高矮胖瘦什么都有吧?而且归一化可以保证各个观察者在能量上是一致的,方便后续数据的处理,如果不进行归一化,那么后续处理数据又得一个一个来区别对待,那就相当麻烦。
如果向量长度不为一怎么办?那么我们把它归为1.现在有一个向量a,我们直接除以它的模长,就可以得到归一化后的观察者了,其实就是a方向的单位向量了。
那刚刚的4i+3j,I和j都是单位向量,而4和3是投影系数,也就是在不同方向观察者看到的量是多少。
好我们再回到刚刚那个例子,在a 眼里向量b可以这么表达:a点乘b再除以a的模长,就是b在a方向的投影,然后再乘以a的归一化向量,也就是a 除以自己的模长。
我们可以看出来,如果观察者不归一,那么你的系数就要归一。
一句话小结一下,观察者理论就是对于给定的目标,让若干个归一化的每个观察者都记录一个数据,而这些数据就是我们想要的东西了,所以点积就是观察者了解一个未知事物的手段。
连续函数的点积
我们放到直角坐标系当中去看。我们都知道在直角坐标系下两个向量X[x1,x2,x3,x4]和Y[y1,y2,y3,y4]的点积是对应的分量相乘再相加,推广到n维也是如此。现在我们来思考这样一种事情,假如我们有两个向量Xn[x1,x2,x3,x4,…xn] 和Yn[y1,y2,y3,…yn] 我们把Xn的每一个分量均匀放在时间轴t上,假设范围是(t1,t2),那么我们就可以看出来,这是一个t1到t2的离散函数,x1x2x3等等是函数值。
当n 越来越大趋于无穷的时候,那么均匀分布在t轴上的数就会越来越多,直到连续。那么这就是一个连续函数X(t),t∈[t1,t2],Yn同理。
这样我们就可以看出来,一个连续的函数等价于无穷维的向量。那么结合向量的点积
,这些就是对应点的函数值相乘,当它们是连续函数的时候,直接用两个函数相乘就行了,就是X(t)乘以Y(t).
那么相加的动作,在连续函数当中就是求积分,如果定义域是t1,t2的闭区间,那么式子就是这样子
从图像上来看,这个式子的数值是大于0的,也就是说,它们之间是存在一些相似度的。那么上面的呢就是连续函数点乘的定义了。
从点积推导傅里叶变换
好,那么现在让我们把目光放在傅里叶级数上来,傅里叶级数是由一系列简单的正余弦函数作为基,例如2pi周期的函数的基就是cost,cos2t,cos3t等等,这些基是通过不同频率来进行区分的,它们可以看到目标函数在自己频率世界中的投影,也就是影响是多少。当然也可以说是看目标函数和观察者自己本身的相似度有多少。
如果高频的观察者和目标函数相似度更高,那么就说明原函数的高频成分就更多。例如,我们有一个目标函数f(t),我们想看cosnt和目标函数相似度有多少,即成分的高低,那么我们直接让二者点乘即可,即从[-pi,pi],
如果你还想进一步看一下f(t)在cosnt上具体的投影是多少呢,那就离不开归一化操作了,刚才已经讲过了要么观察者是归一的要么系数是归一的。连续函数不就是连续无穷维向量吗?所以连续函数的模长就是。那么cosnt的模长就是,其实连续函数的模长有一个专有名词叫做2-范数。很明显cosnt这个观察者没有归一,所以投影系数呢就得归一,我们看之前总结的公式。代入后就是
这个式子是不是非常眼熟?它就是傅里叶级数求An的公式,对应到不同频率基的振幅。这样我们就可以求出原函数在不同频率下的投影是多少了。
好,我们接下来更进一步进入到傅里叶级数的复变换形式。上周我们都了解了欧拉公式,那么我们就可以把代入进去了。
不过要注意一件事情,两个复函数的点乘是取后者的共轭函数进行计算的。
取代了之前的cosnt成为了新的观察者,那么让它来对f(t)进行点乘来看相似度有多少,的共轭复数是,进行点乘之后有
,而且我们可以看到,观察者已经归一了,因为它表示的都是半径为1的旋转,那么现在我们再看看这个公式,这其实就是连续函数的傅里叶变换的公式。我们积分出来的结果一般都是一个关于角频率w的复函数,那么这个复函数的模就可以理解为我们前面所说过的投影数。
以上就是从点积或者说点乘角度来理解傅里叶变换,希望能帮助到大家对傅里叶变换有更深层次的认识。
总结
1.点积就是计算A与B之间的相似程度。
2.一个n维向量存在n个基,第i个基与其进行点积,可以得到该向量在第i个基上的相似度。
3.无穷维的向量可以看作是一个连续的函数,此时点积可看作积分。
4.引入欧拉公式,将目标函数与不同基点乘,从而得到不同频率的成分大小,这就是连续傅里叶变换。
应用
- 图像压缩与增强:傅里叶变换可以将图像转换到频域,从而分离出代表图像细节的高频分量和表示图像结构的低频分量。这一特性被用于图像压缩,通过去除或减少高频噪声来减小图像大小,同时保持视觉质量。在图像增强方面,可以通过调整频域系数来改善图像的清晰度或进行去模糊处理。
- 音频信号处理:在语音识别、音乐分类和音频降噪等任务中,傅里叶变换用于分析音频信号的频率组成,帮助识别特定的声音特征,从而提高处理的准确性和效率。
- 时序数据分析:在处理时间序列数据(如股票价格、传感器读数)时,傅里叶变换能够揭示数据中的周期性成分,帮助预测未来趋势、异常检测和模式识别。
- 降维和特征工程:在高维数据集中,傅里叶变换可以揭示数据的频率特性,通过选择或构造基于频率的特征,降低数据维度,提高机器学习模型的训练效率和泛化能力。