首先思考这样一个问题,下面这个测量实验中,示波器的测量结果是多少?
是和信号源一样的5V吗?
先别着急回答,假如里面的信号源和示波器不是理想型 ,而是和现实中一样带有内部阻抗的元件,见下图,在这个回路中,示波器测量的电压还会是5V吗?
当然还是啊,0.5欧与1兆欧相比太小了。那下面呢?
信号源的5V电压,分别分给了r2和R3两个电阻,压降分别为2.5V,示波器的数值就是2.5V,而不是最开始的5V了。
由此可见,现实中,示波器和信号源都不是理想型,示波器的内部阻抗会分掉一部分信号源的压降,细想竟然有点可怕,我们平时使用示波器的时候,测量出来的波形,到底是不是实际的波形呢?究竟和实际波形相差多少呢?
首先来看一下示波器的等效模型,相当于一个1M欧和一个20pF电容的并联,其中1M欧是示波器的规范,对于一些低级示波器(测量频率小于20MHz)来说,内部电阻一般为1M欧,而相对高级的示波器(测量频率在20MHz以上)来说,内部电阻一般为1M欧/75欧姆/50欧姆可调。
电路等效模型如下:
根据戴维南定理,回路再次等效为:
其中Re电阻为Rs与Rl的并联,所以Re的阻值小于Rs与Rl的较小值,而Rs本来就很小,所以回路中,低频时,R2的分压占绝大部分,而高频时,需要将20pF的电容考虑进去。参考文章开头例子,Re与1M欧的大小关系对实验结果影响很大。
既然示波器分掉了信号源的一部分电压,为了测量结果准确,必须在内部对测量结果进行补偿,但是信号源内阻千千万,那我们应该在以什么为基准进行补偿呢?
--哪里都有的50欧--
高频电信号在传输时可以看做电磁波的形式,而在实际电路中,电磁波会根据实际情况的不同产生不同大小的反射,进而产生不需要的杂波,影响正常信号。所以,出现了同轴线等方法来避免信号传输中的反射的问题。
但是,信号传输到负载时,还是会发生反射。这样怎么办呢?
阻抗匹配。
特性阻抗的不同大小会影响信号的传输功率、损耗、信号串扰等问题,同时考虑到制造成本,所以综合各种因素,选择了一个最佳的平衡点:50欧姆。所以很多高频信号传输都会采用50欧姆特性阻抗系统,以至于一度成为一种最广泛的阻抗标准。
这就是50欧姆的由来。
所以,50欧姆阻抗系统作为标准,推广开来,而示波器的厂家也会按照这个标准进行示波器的补偿和调校,保证信号的真实性。
但是,为什么示波器要使用这个50欧姆电阻呢?
未完待续~