MIT线性代数笔记-第26讲-对称矩阵及正定性

目录

  • 26.对称矩阵及正定性
    • 打赏

26.对称矩阵及正定性

  1. 实对称矩阵的特征值均为实数,并且一定存在一组两两正交的特征向量

    这对于单位矩阵显然成立

    证明特征值均为实数:

    ​    设一个对称矩阵 A A A,对于 A x ⃗ = λ x ⃗ A \vec{x} = \lambda \vec{x} Ax =λx ,依第 21 21 21讲的小技巧可知 A x ⃗ ‾ = λ ‾ x ⃗ ‾ A \overline{\vec{x}} = \overline{\lambda} \overline{\vec{x}} Ax =λx

    ​    左右一起转置可得 x ⃗ ‾ T A T = λ ‾ x ⃗ ‾ T \overline{\vec{x}}^T A^T = \overline{\lambda} \overline{\vec{x}}^T x TAT=λx T,利用对称性可得 x ⃗ ‾ T A = λ ‾ x ⃗ ‾ T \overline{\vec{x}}^T A = \overline{\lambda} \overline{\vec{x}}^T x TA=λx T,左右一起左乘 x ⃗ \vec{x} x 可得 x ⃗ ‾ T A x ⃗ = λ ‾ x ⃗ ‾ T x ⃗ \overline{\vec{x}}^T A \vec{x} = \overline{\lambda} \overline{\vec{x}}^T \vec{x} x TAx =λx Tx

    ​    而最初的等式左右一起右乘 x ⃗ ‾ T \overline{\vec{x}}^T x T可得 x ⃗ ‾ T A x ⃗ = λ x ⃗ ‾ T x ⃗ \overline{\vec{x}}^T A \vec{x} = \lambda \overline{\vec{x}}^T \vec{x} x TAx =λx Tx

    ​    所以 λ ‾ x ⃗ ‾ T x ⃗ = λ x ⃗ ‾ T x ⃗ \overline{\lambda} \overline{\vec{x}}^T \vec{x} = \lambda \overline{\vec{x}}^T \vec{x} λx Tx =λx Tx ,因而若 x ⃗ ‾ T x ⃗ ≠ 0 \overline{\vec{x}}^T \vec{x} \ne 0 x Tx =0,则 λ \lambda λ为实数

    ​    下证 x ⃗ ‾ T x ⃗ ≠ 0 \overline{\vec{x}}^T \vec{x} \ne 0 x Tx =0

    ​    对于任意复数 x = a + b i x = a + bi x=a+bi,有 x ‾ x = ( a − b i ) ( a + b i ) = a 2 + b 2 = ∣ x ∣ 2 \overline{x} x = (a - bi)(a + bi) = a^2 + b^2 = |x|^2 xx=(abi)(a+bi)=a2+b2=x2

    ​    所以 x ⃗ ‾ T x ⃗ = [ x 1 ‾ x 2 ‾ ⋯ x n ‾ ] [ x 1 x 2 ⋮ x n ] = ∣ x 1 ∣ 2 + ∣ x 2 ∣ 2 + ⋯ + ∣ x n ∣ 2 = x ⃗ 2 \overline{\vec{x}}^T \vec{x} = \begin{bmatrix} \overline{x_1} & \overline{x_2} & \cdots & \overline{x_n} \end{bmatrix} \begin{bmatrix} x_1 \\ x_2 \\ \vdots \\ x_n \end{bmatrix} = |x_1|^2 + |x_2|^2 + \cdots + |x_n|^2 = \vec{x}^2 x Tx =[x1x2xn] x1x2xn =x12+x22++xn2=x 2

    ​    又特征向量不可能是 0 ⃗ \vec{0} 0 ,所以 x ⃗ ‾ T x ⃗ > 0 \overline{\vec{x}}^T \vec{x} > 0 x Tx >0,因而 λ \lambda λ为实数

    证明一定存在一组两两正交的特征向量:

    暂时不会证明 \color{OrangeRed}暂时不会证明 暂时不会证明

    • 可以注意到证明中关键的条件是 A = A ‾ A = \overline{A} A=A,但是对于复矩阵,如果 A = A ‾ T A = \overline{A}^T A=AT,那么 x ⃗ ‾ T A = λ ‾ x ⃗ ‾ T \overline{\vec{x}}^T A = \overline{\lambda} \overline{\vec{x}}^T x TA=λx T仍成立,特征值仍一定为实数且一定存在一组两两正交的特征向量,这样的复矩阵称为共轭对称矩阵
  2. 当挑选出的那些特征向量为一组标准正交基时,对称矩阵 A = S Λ S − 1 = Q Λ Q − 1 = Q Λ Q T A = S \Lambda S^{-1} = Q \Lambda Q^{-1} = Q \Lambda Q^T A=SΛS1=QΛQ1=QΛQT

    这种分解展示了对称矩阵的对称性,即 ( Q Λ Q T ) T = ( Q T ) T Λ T Q T = Q Λ Q T (Q \Lambda Q^T)^T = (Q^T)^T \Lambda^T Q^T = Q \Lambda Q^T (QΛQT)T=(QT)TΛTQT=QΛQT,它在数学上称为谱定理,在力学上称为主轴定理

    进一步推导有

    A = Q Λ Q T = [ ∣ ⋯ ∣ q ⃗ 1 ⋯ q ⃗ n ∣ ⋯ ∣ ] [ λ 1 ⋯ 0 ⋮ ⋱ ⋮ 0 ⋯ λ n ] [ − q ⃗ 1 T − ⋯ ⋯ ⋯ − q ⃗ n T − ] = λ 1 q ⃗ 1 q ⃗ 1 T + λ 2 q ⃗ 2 q ⃗ 2 T + ⋯ + λ n q ⃗ n q ⃗ n T A = Q \Lambda Q^T = \begin{bmatrix} | & \cdots & | \\ \vec{q}_1 & \cdots & \vec{q}_n \\ | & \cdots & | \end{bmatrix} \begin{bmatrix} \lambda_1 & \cdots & 0 \\ \vdots & \ddots & \vdots \\ 0 & \cdots & \lambda_n \end{bmatrix} \begin{bmatrix} - & \vec{q}_1^{T} & - \\ \cdots & \cdots & \cdots \\ - & \vec{q}_n^{T} & - \end{bmatrix} = \lambda_1 \vec{q}_1 \vec{q}_1^T + \lambda_2 \vec{q}_2 \vec{q}_2^T + \cdots + \lambda_n \vec{q}_n \vec{q}_n^T A=QΛQT= q 1q n λ100λn q 1Tq nT =λ1q 1q 1T+λ2q 2q 2T++λnq nq nT

    因为 q ⃗ 1 , q ⃗ 2 , ⋯ , q ⃗ n \vec{q}_1 , \vec{q}_2 , \cdots , \vec{q}_n q 1,q 2,,q n为单位向量,所以 q ⃗ 1 T q ⃗ 1 = ⋯ = q ⃗ n T q ⃗ n = 1 \vec{q}_1^T \vec{q}_1 = \cdots = \vec{q}_n^T \vec{q}_n = 1 q 1Tq 1==q nTq n=1,所以 q ⃗ 1 q ⃗ 1 T = q ⃗ 1 q ⃗ 1 T q ⃗ 1 T q ⃗ 1 , ⋯ , q ⃗ n q ⃗ n T = q ⃗ n q ⃗ n T q ⃗ n T q ⃗ n \vec{q}_1 \vec{q}_1^T = \dfrac{\vec{q}_1 \vec{q}_1^T}{\vec{q}_1^T \vec{q}_1} , \cdots , \vec{q}_n \vec{q}_n^T = \dfrac{\vec{q}_n \vec{q}_n^T}{\vec{q}_n^T \vec{q}_n} q 1q 1T=q 1Tq 1q 1q 1T,,q nq nT=q nTq nq nq nT,这样就把 q ⃗ 1 q ⃗ 1 T , ⋯ , q ⃗ n q ⃗ n T \vec{q}_1 \vec{q}_1^T , \cdots , \vec{q}_n \vec{q}_n^T q 1q 1T,,q nq nT看成了 q ⃗ 1 , q ⃗ 2 , ⋯ , q ⃗ n \vec{q}_1 , \vec{q}_2 , \cdots , \vec{q}_n q 1,q 2,,q n的投影矩阵,因而对称矩阵可以视为一些向量的投影矩阵的组合,这是人们理解谱定理的另一种办法

  3. 对称矩阵的主元中正负数个数分别与其特征值中正负数的个数一致

    证明: 暂时不会证明 \color{OrangeRed}暂时不会证明 暂时不会证明

    由此可以得到一种新的计算特征值的办法,对于对称矩阵 A A A,可以得到 A − n I A - nI AnI的主元中正负数分别有多少,从而分别知道 A A A有多少个特征值大于、小于 n n n,这样就可以把特征值逼到一定的精度内

  4. 正定矩阵

    正定矩阵:一个实对称矩阵 M M M,对于任意实非零向量 x ⃗ \vec{x} x 均满足 x ⃗ T M x ⃗ > 0 \vec{x}^T M \vec{x} > 0 x TMx >0,那么 M M M为正定矩阵

    • 正定矩阵的特征值和主元均为正实数

      证明: 见第 28 28 28

      • 正定矩阵的行列式也为正实数
    • 正定矩阵的所有子行列式均为正实数

      其中子行列式表示以该正定矩阵的第一个元素为第一个元素的子方阵的行列式

      证明: 暂时不会证明 \color{OrangeRed}暂时不会证明 暂时不会证明


打赏

制作不易,若有帮助,欢迎打赏!
赞赏码

支付宝付款码

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/208159.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

作业12.8

1. 使用手动连接,将登录框中的取消按钮使用qt4版本的连接到自定义的槽函数中,在自定义的槽函数中调用关闭函数。将登录按钮使用qt5版本的连接到自定义的槽函数中,在槽函数中判断ui界面上输入的账号是否为"admin",密码是…

Matlab simulink PLL学习笔记

本文学习内容:【官方】2022小迈步之 MATLAB助力芯片设计系列(一):电路仿真与模数混合设计基础_哔哩哔哩_bilibili 时域模型 testbench搭建 菜单栏点击simulink 创建空白模型 点击库浏览器 在PLL里面选择一种架构拖拽到画布。 如…

一文理解什么是交叉熵损失函数以及它的作用

今天看一个在深度学习中很枯燥但很重要的概念——交叉熵损失函数。 作为一种损失函数,它的重要作用便是可以将“预测值”和“真实值(标签)”进行对比,从而输出 loss 值,直到 loss 值收敛,可以认为神经网络模型训练完成。 那么这…

【Java用法】Hutool树结构工具-TreeUtil快速构建树形结构的两种方式 + 数据排序

Hutool树结构工具-TreeUtil快速构建树形结构的两种方式 数据排序 一、业务场景二、Hutool官网树结构工具2.1 介绍2.2 使用2.2.1 定义结构2.2.2 构建Tree2.2.3 自定义字段名 2.3 说明 三、具体的使用场景3.1 实现的效果3.2 业务代码3.3 实现自定义字段的排序 四、踩过的坑4.1 坑…

策略产品经理常用的ChatGPT通用提示词模板

产品策略:请帮助我制定一个策略产品的产品策略。 市场调研:如何进行策略产品的市场调研? 竞争分析:如何进行策略产品的竞争分析? 用户画像:如何构建策略产品的用户画像? 产品定位&#xff1…

交换排序(冒泡排序)(快速排序(1))

目录 1.交换排序 (1)冒泡排序 (2)快速排序 1.交换排序 基本思想:所谓交换,就是根据序列中两个记录键值的比较结果来对换这两个记录在序列中的位置,交换排序的特点是:将键值较大的…

ambari hive on Tez引擎一直卡住

hive on tez使用./bin/hive启动后一直卡住,无法进入命令行 使用TEZ作为Hive默认执行引擎时,需要在调用Hive CLI的时候启动YARN应用,预分配资源,这需要花一些时间,而使用MapReduce作为执行引擎时是在执行语句的时候才会…

iPaaS架构深入探讨

在数字化时代全面来临之际,企业正面临着前所未有的挑战与机遇。技术的迅猛发展与数字化转型正在彻底颠覆各行各业的格局,不断推动着企业迈向新的前程。然而,这一数字化时代亦衍生出一系列复杂而深奥的难题:各异系统之间数据孤岛、…

基于SuperMap iObjects Java生成地图瓦片

作者:dongyx 前言 在GIS领域,地图瓦片技术作为GIS领域的关键技术,是提高地图服务性能的关键手段之一。通过预先生成地图的瓦片数据,可以显著提升用户访问地图时的响应速度和体验。SuperMap iObjects for Java作为一款强大的GIS开…

Docker, Docker-compose部署Sonarqube

参考文档 镜像地址: https://hub.docker.com/_/sonarqube/tags Docker部署文档地址 Installing from Docker | SonarQube Docs Docker-compose文档部署地址: Installing from Docker | SonarQube Docs 部署镜像 2.1 docker部署 # 宿主机执行 $. vi /etc/sysctl.conf…

Java注解详解

概述 注解是对程序代码进行标注和解释的一种方式。在Java中,注解提供了一种元数据形式,能够在程序中嵌入有关程序的信息,以便进行进一步的处理。注解通过使用符号来声明,如Override、Deprecated等。 注解和注释的区别 注释&…

Unity中Batching优化的GPU实例化(4)

文章目录 前言一、构建需要实例化的额外数据二、在顶点着色器,将实例化 ID 从 appdata 存入 v2f 传给片元着色器三、在片断着色器中访问具体的实例化变量三、使用代码修改Shader材质属性,实现GPU实例化后不同对象颜色不同的效果1、在C#测试脚本生成小板凳…

ReactJs笔记摘录

前言 以前2018年搞过一段时间react antd开发&#xff0c;兜兜转转又回到react世界。 TODO中 Hook函数 JSX语法 根元素与斜杠 注意局部的jsx片段也要加根元素: return (<div>{items.map((item) > (// 此处只能有一个根元素!!!<>...<div className&quo…

要求CHATGPT高质量回答的艺术:提示工程技术的完整指南—第 23 章:命名实体识别提示

要求CHATGPT高质量回答的艺术&#xff1a;提示工程技术的完整指南—第 23 章&#xff1a;命名实体识别提示 命名实体识别&#xff08;NER&#xff09;是一种允许模型对文本中的命名实体&#xff08;如人物、组织、地点和日期&#xff09;进行识别和分类的技术。 要在 ChatGPT…

微前端介绍

目录 微前端概念 微前端特性 场景演示 微前端方案 iframe 方案 qiankun 方案 micro-app 方案 EMP 方案 无界微前端 方案 无界方案 成本低 速度快 原生隔离 功能强大 总结 前言&#xff1a;微前端已经是一个非常成熟的领域了&#xff0c;但开发者不管采用哪个现…

Leetcode—290.单词规律【简单】

2023每日刷题&#xff08;五十一&#xff09; Leetcode—290.单词规律 实现代码 class Solution { public:bool wordPattern(string pattern, string s) {unordered_map<char, string> m1;unordered_map<string, char> m2;stringstream stro(s);string tmp;for(a…

(env: Windows,mp,1.06.2308310; lib: 3.2.4) uniapp微信小程序

应公司需求&#xff0c;在特定情况下需要修改ip 在开发过程中出现的小插曲 1、第一种情况&#xff1a;重复声明 2、第二种情况&#xff1a; 应官方要求&#xff0c;需要跳转的 tabBar 页面的路径&#xff08;需在 pages.json 的 tabBar 字段定义的页面&#xff09;&#xff0…

React中使用TypeScript代替prop-types

原文链接 公众号-React中使用TypeScript代替prop-types 个人公众号&#xff0c;呜呜呜&#xff0c;求各位大佬们关注下&#xff0c;本人的公众号主要写React 跟NodeJs的 ​关于prop-types 对于部分的同学&#xff0c;不大了解为什么我们的代码里面要用到prop-types这个库&a…

ArkTS快速入门

一、概述 ArkTS是鸿蒙生态的应用开发语言。它在保持TypeScript&#xff08;简称TS&#xff09;基本语法风格的基础上&#xff0c;对TS的动态类型特性施加更严格的约束&#xff0c;引入静态类型。同时&#xff0c;提供了声明式UI、状态管理等相应的能力&#xff0c;让开发者可以…

深度学习基础回顾

深度学习基础 浅层网络 VS 深层网络深度学习常用的激活函数Sigmoid 函数ReLU 函数Softplus 函数tanh函数 归纳偏置CNN适用数据归纳偏置 RNN适用数据归纳偏置 浅层网络 VS 深层网络 浅层神经网络参数过多&#xff0c;导致模型的复杂度和计算量很高&#xff0c;难以训练。而深层…