18.065 Lecture 2

课程主页:https://ocw.mit.edu/courses/mathematics/18-065-matrix-methods-in-data-analysis-signal-processing-and-machine-learning-spring-2018/index.htm

这一讲的主题是Multiplying and Factoring Matrices 。

矩阵分解

考虑如下几种矩阵分解:

  1. $A: LU\to $高斯消元法
  2. $A:QR\to$Gram-Schmidt
  3. 对称矩阵$S:Q\Lambda Q^T=\left[
    \begin{matrix}
    q_1 &\ldots & q_n
    \end{matrix}
    \right]
    \left[
    \begin{matrix}
    \lambda_1 & & \\
    & \ddots & \\
    && \lambda_n
    \end{matrix}
    \right] \left[
    \begin{matrix}
    q_1^T\ \vdots \ q_n^T
    \end{matrix}
    \right],\lambda_i \in \mathbb R\to $对称矩阵的正交分解
  4. $A=X\Lambda X^{-1}\to $相似矩阵分解
  5. $A=U\Sigma V^T\to $SVD分解

这部分重点回顾对称矩阵的分解:

$A\in \mathbb R^{m\times n},\text{rank}(A)= r$的四个基本子空间

回顾线性代数中的优美结论:

以一个具体例子结束这讲:

那么

显然$x_1,x_2$线性无关,在这个例子中,我们有

习题

2

可以计算$ab^T$,并且

其中

类似的,我们有

其中

6

不难看出我们有

所以

本文标题:18.065 Lecture 2

文章作者:Doraemonzzz

发布时间:2019年05月27日 - 16:40:00

最后更新:2019年05月27日 - 16:40:18

原始链接:http://doraemonzzz.com/2019/05/27/18.065 Lecture 2/

许可协议: 署名-非商业性使用-禁止演绎 4.0 国际 转载请保留原文链接及作者。