lego QR分解大致上表达是这样:
[ a_1 a_2 a_3 ... a_n ] = [ q_1 q_2 ... q_n] * R, 其中a_i 是原始矩阵的列,q_i是正交规范向量,R是什么?
我这样理解:
1、a_i 是q_i 的线性组合;
2、所以,a_i 可以表达为a_i投影到q_i 上的不同不同向量的组合;
3、例如:a3 = q1* q1T a3 + q2* q2T a3 + q3* q3T a3;
4、注意,比如,这里的q2*q2T a3,这是a3到q2的投影吗?看上去有点不像?其实是,因为q2T q2 = 1,这本应该出现的分母被忽略了;
5、把第3步“ * ”后面的部分提取出来就是R。

  • lego 回复了此帖

    以下是一些第三章的题目。不知道是不是我的错觉,这一章“有意思”的题目并没有前面两章多,比较多计算题。

    • PS 3.1:
      T11:注意一下(a)、(b)的区别(感觉这种找matrix space的基的题目就是在找信息
      T24:C(AB) \in C(A),经常用到的结论,🐎一下

    • PS 3.2:
      T59:N(AT A)=N(A),也是常用结论,🐎一下

    • PS 3.4:
      T28:还是找matrix space的基的问题,这里需要多少信息呢

    • PS 3.5:
      Page 187讲了CR分解!可能第一次看的时候没把它当回事( ・᷄ὢ・᷅ )
      T10:random matrix的rank最有可能是多少?可能需要一些概率相关的知识……
      T20(b):用A的ER分解来找左零空间的基,这个操作🐎一下

      lego N(AT A) = N(A)讲对称矩阵的时候用来证明A可逆iff AT A 可逆?

      • lego 回复了此帖

        Bintou 是的,所以R里面第i列是记录了a_i在q_1到q_i里的分量,这点在R是个triangle也能体现出来

        Bintou 任何矩阵都满足N(AT A)=N(A)吧。如果是对称矩阵的话,A的四大基本子空间和AT 的四大基本子空间相同,不用这个结论应该也能说明A可逆 iff AT 可逆 iff AT A可逆

        更新第四章:

        • P.S 4.1:
          T7:Fredholm's Alternative,想表达的是如果b不在C(A)中,那么在N(AT )中总能找到一个与b内积为1的向量吗

          T9:N(AT A)=N(A)的证明

        • P.S 4.2:
          page210:The left nullspace is important in projections,感觉这句话挺内涵,🐎一下

          T33:Kalman filter

          T34:如果P1、P2是投影矩阵,P1P2也是投影矩阵iff P1P2=P2P1

        • P.S 4.3:
          T21:关于e、p、x\hat的空间关系

        • P.S 4.4:
          T6:正交矩阵的乘积也是正交矩阵

          T19:分解R=DU,可以证明AT A的pivots是R的对角线上元素的平方(Gram-schmidt on A corresponds to elimination on AT A),补充一个page513的fast orthogonalization,LU分解和QR分解的关系可能比我们想象中的要密切

          T25:给出了2x2下的QR分解的公式,前提是det>0

          T30:给出了一组wavelet但是没怎么深挖

          T34:之前讲reflection的时候我讲错了!!Q=I-2uuT ,u不是mirror,u是垂直于mirror( ・᷄ὢ・᷅ )

        越到期末人越浪……跑来更新第五章了嘿嘿嘿。虽然第五章里的很多题目都已经讨论过了
        这一章提到了非常多类似于tridiagonal或者对角线上all-zero的矩阵以及它们的determinant的规律,主要集中在det的通项、周期性还有与fibonacci类似的性质吧。

        • P.S 5.1:
          T7: 给出了reflection matrix的其他形式

          T14:GS老先生偏爱的tridiagonal里的-1,2,-1 matrix,可以推det的通项

          T18:Vandermonde determinant,推通项的过程中要用到det的蛮多性质,挺有意思的

        • P.S 5.2:
          T15:tridiagonal 1,1,1 matrix,有周期性的determinant

          T16:determinant有fibonacci性质的1,1,-1 tridiagonal matrix

          T17:det有类似fibonacci性质的-1,2,-1 tridiagonal

          T22:det有类似fibonacci性质的1,3,1 tridiagonal(131啊嘿嘿嘿

        • P.S 5.3:
          page279 cross product的定义

          T20:Hadamard矩阵,传说这是一个很厉害的矩阵(逃

          矩阵乘法等于Rank One矩阵的Summation, 如图所示:

          lego 这位同学怎么说的?“不容易发现”。。。 GS老先生怎么说的?“Ifeel like a magician”...
          如果我们把上图的a、d设为1,b设为0,c是某个负数比如-c,则看出,这次矩阵乘法只是一次Elimination。

          再联系96页43题(Schur complement),这种消元的block操作。

          结论,可能我们不容易发现,但我们不应该感觉到陌生。

          Bintou 尴尬 我看成什么矩阵在对称的情况下必然有逆了……那应该是对称正交??

            lego 一个特例,看GSLA的P312. Strang老先生的书内涵太丰富。

            更新第六章:

            • P.S 6.1:
              T14:2x2 rotation matrix的eigenvalue通项

              T34:这个permutation的eigenvector matrix是4-point discrete Fourier transform matrix嘿嘿嘿

            • P.S 6.2:
              T28:对角化的唯一性

              T30、31:Cayley-Hamilton Theorem,将矩阵的多项式和eigenvalue的多项式联系在一起

              T34:rotation matrix的power

              T35:对角化的rank-one形式,这题还补充了个在eigenvector matrix X-1 的行空间的left eigenvectors

            • P.S 6.4:
              page339:给出了2x2对称矩阵的eigenvector的公式嘿嘿嘿

              page340:谱定理的rank-one decomposition

              page343:之前讲过的-1,2,-1矩阵和-1,1,-1矩阵的eigenvector matrix是sine和cosine matrix(虽然我也没懂这个为什么叫sine和cosine matrix,还有那个“discrete sine/cosine transform"

              T36:对称矩阵的congruent

            • P.S 6.5:
              page356:Hilbert matirx

              T35:postive definite的congruent也是positive definite:the crucial matrix in engineering

            我感觉线代考完之前我能更到第八章了嘻嘻嘻


              lego 厉害了!建议写某些有趣的题解出来分享。比列举很多题意义要大。不过,有空再说吧。

              • lego 回复了此帖

                Bintou 我觉得这些都很有趣啊,深挖下去内涵绝对不少的吧。现在只是在做挖坑的工作,填坑的话…考试周过了再说吧(说不定考试周过完我就被退学了[Tremble]

                6 天 后

                关于SVD的一点补充。
                如下图(GSLA p.371),我们知道V是AT A 的eigenvectors。

                接着,我们根据A vi = ui求出U,并证明U中所有向量正交。这是课本接下来的内容。

                问题是,你们知道U原来是A AT 的Eigenvectors吗?做法其实是完全一样的。只需要:
                A AT = (U \Sigma V)(U \Sigma V)T = ... = U \Sigma2 UT
                这个点课本没提,MIT 18.065复习的时候说的。为此补充一下。

                再加一点补充,其实求V的时候也不会去算AT A,因为计算量太大,不高效。至于怎么算.....

                © 2018-2025 0xFFFF