lego 想听听你如何用几何直观理解QR分解。GSLA当中我看没有解释得很清楚。很多书都认为从Gram-Schmidt出发到QR分解是直接的。当然,我不能说不直接,只是可能从Gram-Schmidt到QR分解还有一个小小的gap?

有一种说法,QR分解记录了Gram-Schmidt的过程,我有点不认同(还是这句,我也不能说他不对)。相反,如果从Gram-Schmidt的结论出发得到QR分解更容易理解。我想先听听你的看法。

  • lego 回复了此帖

    lego 了解了,但25题想表达的应该是|A B| = |A||D|-|B||C| 当且仅当AC=CA时成立。也就是说这种算法必须
    |C D|
    当A、C至少为方阵才有讨论的余地。

      Cybsac 其实我没看懂那个|A||D- CA-1 B|=|AD-CB|是怎么来的…( ;´Д`) 能解释一下吗

        Bintou 我个人理解是,QR分解是一个很“一步一步”来的分解过程(也就是书上238页说的“Later q‘s are not involved)。直观上是我已经有了几个(一个)单位正交基,也就是我有了一个子空间,然后我需要找到下一个列向量垂直于这个子空间的那一部分分量,做法就是减去这个列向量在子空间内的投影…至于那个R的形式,其实我觉得说记录Gram-Schmidt过程好像也没错,我觉得R是在记录列向量在子空间中的分量。

          lego With product rules.

          |A||D- CA-1 B|=| A (D- CA-1 B) |=|AD - ACA-1 B|
          当AC=CA时 ACA-1 B = CAA-1 B = CB
          就得出上式了

          • lego 回复了此帖

            lego QR分解大致上表达是这样:
            [ a_1 a_2 a_3 ... a_n ] = [ q_1 q_2 ... q_n] * R, 其中a_i 是原始矩阵的列,q_i是正交规范向量,R是什么?
            我这样理解:
            1、a_i 是q_i 的线性组合;
            2、所以,a_i 可以表达为a_i投影到q_i 上的不同不同向量的组合;
            3、例如:a3 = q1* q1T a3 + q2* q2T a3 + q3* q3T a3;
            4、注意,比如,这里的q2*q2T a3,这是a3到q2的投影吗?看上去有点不像?其实是,因为q2T q2 = 1,这本应该出现的分母被忽略了;
            5、把第3步“ * ”后面的部分提取出来就是R。

            • lego 回复了此帖

              以下是一些第三章的题目。不知道是不是我的错觉,这一章“有意思”的题目并没有前面两章多,比较多计算题。

              • PS 3.1:
                T11:注意一下(a)、(b)的区别(感觉这种找matrix space的基的题目就是在找信息
                T24:C(AB) \in C(A),经常用到的结论,🐎一下

              • PS 3.2:
                T59:N(AT A)=N(A),也是常用结论,🐎一下

              • PS 3.4:
                T28:还是找matrix space的基的问题,这里需要多少信息呢

              • PS 3.5:
                Page 187讲了CR分解!可能第一次看的时候没把它当回事( ・᷄ὢ・᷅ )
                T10:random matrix的rank最有可能是多少?可能需要一些概率相关的知识……
                T20(b):用A的ER分解来找左零空间的基,这个操作🐎一下

                lego N(AT A) = N(A)讲对称矩阵的时候用来证明A可逆iff AT A 可逆?

                • lego 回复了此帖

                  Bintou 是的,所以R里面第i列是记录了a_i在q_1到q_i里的分量,这点在R是个triangle也能体现出来

                  Bintou 任何矩阵都满足N(AT A)=N(A)吧。如果是对称矩阵的话,A的四大基本子空间和AT 的四大基本子空间相同,不用这个结论应该也能说明A可逆 iff AT 可逆 iff AT A可逆

                  更新第四章:

                  • P.S 4.1:
                    T7:Fredholm's Alternative,想表达的是如果b不在C(A)中,那么在N(AT )中总能找到一个与b内积为1的向量吗

                    T9:N(AT A)=N(A)的证明

                  • P.S 4.2:
                    page210:The left nullspace is important in projections,感觉这句话挺内涵,🐎一下

                    T33:Kalman filter

                    T34:如果P1、P2是投影矩阵,P1P2也是投影矩阵iff P1P2=P2P1

                  • P.S 4.3:
                    T21:关于e、p、x\hat的空间关系

                  • P.S 4.4:
                    T6:正交矩阵的乘积也是正交矩阵

                    T19:分解R=DU,可以证明AT A的pivots是R的对角线上元素的平方(Gram-schmidt on A corresponds to elimination on AT A),补充一个page513的fast orthogonalization,LU分解和QR分解的关系可能比我们想象中的要密切

                    T25:给出了2x2下的QR分解的公式,前提是det>0

                    T30:给出了一组wavelet但是没怎么深挖

                    T34:之前讲reflection的时候我讲错了!!Q=I-2uuT ,u不是mirror,u是垂直于mirror( ・᷄ὢ・᷅ )

                  越到期末人越浪……跑来更新第五章了嘿嘿嘿。虽然第五章里的很多题目都已经讨论过了
                  这一章提到了非常多类似于tridiagonal或者对角线上all-zero的矩阵以及它们的determinant的规律,主要集中在det的通项、周期性还有与fibonacci类似的性质吧。

                  • P.S 5.1:
                    T7: 给出了reflection matrix的其他形式

                    T14:GS老先生偏爱的tridiagonal里的-1,2,-1 matrix,可以推det的通项

                    T18:Vandermonde determinant,推通项的过程中要用到det的蛮多性质,挺有意思的

                  • P.S 5.2:
                    T15:tridiagonal 1,1,1 matrix,有周期性的determinant

                    T16:determinant有fibonacci性质的1,1,-1 tridiagonal matrix

                    T17:det有类似fibonacci性质的-1,2,-1 tridiagonal

                    T22:det有类似fibonacci性质的1,3,1 tridiagonal(131啊嘿嘿嘿

                  • P.S 5.3:
                    page279 cross product的定义

                    T20:Hadamard矩阵,传说这是一个很厉害的矩阵(逃

                    矩阵乘法等于Rank One矩阵的Summation, 如图所示:

                    lego 这位同学怎么说的?“不容易发现”。。。 GS老先生怎么说的?“Ifeel like a magician”...
                    如果我们把上图的a、d设为1,b设为0,c是某个负数比如-c,则看出,这次矩阵乘法只是一次Elimination。

                    再联系96页43题(Schur complement),这种消元的block操作。

                    结论,可能我们不容易发现,但我们不应该感觉到陌生。

                    © 2018-2025 0xFFFF