Linear Algebra 13

[Linear Algebra] #13 Eigenbases, Diagonalization, Quadratic forms

1. Eigenbases Linear transformation, y= Ax 에서, eigenvectors 들은 $R^n$ space 를 위한 bases 를 형성할 수도 있고 안할 수도 있으나, 일단 형성한다고 가정하자. Assumption. A : n x n → x : n x 1 eigenvectors 들이 n개가 있다고 가정하자. → non-defective matrix / diagonalizable A $x$ = $c_{1} x_{1}$ + $c_{2} x_{2}$ + ··· + $c_{n} x_{n}$ → eigenvectors 들은 무조건 linearly independent. 대입 → $y$ = $Ax$ = $A$( $c_{1} x_{1}$ + $c_{2} x_{2}$ + · · · + $c_..

Linear Algebra 2021.02.03

[Linear Algebra] #12 Orthogonal Matrices

1. vector 의 곱 정의와 Orthogonality (1) vector 곱 정의 · product ㉮ Inner product : a · b = c (dot product, scalar product) ㉯ Outer product : a x b = c (cross product, vector product) · 표현법 ㉮ Inner product : c = a · b = $A^{T}b$ = |a||b|cos $\theta$ → 같은 방향일 때 힘이 최대 ㉯ Outer product : c = a x b = |a||b|sin $\theta$ $u$ ($u$ : a x b 방향의 unit vector) → 직각일 때 힘이 최대 · 의미 (Inner product) : a · b = |a||b|cos $..

Linear Algebra 2021.02.03

[Linear Algebra] #11 Symmetric, Skew-symmetric and Orthogonal matrices

1. Symmetric, Skew-symmetric and Orthogonal matrices Def. Symmetric, Skew-symmetric and Orthogonal matrices A real square matrix $A$ = [$a_jk$] is called symmetric : $A^T$ = $A$ skew-symmetric : $A^T$ = -$A$ orthogonal : $A^T$ = $A^{-1}$ → $AA^T$ = $I$ cf) skew-symmetric : 대각선 성분들이 모두 0인 특성을 가짐 cf) 모든 matrix 는 R + S 로 나타낼 수 있다. R : symmetric matrix → $1/2$($A$ + $A^T$) S : skew-symmetric matrix ..

Linear Algebra 2021.02.03

[Linear Algebra] #10 Matrix Eigenvalue Problems

$Ax = \lambda x$ where $x$ : non-zero vector → eigenvector of A belongs to $\lambda$ $\lambda$ : scalar → eigenvalue of A 1. eigenvalue & eigenvector 유도 Problems. $Ax = \lambda x$ $A$ : 주어진 정보 $\lambda$ : 찾아야할 값 $x$ : 찾아야할 벡터 (non-zero vector) Derivation. step 1. eigenvalue 찾기 $Ax = \lambda x$ → $Ax$ = $\lambda$ $I x$ → [ $A$ - $\lambda$ ] $x$ = 0 → $A'x$ = 0 where $A'$ = $A$ - $\lambda$ 그러므로, |..

Linear Algebra 2021.02.02

[Linear Algebra] #09 Inverse of matrix Gauss-Jordan Elimination

1. Determinant + GE* (기존의 GE와 다름) ① Row 들 간의 자리 바꿈 ② 한 Row x 상수(c) ③ 임의의 Row x 상수 한 것을 다른 Row 에 더하거나 빼도 D 는 변하지 않는다. cf) Upper or Lower triangular matrix 로 만들면, Diagonal entries 들의 곱이 Determinant 가 된다. 2. Inverse of matrix Gauss-Jordan Elimination Theorem 2」 Inverse of matrix by Determinants step 1. cofactor 계산 step 2. Det(A) 구하기 step 3. $A^{-1}$ 구성 3. Unusual properties of matrix multiplication..

Linear Algebra 2021.02.02

[Linear Algebra] #08 Solution of linear systems

Theorem 1」 Fundamental Theorem for linear systems a) Existence rank($A$) = rank($\widetilde A$) ↔ 근이 존재 b) Uniqueness (근이 1개) rank($A$) = rank($\widetilde A$) = n (#unknown) c) Infinitely many solution (근이 ∞) rank($A$) = rank($\widetilde A$) < n (#unknown) Theorem 2」 Homogeneous linear system Ax = 0 를 만족시키는 linear system · 만약, Non-trivial solution 이 존재하나다면 rank(A) < n 인 조건이 필요 → 의미 : ① rank(A) <..

Linear Algebra 2021.02.02

[Linear Algebra] #06 Vector space

1. Vector space Theorem」 Vector space $R^n$ n개의 실수 성분으로 표현되는 모든 vector 들로 이루어진 n차원 공간을 vector space 라고 한다. Theorem」 Row space and Column space Matrix A의 row space 의 차원과 column space 의 차원은 서로 같고 이는 rank(A) 와 같다. ① rank(A) = dim( col(A) ) = dim( row(A) ) ② rank(A) + Nullity(A) = n(#변수) cf) Nullity(A) = dim( Null(A) ) Note」 row(A), col(A), Nullity(A) · row space : A의 row vector 들로 linear combinatio..

Linear Algebra 2021.02.02

[Linear Algebra] #05 Linear Independence, Rank of a Matrix, vector space

1. Linear Independence & Dependence · linear dependent ① Rank ↓ ② GE 줄 삭제 2. Rank of a matrix Def. Rank of a matrix Matrix A 의 Rank 는 Linearly independent 한 최대 A의 row vector 들의 갯수를 의미한다. cf) 만약 Rank(A) = 0 이면 A는 반드시 zero-matrix 가 된다. Rank(A) = 0 ↔ A = 0 (필요충분 조건) *왜 Linearly independent 가 중요한가? 의미) truely essential set. 근의 갯수와 밀접한 관계 → rank 에 영향 3. Row equavalent matrices Theorem」 Row equavalent..

Linear Algebra 2021.02.01

[Linear Algebra] #04 Inverse Matrix by Gauss-Jordan Elimination

1. Gauss-Jordan Elimination [ $A$ | $I$ ] → [ $I$ | $A^{-1}$b] 2. Elementary matrices and a method for finding $A^{-1}$ Def. Matrices A and B are said to be row-equavalent if either (here each) can be obtained from the other by a squence of elementary row operations. $\widetilde A$ = [ $A$ | $I$ ] → ··· → [ $I$ | $A^{-1}$b] ↘ row-equavalent ! Def. A matrix E is called an elementary matrix if it ..

Linear Algebra 2021.02.01