전체 글 14

잡플랫 현대자동차 채용 무료 인성검사 체험기 & 대기업 준비 팁

안녕하세요! 저는 이번 2021년도 하반기 현대자동차 취업 준비생입니다ㅎㅎ 서류를 통과한 후 면접과 hmat 인성검사를 앞두고 있었는데, [잡플랫] 사이트에서 무료 인성검사 이벤트를 진행했어요!! 선착순 20명 정도? 모집한다고 해서 빠르게 신청하고, 다음날 쿠폰을 받아서 해보았습니당 잡플랫 인성검사는 실제 인적성 출제기관인 행동과학연구소 파트너 경력 13년의 이완 인적성팀과 중앙심리교육연구소가 공동 개발한 채용 인성검사 솔루션이라고 합니다. 저처럼 인성검사를 한 번도 해본적 없으신 분들은 이렇게 인성검사를 실전처럼 사전에 경험해보실 수 있는 장점이 있습니다!!! (첫 취준이다보니 모든게 불안하더라구요ㅜㅜ) 결과를 확인하고 나서 제가 어떤 부분을 좀 더 신경써서 답변해야 겠다는 것을 생각할 수 있었어요ㅎ..

취업준비 2021.10.28

[Linear Algebra] #13 Eigenbases, Diagonalization, Quadratic forms

1. Eigenbases Linear transformation, y= Ax 에서, eigenvectors 들은 $R^n$ space 를 위한 bases 를 형성할 수도 있고 안할 수도 있으나, 일단 형성한다고 가정하자. Assumption. A : n x n → x : n x 1 eigenvectors 들이 n개가 있다고 가정하자. → non-defective matrix / diagonalizable A $x$ = $c_{1} x_{1}$ + $c_{2} x_{2}$ + ··· + $c_{n} x_{n}$ → eigenvectors 들은 무조건 linearly independent. 대입 → $y$ = $Ax$ = $A$( $c_{1} x_{1}$ + $c_{2} x_{2}$ + · · · + $c_..

Linear Algebra 2021.02.03

[Linear Algebra] #12 Orthogonal Matrices

1. vector 의 곱 정의와 Orthogonality (1) vector 곱 정의 · product ㉮ Inner product : a · b = c (dot product, scalar product) ㉯ Outer product : a x b = c (cross product, vector product) · 표현법 ㉮ Inner product : c = a · b = $A^{T}b$ = |a||b|cos $\theta$ → 같은 방향일 때 힘이 최대 ㉯ Outer product : c = a x b = |a||b|sin $\theta$ $u$ ($u$ : a x b 방향의 unit vector) → 직각일 때 힘이 최대 · 의미 (Inner product) : a · b = |a||b|cos $..

Linear Algebra 2021.02.03

[Linear Algebra] #11 Symmetric, Skew-symmetric and Orthogonal matrices

1. Symmetric, Skew-symmetric and Orthogonal matrices Def. Symmetric, Skew-symmetric and Orthogonal matrices A real square matrix $A$ = [$a_jk$] is called symmetric : $A^T$ = $A$ skew-symmetric : $A^T$ = -$A$ orthogonal : $A^T$ = $A^{-1}$ → $AA^T$ = $I$ cf) skew-symmetric : 대각선 성분들이 모두 0인 특성을 가짐 cf) 모든 matrix 는 R + S 로 나타낼 수 있다. R : symmetric matrix → $1/2$($A$ + $A^T$) S : skew-symmetric matrix ..

Linear Algebra 2021.02.03

[Linear Algebra] #10 Matrix Eigenvalue Problems

$Ax = \lambda x$ where $x$ : non-zero vector → eigenvector of A belongs to $\lambda$ $\lambda$ : scalar → eigenvalue of A 1. eigenvalue & eigenvector 유도 Problems. $Ax = \lambda x$ $A$ : 주어진 정보 $\lambda$ : 찾아야할 값 $x$ : 찾아야할 벡터 (non-zero vector) Derivation. step 1. eigenvalue 찾기 $Ax = \lambda x$ → $Ax$ = $\lambda$ $I x$ → [ $A$ - $\lambda$ ] $x$ = 0 → $A'x$ = 0 where $A'$ = $A$ - $\lambda$ 그러므로, |..

Linear Algebra 2021.02.02

[Linear Algebra] #09 Inverse of matrix Gauss-Jordan Elimination

1. Determinant + GE* (기존의 GE와 다름) ① Row 들 간의 자리 바꿈 ② 한 Row x 상수(c) ③ 임의의 Row x 상수 한 것을 다른 Row 에 더하거나 빼도 D 는 변하지 않는다. cf) Upper or Lower triangular matrix 로 만들면, Diagonal entries 들의 곱이 Determinant 가 된다. 2. Inverse of matrix Gauss-Jordan Elimination Theorem 2」 Inverse of matrix by Determinants step 1. cofactor 계산 step 2. Det(A) 구하기 step 3. $A^{-1}$ 구성 3. Unusual properties of matrix multiplication..

Linear Algebra 2021.02.02

[Linear Algebra] #08 Solution of linear systems

Theorem 1」 Fundamental Theorem for linear systems a) Existence rank($A$) = rank($\widetilde A$) ↔ 근이 존재 b) Uniqueness (근이 1개) rank($A$) = rank($\widetilde A$) = n (#unknown) c) Infinitely many solution (근이 ∞) rank($A$) = rank($\widetilde A$) < n (#unknown) Theorem 2」 Homogeneous linear system Ax = 0 를 만족시키는 linear system · 만약, Non-trivial solution 이 존재하나다면 rank(A) < n 인 조건이 필요 → 의미 : ① rank(A) <..

Linear Algebra 2021.02.02

[Linear Algebra] #06 Vector space

1. Vector space Theorem」 Vector space $R^n$ n개의 실수 성분으로 표현되는 모든 vector 들로 이루어진 n차원 공간을 vector space 라고 한다. Theorem」 Row space and Column space Matrix A의 row space 의 차원과 column space 의 차원은 서로 같고 이는 rank(A) 와 같다. ① rank(A) = dim( col(A) ) = dim( row(A) ) ② rank(A) + Nullity(A) = n(#변수) cf) Nullity(A) = dim( Null(A) ) Note」 row(A), col(A), Nullity(A) · row space : A의 row vector 들로 linear combinatio..

Linear Algebra 2021.02.02

[Linear Algebra] #05 Linear Independence, Rank of a Matrix, vector space

1. Linear Independence & Dependence · linear dependent ① Rank ↓ ② GE 줄 삭제 2. Rank of a matrix Def. Rank of a matrix Matrix A 의 Rank 는 Linearly independent 한 최대 A의 row vector 들의 갯수를 의미한다. cf) 만약 Rank(A) = 0 이면 A는 반드시 zero-matrix 가 된다. Rank(A) = 0 ↔ A = 0 (필요충분 조건) *왜 Linearly independent 가 중요한가? 의미) truely essential set. 근의 갯수와 밀접한 관계 → rank 에 영향 3. Row equavalent matrices Theorem」 Row equavalent..

Linear Algebra 2021.02.01