[선형대수학 #3] 고유값과 고유벡터 (eigenvalue & eigenvector)

수학 이야기 2013. 10. 16. 14:35

선형대수학에서 고유값(eigenvalue)과 고유벡터(eigenvector)가 중요하다고 하는데 왜 그런 것인지 개인적으로도 참 궁금합니다. 고유값, 고유벡터에 대한 수학적 정의 말고 이런 것들이 왜 나왔고 그 본질이 무엇인지에 대한 직관이 있으면 좋을텐데요..


아직은 딱히 이것 때문이다라고 결론지을 수는 없지만 고유값, 고유벡터 그 자체의 활용보다는 SVD(특이값분해), Pseudo-Inverse, 선형연립방정식의 풀이, PCA(주성분분석) 등의 주요 응용이 eigenvalue, eigenvector를 그 밑바탕에 깔고 있기 때문은 아닌가 생각하고 있습니다.


이 글에서는 먼저 고유값, 고유벡터 자체에 대한 개념만 살펴보고 SVD, 선형연립방정식, PCA 등에 대해서는 별도 글로 자세하게 다룰 예정입니다.



1. 고유값, 고유벡터란?


고유값(eigenvalue), 고유벡터(eigenvector)에 대한 수학적 정의는 비교적 간단하다.


행렬 A를 선형변환으로 봤을 때, 선형변환 A에 의한 변환 결과가 자기 자신의 상수배가 되는 0이 아닌 벡터를 고유벡터(eigenvector)라 하고 이 상수배 값을 고유값(eigenvalue)라 한다.


즉, n x n 정방행렬(고유값, 고유벡터는 정방행렬에 대해서만 정의된다) A에 대해 Av = λv를 만족하는 0이 아닌 열벡터 v를 고유벡터, 상수 λ를 고유값이라 정의한다.


 ---(1)


--- (2)


좀더 정확한 용어로는 λ는 '행렬 A의 고유값', v는 '행렬 A의 λ에 대한 고유벡터'이다.


즉, 고유값과 고유벡터는 행렬에 따라 정의되는 값으로서 어떤 행렬은 이러한 고유값-고유벡터가 아에 존재하지 않을수도 있고 어떤 행렬은 하나만 존재하거나 또는 최대 n개까지 존재할 수 있다.



2. 기하학적 의미


기하학적으로 봤을 때, 행렬(선형변환) A의 고유벡터는 선형변환 A에 의해 방향은 보존되고 스케일(scale)만 변화되는 방향 벡터를 나타내고 고유값은 그 고유벡터의 변화되는 스케일 정도를 나타내는 값이다.



예를 들어 지구의 자전운동과 같이 3차원 회전변환을 생각했을 때, 이 회전변환에 의해 변하지 않는 고유벡터는 회전축 벡터이고 그 고유값은 1이 될 것이다.



3. 고유값분해를 이용한 대각화 - eigendecomposition


고유값, 고유벡터는 정방행렬의 대각화와 밀접한 관련이 있다 (eigendecomposition은 정방행렬에 대해서만 가능함)


먼저 대각행렬과의 행렬곱에 대해 살펴보면, 대각행렬을 뒤에 곱하면 행렬의 열벡터들이 대각원소의 크기만큼 상수배가 된다(앞에 곱하면 행벡터들이 상수배가 된다). 예를 들어, 3 x 3 행렬의 경우를 보면 다음과 같다.


 --- (3)


행렬 A의 고유값, 고유벡터들을 λi, vi, i = 1, 2, ..., n이라 하자.


 --- (4)


이제 식 (4)를 한꺼번에 표현하여 정리하면


 --- (5)


가 성립함을 알 수 있다.


즉, 행렬 A의 고유벡터들을 열벡터로 하는 행렬을 P, 고유값들을 대각원소로 하는 대각행렬을 Λ라 하면 다음 식이 성립한다.


--- (6)

즉,  --- (7)


이와같이 행렬 A는 자신의 고유벡터들을 열벡터로 하는 행렬과 고유값을 대각원소로 하는 행렬의 곱으로 대각화 분해가 가능한데 이러한 대각화 분해를 eigendecomposition이라고 한다.


한 예로, A = [1 1 0; 0 2 1; 0 0 3]인 경우 A는 다음과 같이 대각화가 가능하다.


 --- (8)



모든 정방행렬이 이런 방식의 eigendecomposition이 가능한 것은 아니지만 대각화 가능한 경우는 뒤에 적기로 하고 일단은 대각화를 하면 어떤게 좋은지 알아보자.


행렬 A의 eigendecomposition을 알면 행렬식 값 det(A), A의 거듭제곱, 역행렬, 대각합(trace), 행렬의 다항식 등을 매우 손쉽게 계산할 수 있다.


 --- (9)


 --- (10)


--- (11)


 --- (12)


--- (13)



4. 고유값분해(eigendecomposition) 가능조건 - 일차독립


앞서 말했지만 모든 정방행렬이 고유값분해가 가능한 것은 아니다. n x n 정방행렬 A가 고유값분해가 가능하려면 행렬 A가 n개의 일차독립인 고유벡터를 가져야 한다.


선형대수학에서 말하는 일차독립(linearly independent)이란 무엇일까?


어떤 벡터들의 집합 {v1, ..., vn}이 있을 때, 이들 벡터들 중 어느 한 벡터도 다른 벡터들의 일차결합으로 표현될 수 없으면 이 벡터들은 서로 일차독립이라고 정의한다.


벡터들의 일차결합이란 a1v1 + a2v2 + ... + anvn (ai는 상수)와 같이 상수를 곱하여 합친 형태를 말한다.


예를 들어 3차원 공간의 좌표축 단위벡터들인 v1 = (1,0,0), v2=(0,1,0), v3=(0,0,1)를 생각해 보면 v2, v3에 어떤 상수를 곱하여 더해도 v1이 나올수 없음은 쉽게 확인할 수 있다. 이와 같이 어떤 벡터도 다른 벡터들의 상수배 합으로 표현될 수 없으면 이 벡터들은 서로 일차독립(linearly independent)이라고 한다.


참고로 n차원 공간은 최대 n개의 일차독립인 벡터들을 가질 수 있으며 n개의 일차독립인 벡터들은 이 공간을 생성하는 기저(basis) 역할을 수행한다.


위 예에서, 3차원 공간에서 좌표축 단위벡터들의 집합 {v1, v2, v3}는 일차독립이지만 여기에 v4 = (-1, 3, 4)를 추가한 {v1, v2, v3, v4}는 일차독립이 아니다 (∵ v4 = -v1+3*v2+4*v3). 즉, 3차원 공간에서 가능한 일차독립인 벡터들의 개수는 최대 3개이다.


또한 v1, v2, v3를 자세히 보면 이 벡터들을 이용하여 3차원 공간의 모든 (x, y, z) 좌표를 생성할 수 있음을 알 수 있다. 어떤 일차독립인 벡터들의 집합 {v1,...,vn}의 일차결합을 통해 어떤 공간의 모든 좌표를 생성할 수 있으면 이 벡터들을 이 공간의 기저(basis)라고 정의한다.


다시 원래 문제로 돌아가서, n차 정방행렬이 고유값분해가 가능하려면 n개의 일차독립인 고유벡터가 존재해야 한다고 했는데 이게 무슨 말인지 아직은 마음에 확 와닿지는 않을 것이다. 그건 고유값, 고유벡터가 어떻게 계산되는지 그 과정에 대한 이해가 필요하기 때문이다.



5. 고유값, 고유벡터의 계산


고유값과 고유벡터를 정의하는 식인 식 (1)으로 다시 돌아가서 이를 v에 대해 정리해보면 다음과 같다.


 --- (14)


우리가 구하고자 하는 고유값, 고유벡터는 식 (14)를 풀어서 나오는 λ와 v이다 (단, v0). 그런데, 식 (14)를 잘 보면 (A-λE)의 역행렬이 존재한다면 v는 항상 v = (A-λE)-10 = 0 만을 해로 갖게 된다. 그런데, 고유벡터는 정의에 의해 영벡터가 아닌 백터여야 하므로 A-λE의 역행렬이 존재하지 않는 경우에만 존재할 수 있다. 따라서, 고유벡터가 존재하기 위해서는 일단은 det(A-λE) = 0 이어야 한다.


 --- (15)


이 때, 식 (15)를 행렬 A의 특성방정식(characteristic equation)이라고 부르며 식 (15)를 λ에 대해 풀면 A의 고유값을 구할 수 있다. 고유벡터는 이렇게 구한 λ를 다시 식 (14)에 대입하여 계산한다.


[예]

다음과 같은 행렬 A에 대한 고유값, 고유벡터를 계산해 보자.


 --- (16)


이 때, 행렬 A를 식 (14)에 대입하여 특성다항식을 구해보면


 --- (17)


이므로 특성방정식은 (2-λ)(1-λ)2 = 0 이 된다.


 --- (18)


이제 특성방정식의 해는 λ = 1, 2인데 잘 보면 λ=2는 단일근임에 비해 λ=1은 이중근임을 알 수 있다. λ에 대응하는 고유벡터의 개수는 λ가 몇중근이냐와 밀접한 관계가 있는데 단일근에 대해서는 1개, 이중근에 대해서는 최대 2개, 삼중근에 대해서는 최대 3개, ... 의 고유벡터가 존재한다.


먼저 λ = 2를 다시 식 (14)에 대입하여 고유벡터를 구해보면,





 --- (19)


따라서, λ = 2에 대응하는 고유벡터는 v = [1, 1, 0]T 로 잡을 수 있다.


마찬가지로, λ = 1에 대해서도 고유벡터를 구해보면



--- (20)


x좌표가 z좌표의 2배인 벡터들은 무수히 많은데 이들은 [2, 0, 1], [0, 1, 0]의 일차결합으로 표현할 수 있으므로 λ = 1에 대응하는 고유벡터를 [2, 0, 1]과 [0, 1, 0] 으로 잡을 수 있다.


☞ x좌표가 z좌표의 2배인 임의의 벡터는 [2t, s, t]로 표현할 수 있다 (단, t, s는 임의의 실수). 그런데, 이는 [2t, s, t] = t*[2, 0, 1] + s*[0, 1, 0]와 같이 [2, 0, 1]과 [0, 1, 0]의 일차결합으로 표현될 수 있다.


아마도 이 시점에서 고유값은 어떻게 구하는지 알겠는데 고유벡터는 뭔가 좀 애매하다고 느끼는 분들이 많을 것으로 예상한다. 그 이유는 어떤 행렬에 대해 고유값은 유일하게 결정되지만 고유벡터는 유일하지 않기 때문이다. 이는 다음 내용을 보면 알 수 있다.


식(1)의 양변에 상수 c를 곱해보면,


 --- (21)


가 되므로 v가 λ에 대한 고유벡터이면 0이 아닌 임의의 상수 c에 대해 cv도 또한 λ에 대한 고유벡터임을 알 수 있다.


또한, v1, v2가 모두 고유값 λ에 대응하는 고유벡터라고 하면 임의의 상수 c1, c2에 대해


 --- (22)


이므로 c1v1 + c2v2 또한 λ에 대한 고유벡터가 됨을 알 수 있다.


따라서 고유벡터는 식 (19), 식 (20) 등과 같은 제약조건을 만족하는 벡터들 중에서 어느 벡터를 사용해도 무방하나 보통은 벡터의 크기를 1로 정규화한(normalized) 단위벡터를 고유벡터로 잡는 것이 일반적이다. 단, 식 (20)의 경우에는 자유도(degree of freedom)가 2이기 때문에 일차독립인 2개의 고유벡터를 잡아야만 가능한 모든 고유벡터들을 대표할 수 있다.


이제 이렇게 구한 고유값, 고유벡터에 대해 아래와 같은 행렬 대각화가 정말로 성립함을 matlab 또는 손계산을 이용하면 쉽게 확인할 수 있다 (또한 고유벡터들의 스케일을 바꾸거나 순서를 바꾸어도 대각화가 성립함도 확인할 수 있다).


 --- (23)



6. 대칭행렬(symmetric matrix)과 고유값분해


정방행렬들 중에서 대각원소를 중심으로 원소값들이 대칭되는 행렬 즉, AT = A (모든 i, j에 대해 aij = aji)인 행렬을 대칭행렬(symmetric matrix)이라 부른다.


그런데, 대칭행렬은 고유값 분해와 관련하여 매우 좋은 성질 2가지를 가지고 있다. 실원소(real-valued) 대칭행렬은 항상 고유값 대각화가 가능하며 더구나 직교행렬(orthogonal matrix)로 대각화가 가능하다는 매우 좋은 성질을 가지고 있다.


 --- (24)

단, 


즉, 모든 대칭행렬은 위 식 (24)와 같이 직교행렬을 이용한 고유값 대각화가 가능하다 (증명1, 증명2).


☞ 위 성질은 원소값이 실수(real number)인 경우에 항상 성립하는 성질이며 만일 원소값이 복소수(complex number)인 경우에는 유니터리(unitary) 행렬로 항상 대각화 가능하다. 그런데 사실 직교행렬을 복소수 공간에서 정의한 것이 유니터리 행렬이기 때문에 대칭행렬은 항상 대각화 가능하다고 생각하면 된다.


이렇게 따로 대칭행렬의 대각화에 대해 단락을 구분하여 적는 이유는 선형대수학에서 워낙 중요한 성질이기 때문이다. 대칭행렬(symmetric matrix)의 이러한 성질은 특이값분해(SVD), 주성분분석(PCA) 등에서 가장 기본이 되는 성질로 활용된다.


모든 정방행렬이 고유값 분해가 가능한 것은 아니지만 대칭행렬은 항상 고유값 분해가 가능하며 더구나 직교행렬로 대각화가 가능함을 기억하자.



※ 직교(orthogonal)와 정규직교(orthonormal), 그리고 직교행렬(orthogonal matrix)


orthogonal과 orthonormal이 서로 용어가 혼동되기 쉬운데 두 용어의 차이를 명확히 할 필요가 있다. 


먼저, 벡터에 대해 얘기를 해 보면 두 벡터 v1, v2가 서로 수직이면(즉, v1·v2 = 0) 두 벡터 v1, v2는 서로 orthogonal 하다고 한다. 그리고 v' = v/∥v∥와 같이 어떤 벡터를 크기가 1인 단위벡터로 만드는 것을 정규화(normalization)라고 한다. orthonormal이라는 말은 orthogonal과 normal이 합쳐진 말로서 두 벡터 v1, v2가 모두 단위벡터(unit vector)이면서 서로 수직이면 두 벡터 v1, v2는 orthonormal(정규직교)하다고 한다.

  • orthogonal: v1·v2 = 0

  • orthonormal: v1·v2 = 0  &  ∥v1∥ = 1, ∥v2∥ = 1


즉, orthogonal, orthonormal은 벡터들 사이의 관계를 나타내는 말인데, 이게 행렬로 넘어가면 조금 의미가 달라진다.


먼저, 행렬에서는 직교행렬(orthogonal matrix)이라는 말은 있어도 정규직교행렬(orthonomal matrix)이라는 말은 없다. 흔히 orthonomal matrix라는 표현을 쓰는데 이는 잘못된 것이며 orthogonal matrix (직교행렬)가 올바른 용어이다.


직교행렬(orthogonal matrix)의 수학적 정의는 자신의 전치행렬(transpose)를 역행렬로 갖는 정방행렬이다.



--- (25)


이와 같이 직교행렬(orthogonal matrix)은 transpose를 시키면(행렬의 열과 행 원소들을 서로 바꾸면) 자신의 역행렬이 되기 때문에 다양한 선형대수학 계산에서 매우 편리한 성질을 가진 행렬이다.


그런데, 직교행렬의 열벡터들은 서로 orthonomal(정규직교)한 성질을 가지고 있다. 즉, 직교 행렬를 구성하는 열벡터들을 v1, v2, ..., vn이라 했을 때 이들은 모두 단위벡터(unit vector)이면서 또한 서로 서로 수직인 성질을 갖는다. 이는 식 (25)로부터 쉽게 도출될 수 있다.


 --- (26)


이러한 성질은 열벡터가 아닌 행벡터들에 대해서도 동일하게 성립한다 (즉, 행벡터들도 서로 orthonormal 하다).


즉, 직교행렬(orthogonal matrix)은 그 행렬을 구성하는 열벡터(행벡터)들이 서로 수직(orthogonal)이면서 크기가 1인 (normal한) 행렬로도 정의될 수 있다.


이상의 내용을 정리하면 다음과 같다.

  • 벡터들이 orthogonal하다: 서로 수직이다
  • 벡터들이 orthonormal하다: 서로 수직이면서 크기가 1인 단위벡터이다
  • 행렬이 orthogonal하다: AAT=E 이다 (행렬을 구성하는 열벡터, 또는 행벡터들이 orthonomal하다)



[선형대수학 #1] 주요용어 및 기본공식

[선형대수학 #2] 역행렬과 행렬식(determinant)

[선형대수학 #3] 고유값과 고유벡터 (eigenvalue & eigenvector)

[선형대수학 #4] 특이값 분해(Singular Value Decomposition, SVD)의 활용

[선형대수학 #5] 선형연립방정식 풀이

[선형대수학 #6] 주성분분석(PCA)의 이해와 활용


by 다크 프로그래머


  • 이전 댓글 더보기
  • BlogIcon 먹튀 검증 2018.08.05 14:18 신고 ADDR 수정/삭제 답글

    잘보고갑니다~

  • 드디어!! 2018.12.10 22:29 ADDR 수정/삭제 답글

    책에 orthogonal matrix나 orthonormal같은 표현들이 계속나와서 헷갈렸는데 드디어 제대로 이해하고 가네요 감사합니다!!

  • 러너 2019.03.22 21:47 ADDR 수정/삭제 답글

    안녕하세요, 다크프로그래머님

    너무 잘 정리해주셔서 많은 도움이 되었습니다.

    궁금한점이 있는데, 6 x 6 정방행렬에 대하여 rank 5의 reduced pseudo inverse matrix를 구한다면,

    시그마_1 ~ 시그마_5까지의 singular value와 left singular vector 그리고 right singular vector(시그마_5에 대한 벡터까지만)를 곱하여 얻어낸 6 x 6의 행렬이 구해지는 걸까요?

    추가로, 고유값 분해를 확인해보기 위해 매트랩에서 A 행렬 = [1 1 0;0 2 1;0 0 3] 을 eig 함수로 고유값을 찾고 그에 대한 벡터까지 확인해보았는데, 직접 풀어주신 기저 벡터와는 다른거 같더라구요?.. 그렇게 되면 고유값 분해가 안되던데.. 혹시 매트랩으로 구현하셨을 때 어떻게 하셨을까요?

    • BlogIcon 다크pgmr 2019.03.23 23:46 신고 수정/삭제

      6x6 행렬에 대해 SVD를 한 후, sigma_6 = 0으로 놓고 얻은 행렬은 rank 5 근사행렬이고, 이 근사행렬에 대해 pseudo inverse를 구하면 원하시는 reduced pseudo inverse가 얻어지겠네요.
      그리고, 두번째 질문은 고유값에 대응되는 고유벡터가 유일하지 않다는 점을 기억하면 좋겠습니다. 만일 행렬 A의 고유값이 lambda, 고유벡터가 v라고 하면, Av = lambda*v인데 임의의 scalar k에 대해 A(kv) = lambda*(kv)이기 때문에 임의의 kv가 모두 고유벡터가 됩니다. 메트랩에서는 기본적으로 가능한 kv들 중에서 unit 벡터를 고유벡터로 반환합니다.

  • 러너 2019.03.25 10:38 ADDR 수정/삭제 답글

    유닛 벡터인 고유벡터를 이용하게 되면 역행렬이 나오지 않는데(A*A^-1 /= E), 의도적으로 역행렬이 나오는 고유벡터를 뽑아줘야 하는건가요?..

    • BlogIcon 다크pgmr 2019.03.25 11:05 신고 수정/삭제

      유닛 벡터인 고유벡터를 이용한다고 해서 역행렬이 안나오지는 않는데요.. 어떤 경우에 그런 경우가 발생하나요?

  • 러너 2019.04.01 20:46 ADDR 수정/삭제 답글

    제가 잘못 계산했었습니다.

    감사합니다!!

  • 와우 2019.04.11 19:06 ADDR 수정/삭제 답글

    와 이렇게 술술 읽히는 선형대수는 처음입니다....몇년 전에 쓰여진 글임에도 방금 옆에서 말씀해 주시는 것 처럼 쭉쭉 읽힙니다. 덕분에 저같은 소시민은 살맛납니다... 좋은 글 감사합니다!!

  • 앗..아아 2019.06.21 20:46 ADDR 수정/삭제 답글

    이 블로그는 컴퓨터 비전 분야의 성지가 됩니다....

  • 벼랑 2019.08.15 10:30 ADDR 수정/삭제 답글

    eigendecomposition 2번째 단락에 '뒤'가 두번 나오네요!
    사소하지만 이 완벽한 글에 완벽을 더하기 위해 알려드립니당
    선형대수 공부에 도움이 많이 되었습니다!

  • 놀자수학 2019.09.24 21:19 ADDR 수정/삭제 답글

    학업 중단후 수년을 헤매다가 올해 재입학하여 공부중인데
    원서와 영어강의 벽을 만나 성취가 지지부진하던 중에
    이런 귀한 곳을 발견하여 읽다가 감동을 받았습니다.
    핵심을 놓치지 않고 짚으면서도 사족없이 이해하기 너무 쉬운 글들 정말로 감사합니다!!

  • 감사합니다 2019.10.22 08:28 ADDR 수정/삭제 답글

    수 시간동안 들은 교수님의 영어강의보다 훨씬 더 직관적이고 명쾌하게 이해할 수 있었습니다
    정말 감사드립니다.

  • 김수호 2019.11.19 12:47 ADDR 수정/삭제 답글

    감사합니다. 많은 도움이 되었습니다!

  • 수행자 2020.01.19 22:20 ADDR 수정/삭제 답글

    Svd와 연결지었을때 A가 4×3행렬인경우 AA' 행렬은 대칭행렬이지만 각열이 linearly independent하진 않는데요. AA'는 하나의 singular value가 0 이긴하지만 대각화가 되는것으로알고있습니다. 그렇다면 n차 정방행렬이 대각화가 되기위한 조건인 각 열의 선형독립이 엄밀하게는 맞지않는것인가요?
    좋은자료정말 감사합니다!!

    • BlogIcon 다크pgmr 2020.02.24 11:27 신고 수정/삭제

      안녕하세요. 전제에서 약간 오해가 있는 것 같습니다. n차 정방행렬이 대각화가 되기위한 조건은 각 열이 선형독립인 것이 아니라 선형독립인 n개의 고유벡터가 존재하는 것입니다. 각 열이 선형독입인 것은 그 행렬이 역행렬을 가질 조건입니다. 어떤 행렬이 역행렬은 없더라도 대각화(고유분해)는 가능할 수 있습니다.

  • 철홍성 2020.01.27 16:16 ADDR 수정/삭제 답글

    공부에 정말 큰 도움이 되었습니다. 감사합니다.

  • BlogIcon gkj 2020.06.16 14:36 ADDR 수정/삭제 답글

    안녕하세요. 제가 고유치 해석과 관련해서 고유치 기본 개념 자료를 찾다가 정리가 잘 되어있어서 참조를 하고 싶은데 추후에 여기 자료 일부를 캡쳐해서 사용할 수 있을까요? 허락해 주신다면 게시글의 링크와 출처 명시하여 사용하고 싶습니다. _참고로 사용하게 된다면 건물의 고유 진동을 찾는것과 관련한 고유치해석 설명과정에서 초기 개념에서 잠시 언급하는 정도이겠습니다.

    • BlogIcon 다크pgmr 2020.06.24 23:18 신고 수정/삭제

      네. 괜찮습니다. 당연히 가능한 것 아닌가 싶습니다..

  • BlogIcon 서용코 2020.11.06 09:47 신고 ADDR 수정/삭제 답글

    정말 정성스러운 글이네요. 글쓴이님의 깊은 이해에 놀랍니다.

  • 학점의 은인 2021.01.23 22:15 ADDR 수정/삭제 답글

    제 학점을 살려주셔서 감사합니다

    • BlogIcon 해닝이 2021.02.03 17:26 수정/삭제

      ㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋ

  • 두치 2021.03.23 17:37 ADDR 수정/삭제 답글

    첫번째 문장에서 말씀하신 궁금증에 대한 답은 물리학에서 찾을 수 있을겁니다. 고전역학의 라그랑지 방정식이나, 양자역학의 쉬뢰딩거 방정식이 바로 고유치 방정식입니다.
    양자역학에서 고유치는 실제로 측정가능한 값(관측되는 값)을 의미하고 고유벡터는 상태함수를 나타내죠. 측정하지 않았을때의 상태는 고유벡터의 선형결합으로 나타납니다.
    그리고 라그랑지 방정식은 일반인들에게도 유명한 뉴튼 방정식을 고유치문제로 다루어서 물체의 운동상태를 직관적으로 이해할 수 있게 합니다. 여기에서 고유치는 일반화좌표이고 실제의 물체의 운동은 이 일반화 좌표들의 선형 결합으로 나타납니다. 고유치 방정식을 풀어 이 일반화 좌표를 찾아내고 이 좌표의 물리적 의미를 이해하게 되면 복잡한 운동도 아주 단순한 운동의 결합으로 이해할 수 있습니다.

    • BlogIcon 다크pgmr 2021.03.25 09:12 신고 수정/삭제

      제가 물리학을 공부하지 않은게 아쉽네요.

  • ai/ml 2021.03.24 15:06 ADDR 수정/삭제 답글

    "λ에 대응하는 고유벡터의 개수는 λ가 몇중근이냐와 밀접한 관계가 있는데 단일근에 대해서는 1개, 이중근에 대해서는 최대 2개, 삼중근에 대해서는 최대 3개, ... 의 고유벡터가 존재한다."

    이건 어디서 증명이 되어있나요?

    • BlogIcon 다크pgmr 2021.03.25 09:01 신고 수정/삭제

      Dimension of Eigenspace, Multiplicity of Eigenvalue 등의 키워드로 검색하면 관련 자료들을 찾을 수 있습니다.
      찾아보니 https://www.math.wustl.edu/~freiwald/diagmult.pdf 에 관련 증명이 하나 있는 것 같습니다.

  • 4567 2021.08.11 11:52 ADDR 수정/삭제 답글

    중간중간에 사진이 깨집니다.

    • BlogIcon 4567 2021.08.11 11:52 수정/삭제

      새로고침하니까 되네요 ㅎㅎ;; 글 잘 읽었습니다.

  • 까이밍훠 2021.09.10 00:16 ADDR 수정/삭제 답글

    엄청 재밌게 설명 잘 해주시네요!!
    학부 때 다크님을 알았으면 선형대수를 포기하지 않았을 것 같은데 말이죠...