SlideShare une entreprise Scribd logo
1  sur  5
Télécharger pour lire hors ligne
Linear Algebra
2. 가우스 소거법 (Gaussian Elimination)
한양대 이상화 교수님 <선형대수>
http://www.kocw.net/home/search/kemView.do?kemId=977757
가우스 소거법 (Gaussian Elimination)
• 행렬로 표현된 연립방정식을 푸는 전형적인 방법
2𝑢 + 𝑣 + 𝑤 = 5
4𝑢 − 6𝑣 = −2
−2𝑢 + 7𝑣 + 2𝑤 = 9
- ①
- ②
- ③
2𝑢 + 𝑣 + 𝑤 = 5
−8𝑣 − 2𝑤 = −12
8𝑣 + 3𝑤 = 14
- ①
- 2*① - ②
- ③ + ①
1st Pivot
2𝑢 + 𝑣 + 𝑤 = 5
−8𝑣 − 2𝑤 = −12
𝑤 = 2
- ②’
- ②’ + ①
2nd Pivot
3rd Pivot
Forward Elimination
2𝑢 + 𝑣 + 𝑤 = 5
−8𝑣 − 2𝑤 = −12
𝑤 = 2
2𝑢 + 𝑣 + 𝑤 = 5
−8𝑣 − 4 = −12
𝑤 = 2
𝑣 = −1
𝑤 = 2
2𝑢 + 1 + 2 = 5
−8𝑣 − 4 = −12
𝑤 = 2
𝑢 = 1
𝑣 = 1
𝑤 = 2
Backward Substitution
가우스 소거법과 행렬
• 앞의 과정을 벡터로 나타내면,
2 1 1 5
4 −6 0 −2
−2 7 2 9

2 1 1 5
0 −8 −2 −12
0 8 3 14

2 1 1 5
0 −8 −2 −12
0 0 1 2
• 과정 중에 Pivot 자리에 0이 생기면, 아래 쪽의 0이 아닌 행과 자리를 바꿀 수 있고, 이를
Pivoting이라고 한다.
Upper Triangular Matrix : U
𝑢 + 𝑣 + 𝑤 = 𝑎
2𝑢 + 2𝑣 + 5𝑤 = 𝑏
4𝑢 + 6𝑣 + 8𝑤 = 𝑐
𝑢 + 𝑣 + 𝑤 = 𝑎
3𝑤 = 𝑏 − 2𝑎
2𝑣 + 4𝑤 = 𝑐 − 4𝑎
𝑢 + 𝑣 + 𝑤 = 𝑎
2𝑣 + 4𝑤 = 𝑐 − 4𝑎
3𝑤 = 𝑏 − 2𝑎
Singular Case와 가우스 소거법
• Singular Case : 해가 없거나, 해가 무수히 많거나
𝑢 + 𝑣 + 𝑤 = 𝑎
2𝑢 + 2𝑣 + 5𝑤 = 𝑏
4𝑢 + 4𝑣 + 8𝑤 = 𝑐
𝑢 + 𝑣 + 𝑤 = 𝑎
3𝑤 = 𝑏 − 2𝑎
4𝑤 = 𝑐 − 4𝑎
②식에서 𝑤 =
𝑏−2𝑎
3
③식에서 𝑤 =
𝑐−4𝑎
4
이기 때문에,
𝑏−2𝑎
3
=
𝑐−4𝑎
4
일 때만 해가 존재(무수히 많은 해)
그렇지 않으면 해가 존재하지 않음
Pivot 위치에 0이 있고,
Pivoting으로도 해결할 수 없다  U 모양 실패!
연립방정식의 Matrix Notation
2𝑢 + 𝑣 + 𝑤 = 5
4𝑢 − 6𝑣 = −2
−2𝑢 + 7𝑣 + 2𝑤 = 9
• 앞의 내용을 행렬로 접근해보자.
“연립방정식은 결국 행렬 𝑨의 열벡터들의 Linear Combination으로
우항(𝒃)을 만들 수 있는지를 푸는 것이다.”
2 1 1
4 −6 0
−2 7 2
𝑢
𝑣
𝑤
=
5
−2
9
Coefficient Matrix
𝑢
2
4
−2
+ 𝑣
1
−6
7
+ 𝑤
1
0
2
=
5
−2
9
𝑨𝒙 = 𝒃
𝑨𝒙 is a combination
of the columns of 𝑨.

Contenu connexe

Tendances

何もないところから数を作る
何もないところから数を作る何もないところから数を作る
何もないところから数を作るTaketo Sano
 
Java Linked List Tutorial | Edureka
Java Linked List Tutorial |  EdurekaJava Linked List Tutorial |  Edureka
Java Linked List Tutorial | EdurekaEdureka!
 
1시간만에 GAN(Generative Adversarial Network) 완전 정복하기
1시간만에 GAN(Generative Adversarial Network) 완전 정복하기1시간만에 GAN(Generative Adversarial Network) 완전 정복하기
1시간만에 GAN(Generative Adversarial Network) 완전 정복하기NAVER Engineering
 
358 33 powerpoint-slides_10-trees_chapter-10
358 33 powerpoint-slides_10-trees_chapter-10358 33 powerpoint-slides_10-trees_chapter-10
358 33 powerpoint-slides_10-trees_chapter-10sumitbardhan
 
Fractional knapsack class 13
Fractional knapsack class 13Fractional knapsack class 13
Fractional knapsack class 13Kumar
 
Paper discussion:Video-to-Video Synthesis (NIPS 2018)
Paper discussion:Video-to-Video Synthesis (NIPS 2018)Paper discussion:Video-to-Video Synthesis (NIPS 2018)
Paper discussion:Video-to-Video Synthesis (NIPS 2018)Motaz Sabri
 
Recurrence relations
Recurrence relationsRecurrence relations
Recurrence relationsIIUM
 
08 Machine Learning Maximum Aposteriori
08 Machine Learning Maximum Aposteriori08 Machine Learning Maximum Aposteriori
08 Machine Learning Maximum AposterioriAndres Mendez-Vazquez
 
Graph Convolutional Neural Networks
Graph Convolutional Neural Networks Graph Convolutional Neural Networks
Graph Convolutional Neural Networks 신동 강
 
Dynamic Routing Between Capsules
Dynamic Routing Between CapsulesDynamic Routing Between Capsules
Dynamic Routing Between CapsulesKyuhwan Jung
 
[系列活動] 一日搞懂生成式對抗網路
[系列活動] 一日搞懂生成式對抗網路[系列活動] 一日搞懂生成式對抗網路
[系列活動] 一日搞懂生成式對抗網路台灣資料科學年會
 
Group homomorphism
Group homomorphismGroup homomorphism
Group homomorphismNaliniSPatil
 
Goodfellow, Bengio, Couville (2016) "Deep Learning", Chap. 7
Goodfellow, Bengio, Couville (2016) "Deep Learning", Chap. 7Goodfellow, Bengio, Couville (2016) "Deep Learning", Chap. 7
Goodfellow, Bengio, Couville (2016) "Deep Learning", Chap. 7Ono Shigeru
 
Infix to postfix expression in ds
Infix to postfix expression in dsInfix to postfix expression in ds
Infix to postfix expression in dsRohini Mahajan
 

Tendances (20)

何もないところから数を作る
何もないところから数を作る何もないところから数を作る
何もないところから数を作る
 
Java Linked List Tutorial | Edureka
Java Linked List Tutorial |  EdurekaJava Linked List Tutorial |  Edureka
Java Linked List Tutorial | Edureka
 
1시간만에 GAN(Generative Adversarial Network) 완전 정복하기
1시간만에 GAN(Generative Adversarial Network) 완전 정복하기1시간만에 GAN(Generative Adversarial Network) 완전 정복하기
1시간만에 GAN(Generative Adversarial Network) 완전 정복하기
 
358 33 powerpoint-slides_10-trees_chapter-10
358 33 powerpoint-slides_10-trees_chapter-10358 33 powerpoint-slides_10-trees_chapter-10
358 33 powerpoint-slides_10-trees_chapter-10
 
Fractional knapsack class 13
Fractional knapsack class 13Fractional knapsack class 13
Fractional knapsack class 13
 
Paper discussion:Video-to-Video Synthesis (NIPS 2018)
Paper discussion:Video-to-Video Synthesis (NIPS 2018)Paper discussion:Video-to-Video Synthesis (NIPS 2018)
Paper discussion:Video-to-Video Synthesis (NIPS 2018)
 
Recurrence relations
Recurrence relationsRecurrence relations
Recurrence relations
 
08 Machine Learning Maximum Aposteriori
08 Machine Learning Maximum Aposteriori08 Machine Learning Maximum Aposteriori
08 Machine Learning Maximum Aposteriori
 
Graph Convolutional Neural Networks
Graph Convolutional Neural Networks Graph Convolutional Neural Networks
Graph Convolutional Neural Networks
 
Linear algebra
Linear algebraLinear algebra
Linear algebra
 
Matrix calculus
Matrix calculusMatrix calculus
Matrix calculus
 
Dynamic Routing Between Capsules
Dynamic Routing Between CapsulesDynamic Routing Between Capsules
Dynamic Routing Between Capsules
 
[系列活動] 一日搞懂生成式對抗網路
[系列活動] 一日搞懂生成式對抗網路[系列活動] 一日搞懂生成式對抗網路
[系列活動] 一日搞懂生成式對抗網路
 
Maxflow
MaxflowMaxflow
Maxflow
 
Uncertainty in Deep Learning
Uncertainty in Deep LearningUncertainty in Deep Learning
Uncertainty in Deep Learning
 
Group homomorphism
Group homomorphismGroup homomorphism
Group homomorphism
 
06. graph mining
06. graph mining06. graph mining
06. graph mining
 
Goodfellow, Bengio, Couville (2016) "Deep Learning", Chap. 7
Goodfellow, Bengio, Couville (2016) "Deep Learning", Chap. 7Goodfellow, Bengio, Couville (2016) "Deep Learning", Chap. 7
Goodfellow, Bengio, Couville (2016) "Deep Learning", Chap. 7
 
Echelon or not
Echelon or notEchelon or not
Echelon or not
 
Infix to postfix expression in ds
Infix to postfix expression in dsInfix to postfix expression in ds
Infix to postfix expression in ds
 

Similaire à 선형대수 02. 가우스 소거법

선형대수 03. LU Decomposition
선형대수 03. LU Decomposition선형대수 03. LU Decomposition
선형대수 03. LU DecompositionAHRA CHO
 
선형대수 11강 벡터 투영과 최소제곱법
선형대수 11강 벡터 투영과 최소제곱법선형대수 11강 벡터 투영과 최소제곱법
선형대수 11강 벡터 투영과 최소제곱법AHRA CHO
 
Chapter 2, 선형 변환과 행렬 2/2
Chapter 2, 선형 변환과 행렬 2/2Chapter 2, 선형 변환과 행렬 2/2
Chapter 2, 선형 변환과 행렬 2/2Thisisone Lee
 
0124 2 linear_algebra_basic_matrix
0124 2 linear_algebra_basic_matrix0124 2 linear_algebra_basic_matrix
0124 2 linear_algebra_basic_matrixJeonghun Yoon
 
선형대수 01. 선형성의 정의와 1차 연립방정식의 의미
선형대수 01. 선형성의 정의와 1차 연립방정식의 의미선형대수 01. 선형성의 정의와 1차 연립방정식의 의미
선형대수 01. 선형성의 정의와 1차 연립방정식의 의미AHRA CHO
 
선형대수 08. 선형 변환 (Linear Transformation)
선형대수 08. 선형 변환 (Linear Transformation)선형대수 08. 선형 변환 (Linear Transformation)
선형대수 08. 선형 변환 (Linear Transformation)AHRA CHO
 
선형대수 06. 영벡터공간과 해집합
선형대수 06. 영벡터공간과 해집합선형대수 06. 영벡터공간과 해집합
선형대수 06. 영벡터공간과 해집합AHRA CHO
 
Closest pair problem with randomization
Closest pair problem with randomizationClosest pair problem with randomization
Closest pair problem with randomizationChangki Yun
 
강화학습기초(MDP, Monte-Carlo, Time-difference, sarsa, q-learning) 파트1
강화학습기초(MDP, Monte-Carlo, Time-difference, sarsa, q-learning) 파트1강화학습기초(MDP, Monte-Carlo, Time-difference, sarsa, q-learning) 파트1
강화학습기초(MDP, Monte-Carlo, Time-difference, sarsa, q-learning) 파트1Euijin Jeong
 

Similaire à 선형대수 02. 가우스 소거법 (11)

선형대수 03. LU Decomposition
선형대수 03. LU Decomposition선형대수 03. LU Decomposition
선형대수 03. LU Decomposition
 
행렬
행렬행렬
행렬
 
선형대수 11강 벡터 투영과 최소제곱법
선형대수 11강 벡터 투영과 최소제곱법선형대수 11강 벡터 투영과 최소제곱법
선형대수 11강 벡터 투영과 최소제곱법
 
Chapter 2, 선형 변환과 행렬 2/2
Chapter 2, 선형 변환과 행렬 2/2Chapter 2, 선형 변환과 행렬 2/2
Chapter 2, 선형 변환과 행렬 2/2
 
0124 2 linear_algebra_basic_matrix
0124 2 linear_algebra_basic_matrix0124 2 linear_algebra_basic_matrix
0124 2 linear_algebra_basic_matrix
 
선형대수 01. 선형성의 정의와 1차 연립방정식의 의미
선형대수 01. 선형성의 정의와 1차 연립방정식의 의미선형대수 01. 선형성의 정의와 1차 연립방정식의 의미
선형대수 01. 선형성의 정의와 1차 연립방정식의 의미
 
선형대수 08. 선형 변환 (Linear Transformation)
선형대수 08. 선형 변환 (Linear Transformation)선형대수 08. 선형 변환 (Linear Transformation)
선형대수 08. 선형 변환 (Linear Transformation)
 
선형대수 06. 영벡터공간과 해집합
선형대수 06. 영벡터공간과 해집합선형대수 06. 영벡터공간과 해집합
선형대수 06. 영벡터공간과 해집합
 
Closest pair problem with randomization
Closest pair problem with randomizationClosest pair problem with randomization
Closest pair problem with randomization
 
강화학습기초(MDP, Monte-Carlo, Time-difference, sarsa, q-learning) 파트1
강화학습기초(MDP, Monte-Carlo, Time-difference, sarsa, q-learning) 파트1강화학습기초(MDP, Monte-Carlo, Time-difference, sarsa, q-learning) 파트1
강화학습기초(MDP, Monte-Carlo, Time-difference, sarsa, q-learning) 파트1
 
Variational AutoEncoder(VAE)
Variational AutoEncoder(VAE)Variational AutoEncoder(VAE)
Variational AutoEncoder(VAE)
 

Plus de AHRA CHO

선형대수 12강 Gram-Schmidt Orthogonalization
선형대수 12강 Gram-Schmidt Orthogonalization선형대수 12강 Gram-Schmidt Orthogonalization
선형대수 12강 Gram-Schmidt OrthogonalizationAHRA CHO
 
선형대수 09. 벡터의 직교성과 투영
선형대수 09. 벡터의 직교성과 투영선형대수 09. 벡터의 직교성과 투영
선형대수 09. 벡터의 직교성과 투영AHRA CHO
 
선형대수 07. 선형독립, 4가지 부벡터공간
선형대수 07. 선형독립, 4가지 부벡터공간선형대수 07. 선형독립, 4가지 부벡터공간
선형대수 07. 선형독립, 4가지 부벡터공간AHRA CHO
 
01_ML 기초_선형회귀_Linear Regression
01_ML 기초_선형회귀_Linear Regression01_ML 기초_선형회귀_Linear Regression
01_ML 기초_선형회귀_Linear RegressionAHRA CHO
 
00_ML 기초_기본개념
00_ML 기초_기본개념00_ML 기초_기본개념
00_ML 기초_기본개념AHRA CHO
 
[2012 2] 1주차 사회적경제 개요
[2012 2] 1주차 사회적경제 개요[2012 2] 1주차 사회적경제 개요
[2012 2] 1주차 사회적경제 개요AHRA CHO
 
[2012 2] 1주차 사회적경제의 역사
[2012 2] 1주차 사회적경제의 역사[2012 2] 1주차 사회적경제의 역사
[2012 2] 1주차 사회적경제의 역사AHRA CHO
 

Plus de AHRA CHO (7)

선형대수 12강 Gram-Schmidt Orthogonalization
선형대수 12강 Gram-Schmidt Orthogonalization선형대수 12강 Gram-Schmidt Orthogonalization
선형대수 12강 Gram-Schmidt Orthogonalization
 
선형대수 09. 벡터의 직교성과 투영
선형대수 09. 벡터의 직교성과 투영선형대수 09. 벡터의 직교성과 투영
선형대수 09. 벡터의 직교성과 투영
 
선형대수 07. 선형독립, 4가지 부벡터공간
선형대수 07. 선형독립, 4가지 부벡터공간선형대수 07. 선형독립, 4가지 부벡터공간
선형대수 07. 선형독립, 4가지 부벡터공간
 
01_ML 기초_선형회귀_Linear Regression
01_ML 기초_선형회귀_Linear Regression01_ML 기초_선형회귀_Linear Regression
01_ML 기초_선형회귀_Linear Regression
 
00_ML 기초_기본개념
00_ML 기초_기본개념00_ML 기초_기본개념
00_ML 기초_기본개념
 
[2012 2] 1주차 사회적경제 개요
[2012 2] 1주차 사회적경제 개요[2012 2] 1주차 사회적경제 개요
[2012 2] 1주차 사회적경제 개요
 
[2012 2] 1주차 사회적경제의 역사
[2012 2] 1주차 사회적경제의 역사[2012 2] 1주차 사회적경제의 역사
[2012 2] 1주차 사회적경제의 역사
 

선형대수 02. 가우스 소거법

  • 1. Linear Algebra 2. 가우스 소거법 (Gaussian Elimination) 한양대 이상화 교수님 <선형대수> http://www.kocw.net/home/search/kemView.do?kemId=977757
  • 2. 가우스 소거법 (Gaussian Elimination) • 행렬로 표현된 연립방정식을 푸는 전형적인 방법 2𝑢 + 𝑣 + 𝑤 = 5 4𝑢 − 6𝑣 = −2 −2𝑢 + 7𝑣 + 2𝑤 = 9 - ① - ② - ③ 2𝑢 + 𝑣 + 𝑤 = 5 −8𝑣 − 2𝑤 = −12 8𝑣 + 3𝑤 = 14 - ① - 2*① - ② - ③ + ① 1st Pivot 2𝑢 + 𝑣 + 𝑤 = 5 −8𝑣 − 2𝑤 = −12 𝑤 = 2 - ②’ - ②’ + ① 2nd Pivot 3rd Pivot Forward Elimination 2𝑢 + 𝑣 + 𝑤 = 5 −8𝑣 − 2𝑤 = −12 𝑤 = 2 2𝑢 + 𝑣 + 𝑤 = 5 −8𝑣 − 4 = −12 𝑤 = 2 𝑣 = −1 𝑤 = 2 2𝑢 + 1 + 2 = 5 −8𝑣 − 4 = −12 𝑤 = 2 𝑢 = 1 𝑣 = 1 𝑤 = 2 Backward Substitution
  • 3. 가우스 소거법과 행렬 • 앞의 과정을 벡터로 나타내면, 2 1 1 5 4 −6 0 −2 −2 7 2 9  2 1 1 5 0 −8 −2 −12 0 8 3 14  2 1 1 5 0 −8 −2 −12 0 0 1 2 • 과정 중에 Pivot 자리에 0이 생기면, 아래 쪽의 0이 아닌 행과 자리를 바꿀 수 있고, 이를 Pivoting이라고 한다. Upper Triangular Matrix : U 𝑢 + 𝑣 + 𝑤 = 𝑎 2𝑢 + 2𝑣 + 5𝑤 = 𝑏 4𝑢 + 6𝑣 + 8𝑤 = 𝑐 𝑢 + 𝑣 + 𝑤 = 𝑎 3𝑤 = 𝑏 − 2𝑎 2𝑣 + 4𝑤 = 𝑐 − 4𝑎 𝑢 + 𝑣 + 𝑤 = 𝑎 2𝑣 + 4𝑤 = 𝑐 − 4𝑎 3𝑤 = 𝑏 − 2𝑎
  • 4. Singular Case와 가우스 소거법 • Singular Case : 해가 없거나, 해가 무수히 많거나 𝑢 + 𝑣 + 𝑤 = 𝑎 2𝑢 + 2𝑣 + 5𝑤 = 𝑏 4𝑢 + 4𝑣 + 8𝑤 = 𝑐 𝑢 + 𝑣 + 𝑤 = 𝑎 3𝑤 = 𝑏 − 2𝑎 4𝑤 = 𝑐 − 4𝑎 ②식에서 𝑤 = 𝑏−2𝑎 3 ③식에서 𝑤 = 𝑐−4𝑎 4 이기 때문에, 𝑏−2𝑎 3 = 𝑐−4𝑎 4 일 때만 해가 존재(무수히 많은 해) 그렇지 않으면 해가 존재하지 않음 Pivot 위치에 0이 있고, Pivoting으로도 해결할 수 없다  U 모양 실패!
  • 5. 연립방정식의 Matrix Notation 2𝑢 + 𝑣 + 𝑤 = 5 4𝑢 − 6𝑣 = −2 −2𝑢 + 7𝑣 + 2𝑤 = 9 • 앞의 내용을 행렬로 접근해보자. “연립방정식은 결국 행렬 𝑨의 열벡터들의 Linear Combination으로 우항(𝒃)을 만들 수 있는지를 푸는 것이다.” 2 1 1 4 −6 0 −2 7 2 𝑢 𝑣 𝑤 = 5 −2 9 Coefficient Matrix 𝑢 2 4 −2 + 𝑣 1 −6 7 + 𝑤 1 0 2 = 5 −2 9 𝑨𝒙 = 𝒃 𝑨𝒙 is a combination of the columns of 𝑨.