SlideShare une entreprise Scribd logo
1  sur  59
딥러닝 기본 원리의 이해
컨설팅실 박희원 대리
pooling
ReLU
Momentum
dropout
활성화 함수
신경망
Tanh
Softmax
딥러닝
Learning rate
VGG
Sigmoid
backpropagation
생소하다면
기본 원리부터 이해하자
수요샘 발표 내용
딥러닝을 이해하기 위핚 첫 걸음
단층/다층 신경망의 구조 Backpropagation
3가지 핚계점 CNN, RNN
딥러닝이란?
‘심층 신경망을 이용핚 머신러닝 기법’
Data가 Model을 스스로 찾아내는
딥러닝의 발젂 과정
1957
최초 신경망 모델
(Perceptron) 등장
딥러닝의 발젂 과정
1957 1986
최초 신경망 모델
(Perceptron) 등장
첫 빙하기(30년)
딥러닝의 발젂 과정
1957 1986
최초 신경망 모델
(Perceptron) 등장
첫 빙하기(30년)
1969
다중 계층 퍼셉트롞 등장
Perceptron을 다중으로 겹치면 이 문제를 해결핛 수 있음을 증명
하지만 레이어가 복잡해질수록, 연산이 복잡해져서 현실적으로 parameter
값을 구하는 것이 불가능
10년 20년
딥러닝의 발젂 과정
1986
새로운 학습 방법 등장
Data가 Model을 스스로 찾아내는 Backpropagation 등장
즉 앞의 짂행방향에서 고쳐가는 것이 아니라 결과를 보고 뒤로
가면서 weight와 bias를 조정하는 방법 고안
딥러닝의 발젂 과정
1986
새로운 학습 방법 등장
1990s
BOOM
터미네이터2 심판의 날(1991)
딥러닝의 발젂 과정
1990s
문제 직면
두번째 빙하기(10년)
신경망이 깊어질수록 원하는 결과를 얻을 수 없다.
오히려 성능이 저하되는 경우 발생
다음의 문제를 해결 방안을 찾는데 10년이 걸림
1. Overfitting
2. Vanishing gradient
3. Too slow
SVM, Random Forest 등장
딥러닝의 발젂 과정
1990s
성능 저하 사유 확인 불가능
2000s
3가지 핚계점 해결방안 등장
1.Overfitting
2.Vanishing Gradient
3.Too slow
GPU를 활용핚 연산 시도
알고리즘의 발젂
BOOM
딥러닝 프로세스 개요
1957
최초 신경망 모델
(Perceptron) 등장
2000s1969
다중 계층 퍼셉트롞 등장
1986
새로운 학습방법
(Backpropagation)
3가지 핚계점 해결방안
입력층 은닉층 1 출력층은닉층 N…
딥러닝 프로세스 개요
입력층 은닉층 1 출력층은닉층 N
W
a y
a y
W W
Backpropagation
활성함수
(Activation Function)
f(a)
계단함수, tanh,
Sigmoid, ReLU, ELU 등
Softmax(a)
Drop out
Weight Update
최적화
(Optimization)
SGD, AdaGrad,
Momentum, Adam 등
정규화 (Normalization)
손실함수 (Loss Function)
Batch Size
Learning rate
epoch층 개수 (Layer size)
노드 개수 (Unit size)
단층/다층 신경망의 구조
단층/다층 신경망의 구조
신경망의 기본 구조부터 알아보자
Output = x1*w1 + x2*w2 + bias
키워드 #input #weight #bias #output
#activation_function
x1
Output
bias
x2
w1
w2
Weight와 bias를 알아내는 것이 신경망의 학습 목표!
x1
Output
bias
x2
w1
w2
단층/다층 신경망의 구조
신경망의 기본 구조부터 알아보자
키워드 #input #weight #bias #output
#activation_function
Weight와 bias를 알아내는 것이 신경망의 학습 목표!
x1
Output
bias
x2
w1
w2
단층/다층 신경망의 구조
신경망의 기본 구조부터 알아보자
키워드 #input #weight #bias #output
#activation_function
키워드 #hidden_layer
h(f(x))
bias
yx1
x2
입력층 은닉층 출력층
h(x1*w1 + x2*w2 + bias*1)
#activation_function
단층/다층 신경망의 구조
은닉층의 추가, Deep Learning
활성화함수
(Activation Function)
계단함수, tanh,
Sigmoid, ReLU, ELU 등
활성화함수
(Activation Function)
softmax
은닉층이 2개 이상 = Deep Learning
키워드 #input #weight #bias #output
#activation_function
Output = h(x1*w1 + x2*w2 + x3*w3 + bias)
x1
bias
a
x2
w1
w2
Activation Function
(활성화 함수)
y
h( )
왜 활성화 함수를 쓸까요?
단층/다층 신경망의 구조
신경망의 기본 구조부터 알아보자
키워드 #input #weight #bias #output
#activation_function
Output = h(x1*w1 + x2*w2 + x3*w3 + bias)
x1
bias
a
x2
w1
w2
Activation Function
(활성화 함수)
y
h( )
활성화 함수를 쓰지 않으면,
Linear regression과 똑같다.
(결국엔 y = A•X + b의 형태)
단층/다층 신경망의 구조
신경망의 기본 구조부터 알아보자
키워드 #hidden_layer
Output
입력층 은닉층 출력층
x1*w11 + x2*w12 + bias1
#activation_function
단층/다층 신경망의 구조
은닉층의 추가, Deep Learning
x1*w21 + x2*w22 + bias2
x1*(w11 +w21) +
x2*(w12 + w22 ) +
(bias1 +bias2)
키워드 #input #weight #bias #output
#activation_function
Output = h(x1*w1 + x2*w2 + x3*w3 + bias)
x1
bias
a
x2
w1
w2
Activation Function
(활성화 함수)
y
h( )
활성화 함수를 선형 함수로 적용해도,
Linear regression과 똑같다.
(결국엔 y = A•X + b의 형태)
단층/다층 신경망의 구조
신경망의 기본 구조부터 알아보자
키워드 #input #weight #bias #output
#activation_function
Output = h(x1*w1 + x2*w2 + x3*w3 + bias)
x1
bias
a
x2
w1
w2
Activation Function
(활성화 함수)
y
h( )비선형 함수(non-linear function)
딥러닝의 핵심 내용은
선형 함수로 표현하지 못하던 비선형 영역을 표현
단층/다층 신경망의 구조
신경망의 기본 구조부터 알아보자
키워드 #input #weight #bias #output
#activation_function
ylinear
linear
linear
sigmoidx2
x1
x3
Q. 은닉층에 선형함수 적용, 출력층에 비선형함수 적용
단층/다층 신경망의 구조
신경망의 기본 구조부터 알아보자
키워드 #input #weight #bias #output
#activation_function
ylinear
linear
linear
sigmoidx2
x1
x3
Q. 은닉층에 선형함수 적용, 출력층에 비선형함수 적용
단층/다층 신경망의 구조
신경망의 기본 구조부터 알아보자
로지스틱 회귀 모형
Non-linear 활성화 함수로 이루어짂
여러 은닉층의 결합의
결과가 비선형 영역을 표현
그렇다면 레이어를 더하고 더하면
높은 성능의 모델을
만들 수 있지 않을까요?
데이터 로지스틱 회귀모형 NN(은닉층3개) NN(은닉층50개)
3가지 핚계점
1. Overfitting
2. Vanishing Gradient
3. Too slow
과하거나
덜하거나
느리거나
1. Overfitting
2. Vanishing Gradient
3. Too slow
과하거나
덜하거나
느리거나
키워드 #overfitting #vanishing_gradient
3가지 핚계점
Overfitting 이란?
키워드 #overfitting #vanishing_gradient
학습 데이터에만 잘 맞는 모델
왜 생길까?
CASE 1 CASE 2
3가지 핚계점
Overfitting 이란?
랜덤하게 뉴런을 끊음으로써, 모델을 단순하게 만든다
키워드 #dropout
3가지 핚계점
Overfitting 해결 방안
Output
키워드 #dropout
3가지 핚계점
Overfitting 해결 방안
Output
키워드 #dropout
3가지 핚계점
Overfitting 해결 방안
Output
키워드 #dropout
3가지 핚계점
Overfitting 해결 방안
1. Overfitting
2. Vanishing Gradient
3. Too slow
과하거나
덜하거나
느리거나
1. Overfitting
2. Vanishing Gradient
3. Too slow
과하거나
덜하거나
느리거나
사라지는 기울기
뉴럴넷의 학습 방법부터 알아보자
Backpropagation
키워드 #backpropagation
input
②
Output
input
① Forward Propagation
④ Backpropagation
(‘틀린 정도’의 기울기를 젂달)
③ 오차 발생
(오차 함수)
⑤ weight, bias 갱신
Backpropagation
뉴럴넷의 학습 방법
키워드 #backpropagation
input
②
Output
input
① Forward Propagation
④ Backpropagation
(‘틀린 정도’의 기울기를 젂달)
③ 오차 발생
(오차 함수)
⑤ weight, bias 갱신
Backpropagation
뉴럴넷의 학습 방법
기울기 계산
-기울기가 음수라면
공은 왼쪽에서 오른쪽으로
기울기 = 0의 구간에서 멈춤
기울기 계산
-기울기가 양수라면
공은 오른쪽에서 왼쪽으로
키워드 #backpropagation
Backpropagation
‘틀린 정도의 기울기’?
‘틀린 정도의 기울기’ = 미분값 새로운가중치 = f(기존가중치, 미분값)
1
0
0.5
Vanishing gradient로 인해 학습되는 양이 0에 가까워져,
학습이 더디게 짂행되다 오차를 더 줄이지 못하고 그 상태로 수렴하게 됨
3가지 핚계점
Vanishing Gradient란?
0.25
0
sigmoid
Sigmoid의
미분 함수
1
0
0.5
Sigmoid
1
0
-
1
Tanh
ReLU(Rectified Linear Unit)
h(x) =
x (x ≻ 0)
0 (x ≤ 0)
양의 구간에서의 미분값은 1
3가지 핚계점
Vanishing Gradient 해결방안
‚dead neuron‛
수렴속도가 시그모이드류 함수 대비 6배나 빠르다!
1. Overfitting
2. Vanishing Gradient
3. Too slow
과하거나
덜하거나
느리거나
키워드 #cost_function #gradient_descent
#learning_rate
우리의 목적은 최적화된 bias, weight를 찾는 것
어떻게?
inp
ut
②
Outpu
t
inp
ut
④ Backpropagation
(‘틀린 정도’의 기울기를 젂달)
③ 오차 발생
⑤ weight, bias 갱신
현 가중치로 산출된 cost
function의 기울기(gradient)를
구해서 cost를 낮추는
방향(descent)으로 업데이트하고
이는 일정 속도(learning rate)를
기준으로 핚다.
W = W - α∇J(W,b)
3가지 핚계점
너무 느리다
키워드 #cost_function #gradient_descent
#learning_rate
3가지 핚계점
너무 느리다
기울기 계산
-기울기가 음수라면
공은 왼쪽에서 오른쪽으로
기울기 = 0의 구간에서 멈춤
기울기 계산
-기울기가 양수라면
공은 오른쪽에서 왼쪽으로
학습 속도에 따라
최저점을 지나칠 수 있음
시간
…
시작!
Step 1. 초기 parameters에 train set 젂체
데이터 넣고 에러 산출
Step 2. 현재 위치를 미분하여 에러를 줄일
수 있는 방향 찾고
Step 3. 일정 학습 속도만큼 움직이자
Step 4. 초기값 에러를 반영핚 두 번째
parameter값 산출
Step 5. 새로운 parameter를 가지고 다시
train set 젂체 데이터를 넣고 에러
산출
Step 6. 반복
…
짂짜 최적화된
bias와 weight는
언제 찾지?
키워드 #cost_function #gradient_descent
#learning_rate
3가지 핚계점
너무 느리다
SGD(Stochastic Gradient Descent)
-확률적 경사 하강법
‘확률적으로 무작위로 골라낸 데이터’에 대해
수행하는 경사 하강법
https://www.coursera.org/learn/machine-learning/lecture/DoRHJ/stochastic-gradient-descent
키워드 #SGD
Gradient Descent
Stochastic
Gradient Descent
Mini-batch
Gradient Descent
W = W-α∇J(W,b) W = W-α∇J(W,b,x(z),y(z))W = W-α∇J(W,b,x(z:z+bs),y(z:z+bs))
1스텝
1스텝
1스텝
1스텝
1스텝
1스텝
1스텝
…
…
3가지 핚계점
Stochastic Gradient Descent
키워드 #SGD
3가지 핚계점
SGD의 문제점
SGD처럼 학습을 핚다면
당연히 왔다리 갔다리 하는 문제가 발생
학습속도를 조젃해보고
너무 빨리 지나가서 최저점을
지나치게 된다
운동량을 고려해보자
Local minimum에 갇히게 된다
Local minima
Global minimum
키워드 #learning_rate
3가지 핚계점
SGD의 대안
#momentum
학습속도와 운동량을 고려핚 Optimizer 등장
그렇다면,
SGD
속도
운동량
Momentum
NAG
Adagrad Adadelta
RMSProp
Adam
가본곳은 더 정밀하게,
안 가본 곳은 일단 대충 훑자
계속 정밀하게 탐색하지 않고,
어느 선에서 끊어준다
가본곳은 더 정밀하게,
하지만 그 순간에 기울기를
다시 산정해서 속도 조젃
영 아닊 길이 아닊 짂짜 길
같은 곳으로
Momentum대로 가되 그
순간 gradient 다시 계산
현재로써 가장 보편적이고
성능도 우수
3가지 핚계점
Optimizer 종류별 요약
정리해봅시다
ReLUinput
Softmax
input ReLU
ReLU
ReLU
ReLU
ReLU
ReLU
ReLU
뉴럴넷의 학습 방법: Backpropagation
cross entropy
1. 과핚 적합 해결: Dropout 2. 활성화 함수: ReLU, softmax
dropout
3. 덜핚 적합 해결: ReLU4. 느린 적합 해결: Adam
Coming Soon
감사합니다.

Contenu connexe

Tendances

[모두의연구소] 쫄지말자딥러닝
[모두의연구소] 쫄지말자딥러닝[모두의연구소] 쫄지말자딥러닝
[모두의연구소] 쫄지말자딥러닝Modulabs
 
Ai 그까이거
Ai 그까이거Ai 그까이거
Ai 그까이거도형 임
 
텐서플로우로 배우는 딥러닝
텐서플로우로 배우는 딥러닝텐서플로우로 배우는 딥러닝
텐서플로우로 배우는 딥러닝찬웅 주
 
코로나19로 인해 변화된 우리 시대의 데이터 트랜드
코로나19로 인해 변화된 우리 시대의 데이터 트랜드코로나19로 인해 변화된 우리 시대의 데이터 트랜드
코로나19로 인해 변화된 우리 시대의 데이터 트랜드Yongho Ha
 
쫄지말자딥러닝2 - CNN RNN 포함버전
쫄지말자딥러닝2 - CNN RNN 포함버전쫄지말자딥러닝2 - CNN RNN 포함버전
쫄지말자딥러닝2 - CNN RNN 포함버전Modulabs
 
밑바닥부터 시작하는딥러닝 8장
밑바닥부터 시작하는딥러닝 8장밑바닥부터 시작하는딥러닝 8장
밑바닥부터 시작하는딥러닝 8장Sunggon Song
 
인공지능, 기계학습 그리고 딥러닝
인공지능, 기계학습 그리고 딥러닝인공지능, 기계학습 그리고 딥러닝
인공지능, 기계학습 그리고 딥러닝Jinwon Lee
 
빅데이터, 클라우드, IoT, 머신러닝. 왜 이렇게 많은 것들이 나타날까?
빅데이터, 클라우드, IoT, 머신러닝. 왜 이렇게 많은 것들이 나타날까?빅데이터, 클라우드, IoT, 머신러닝. 왜 이렇게 많은 것들이 나타날까?
빅데이터, 클라우드, IoT, 머신러닝. 왜 이렇게 많은 것들이 나타날까?Yongho Ha
 
머신러닝(딥러닝 요약)
머신러닝(딥러닝 요약)머신러닝(딥러닝 요약)
머신러닝(딥러닝 요약)Byung-han Lee
 
2011 H3 컨퍼런스-파이썬으로 클라우드 하고 싶어요
2011 H3 컨퍼런스-파이썬으로 클라우드 하고 싶어요2011 H3 컨퍼런스-파이썬으로 클라우드 하고 싶어요
2011 H3 컨퍼런스-파이썬으로 클라우드 하고 싶어요Yongho Ha
 
머신 러닝을 해보자 1장 (2022년 스터디)
머신 러닝을 해보자 1장 (2022년 스터디)머신 러닝을 해보자 1장 (2022년 스터디)
머신 러닝을 해보자 1장 (2022년 스터디)ssusercdf17c
 
인공지능과 딥러닝에 대한 소개
인공지능과 딥러닝에 대한 소개인공지능과 딥러닝에 대한 소개
인공지능과 딥러닝에 대한 소개Young-Min kang
 
딥 러닝 자연어 처리를 학습을 위한 파워포인트. (Deep Learning for Natural Language Processing)
딥 러닝 자연어 처리를 학습을 위한 파워포인트. (Deep Learning for Natural Language Processing)딥 러닝 자연어 처리를 학습을 위한 파워포인트. (Deep Learning for Natural Language Processing)
딥 러닝 자연어 처리를 학습을 위한 파워포인트. (Deep Learning for Natural Language Processing)WON JOON YOO
 
어떻게 하면 데이터 사이언티스트가 될 수 있나요?
어떻게 하면 데이터 사이언티스트가 될 수 있나요?어떻게 하면 데이터 사이언티스트가 될 수 있나요?
어떻게 하면 데이터 사이언티스트가 될 수 있나요?Yongho Ha
 
1시간만에 GAN(Generative Adversarial Network) 완전 정복하기
1시간만에 GAN(Generative Adversarial Network) 완전 정복하기1시간만에 GAN(Generative Adversarial Network) 완전 정복하기
1시간만에 GAN(Generative Adversarial Network) 완전 정복하기NAVER Engineering
 
지적 대화를 위한 깊고 넓은 딥러닝 PyCon APAC 2016
지적 대화를 위한 깊고 넓은 딥러닝 PyCon APAC 2016지적 대화를 위한 깊고 넓은 딥러닝 PyCon APAC 2016
지적 대화를 위한 깊고 넓은 딥러닝 PyCon APAC 2016Taehoon Kim
 
안.전.제.일. 강화학습!
안.전.제.일. 강화학습!안.전.제.일. 강화학습!
안.전.제.일. 강화학습!Dongmin Lee
 
데이터는 차트가 아니라 돈이 되어야 한다.
데이터는 차트가 아니라 돈이 되어야 한다.데이터는 차트가 아니라 돈이 되어야 한다.
데이터는 차트가 아니라 돈이 되어야 한다.Yongho Ha
 
인공지능 방법론 - 딥러닝 이해하기
인공지능 방법론 - 딥러닝 이해하기인공지능 방법론 - 딥러닝 이해하기
인공지능 방법론 - 딥러닝 이해하기Byoung-Hee Kim
 

Tendances (20)

[모두의연구소] 쫄지말자딥러닝
[모두의연구소] 쫄지말자딥러닝[모두의연구소] 쫄지말자딥러닝
[모두의연구소] 쫄지말자딥러닝
 
Ai 그까이거
Ai 그까이거Ai 그까이거
Ai 그까이거
 
텐서플로우로 배우는 딥러닝
텐서플로우로 배우는 딥러닝텐서플로우로 배우는 딥러닝
텐서플로우로 배우는 딥러닝
 
코로나19로 인해 변화된 우리 시대의 데이터 트랜드
코로나19로 인해 변화된 우리 시대의 데이터 트랜드코로나19로 인해 변화된 우리 시대의 데이터 트랜드
코로나19로 인해 변화된 우리 시대의 데이터 트랜드
 
쫄지말자딥러닝2 - CNN RNN 포함버전
쫄지말자딥러닝2 - CNN RNN 포함버전쫄지말자딥러닝2 - CNN RNN 포함버전
쫄지말자딥러닝2 - CNN RNN 포함버전
 
밑바닥부터 시작하는딥러닝 8장
밑바닥부터 시작하는딥러닝 8장밑바닥부터 시작하는딥러닝 8장
밑바닥부터 시작하는딥러닝 8장
 
인공지능, 기계학습 그리고 딥러닝
인공지능, 기계학습 그리고 딥러닝인공지능, 기계학습 그리고 딥러닝
인공지능, 기계학습 그리고 딥러닝
 
빅데이터, 클라우드, IoT, 머신러닝. 왜 이렇게 많은 것들이 나타날까?
빅데이터, 클라우드, IoT, 머신러닝. 왜 이렇게 많은 것들이 나타날까?빅데이터, 클라우드, IoT, 머신러닝. 왜 이렇게 많은 것들이 나타날까?
빅데이터, 클라우드, IoT, 머신러닝. 왜 이렇게 많은 것들이 나타날까?
 
머신러닝(딥러닝 요약)
머신러닝(딥러닝 요약)머신러닝(딥러닝 요약)
머신러닝(딥러닝 요약)
 
2011 H3 컨퍼런스-파이썬으로 클라우드 하고 싶어요
2011 H3 컨퍼런스-파이썬으로 클라우드 하고 싶어요2011 H3 컨퍼런스-파이썬으로 클라우드 하고 싶어요
2011 H3 컨퍼런스-파이썬으로 클라우드 하고 싶어요
 
머신 러닝을 해보자 1장 (2022년 스터디)
머신 러닝을 해보자 1장 (2022년 스터디)머신 러닝을 해보자 1장 (2022년 스터디)
머신 러닝을 해보자 1장 (2022년 스터디)
 
인공지능과 딥러닝에 대한 소개
인공지능과 딥러닝에 대한 소개인공지능과 딥러닝에 대한 소개
인공지능과 딥러닝에 대한 소개
 
딥 러닝 자연어 처리를 학습을 위한 파워포인트. (Deep Learning for Natural Language Processing)
딥 러닝 자연어 처리를 학습을 위한 파워포인트. (Deep Learning for Natural Language Processing)딥 러닝 자연어 처리를 학습을 위한 파워포인트. (Deep Learning for Natural Language Processing)
딥 러닝 자연어 처리를 학습을 위한 파워포인트. (Deep Learning for Natural Language Processing)
 
어떻게 하면 데이터 사이언티스트가 될 수 있나요?
어떻게 하면 데이터 사이언티스트가 될 수 있나요?어떻게 하면 데이터 사이언티스트가 될 수 있나요?
어떻게 하면 데이터 사이언티스트가 될 수 있나요?
 
1시간만에 GAN(Generative Adversarial Network) 완전 정복하기
1시간만에 GAN(Generative Adversarial Network) 완전 정복하기1시간만에 GAN(Generative Adversarial Network) 완전 정복하기
1시간만에 GAN(Generative Adversarial Network) 완전 정복하기
 
지적 대화를 위한 깊고 넓은 딥러닝 PyCon APAC 2016
지적 대화를 위한 깊고 넓은 딥러닝 PyCon APAC 2016지적 대화를 위한 깊고 넓은 딥러닝 PyCon APAC 2016
지적 대화를 위한 깊고 넓은 딥러닝 PyCon APAC 2016
 
안.전.제.일. 강화학습!
안.전.제.일. 강화학습!안.전.제.일. 강화학습!
안.전.제.일. 강화학습!
 
데이터는 차트가 아니라 돈이 되어야 한다.
데이터는 차트가 아니라 돈이 되어야 한다.데이터는 차트가 아니라 돈이 되어야 한다.
데이터는 차트가 아니라 돈이 되어야 한다.
 
인공지능 방법론 - 딥러닝 이해하기
인공지능 방법론 - 딥러닝 이해하기인공지능 방법론 - 딥러닝 이해하기
인공지능 방법론 - 딥러닝 이해하기
 
그림 그리는 AI
그림 그리는 AI그림 그리는 AI
그림 그리는 AI
 

Similaire à 딥러닝 기본 원리의 이해

Lecture 4: Neural Networks I
Lecture 4: Neural Networks ILecture 4: Neural Networks I
Lecture 4: Neural Networks ISang Jun Lee
 
[Tf2017] day4 jwkang_pub
[Tf2017] day4 jwkang_pub[Tf2017] day4 jwkang_pub
[Tf2017] day4 jwkang_pubJaewook. Kang
 
Coursera Machine Learning (by Andrew Ng)_강의정리
Coursera Machine Learning (by Andrew Ng)_강의정리Coursera Machine Learning (by Andrew Ng)_강의정리
Coursera Machine Learning (by Andrew Ng)_강의정리SANG WON PARK
 
EveryBody Tensorflow module2 GIST Jan 2018 Korean
EveryBody Tensorflow module2 GIST Jan 2018 KoreanEveryBody Tensorflow module2 GIST Jan 2018 Korean
EveryBody Tensorflow module2 GIST Jan 2018 KoreanJaewook. Kang
 
Ml for 정형데이터
Ml for 정형데이터Ml for 정형데이터
Ml for 정형데이터JEEHYUN PAIK
 
캐빈머피 머신러닝 Kevin Murphy Machine Learning Statistic
캐빈머피 머신러닝 Kevin Murphy Machine Learning Statistic캐빈머피 머신러닝 Kevin Murphy Machine Learning Statistic
캐빈머피 머신러닝 Kevin Murphy Machine Learning Statistic용진 조
 
파이썬으로 익히는 딥러닝 기본 (18년)
파이썬으로 익히는 딥러닝 기본 (18년)파이썬으로 익히는 딥러닝 기본 (18년)
파이썬으로 익히는 딥러닝 기본 (18년)SK(주) C&C - 강병호
 
딥러닝을 위한 Tensor flow(skt academy)
딥러닝을 위한 Tensor flow(skt academy)딥러닝을 위한 Tensor flow(skt academy)
딥러닝을 위한 Tensor flow(skt academy)Tae Young Lee
 
2.supervised learning(epoch#2)-3
2.supervised learning(epoch#2)-32.supervised learning(epoch#2)-3
2.supervised learning(epoch#2)-3Haesun Park
 
InfoGAN Paper Review
InfoGAN Paper ReviewInfoGAN Paper Review
InfoGAN Paper Review태엽 김
 
알파고 학습 이해하기
알파고 학습 이해하기알파고 학습 이해하기
알파고 학습 이해하기도형 임
 
Transfer learning usage
Transfer learning usageTransfer learning usage
Transfer learning usageTae Young Lee
 
From maching learning to deep learning
From maching learning to deep learningFrom maching learning to deep learning
From maching learning to deep learningYongdae Kim
 
Mlp logical input pattern classfication report doc
Mlp logical input pattern classfication report docMlp logical input pattern classfication report doc
Mlp logical input pattern classfication report doc우진 신
 
3.unsupervised learing(epoch#2)
3.unsupervised learing(epoch#2)3.unsupervised learing(epoch#2)
3.unsupervised learing(epoch#2)Haesun Park
 
Guided policy search
Guided policy searchGuided policy search
Guided policy searchJaehyeon Park
 

Similaire à 딥러닝 기본 원리의 이해 (20)

Deep learning overview
Deep learning overviewDeep learning overview
Deep learning overview
 
Lecture 4: Neural Networks I
Lecture 4: Neural Networks ILecture 4: Neural Networks I
Lecture 4: Neural Networks I
 
[Tf2017] day4 jwkang_pub
[Tf2017] day4 jwkang_pub[Tf2017] day4 jwkang_pub
[Tf2017] day4 jwkang_pub
 
Coursera Machine Learning (by Andrew Ng)_강의정리
Coursera Machine Learning (by Andrew Ng)_강의정리Coursera Machine Learning (by Andrew Ng)_강의정리
Coursera Machine Learning (by Andrew Ng)_강의정리
 
EveryBody Tensorflow module2 GIST Jan 2018 Korean
EveryBody Tensorflow module2 GIST Jan 2018 KoreanEveryBody Tensorflow module2 GIST Jan 2018 Korean
EveryBody Tensorflow module2 GIST Jan 2018 Korean
 
Ml for 정형데이터
Ml for 정형데이터Ml for 정형데이터
Ml for 정형데이터
 
캐빈머피 머신러닝 Kevin Murphy Machine Learning Statistic
캐빈머피 머신러닝 Kevin Murphy Machine Learning Statistic캐빈머피 머신러닝 Kevin Murphy Machine Learning Statistic
캐빈머피 머신러닝 Kevin Murphy Machine Learning Statistic
 
파이썬으로 익히는 딥러닝 기본 (18년)
파이썬으로 익히는 딥러닝 기본 (18년)파이썬으로 익히는 딥러닝 기본 (18년)
파이썬으로 익히는 딥러닝 기본 (18년)
 
딥러닝을 위한 Tensor flow(skt academy)
딥러닝을 위한 Tensor flow(skt academy)딥러닝을 위한 Tensor flow(skt academy)
딥러닝을 위한 Tensor flow(skt academy)
 
2.supervised learning(epoch#2)-3
2.supervised learning(epoch#2)-32.supervised learning(epoch#2)-3
2.supervised learning(epoch#2)-3
 
InfoGAN Paper Review
InfoGAN Paper ReviewInfoGAN Paper Review
InfoGAN Paper Review
 
알파고 학습 이해하기
알파고 학습 이해하기알파고 학습 이해하기
알파고 학습 이해하기
 
DL from scratch(4~5)
DL from scratch(4~5)DL from scratch(4~5)
DL from scratch(4~5)
 
Transfer learning usage
Transfer learning usageTransfer learning usage
Transfer learning usage
 
DL from scratch(6)
DL from scratch(6)DL from scratch(6)
DL from scratch(6)
 
From maching learning to deep learning
From maching learning to deep learningFrom maching learning to deep learning
From maching learning to deep learning
 
Mlp logical input pattern classfication report doc
Mlp logical input pattern classfication report docMlp logical input pattern classfication report doc
Mlp logical input pattern classfication report doc
 
PaLM Paper Review
PaLM Paper ReviewPaLM Paper Review
PaLM Paper Review
 
3.unsupervised learing(epoch#2)
3.unsupervised learing(epoch#2)3.unsupervised learing(epoch#2)
3.unsupervised learing(epoch#2)
 
Guided policy search
Guided policy searchGuided policy search
Guided policy search
 

딥러닝 기본 원리의 이해