SlideShare une entreprise Scribd logo
1  sur  100
딥러닝
역사와 이론적 기초
딥러닝
역사와 이론적 기초
2017
(주)오토마타
류형수
이 노트의 특징
수학적 표기는 가급적 지양 수포자를 위한 해설
Breaking stone
용어 중심 설명
"소프트웨어 개발자 관점에서 바라본 딥러닝"
...을 지향합니다
딥 러닝?
이전의 연구들
프로그래밍으로 풀수 없는 문제들
프로그래밍으로 풀려면
if() then {
} else if() then {
} else if() then {
} else if() then { } else if() then { } else if() then { } else if() then {
….
가능한 모든 경우에 대비
그래도 예외 상황은 생긴다
이전의 연구들
프로그램으로 풀수 없는 문제들
통계
확률
퍼지
머신러닝
WEIGHT
퍼셉트론
1957년 Frank Rosenblatt
퍼셉트론
x1, x2 : 입력 input
w1, w2: 가중치 weight
y: 출력 output
퍼셉트론
x1 : 비가 온다
x2 : 여친이 만나자고 한다
w1: 비를 좋아하는 정도
w2: 여친을 좋아하는 정도
y: 외출한다/안한다
퍼셉트론
x1 : 비가 온다 = 1
x2 : 여친이 만나자고 한다 = 1
w1: 비를 좋아하는 정도 = -5
w2: 여친을 좋아하는 정도 = 6
y: 1x-5+1x6 = 1 : 외출한다
퍼셉트론
Activation function
퍼셉트론
인간두뇌와 유사한 기작
퍼셉트론
y 가 얼마일때 외출하는가?
1이면?
10이면?
0이면?
-1.5면?
0.3이면?
퍼셉트론
x1 : 비가 온다 = 1
x2 : 여친이 만나자고 한다 = 1
w1: 비를 좋아하는 정도 = -5
w2: 여친을 좋아하는 정도 = 6
y: 1x-5+1x6 = 1 : 외출한다
난 태생적으로 비가 싫어 : -2
y: 1x-5+1x6 - 2 = -1 : 외출안함
퍼셉트론
Y = X1W1 + X2W2
Y = X1W1 + X2W2 + B
Bias
Y = X1W1 + X2W2 + B = 1 or 0 (Activation)
퍼셉트론
Y = X1W1 + X2W2 + B = 1 or 0 (Activation)
언젠가 어디선가 본듯한 모습인데?
퍼셉트론
Y = X1W1 + X2W2 + B (= 1 or 0 (Activation))
W1X1 + W2X2 + (B-Y) = 0
...
ax + by + c = 0 (y=ax+b)
퍼셉트론
퍼셉트론
결국 직선 그리는 거였어 ...
퍼셉트론
W1X1+W2X2+B
X1
X2
B
W1
W2
Y
퍼셉트론
Linear Classifier
퍼셉트론
즉 한개의 퍼셉트론의 가중치와 바이어스를 조절하여 선형분류가 가능
=> 선형회귀분석
=> SVM
퍼셉트론
Logic gate
퍼셉트론
잠깐만요! XOR는요?
퍼셉트론
…...
퍼셉트론
…...
퍼셉트론
1969 minsky and papert
퍼셉트론이 XOR연산을 할 수 없음을 증명함
"인공지능 연구의 1차 빙하기를 알리는 서막"
그러나 희망은 보였다
다층 퍼셉트론
1969 minsky and papert
"다층퍼셉트론(Multi Layer Perceptron MLP)으로 XOR연산이 가능!"
0 0 0
0 1 1
1 1 1
1 1 1
0 0 0
0 1 0
1 1 0
1 1 1
0 0 1
0 1 1
1 1 1
1 1 0
AND -> NAND & OR = XOR
0 0 0
0 1 1
1 1 1
1 1 0
다층 퍼셉트론
OR
AND NOT
OR
X1
X2
Y1
Neural Network전형적인 형태인 MLP
다층 퍼셉트론
다층퍼셉트론으로 더 많은 문제를 해결할 수 있게 되었으나
여전히 남은 문제들
비선형 분류의 어려움
다층으로 쌓아올린 퍼셉트론의 학습방법 부재
.......
빙하기 돌입
다층 퍼셉트론
Perceptrons (1969) by Marvin Minsky, founder of the MIT AI Lab
We need to use MLP, multilayer perceptrons (multilayer neural nets)
No one on earth had found a viable way to train MLPs good enough to learn such
simple functions.
Back Propagation
1974 1982 paul werbos
1986 geoffrey hinton
Back Propagation
MLP의 계산값과 실제 값의 오차를 이용해서 가중치를 조정한다
오, 대단해요!
어떻게?
Back Propagation
MLP의 계산값과 실제 값의 오차를 이용해서 가중치를 조정한다
오, 대단해요!
어떻게?
모든 가중치를 다 입력해보고 제일 결과가 좋은 가중치를 선택한다
Back Propagation
MLP의 계산값과 실제 값의 오차를 이용해서 가중치를 조정한다
오, 대단해요!
어떻게?
모든 가중치를 다 입력해보고 제일 결과가 좋은 가중치를 선택한다
Brute force 기법
Back Propagation
MLP의 계산값과 실제 값의 오차를 이용해서 가중치를 조정한다
오, 대단해요!
어떻게?
랜덤하게 때려넣고 우연히 좋은 값을 찾는다
Back Propagation
MLP의 계산값과 실제 값의 오차를 이용해서 가중치를 조정한다
오, 대단해요!
어떻게?
랜덤하게 때려넣고 우연히 좋은 값을 찾는다
Monte Carlo 기법
Back Propagation
MLP의 계산값과 실제 값의 오차를 이용해서 가중치를 조정한다
어떻게?
각각의 가중치들이 결과에 얼마나 영향을 주었는가를 계산한다
각각의 가중치는 어떤 기울기를 가지고 있는가?
Back Propagation
오차 함수(비용함수 Cost function)
power(Y-H,2)
Back Propagation
MLP의 계산값과 실제 값의 오차를 이용해서 가중치를 조정한다
어떻게?
각각의 가중치들이 결과에 얼마나 영향을 주었는가를 계산한다
각각의 가중치는 어떤 기울기를 가지고 있는가?
오차를 가중치로 미분한다
가중치가 여럿 있는 경우 각각의 가중치에 대해 편미분한다
Back Propagation
그래도 알아두면 좋은 용어들
체인 룰, 델타
Back Propagation
미분 ... 가능한가요?
Back Propagation
미분 가능한 Activation function(Squashing function) 필요
Back Propagation
Sigmoid
- ∞ ~ ∞ 을 0과 1로 변환시킨다(Activation)
미분하기도 편하다(연산량이 적다)
Back Propagation
한 줄 요약해주세요!
결과와 목표치의 오차를 가중치로 미분해서 음의기울기 방향으로 가중치를 변경한
다
Back Propagation
......
Back Propagation
결과
네트워크의 출력: Hypothesis
=
H = sigmoid(W1X1 + W2X2 + b)
Back Propagation
목표치
원하는 답, 정답, 기대값, 레이블
오차, Cost
목표치 - 출력
Back Propagation
Learning (학습)이란?
Cost 를 줄이는 과정
어떻게?
가중치를 변경하여서 …
어떻게?
Cost 를 가중치에 대해 미분해서 기울기(Gradient)를 얻고...
Back Propagation
어떻게 Cost 를 줄일 것인가?
앞이 안 보이는 산속에서 땅으로 내려가려면?
주위를 보고 낮은 걸음으로 한 걸음 간다
이를 반복하면 점점 더 낮은 곳으로 내려올 수 있다.
Back Propagation
이상적인 Cost 함수
그러나 현실은 이상과 다르다
Back Propagation
Graient Descent (경사하강법 GD)
목표값은 모르지만 현재 기울기를 알고 있을때 최적값을 찾아나가는 과정
Back Propagation
Gradient descent의 함정 Local minima
(이 골짝이 아닌게벼...)
Back Propagation
Local minima에 갇히지 않으려면
1. 잘 설계된 Cost 함수
2. GD 외의 최적화 기법
(SGD, ADAM, Adagrad, NAG …)
3. Random Learning rate
Back Propagation
그러면 가중치를 얼마나 바꿔야 할까?
Learning Rate
너무 크면?
발산(Divergence)의 우려
너무 작으면?
국지적 최저점(Local minima)에 갖힐 우려
경험이 필요
Back Propagation
Back Propagation
"이로써 신경망 학습이 가능해졌다"
The world has gave back peace again
They lived happily ever and after
Back Propagation
but …
새로운 적의 출현
Why deep learning?
은닉층의 수가 많을 수록 더 복잡한 문제를 해결할 수 있어서 hidden layer 의 수를
늘린 것을 deep neural network DNN 이라고 한다. (반대의 경우는 shallow neural
network) 따라서 DNN 을 학습시키는 것을 딥러닝이라고 한다
Why deep?
왜 은닉층의 수가 많을 수록 더 복잡한 문제를 해결할 수 있는가?
각 층을 지나면서 층의 출력이 다음 층의 입력이 되고 더 추상화된 데이터의
Feature 를 학습하게 된다고 한다.
전통적으로 데이터 Feature 는 통계나 데이터 전문가들에 의해 잘 선택되어 모델링
에 사용되었으나 이러한 DNN 의 feature extraction 능력 때문에 신경망이 좋은 결
과를 낸다고 한다.
그렇다면 ....
오빠, 달려!
그랬더니 ...
Backpropagation이 안되는 현상 발생
…...
Vanishing Gradient
너무 깊은 신경망에서 Backpropagation 이 진행될 수록 미분값이 0에 가까와지는
현상
“경사가 없어졌어! 우린 길을 잃었다!”
두세개 정도밖에는 네트워크 층을 쌓아올릴 수 없음
Vanishing Gradient
너무 깊은 신경망에서 Backpropagation 이 진행될 수록 미분값이 0에 가까와지는
현상
“이 문제는 20년간 해결되지 못했다”
Vanishing Gradient
너무 깊은 신경망에서 Backpropagation 이 진행될 수록 미분값이 0에 가까와지는
현상
“이 문제는 20년간 해결되지 못했다”
“또 다시 엄습한 인공지능 제 2의 빙하기”
Vanishing Gradient
너무 깊은 신경망에서 Backpropagation 이 진행될 수록 미분값이 0에 가까와지는
현상
“이 문제는 20년간 해결되지 못했다”
“또 다시 엄습한 인공지능 제 2의 빙하기”
인공지능 연구 영구됐 = 영구기관 특허처럼 논문 접수 자체를 거부
Hinton again
Hinton 왈...
“우리가 Activation 함수를 잘못 사용한 것 같아”
Hinton 왈...
“우리가 Activation 함수를 잘못 사용한 것 같아”
문제는 Sigmoid 였다 …
Sigmoid 특성상 미분을 거듭할 수록 급격히 0에 가까와짐
새로운 대안이 필요
ReLU
TANH
Maxout
results
Sigmoid 보다 좋은 결과들을 보여줌
20년간의 긴 잠 끝에
연구자들의 끊임 없는 문제 해결 노력으로
다시 인공지능 연구가 활발해짐
Hinton 같은 기여자들의 공헌이 크고
그의 제자 등이 주축인 딥마인드는 마침내 알파고를 개발
4차산업의 도래를 알림
인공지능 부흥의 요인
1. 알고리즘의 개선
MLP
Backpropagation
Vanishing gradient solution
인공지능 부흥의 요인
2.하드웨어의 개선
문자인식 학습에 최신 진
공관 컴퓨터로 얼마 걸리
겠소?
어디보자 ... 105년 11개
월 20일 4시간 50분 45초
가 필요하겠군요
인공지능 부흥의 요인
특히나 GPU사용으로 획기적인 학습시간 개선
Vector, Matrix 연산에 드는 시간 대폭적인 감소
하지만 뭐니뭐니 해도
“Big Data”
적은데이터로 아무리 열심히 학습해도 오버피팅(과적합) 만 발생
모든것이 데이터화되어가는 현대가 인공지능 연구의 온상
IBM 회장 "데이터는 제 21세기의 천연 자원이다"
하지만 뭐니뭐니 해도
Big Data 없는 딥러닝은 생각할 수 없다
10개의 숫자 학습용 사진 - 5만5천장
딥페이스 - 얼굴사진 400만장
구글의 고양이 사진 인식 - 900만장
바꾸어 말하자면…
“인공지능 강자가 되려면 알고리즘 연구하려 하지 말고 데이터를 어떻게 확보할 것
인지를 고민해라”
Neural Network 의 종류
FFN
CNN
RNN
Hopfield
RBM
…. 정말 다양하다
FFN (Feed Forward Network)
지금까지 언급한 대표적 네트워크
전방향으로 계산한다고 해서 이런 이름이 붙여졌다
CNN (Convolutional Neurla Network)
데이터의 합성곱을 반복하여 Feature 를 추출하고 학습하는 네트워크
이미지 인식에 많이 사용 (MNIST 99%)
CNN (Convolutional Neurla Network)
데이터의 합성곱을 반복하여 Feature 를 추출하고 학습하는 네트워크
이미지 인식에 많이 사용 (MNIST 99%)
RNN (Recurrent Neural Network)
1회의 데이터가 아니라 과거의 데이터도 학습에 이용
순서를 가지는 정보(sequence), 즉 언어, 음성, 동영상 모델링에 많이 쓰임
이 모델도 vanishing gradient 문제가 있어서 lstm(long-short term memory), gru 등
으로 개량
RNN (Recurrent Neural Network)
LSTM
Wavenet
Deep mind
wave 를 컨볼루션하여 TTS, 음성인식 등에 이용
RBM (Restricted Boltzman Machines)
비지도 학습(Unsupervised Learning) 모델
입력층에서 전달된 데이터로 재구성한 데이터를 다시 입력층으로 전달하여 코스트
를 계산하고 줄여가는 학습
Auto encoder
Hopfield network
비지도 학습(Unsupervised Learning) 모델
모든 노드가 서로에게 연결된 형태
노이즈를 복원하는 능력이 탁월
SOM (Self Oraganization Map)
비지도 학습(Unsupervised Learning) 모델
Winner takes it all 방식의 학습을 통해서 데이터간 클러스터링을 수행
RL (Reinforcement Learning)
비지도 학습(Unsupervised Learning) 모델
보상을 극대화려는 쪽으로 학습
Network Modeling Frameworks
Tensorflow
구글에서 개발한 인공지능 프레임워크 C, Python 지원
[Theano, Cafe, Keras, CNTK]
Network Modeling Frameworks
Tensorboard, matplotlib
Network Modeling Frameworks
H2O, DL4j : Pure java
Torch : Lua
ConvnetJS, Synaptic, brain : Javascript
Tiny deep learning code
import numpy as np
X = np.array([ [0,0,1],
[0,1,1],
[1,0,1],
[1,1,1,] ])
y = np.array([[0,1,1,0]]).T
syn0 = 2*np.random.random((3,4)) -1
syn1 = 2*np.random.random((4,1)) -1
for j in range(60000):
l1 = 1 / (1+np.exp(-(np.dot(X, syn0))))
l2 = 1 / (1+np.exp(-(np.dot(l1, syn1))))
l2_delta = (y - l2)*(l2*(1-l2))
l1_delta = l2_delta.dot(syn1.T) * (l1*(1-l1))
syn1 += l1.T.dot(l2_delta)
syn0 += X.T.dot(l1_delta)
추천강좌
모두를 위한 딥러닝
https://hunkim.github.io/ml/
Questions?

Contenu connexe

Tendances

딥러닝의 기본
딥러닝의 기본딥러닝의 기본
딥러닝의 기본deepseaswjh
 
CNN 초보자가 만드는 초보자 가이드 (VGG 약간 포함)
CNN 초보자가 만드는 초보자 가이드 (VGG 약간 포함)CNN 초보자가 만드는 초보자 가이드 (VGG 약간 포함)
CNN 초보자가 만드는 초보자 가이드 (VGG 약간 포함)Lee Seungeun
 
머신러닝(딥러닝 요약)
머신러닝(딥러닝 요약)머신러닝(딥러닝 요약)
머신러닝(딥러닝 요약)Byung-han Lee
 
텐서플로우로 배우는 딥러닝
텐서플로우로 배우는 딥러닝텐서플로우로 배우는 딥러닝
텐서플로우로 배우는 딥러닝찬웅 주
 
[모두의연구소] 쫄지말자딥러닝
[모두의연구소] 쫄지말자딥러닝[모두의연구소] 쫄지말자딥러닝
[모두의연구소] 쫄지말자딥러닝Modulabs
 
머신러닝의 자연어 처리기술(I)
머신러닝의 자연어 처리기술(I)머신러닝의 자연어 처리기술(I)
머신러닝의 자연어 처리기술(I)홍배 김
 
Neural network (perceptron)
Neural network (perceptron)Neural network (perceptron)
Neural network (perceptron)Jeonghun Yoon
 
코드와 실습으로 이해하는 인공지능
코드와 실습으로 이해하는 인공지능코드와 실습으로 이해하는 인공지능
코드와 실습으로 이해하는 인공지능도형 임
 
1시간만에 GAN(Generative Adversarial Network) 완전 정복하기
1시간만에 GAN(Generative Adversarial Network) 완전 정복하기1시간만에 GAN(Generative Adversarial Network) 완전 정복하기
1시간만에 GAN(Generative Adversarial Network) 완전 정복하기NAVER Engineering
 
텐서플로우 설치도 했고 튜토리얼도 봤고 기초 예제도 짜봤다면 TensorFlow KR Meetup 2016
텐서플로우 설치도 했고 튜토리얼도 봤고 기초 예제도 짜봤다면 TensorFlow KR Meetup 2016텐서플로우 설치도 했고 튜토리얼도 봤고 기초 예제도 짜봤다면 TensorFlow KR Meetup 2016
텐서플로우 설치도 했고 튜토리얼도 봤고 기초 예제도 짜봤다면 TensorFlow KR Meetup 2016Taehoon Kim
 
딥러닝과 강화 학습으로 나보다 잘하는 쿠키런 AI 구현하기 DEVIEW 2016
딥러닝과 강화 학습으로 나보다 잘하는 쿠키런 AI 구현하기 DEVIEW 2016딥러닝과 강화 학습으로 나보다 잘하는 쿠키런 AI 구현하기 DEVIEW 2016
딥러닝과 강화 학습으로 나보다 잘하는 쿠키런 AI 구현하기 DEVIEW 2016Taehoon Kim
 
[DL輪読会]Understanding deep learning requires rethinking generalization
[DL輪読会]Understanding deep learning requires rethinking generalization[DL輪読会]Understanding deep learning requires rethinking generalization
[DL輪読会]Understanding deep learning requires rethinking generalizationDeep Learning JP
 
코로나19로 인해 변화된 우리 시대의 데이터 트랜드
코로나19로 인해 변화된 우리 시대의 데이터 트랜드코로나19로 인해 변화된 우리 시대의 데이터 트랜드
코로나19로 인해 변화된 우리 시대의 데이터 트랜드Yongho Ha
 
深層学習の数理:カーネル法, スパース推定との接点
深層学習の数理:カーネル法, スパース推定との接点深層学習の数理:カーネル法, スパース推定との接点
深層学習の数理:カーネル法, スパース推定との接点Taiji Suzuki
 
TensorFlowで逆強化学習
TensorFlowで逆強化学習TensorFlowで逆強化学習
TensorFlowで逆強化学習Mitsuhisa Ohta
 
[DL輪読会]画像を使ったSim2Realの現況
[DL輪読会]画像を使ったSim2Realの現況[DL輪読会]画像を使ったSim2Realの現況
[DL輪読会]画像を使ったSim2Realの現況Deep Learning JP
 
쫄지말자딥러닝2 - CNN RNN 포함버전
쫄지말자딥러닝2 - CNN RNN 포함버전쫄지말자딥러닝2 - CNN RNN 포함버전
쫄지말자딥러닝2 - CNN RNN 포함버전Modulabs
 
ニューラルチューリングマシン入門
ニューラルチューリングマシン入門ニューラルチューリングマシン入門
ニューラルチューリングマシン入門naoto moriyama
 
빅데이터, 클라우드, IoT, 머신러닝. 왜 이렇게 많은 것들이 나타날까?
빅데이터, 클라우드, IoT, 머신러닝. 왜 이렇게 많은 것들이 나타날까?빅데이터, 클라우드, IoT, 머신러닝. 왜 이렇게 많은 것들이 나타날까?
빅데이터, 클라우드, IoT, 머신러닝. 왜 이렇게 많은 것들이 나타날까?Yongho Ha
 
遺伝的アルゴリズム (Genetic Algorithm)を始めよう!
遺伝的アルゴリズム(Genetic Algorithm)を始めよう!遺伝的アルゴリズム(Genetic Algorithm)を始めよう!
遺伝的アルゴリズム (Genetic Algorithm)を始めよう!Kazuhide Okamura
 

Tendances (20)

딥러닝의 기본
딥러닝의 기본딥러닝의 기본
딥러닝의 기본
 
CNN 초보자가 만드는 초보자 가이드 (VGG 약간 포함)
CNN 초보자가 만드는 초보자 가이드 (VGG 약간 포함)CNN 초보자가 만드는 초보자 가이드 (VGG 약간 포함)
CNN 초보자가 만드는 초보자 가이드 (VGG 약간 포함)
 
머신러닝(딥러닝 요약)
머신러닝(딥러닝 요약)머신러닝(딥러닝 요약)
머신러닝(딥러닝 요약)
 
텐서플로우로 배우는 딥러닝
텐서플로우로 배우는 딥러닝텐서플로우로 배우는 딥러닝
텐서플로우로 배우는 딥러닝
 
[모두의연구소] 쫄지말자딥러닝
[모두의연구소] 쫄지말자딥러닝[모두의연구소] 쫄지말자딥러닝
[모두의연구소] 쫄지말자딥러닝
 
머신러닝의 자연어 처리기술(I)
머신러닝의 자연어 처리기술(I)머신러닝의 자연어 처리기술(I)
머신러닝의 자연어 처리기술(I)
 
Neural network (perceptron)
Neural network (perceptron)Neural network (perceptron)
Neural network (perceptron)
 
코드와 실습으로 이해하는 인공지능
코드와 실습으로 이해하는 인공지능코드와 실습으로 이해하는 인공지능
코드와 실습으로 이해하는 인공지능
 
1시간만에 GAN(Generative Adversarial Network) 완전 정복하기
1시간만에 GAN(Generative Adversarial Network) 완전 정복하기1시간만에 GAN(Generative Adversarial Network) 완전 정복하기
1시간만에 GAN(Generative Adversarial Network) 완전 정복하기
 
텐서플로우 설치도 했고 튜토리얼도 봤고 기초 예제도 짜봤다면 TensorFlow KR Meetup 2016
텐서플로우 설치도 했고 튜토리얼도 봤고 기초 예제도 짜봤다면 TensorFlow KR Meetup 2016텐서플로우 설치도 했고 튜토리얼도 봤고 기초 예제도 짜봤다면 TensorFlow KR Meetup 2016
텐서플로우 설치도 했고 튜토리얼도 봤고 기초 예제도 짜봤다면 TensorFlow KR Meetup 2016
 
딥러닝과 강화 학습으로 나보다 잘하는 쿠키런 AI 구현하기 DEVIEW 2016
딥러닝과 강화 학습으로 나보다 잘하는 쿠키런 AI 구현하기 DEVIEW 2016딥러닝과 강화 학습으로 나보다 잘하는 쿠키런 AI 구현하기 DEVIEW 2016
딥러닝과 강화 학습으로 나보다 잘하는 쿠키런 AI 구현하기 DEVIEW 2016
 
[DL輪読会]Understanding deep learning requires rethinking generalization
[DL輪読会]Understanding deep learning requires rethinking generalization[DL輪読会]Understanding deep learning requires rethinking generalization
[DL輪読会]Understanding deep learning requires rethinking generalization
 
코로나19로 인해 변화된 우리 시대의 데이터 트랜드
코로나19로 인해 변화된 우리 시대의 데이터 트랜드코로나19로 인해 변화된 우리 시대의 데이터 트랜드
코로나19로 인해 변화된 우리 시대의 데이터 트랜드
 
深層学習の数理:カーネル法, スパース推定との接点
深層学習の数理:カーネル法, スパース推定との接点深層学習の数理:カーネル法, スパース推定との接点
深層学習の数理:カーネル法, スパース推定との接点
 
TensorFlowで逆強化学習
TensorFlowで逆強化学習TensorFlowで逆強化学習
TensorFlowで逆強化学習
 
[DL輪読会]画像を使ったSim2Realの現況
[DL輪読会]画像を使ったSim2Realの現況[DL輪読会]画像を使ったSim2Realの現況
[DL輪読会]画像を使ったSim2Realの現況
 
쫄지말자딥러닝2 - CNN RNN 포함버전
쫄지말자딥러닝2 - CNN RNN 포함버전쫄지말자딥러닝2 - CNN RNN 포함버전
쫄지말자딥러닝2 - CNN RNN 포함버전
 
ニューラルチューリングマシン入門
ニューラルチューリングマシン入門ニューラルチューリングマシン入門
ニューラルチューリングマシン入門
 
빅데이터, 클라우드, IoT, 머신러닝. 왜 이렇게 많은 것들이 나타날까?
빅데이터, 클라우드, IoT, 머신러닝. 왜 이렇게 많은 것들이 나타날까?빅데이터, 클라우드, IoT, 머신러닝. 왜 이렇게 많은 것들이 나타날까?
빅데이터, 클라우드, IoT, 머신러닝. 왜 이렇게 많은 것들이 나타날까?
 
遺伝的アルゴリズム (Genetic Algorithm)を始めよう!
遺伝的アルゴリズム(Genetic Algorithm)を始めよう!遺伝的アルゴリズム(Genetic Algorithm)を始めよう!
遺伝的アルゴリズム (Genetic Algorithm)を始めよう!
 

En vedette

Game AI Overview
Game AI OverviewGame AI Overview
Game AI Overview기룡 남
 
인공지능
인공지능인공지능
인공지능lsmgame
 
Introduce Deep learning & A.I. Applications
Introduce Deep learning & A.I. ApplicationsIntroduce Deep learning & A.I. Applications
Introduce Deep learning & A.I. ApplicationsMario Cho
 
의료에서의 인공지능 정리 파일 김치원 V5
의료에서의 인공지능 정리 파일 김치원 V5의료에서의 인공지능 정리 파일 김치원 V5
의료에서의 인공지능 정리 파일 김치원 V5Chiweon Kim
 
8월 24일 인공지능 사업화 세미나: IoT 스마트팩토리 솔루션 - 스태프프로젝트
8월 24일 인공지능 사업화 세미나: IoT 스마트팩토리 솔루션 - 스태프프로젝트8월 24일 인공지능 사업화 세미나: IoT 스마트팩토리 솔루션 - 스태프프로젝트
8월 24일 인공지능 사업화 세미나: IoT 스마트팩토리 솔루션 - 스태프프로젝트HELENA LEE
 
4차 산업혁명과 인공지능
4차 산업혁명과 인공지능4차 산업혁명과 인공지능
4차 산업혁명과 인공지능훈주 윤
 
AlphaGo 알고리즘 요약
AlphaGo 알고리즘 요약AlphaGo 알고리즘 요약
AlphaGo 알고리즘 요약Jooyoul Lee
 
알파고 (바둑 인공지능)의 작동 원리
알파고 (바둑 인공지능)의 작동 원리알파고 (바둑 인공지능)의 작동 원리
알파고 (바둑 인공지능)의 작동 원리Shane (Seungwhan) Moon
 

En vedette (8)

Game AI Overview
Game AI OverviewGame AI Overview
Game AI Overview
 
인공지능
인공지능인공지능
인공지능
 
Introduce Deep learning & A.I. Applications
Introduce Deep learning & A.I. ApplicationsIntroduce Deep learning & A.I. Applications
Introduce Deep learning & A.I. Applications
 
의료에서의 인공지능 정리 파일 김치원 V5
의료에서의 인공지능 정리 파일 김치원 V5의료에서의 인공지능 정리 파일 김치원 V5
의료에서의 인공지능 정리 파일 김치원 V5
 
8월 24일 인공지능 사업화 세미나: IoT 스마트팩토리 솔루션 - 스태프프로젝트
8월 24일 인공지능 사업화 세미나: IoT 스마트팩토리 솔루션 - 스태프프로젝트8월 24일 인공지능 사업화 세미나: IoT 스마트팩토리 솔루션 - 스태프프로젝트
8월 24일 인공지능 사업화 세미나: IoT 스마트팩토리 솔루션 - 스태프프로젝트
 
4차 산업혁명과 인공지능
4차 산업혁명과 인공지능4차 산업혁명과 인공지능
4차 산업혁명과 인공지능
 
AlphaGo 알고리즘 요약
AlphaGo 알고리즘 요약AlphaGo 알고리즘 요약
AlphaGo 알고리즘 요약
 
알파고 (바둑 인공지능)의 작동 원리
알파고 (바둑 인공지능)의 작동 원리알파고 (바둑 인공지능)의 작동 원리
알파고 (바둑 인공지능)의 작동 원리
 

Similaire à 딥러닝 - 역사와 이론적 기초

[Tf2017] day4 jwkang_pub
[Tf2017] day4 jwkang_pub[Tf2017] day4 jwkang_pub
[Tf2017] day4 jwkang_pubJaewook. Kang
 
EveryBody Tensorflow module2 GIST Jan 2018 Korean
EveryBody Tensorflow module2 GIST Jan 2018 KoreanEveryBody Tensorflow module2 GIST Jan 2018 Korean
EveryBody Tensorflow module2 GIST Jan 2018 KoreanJaewook. Kang
 
Deep neural networks cnn rnn_ae_some practical techniques
Deep neural networks cnn rnn_ae_some practical techniquesDeep neural networks cnn rnn_ae_some practical techniques
Deep neural networks cnn rnn_ae_some practical techniquesKang Pilsung
 
Anomaly detection practive_using_deep_learning
Anomaly detection practive_using_deep_learningAnomaly detection practive_using_deep_learning
Anomaly detection practive_using_deep_learning도형 임
 
Lecture 4: Neural Networks I
Lecture 4: Neural Networks ILecture 4: Neural Networks I
Lecture 4: Neural Networks ISang Jun Lee
 
Final project v0.84
Final project v0.84Final project v0.84
Final project v0.84Soukwon Jun
 
Ai study - 2 layer feed-forward network, Backpropagation
Ai study - 2 layer feed-forward network, BackpropagationAi study - 2 layer feed-forward network, Backpropagation
Ai study - 2 layer feed-forward network, BackpropagationDaeHeeKim31
 
Chapter 10 sequence modeling recurrent and recursive nets
Chapter 10 sequence modeling recurrent and recursive netsChapter 10 sequence modeling recurrent and recursive nets
Chapter 10 sequence modeling recurrent and recursive netsKyeongUkJang
 
[Tf2017] day2 jwkang_pub
[Tf2017] day2 jwkang_pub[Tf2017] day2 jwkang_pub
[Tf2017] day2 jwkang_pubJaewook. Kang
 
03.12 cnn backpropagation
03.12 cnn backpropagation03.12 cnn backpropagation
03.12 cnn backpropagationDea-hwan Ki
 
Nationality recognition
Nationality recognitionNationality recognition
Nationality recognition준영 박
 
밑바닥부터시작하는딥러닝 Ch2
밑바닥부터시작하는딥러닝 Ch2밑바닥부터시작하는딥러닝 Ch2
밑바닥부터시작하는딥러닝 Ch2HyeonSeok Choi
 
Searching for magic formula by deep learning
Searching for magic formula by deep learningSearching for magic formula by deep learning
Searching for magic formula by deep learningJames Ahn
 
기계 학습의 현재와 미래
기계 학습의 현재와 미래기계 학습의 현재와 미래
기계 학습의 현재와 미래Joon Kim
 
FCN to DeepLab.v3+
FCN to DeepLab.v3+FCN to DeepLab.v3+
FCN to DeepLab.v3+Whi Kwon
 
Neural Networks Basics with PyTorch
Neural Networks Basics with PyTorchNeural Networks Basics with PyTorch
Neural Networks Basics with PyTorchHyunwoo Kim
 
PYCON KR 2017 - 구름이 하늘의 일이라면 (윤상웅)
PYCON KR 2017 - 구름이 하늘의 일이라면 (윤상웅)PYCON KR 2017 - 구름이 하늘의 일이라면 (윤상웅)
PYCON KR 2017 - 구름이 하늘의 일이라면 (윤상웅)Haezoom Inc.
 
딥뉴럴넷 클러스터링 실패기
딥뉴럴넷 클러스터링 실패기딥뉴럴넷 클러스터링 실패기
딥뉴럴넷 클러스터링 실패기Myeongju Kim
 

Similaire à 딥러닝 - 역사와 이론적 기초 (20)

[Tf2017] day4 jwkang_pub
[Tf2017] day4 jwkang_pub[Tf2017] day4 jwkang_pub
[Tf2017] day4 jwkang_pub
 
EveryBody Tensorflow module2 GIST Jan 2018 Korean
EveryBody Tensorflow module2 GIST Jan 2018 KoreanEveryBody Tensorflow module2 GIST Jan 2018 Korean
EveryBody Tensorflow module2 GIST Jan 2018 Korean
 
Deep neural networks cnn rnn_ae_some practical techniques
Deep neural networks cnn rnn_ae_some practical techniquesDeep neural networks cnn rnn_ae_some practical techniques
Deep neural networks cnn rnn_ae_some practical techniques
 
Anomaly detection practive_using_deep_learning
Anomaly detection practive_using_deep_learningAnomaly detection practive_using_deep_learning
Anomaly detection practive_using_deep_learning
 
Lecture 4: Neural Networks I
Lecture 4: Neural Networks ILecture 4: Neural Networks I
Lecture 4: Neural Networks I
 
Final project v0.84
Final project v0.84Final project v0.84
Final project v0.84
 
Ai study - 2 layer feed-forward network, Backpropagation
Ai study - 2 layer feed-forward network, BackpropagationAi study - 2 layer feed-forward network, Backpropagation
Ai study - 2 layer feed-forward network, Backpropagation
 
Chapter 10 sequence modeling recurrent and recursive nets
Chapter 10 sequence modeling recurrent and recursive netsChapter 10 sequence modeling recurrent and recursive nets
Chapter 10 sequence modeling recurrent and recursive nets
 
Deep learning overview
Deep learning overviewDeep learning overview
Deep learning overview
 
[Tf2017] day2 jwkang_pub
[Tf2017] day2 jwkang_pub[Tf2017] day2 jwkang_pub
[Tf2017] day2 jwkang_pub
 
03.12 cnn backpropagation
03.12 cnn backpropagation03.12 cnn backpropagation
03.12 cnn backpropagation
 
Cnn 강의
Cnn 강의Cnn 강의
Cnn 강의
 
Nationality recognition
Nationality recognitionNationality recognition
Nationality recognition
 
밑바닥부터시작하는딥러닝 Ch2
밑바닥부터시작하는딥러닝 Ch2밑바닥부터시작하는딥러닝 Ch2
밑바닥부터시작하는딥러닝 Ch2
 
Searching for magic formula by deep learning
Searching for magic formula by deep learningSearching for magic formula by deep learning
Searching for magic formula by deep learning
 
기계 학습의 현재와 미래
기계 학습의 현재와 미래기계 학습의 현재와 미래
기계 학습의 현재와 미래
 
FCN to DeepLab.v3+
FCN to DeepLab.v3+FCN to DeepLab.v3+
FCN to DeepLab.v3+
 
Neural Networks Basics with PyTorch
Neural Networks Basics with PyTorchNeural Networks Basics with PyTorch
Neural Networks Basics with PyTorch
 
PYCON KR 2017 - 구름이 하늘의 일이라면 (윤상웅)
PYCON KR 2017 - 구름이 하늘의 일이라면 (윤상웅)PYCON KR 2017 - 구름이 하늘의 일이라면 (윤상웅)
PYCON KR 2017 - 구름이 하늘의 일이라면 (윤상웅)
 
딥뉴럴넷 클러스터링 실패기
딥뉴럴넷 클러스터링 실패기딥뉴럴넷 클러스터링 실패기
딥뉴럴넷 클러스터링 실패기
 

딥러닝 - 역사와 이론적 기초