SlideShare une entreprise Scribd logo
1  sur  47
Télécharger pour lire hors ligne
Statistics for Computer
Science
최재걸
통합검색
Deview 2015..
Data
Mining
(KDD)
Machine
Learning
( AI )
Statistics
From
http://www.kdnuggets.com/2014/06/data-science-skills-business-problems.html
1.
ML, DM and Statistics
1.1Data Mining
From
www.saedasayad.com
-Solving everything
-Algorithmic & Efficient
1.3 Data Mining - Experience
데이터마이닝으로 해결한 문제가 많다
해결못한 것도 많다
1.2 Machine Learning
From
http://www.humphreysheil.com/blog/dee
p-learning-and-machine-learning
-AI is all of computer science
-Learn, learn and learn
1.2 Machine Learning - experience
머신 러닝으로 해결한 문제도 많다.
해결 안되는 것도 많다
1.3 Statistics
From
www.quora.com
- The World is probabilistic
- Model and Distribution
Too formal but strong
1.4 Why statistics?
Data
Mining
(KDD)
Machine
Learning
( AI )
Statistics
DATA  Probability – inevitably
Association Rule
( Conditional Probability)
K-means ( EM )
1. NO BLACK BOX
2. BREAKTHROUGH
畵龍點睛
2.
A Statistical View of
Deep Learning
From
http://blog.shakirm.com/wp-
content/uploads/2015/07/SVDL.pdf
2.1 Deep Learning in ML
Neural Net을 알고있으니 잘 할 수 있을거라 생각.
2012년
input
hidden
output
Class..두개니까.. 1,0
Sigmoid로 activation
숫자..
음.. 4개의 classifier
목적함수 J 만들고,
학습은, 미분해서 backpropagation..
“Oh.. Piece of Cake!”
2.1 Deep Learning in ML
!!! 구글 DistBelief
“그래봐야 뉴럴넷”
2.1 Deep Learning in ML
딥러닝이 너무 선전… 나도 해야하는 것 아닌가?
2013년
input
hidden1
output
hidden2
숫자..
4개의 classifier
다시 3개..
Class..두개니까.. 1,0
Hidden node 에서 엑티베이션. 다시 hidden.
Correlation을 엄청나게 고려하겠다는 거군.. Ok!
“Oh.. Piece of Cake!”
2.1 Deep Learning in ML
도전!!! CNN
갑자기 왠 컨볼루션? Sub-sampling?
“막하자는겁니까?”
2.1 Deep Learning in ML
딥러닝은 운명.
7전8기
input
hidden1
hidden2
“3차 포기 임박”
outputhidden3
Stochastic gradient descent는 많이 쓰는 거고,
Overfitting이야 생길수 있으니, 정규화패턴 넣어주고.
Vanishing problem?
ReLU, Drop OUT ?.. ㅠㅜ.
2.1 Deep Learning in ML
ReLU의 정체
Hinton 교수가 2010년 BM 의 성능이 향상된다고 발표한 것.
“Activation function은 이름을 잘못지었다.”
Hinton.
The Great British
2.1 Deep Learning in Statistics
ReLU의 정체
g 맞긴 하지만 그렇게만 말하면 안되지 않나요...ㅠㅜ
g는 Sigmoid 함수  목적은 activation하기 위해서..
“Sigmoid 가 아니어도 된다.
Non-linear하게 값을 전달하고자 할뿐”Linear Model
Sigmoid 자리에 다른 함수가 들어가도 된다..
2.1 Deep Learning in Statistics
Generalized Function
g
Generalized
Linear Model
Sigmoid 자리에 다른 함수가 들어가도 된다..
weight
input 1. Output이 linear
2. Output 이 1,0
3. Output 이 횟수
4. Output이 linear가 아닐때..
2.2 Deep Learning in Statistics
Generalized Linear Model
input
hidden1 GLM
Layer 하나가 여러 개의 GLM으로 파악된다.
LM
g
GLMs
“glm은 매우 익숙”
2.2 Deep Learning in Statistics
Recursive Generalized Linear Model
GLM의 중첩이 DNN이다.
LM
g
GLMs
input
hidden1
output
hidden2
LM
g
𝔼[y]
x
2.3 GLM의 link function
액티베이션함수Statistics의 링크함수
Logistic ( logit) Sigmoid
Multinomial( M logit) Softmax
Tobit (Censored Probit) ReLU !!
Poisson (count) -
The Great Hinton( 2010)
어디서 힌트를 얻었을까?
Probit ( Normal) -
링크 vs 엑티베이션
비어있음!! – 새 영역
LM
g
x
2.3 Anti-Overfit
GLM 에서 overffit 막으려고 하는 것 – Regularization Term
Machine LearningStatistics
L1 ( Lasso ) - ( non –convex)
L2 ( Gaussian ) L2
Lp-norm -
AIC, BIC - (쓸 수 없음)
비어있음!!
𝐽 = 𝐶𝑜𝑠𝑡 + 𝜆 𝑤2
2.4 DROP-OUT
추정해야할 변수가 너무 많을때 통계에서는 ..
BreakThrough
Machine Learning Statistics
Spike and Slab ( 1988)Drop OUT (2014)
2.5 Deep = Recursive
“Recursive XXXs”
LM
g
GLMs
LM
g
𝔼[y]
x
Recursive System = deep
Only Linear? NO!
2.6 Deep Boltzman Machine
Recursive Auto Encoder
Boltzman Machine을 recursive하게 연결.
Hinton. The Great British
RBM
g
RBM
RBM
g
𝔼[y]
x
2.7 Deep Gaussian Mixture
Gaussian Mixture 를 recursive하게 연결해도 될까?
GMM
g
GMM
g
𝔼[y]
x
된다. 2014년 publish 됨.
뉴럴넷 그림만 보면 알 수 없음
논문 주제
2.7 Deep Gaussian Mixture -cont
Unsupervised Learning with Deep Gaussian Mixture Model
𝑑
𝑑𝜃
𝑙𝑛𝑝 𝑋 𝜋, 𝜇, Σ =
𝜋 𝑝 𝑁 𝑥 𝑛 𝜇 𝑝, Σ 𝑝
𝜋 𝑞 𝑁 𝑥 𝑛 𝜇 𝑞, Σ 𝑞𝑞∈Φ𝑛,𝑝
𝑑
𝑑𝜃
𝑙𝑛𝑁 𝑥 𝑛 𝜇 𝑝, Σ 𝑝
2.8 Convolutionary NN
재도전!!! CNN
CON
g
LM
g
𝔼[y]
x
“막하는것아님”
2.8 정리하면..
Statistical View 로 clear하게 deep learning을 볼 수 있다.
BreakThrough
Statistics 영역에서 이미 연구된 것들이 영감을 줄 수 있다.
3.
Statistics for Computer
Science
3.1 Agony..
D-
재수강
Drop
네번..
3.2 Learn from problem-solving
Gaussian Mixture Model for MUSIC ( 2012 )
Beat빠르기
전자음
가우시언믹스쳐를 알고는 있었지만,
사용할 수 없을 것 같았음.
실제 상황 + 이론
“느리니까 쓰지않는다.”
3.3 Roughly saying about Statistics..
분포통계기술통계 검정통계회귀통계
3.4 기초통계
입사한지 얼마 안되었을 때.. “기초통계를 보고싶다”
“송중기가 어떻게생겼는가?”
->잘생겼네.
->눈은어떻고,코는어떻고,…
평균
Median, quantile, variance, …
“데이터가 어떻게 생겼는지 알고싶다”
3.5 분포통계
Dirichlet - 드리쉴레.. 드리끌레.. 그건 어느 나라 말입니까? LDA ( 2010)
분포의 식에 현혹..
분포의 관계로 부터 출발
3.5 분포통계
제가 사용하는 분포 구조입니다.
베르누이 이항분포 정규분표
t분표
카이스퀘
어분표
F분표
다항분포
다변량정
규분표
베타분포
드리쉴레
분포
프아송
분포
감마분포
(지수분포)
검정통계continuousdiscrete
동전던지기
여러번 무한번
평균
제곱:
분산
나누기
일정시간
거꾸로
거꾸로
거꾸로
주사위
여러번
무한번
3.5 분포통계
제가 사용하는 분포 구조입니다.
베르누이 이항분포 정규분표
t분표
카이스퀘
어분표
F분표
다항분포
다변량정
규분표
베타분포
드리쉴레
분포
프아송
분포
감마분포
(지수분포)
검정통계continuousdiscrete
bernuill binomial
poisson
multinomial
Multivariate
normaml
gaussian
beta
dirichlet
Student t
Chi-square
F
Gamma
일정시간
-
3.5 분포통계 예제
Latent Dirichlet Allocation : LDA ( 2010)
다항분포
드리쉴레
분포
multinomial
dirichlet
실전!
3.6 회귀통계
하고 싶은 것은.. 각 feature의 Weight 학습.
𝑦 = 𝑤1 𝑥1 + 𝑤2 𝑥2 + 𝜖
R에서 lm 하면됨.
로지스틱?
쁘아송?
감마?
…
3.6 회귀통계
Y가 좀 너무 크거나, 작으면.. 약간 이상해 지는 느낌…
𝑦 = 𝑤1 𝑥1 + 𝑤2 𝑥2 + 𝜖
1년간 회사를 그만둔 사람 수? 좀 작은데..
연봉..? 좀 너무 숫자가 큰데..
poisson
gamma
3.6 회귀통계
Y가 좀 너무 크거나, 작으면.. 약간 이상해 지는 느낌…
𝑦 = 𝑤1 𝑥1 + 𝑤2 𝑥2 + 𝜖
1년간 회사를 그만둔 사람 수? 좀 작은데..
연봉..? 좀 너무 숫자가 큰데..
poisson
gamma
logistic
Multi
logistic
identity
3.6 회귀통계 예제
노출되는 랭킹과 클릭수와의 관계
𝑦 = 𝑤1 𝑥1 + 𝜖
10000 = w*1등 + error
5000 = w*2등 + error
중요한건 Y 의 분포  분포를 알아야..
log(𝑦) = 𝑤1 𝑥1 + 𝜖
LINEARNON-L
3.6 통계
분포 + 회귀 + 검정  경험으로 습득
poisson
gamma
logistic
Multi
logistic
identity
평균
분산
3.7 유클리드.
From
wikipedia
마치며..
- Statistics can inspire.
- Statistics, not from book but from problem-solving.
Q&A
Thank You

Contenu connexe

Tendances

딥러닝 - 역사와 이론적 기초
딥러닝 - 역사와 이론적 기초딥러닝 - 역사와 이론적 기초
딥러닝 - 역사와 이론적 기초Hyungsoo Ryoo
 
Query Understanding at LinkedIn [Talk at Facebook]
Query Understanding at LinkedIn [Talk at Facebook]Query Understanding at LinkedIn [Talk at Facebook]
Query Understanding at LinkedIn [Talk at Facebook]Abhimanyu Lad
 
Recurrent Neural Net의 이론과 설명
Recurrent Neural Net의 이론과 설명Recurrent Neural Net의 이론과 설명
Recurrent Neural Net의 이론과 설명홍배 김
 
파이썬과 케라스로 배우는 강화학습 저자특강
파이썬과 케라스로 배우는 강화학습 저자특강파이썬과 케라스로 배우는 강화학습 저자특강
파이썬과 케라스로 배우는 강화학습 저자특강Woong won Lee
 
[221] 딥러닝을 이용한 지역 컨텍스트 검색 김진호
[221] 딥러닝을 이용한 지역 컨텍스트 검색 김진호[221] 딥러닝을 이용한 지역 컨텍스트 검색 김진호
[221] 딥러닝을 이용한 지역 컨텍스트 검색 김진호NAVER D2
 
Long Short Term Memory
Long Short Term MemoryLong Short Term Memory
Long Short Term MemoryYan Xu
 
Word representations in vector space
Word representations in vector spaceWord representations in vector space
Word representations in vector spaceAbdullah Khan Zehady
 
강화학습 기초부터 DQN까지 (Reinforcement Learning from Basics to DQN)
강화학습 기초부터 DQN까지 (Reinforcement Learning from Basics to DQN)강화학습 기초부터 DQN까지 (Reinforcement Learning from Basics to DQN)
강화학습 기초부터 DQN까지 (Reinforcement Learning from Basics to DQN)Curt Park
 
딥러닝과 강화 학습으로 나보다 잘하는 쿠키런 AI 구현하기 DEVIEW 2016
딥러닝과 강화 학습으로 나보다 잘하는 쿠키런 AI 구현하기 DEVIEW 2016딥러닝과 강화 학습으로 나보다 잘하는 쿠키런 AI 구현하기 DEVIEW 2016
딥러닝과 강화 학습으로 나보다 잘하는 쿠키런 AI 구현하기 DEVIEW 2016Taehoon Kim
 
Overview on Optimization algorithms in Deep Learning
Overview on Optimization algorithms in Deep LearningOverview on Optimization algorithms in Deep Learning
Overview on Optimization algorithms in Deep LearningKhang Pham
 
[216]네이버 검색 사용자를 만족시켜라! 의도파악과 의미검색
[216]네이버 검색 사용자를 만족시켜라!   의도파악과 의미검색[216]네이버 검색 사용자를 만족시켜라!   의도파악과 의미검색
[216]네이버 검색 사용자를 만족시켜라! 의도파악과 의미검색NAVER D2
 
[215]네이버콘텐츠통계서비스소개 김기영
[215]네이버콘텐츠통계서비스소개 김기영[215]네이버콘텐츠통계서비스소개 김기영
[215]네이버콘텐츠통계서비스소개 김기영NAVER D2
 
RLCode와 A3C 쉽고 깊게 이해하기
RLCode와 A3C 쉽고 깊게 이해하기RLCode와 A3C 쉽고 깊게 이해하기
RLCode와 A3C 쉽고 깊게 이해하기Woong won Lee
 
Numeric Range Queries in Lucene and Solr
Numeric Range Queries in Lucene and SolrNumeric Range Queries in Lucene and Solr
Numeric Range Queries in Lucene and SolrVadim Kirilchuk
 
Role of Tensors in Machine Learning
Role of Tensors in Machine LearningRole of Tensors in Machine Learning
Role of Tensors in Machine LearningAnima Anandkumar
 
강화학습의 흐름도 Part 1
강화학습의 흐름도 Part 1강화학습의 흐름도 Part 1
강화학습의 흐름도 Part 1Dongmin Lee
 
Elasticsearch를 활용한 GIS 검색
Elasticsearch를 활용한 GIS 검색Elasticsearch를 활용한 GIS 검색
Elasticsearch를 활용한 GIS 검색ksdc2019
 
[2D1]Elasticsearch 성능 최적화
[2D1]Elasticsearch 성능 최적화[2D1]Elasticsearch 성능 최적화
[2D1]Elasticsearch 성능 최적화NAVER D2
 
Text Mining on Amazon Fine Foods Reviews
Text Mining on Amazon Fine Foods ReviewsText Mining on Amazon Fine Foods Reviews
Text Mining on Amazon Fine Foods ReviewsGianlucaCavallaro3
 

Tendances (20)

딥러닝 - 역사와 이론적 기초
딥러닝 - 역사와 이론적 기초딥러닝 - 역사와 이론적 기초
딥러닝 - 역사와 이론적 기초
 
Word embedding
Word embedding Word embedding
Word embedding
 
Query Understanding at LinkedIn [Talk at Facebook]
Query Understanding at LinkedIn [Talk at Facebook]Query Understanding at LinkedIn [Talk at Facebook]
Query Understanding at LinkedIn [Talk at Facebook]
 
Recurrent Neural Net의 이론과 설명
Recurrent Neural Net의 이론과 설명Recurrent Neural Net의 이론과 설명
Recurrent Neural Net의 이론과 설명
 
파이썬과 케라스로 배우는 강화학습 저자특강
파이썬과 케라스로 배우는 강화학습 저자특강파이썬과 케라스로 배우는 강화학습 저자특강
파이썬과 케라스로 배우는 강화학습 저자특강
 
[221] 딥러닝을 이용한 지역 컨텍스트 검색 김진호
[221] 딥러닝을 이용한 지역 컨텍스트 검색 김진호[221] 딥러닝을 이용한 지역 컨텍스트 검색 김진호
[221] 딥러닝을 이용한 지역 컨텍스트 검색 김진호
 
Long Short Term Memory
Long Short Term MemoryLong Short Term Memory
Long Short Term Memory
 
Word representations in vector space
Word representations in vector spaceWord representations in vector space
Word representations in vector space
 
강화학습 기초부터 DQN까지 (Reinforcement Learning from Basics to DQN)
강화학습 기초부터 DQN까지 (Reinforcement Learning from Basics to DQN)강화학습 기초부터 DQN까지 (Reinforcement Learning from Basics to DQN)
강화학습 기초부터 DQN까지 (Reinforcement Learning from Basics to DQN)
 
딥러닝과 강화 학습으로 나보다 잘하는 쿠키런 AI 구현하기 DEVIEW 2016
딥러닝과 강화 학습으로 나보다 잘하는 쿠키런 AI 구현하기 DEVIEW 2016딥러닝과 강화 학습으로 나보다 잘하는 쿠키런 AI 구현하기 DEVIEW 2016
딥러닝과 강화 학습으로 나보다 잘하는 쿠키런 AI 구현하기 DEVIEW 2016
 
Overview on Optimization algorithms in Deep Learning
Overview on Optimization algorithms in Deep LearningOverview on Optimization algorithms in Deep Learning
Overview on Optimization algorithms in Deep Learning
 
[216]네이버 검색 사용자를 만족시켜라! 의도파악과 의미검색
[216]네이버 검색 사용자를 만족시켜라!   의도파악과 의미검색[216]네이버 검색 사용자를 만족시켜라!   의도파악과 의미검색
[216]네이버 검색 사용자를 만족시켜라! 의도파악과 의미검색
 
[215]네이버콘텐츠통계서비스소개 김기영
[215]네이버콘텐츠통계서비스소개 김기영[215]네이버콘텐츠통계서비스소개 김기영
[215]네이버콘텐츠통계서비스소개 김기영
 
RLCode와 A3C 쉽고 깊게 이해하기
RLCode와 A3C 쉽고 깊게 이해하기RLCode와 A3C 쉽고 깊게 이해하기
RLCode와 A3C 쉽고 깊게 이해하기
 
Numeric Range Queries in Lucene and Solr
Numeric Range Queries in Lucene and SolrNumeric Range Queries in Lucene and Solr
Numeric Range Queries in Lucene and Solr
 
Role of Tensors in Machine Learning
Role of Tensors in Machine LearningRole of Tensors in Machine Learning
Role of Tensors in Machine Learning
 
강화학습의 흐름도 Part 1
강화학습의 흐름도 Part 1강화학습의 흐름도 Part 1
강화학습의 흐름도 Part 1
 
Elasticsearch를 활용한 GIS 검색
Elasticsearch를 활용한 GIS 검색Elasticsearch를 활용한 GIS 검색
Elasticsearch를 활용한 GIS 검색
 
[2D1]Elasticsearch 성능 최적화
[2D1]Elasticsearch 성능 최적화[2D1]Elasticsearch 성능 최적화
[2D1]Elasticsearch 성능 최적화
 
Text Mining on Amazon Fine Foods Reviews
Text Mining on Amazon Fine Foods ReviewsText Mining on Amazon Fine Foods Reviews
Text Mining on Amazon Fine Foods Reviews
 

En vedette

Python 2 와 3 공존하기
Python 2 와 3 공존하기Python 2 와 3 공존하기
Python 2 와 3 공존하기태환 김
 
Driving Computer Vision Research Innovation In Artificial Intelligence
Driving Computer Vision Research Innovation In Artificial IntelligenceDriving Computer Vision Research Innovation In Artificial Intelligence
Driving Computer Vision Research Innovation In Artificial IntelligenceNVIDIA
 
[224] 번역 모델 기반_질의_교정_시스템
[224] 번역 모델 기반_질의_교정_시스템[224] 번역 모델 기반_질의_교정_시스템
[224] 번역 모델 기반_질의_교정_시스템NAVER D2
 
Denoising auto encoders(d a)
Denoising auto encoders(d a)Denoising auto encoders(d a)
Denoising auto encoders(d a)Tae Young Lee
 
weather-data-processing-using-python
weather-data-processing-using-pythonweather-data-processing-using-python
weather-data-processing-using-pythonmarc_kth
 
Spm12를 이용한 fmri analysis
Spm12를 이용한 fmri analysisSpm12를 이용한 fmri analysis
Spm12를 이용한 fmri analysisTae Young Lee
 
PYCON KR 2017 - 구름이 하늘의 일이라면 (윤상웅)
PYCON KR 2017 - 구름이 하늘의 일이라면 (윤상웅)PYCON KR 2017 - 구름이 하늘의 일이라면 (윤상웅)
PYCON KR 2017 - 구름이 하늘의 일이라면 (윤상웅)Haezoom Inc.
 
[ Pycon Korea 2017 ] Infrastructure as Code를위한 Ansible 활용
[ Pycon Korea 2017 ] Infrastructure as Code를위한 Ansible 활용[ Pycon Korea 2017 ] Infrastructure as Code를위한 Ansible 활용
[ Pycon Korea 2017 ] Infrastructure as Code를위한 Ansible 활용Jihyung Song
 
[F2]자연어처리를 위한 기계학습 소개
[F2]자연어처리를 위한 기계학습 소개[F2]자연어처리를 위한 기계학습 소개
[F2]자연어처리를 위한 기계학습 소개NAVER D2
 
Speaker Diarization
Speaker DiarizationSpeaker Diarization
Speaker DiarizationHONGJOO LEE
 
PYCON 2017 발표자료 한성준
PYCON 2017 발표자료 한성준PYCON 2017 발표자료 한성준
PYCON 2017 발표자료 한성준sungjun han
 
아마존 에코를 활용한 음성 인식 에어컨 제어 A to z
아마존 에코를 활용한 음성 인식 에어컨 제어 A to z아마존 에코를 활용한 음성 인식 에어컨 제어 A to z
아마존 에코를 활용한 음성 인식 에어컨 제어 A to zJueun Seo
 
One-Shot Learning
One-Shot LearningOne-Shot Learning
One-Shot LearningJisung Kim
 
Pycon2017 이성용 Dances with the Last Samurai
Pycon2017 이성용 Dances with the Last SamuraiPycon2017 이성용 Dances with the Last Samurai
Pycon2017 이성용 Dances with the Last SamuraiSungYong Lee
 
머신러닝의 자연어 처리기술(I)
머신러닝의 자연어 처리기술(I)머신러닝의 자연어 처리기술(I)
머신러닝의 자연어 처리기술(I)홍배 김
 
딥러닝을 이용한 자연어처리의 연구동향
딥러닝을 이용한 자연어처리의 연구동향딥러닝을 이용한 자연어처리의 연구동향
딥러닝을 이용한 자연어처리의 연구동향홍배 김
 
CNN 초보자가 만드는 초보자 가이드 (VGG 약간 포함)
CNN 초보자가 만드는 초보자 가이드 (VGG 약간 포함)CNN 초보자가 만드는 초보자 가이드 (VGG 약간 포함)
CNN 초보자가 만드는 초보자 가이드 (VGG 약간 포함)Lee Seungeun
 
Developing Korean Chatbot 101
Developing Korean Chatbot 101Developing Korean Chatbot 101
Developing Korean Chatbot 101Jaemin Cho
 
지적 대화를 위한 깊고 넓은 딥러닝 PyCon APAC 2016
지적 대화를 위한 깊고 넓은 딥러닝 PyCon APAC 2016지적 대화를 위한 깊고 넓은 딥러닝 PyCon APAC 2016
지적 대화를 위한 깊고 넓은 딥러닝 PyCon APAC 2016Taehoon Kim
 
Deep learning framework 제작
Deep learning framework 제작Deep learning framework 제작
Deep learning framework 제작Tae Young Lee
 

En vedette (20)

Python 2 와 3 공존하기
Python 2 와 3 공존하기Python 2 와 3 공존하기
Python 2 와 3 공존하기
 
Driving Computer Vision Research Innovation In Artificial Intelligence
Driving Computer Vision Research Innovation In Artificial IntelligenceDriving Computer Vision Research Innovation In Artificial Intelligence
Driving Computer Vision Research Innovation In Artificial Intelligence
 
[224] 번역 모델 기반_질의_교정_시스템
[224] 번역 모델 기반_질의_교정_시스템[224] 번역 모델 기반_질의_교정_시스템
[224] 번역 모델 기반_질의_교정_시스템
 
Denoising auto encoders(d a)
Denoising auto encoders(d a)Denoising auto encoders(d a)
Denoising auto encoders(d a)
 
weather-data-processing-using-python
weather-data-processing-using-pythonweather-data-processing-using-python
weather-data-processing-using-python
 
Spm12를 이용한 fmri analysis
Spm12를 이용한 fmri analysisSpm12를 이용한 fmri analysis
Spm12를 이용한 fmri analysis
 
PYCON KR 2017 - 구름이 하늘의 일이라면 (윤상웅)
PYCON KR 2017 - 구름이 하늘의 일이라면 (윤상웅)PYCON KR 2017 - 구름이 하늘의 일이라면 (윤상웅)
PYCON KR 2017 - 구름이 하늘의 일이라면 (윤상웅)
 
[ Pycon Korea 2017 ] Infrastructure as Code를위한 Ansible 활용
[ Pycon Korea 2017 ] Infrastructure as Code를위한 Ansible 활용[ Pycon Korea 2017 ] Infrastructure as Code를위한 Ansible 활용
[ Pycon Korea 2017 ] Infrastructure as Code를위한 Ansible 활용
 
[F2]자연어처리를 위한 기계학습 소개
[F2]자연어처리를 위한 기계학습 소개[F2]자연어처리를 위한 기계학습 소개
[F2]자연어처리를 위한 기계학습 소개
 
Speaker Diarization
Speaker DiarizationSpeaker Diarization
Speaker Diarization
 
PYCON 2017 발표자료 한성준
PYCON 2017 발표자료 한성준PYCON 2017 발표자료 한성준
PYCON 2017 발표자료 한성준
 
아마존 에코를 활용한 음성 인식 에어컨 제어 A to z
아마존 에코를 활용한 음성 인식 에어컨 제어 A to z아마존 에코를 활용한 음성 인식 에어컨 제어 A to z
아마존 에코를 활용한 음성 인식 에어컨 제어 A to z
 
One-Shot Learning
One-Shot LearningOne-Shot Learning
One-Shot Learning
 
Pycon2017 이성용 Dances with the Last Samurai
Pycon2017 이성용 Dances with the Last SamuraiPycon2017 이성용 Dances with the Last Samurai
Pycon2017 이성용 Dances with the Last Samurai
 
머신러닝의 자연어 처리기술(I)
머신러닝의 자연어 처리기술(I)머신러닝의 자연어 처리기술(I)
머신러닝의 자연어 처리기술(I)
 
딥러닝을 이용한 자연어처리의 연구동향
딥러닝을 이용한 자연어처리의 연구동향딥러닝을 이용한 자연어처리의 연구동향
딥러닝을 이용한 자연어처리의 연구동향
 
CNN 초보자가 만드는 초보자 가이드 (VGG 약간 포함)
CNN 초보자가 만드는 초보자 가이드 (VGG 약간 포함)CNN 초보자가 만드는 초보자 가이드 (VGG 약간 포함)
CNN 초보자가 만드는 초보자 가이드 (VGG 약간 포함)
 
Developing Korean Chatbot 101
Developing Korean Chatbot 101Developing Korean Chatbot 101
Developing Korean Chatbot 101
 
지적 대화를 위한 깊고 넓은 딥러닝 PyCon APAC 2016
지적 대화를 위한 깊고 넓은 딥러닝 PyCon APAC 2016지적 대화를 위한 깊고 넓은 딥러닝 PyCon APAC 2016
지적 대화를 위한 깊고 넓은 딥러닝 PyCon APAC 2016
 
Deep learning framework 제작
Deep learning framework 제작Deep learning framework 제작
Deep learning framework 제작
 

Similaire à [216]딥러닝예제로보는개발자를위한통계 최재걸

[D2 CAMPUS] Tech meet-up `data science` 발표자료
[D2 CAMPUS] Tech meet-up `data science` 발표자료[D2 CAMPUS] Tech meet-up `data science` 발표자료
[D2 CAMPUS] Tech meet-up `data science` 발표자료NAVER D2
 
데이터분석과통계2 - 최재걸님
데이터분석과통계2 - 최재걸님데이터분석과통계2 - 최재걸님
데이터분석과통계2 - 최재걸님NAVER D2
 
Workshop 210417 dhlee
Workshop 210417 dhleeWorkshop 210417 dhlee
Workshop 210417 dhleeDongheon Lee
 
Things Data Scientists Should Keep in Mind
Things Data Scientists Should Keep in MindThings Data Scientists Should Keep in Mind
Things Data Scientists Should Keep in MindDataya Nolja
 
Searching for magic formula by deep learning
Searching for magic formula by deep learningSearching for magic formula by deep learning
Searching for magic formula by deep learningJames Ahn
 
Machine learning bysogood
Machine learning bysogoodMachine learning bysogood
Machine learning bysogoodS.Good Kim
 
머신러닝(딥러닝 요약)
머신러닝(딥러닝 요약)머신러닝(딥러닝 요약)
머신러닝(딥러닝 요약)Byung-han Lee
 
밑바닥부터시작하는딥러닝 Ch2
밑바닥부터시작하는딥러닝 Ch2밑바닥부터시작하는딥러닝 Ch2
밑바닥부터시작하는딥러닝 Ch2HyeonSeok Choi
 
T ka kr_4th
T ka kr_4thT ka kr_4th
T ka kr_4thSubin An
 
(Qraft)naver pitching
(Qraft)naver pitching(Qraft)naver pitching
(Qraft)naver pitching형식 김
 
Investment and deep learning
Investment and deep learningInvestment and deep learning
Investment and deep learningNAVER Engineering
 
한국어 MRC 연구를 위한 표준 데이터셋(KorQuAD) 소개 및 B2B를 위한 MRC 연구 사례
한국어 MRC 연구를 위한 표준 데이터셋(KorQuAD) 소개 및 B2B를 위한 MRC 연구 사례한국어 MRC 연구를 위한 표준 데이터셋(KorQuAD) 소개 및 B2B를 위한 MRC 연구 사례
한국어 MRC 연구를 위한 표준 데이터셋(KorQuAD) 소개 및 B2B를 위한 MRC 연구 사례NAVER Engineering
 
Session 4. 쉽게 보는 딥러닝 트랜드와 AWS 활용 시나리오 - 베스핀글로벌 이승규 매니저
Session 4. 쉽게 보는 딥러닝 트랜드와 AWS 활용 시나리오 - 베스핀글로벌 이승규 매니저Session 4. 쉽게 보는 딥러닝 트랜드와 AWS 활용 시나리오 - 베스핀글로벌 이승규 매니저
Session 4. 쉽게 보는 딥러닝 트랜드와 AWS 활용 시나리오 - 베스핀글로벌 이승규 매니저BESPIN GLOBAL
 
산동네 게임 DBA 이야기
산동네 게임 DBA 이야기산동네 게임 DBA 이야기
산동네 게임 DBA 이야기병기 홍
 
[오컴 Clip IT 세미나] 머신러닝과 인공지능의 현재와 미래
[오컴 Clip IT 세미나] 머신러닝과 인공지능의 현재와 미래[오컴 Clip IT 세미나] 머신러닝과 인공지능의 현재와 미래
[오컴 Clip IT 세미나] 머신러닝과 인공지능의 현재와 미래Taehoon Ko
 
알아두면 쓸데있는 신비한 딥러닝 이야기
알아두면 쓸데있는 신비한 딥러닝 이야기알아두면 쓸데있는 신비한 딥러닝 이야기
알아두면 쓸데있는 신비한 딥러닝 이야기Kwangsik Lee
 
Coding interview
Coding interviewCoding interview
Coding interviewSoohan Ahn
 
캐빈머피 머신러닝 Kevin Murphy Machine Learning Statistic
캐빈머피 머신러닝 Kevin Murphy Machine Learning Statistic캐빈머피 머신러닝 Kevin Murphy Machine Learning Statistic
캐빈머피 머신러닝 Kevin Murphy Machine Learning Statistic용진 조
 
머신러닝 간단 뽀개기
머신러닝 간단 뽀개기머신러닝 간단 뽀개기
머신러닝 간단 뽀개기Heejae Jeong
 
How to Create Value from Data, and Its Difficulty
How to Create Value from Data, and Its DifficultyHow to Create Value from Data, and Its Difficulty
How to Create Value from Data, and Its DifficultyDataya Nolja
 

Similaire à [216]딥러닝예제로보는개발자를위한통계 최재걸 (20)

[D2 CAMPUS] Tech meet-up `data science` 발표자료
[D2 CAMPUS] Tech meet-up `data science` 발표자료[D2 CAMPUS] Tech meet-up `data science` 발표자료
[D2 CAMPUS] Tech meet-up `data science` 발표자료
 
데이터분석과통계2 - 최재걸님
데이터분석과통계2 - 최재걸님데이터분석과통계2 - 최재걸님
데이터분석과통계2 - 최재걸님
 
Workshop 210417 dhlee
Workshop 210417 dhleeWorkshop 210417 dhlee
Workshop 210417 dhlee
 
Things Data Scientists Should Keep in Mind
Things Data Scientists Should Keep in MindThings Data Scientists Should Keep in Mind
Things Data Scientists Should Keep in Mind
 
Searching for magic formula by deep learning
Searching for magic formula by deep learningSearching for magic formula by deep learning
Searching for magic formula by deep learning
 
Machine learning bysogood
Machine learning bysogoodMachine learning bysogood
Machine learning bysogood
 
머신러닝(딥러닝 요약)
머신러닝(딥러닝 요약)머신러닝(딥러닝 요약)
머신러닝(딥러닝 요약)
 
밑바닥부터시작하는딥러닝 Ch2
밑바닥부터시작하는딥러닝 Ch2밑바닥부터시작하는딥러닝 Ch2
밑바닥부터시작하는딥러닝 Ch2
 
T ka kr_4th
T ka kr_4thT ka kr_4th
T ka kr_4th
 
(Qraft)naver pitching
(Qraft)naver pitching(Qraft)naver pitching
(Qraft)naver pitching
 
Investment and deep learning
Investment and deep learningInvestment and deep learning
Investment and deep learning
 
한국어 MRC 연구를 위한 표준 데이터셋(KorQuAD) 소개 및 B2B를 위한 MRC 연구 사례
한국어 MRC 연구를 위한 표준 데이터셋(KorQuAD) 소개 및 B2B를 위한 MRC 연구 사례한국어 MRC 연구를 위한 표준 데이터셋(KorQuAD) 소개 및 B2B를 위한 MRC 연구 사례
한국어 MRC 연구를 위한 표준 데이터셋(KorQuAD) 소개 및 B2B를 위한 MRC 연구 사례
 
Session 4. 쉽게 보는 딥러닝 트랜드와 AWS 활용 시나리오 - 베스핀글로벌 이승규 매니저
Session 4. 쉽게 보는 딥러닝 트랜드와 AWS 활용 시나리오 - 베스핀글로벌 이승규 매니저Session 4. 쉽게 보는 딥러닝 트랜드와 AWS 활용 시나리오 - 베스핀글로벌 이승규 매니저
Session 4. 쉽게 보는 딥러닝 트랜드와 AWS 활용 시나리오 - 베스핀글로벌 이승규 매니저
 
산동네 게임 DBA 이야기
산동네 게임 DBA 이야기산동네 게임 DBA 이야기
산동네 게임 DBA 이야기
 
[오컴 Clip IT 세미나] 머신러닝과 인공지능의 현재와 미래
[오컴 Clip IT 세미나] 머신러닝과 인공지능의 현재와 미래[오컴 Clip IT 세미나] 머신러닝과 인공지능의 현재와 미래
[오컴 Clip IT 세미나] 머신러닝과 인공지능의 현재와 미래
 
알아두면 쓸데있는 신비한 딥러닝 이야기
알아두면 쓸데있는 신비한 딥러닝 이야기알아두면 쓸데있는 신비한 딥러닝 이야기
알아두면 쓸데있는 신비한 딥러닝 이야기
 
Coding interview
Coding interviewCoding interview
Coding interview
 
캐빈머피 머신러닝 Kevin Murphy Machine Learning Statistic
캐빈머피 머신러닝 Kevin Murphy Machine Learning Statistic캐빈머피 머신러닝 Kevin Murphy Machine Learning Statistic
캐빈머피 머신러닝 Kevin Murphy Machine Learning Statistic
 
머신러닝 간단 뽀개기
머신러닝 간단 뽀개기머신러닝 간단 뽀개기
머신러닝 간단 뽀개기
 
How to Create Value from Data, and Its Difficulty
How to Create Value from Data, and Its DifficultyHow to Create Value from Data, and Its Difficulty
How to Create Value from Data, and Its Difficulty
 

Plus de NAVER D2

[211] 인공지능이 인공지능 챗봇을 만든다
[211] 인공지능이 인공지능 챗봇을 만든다[211] 인공지능이 인공지능 챗봇을 만든다
[211] 인공지능이 인공지능 챗봇을 만든다NAVER D2
 
[233] 대형 컨테이너 클러스터에서의 고가용성 Network Load Balancing: Maglev Hashing Scheduler i...
[233] 대형 컨테이너 클러스터에서의 고가용성 Network Load Balancing: Maglev Hashing Scheduler i...[233] 대형 컨테이너 클러스터에서의 고가용성 Network Load Balancing: Maglev Hashing Scheduler i...
[233] 대형 컨테이너 클러스터에서의 고가용성 Network Load Balancing: Maglev Hashing Scheduler i...NAVER D2
 
[215] Druid로 쉽고 빠르게 데이터 분석하기
[215] Druid로 쉽고 빠르게 데이터 분석하기[215] Druid로 쉽고 빠르게 데이터 분석하기
[215] Druid로 쉽고 빠르게 데이터 분석하기NAVER D2
 
[245]Papago Internals: 모델분석과 응용기술 개발
[245]Papago Internals: 모델분석과 응용기술 개발[245]Papago Internals: 모델분석과 응용기술 개발
[245]Papago Internals: 모델분석과 응용기술 개발NAVER D2
 
[236] 스트림 저장소 최적화 이야기: 아파치 드루이드로부터 얻은 교훈
[236] 스트림 저장소 최적화 이야기: 아파치 드루이드로부터 얻은 교훈[236] 스트림 저장소 최적화 이야기: 아파치 드루이드로부터 얻은 교훈
[236] 스트림 저장소 최적화 이야기: 아파치 드루이드로부터 얻은 교훈NAVER D2
 
[235]Wikipedia-scale Q&A
[235]Wikipedia-scale Q&A[235]Wikipedia-scale Q&A
[235]Wikipedia-scale Q&ANAVER D2
 
[244]로봇이 현실 세계에 대해 학습하도록 만들기
[244]로봇이 현실 세계에 대해 학습하도록 만들기[244]로봇이 현실 세계에 대해 학습하도록 만들기
[244]로봇이 현실 세계에 대해 학습하도록 만들기NAVER D2
 
[243] Deep Learning to help student’s Deep Learning
[243] Deep Learning to help student’s Deep Learning[243] Deep Learning to help student’s Deep Learning
[243] Deep Learning to help student’s Deep LearningNAVER D2
 
[234]Fast & Accurate Data Annotation Pipeline for AI applications
[234]Fast & Accurate Data Annotation Pipeline for AI applications[234]Fast & Accurate Data Annotation Pipeline for AI applications
[234]Fast & Accurate Data Annotation Pipeline for AI applicationsNAVER D2
 
Old version: [233]대형 컨테이너 클러스터에서의 고가용성 Network Load Balancing
Old version: [233]대형 컨테이너 클러스터에서의 고가용성 Network Load BalancingOld version: [233]대형 컨테이너 클러스터에서의 고가용성 Network Load Balancing
Old version: [233]대형 컨테이너 클러스터에서의 고가용성 Network Load BalancingNAVER D2
 
[226]NAVER 광고 deep click prediction: 모델링부터 서빙까지
[226]NAVER 광고 deep click prediction: 모델링부터 서빙까지[226]NAVER 광고 deep click prediction: 모델링부터 서빙까지
[226]NAVER 광고 deep click prediction: 모델링부터 서빙까지NAVER D2
 
[225]NSML: 머신러닝 플랫폼 서비스하기 & 모델 튜닝 자동화하기
[225]NSML: 머신러닝 플랫폼 서비스하기 & 모델 튜닝 자동화하기[225]NSML: 머신러닝 플랫폼 서비스하기 & 모델 튜닝 자동화하기
[225]NSML: 머신러닝 플랫폼 서비스하기 & 모델 튜닝 자동화하기NAVER D2
 
[224]네이버 검색과 개인화
[224]네이버 검색과 개인화[224]네이버 검색과 개인화
[224]네이버 검색과 개인화NAVER D2
 
[216]Search Reliability Engineering (부제: 지진에도 흔들리지 않는 네이버 검색시스템)
[216]Search Reliability Engineering (부제: 지진에도 흔들리지 않는 네이버 검색시스템)[216]Search Reliability Engineering (부제: 지진에도 흔들리지 않는 네이버 검색시스템)
[216]Search Reliability Engineering (부제: 지진에도 흔들리지 않는 네이버 검색시스템)NAVER D2
 
[214] Ai Serving Platform: 하루 수 억 건의 인퍼런스를 처리하기 위한 고군분투기
[214] Ai Serving Platform: 하루 수 억 건의 인퍼런스를 처리하기 위한 고군분투기[214] Ai Serving Platform: 하루 수 억 건의 인퍼런스를 처리하기 위한 고군분투기
[214] Ai Serving Platform: 하루 수 억 건의 인퍼런스를 처리하기 위한 고군분투기NAVER D2
 
[213] Fashion Visual Search
[213] Fashion Visual Search[213] Fashion Visual Search
[213] Fashion Visual SearchNAVER D2
 
[232] TensorRT를 활용한 딥러닝 Inference 최적화
[232] TensorRT를 활용한 딥러닝 Inference 최적화[232] TensorRT를 활용한 딥러닝 Inference 최적화
[232] TensorRT를 활용한 딥러닝 Inference 최적화NAVER D2
 
[242]컴퓨터 비전을 이용한 실내 지도 자동 업데이트 방법: 딥러닝을 통한 POI 변화 탐지
[242]컴퓨터 비전을 이용한 실내 지도 자동 업데이트 방법: 딥러닝을 통한 POI 변화 탐지[242]컴퓨터 비전을 이용한 실내 지도 자동 업데이트 방법: 딥러닝을 통한 POI 변화 탐지
[242]컴퓨터 비전을 이용한 실내 지도 자동 업데이트 방법: 딥러닝을 통한 POI 변화 탐지NAVER D2
 
[212]C3, 데이터 처리에서 서빙까지 가능한 하둡 클러스터
[212]C3, 데이터 처리에서 서빙까지 가능한 하둡 클러스터[212]C3, 데이터 처리에서 서빙까지 가능한 하둡 클러스터
[212]C3, 데이터 처리에서 서빙까지 가능한 하둡 클러스터NAVER D2
 
[223]기계독해 QA: 검색인가, NLP인가?
[223]기계독해 QA: 검색인가, NLP인가?[223]기계독해 QA: 검색인가, NLP인가?
[223]기계독해 QA: 검색인가, NLP인가?NAVER D2
 

Plus de NAVER D2 (20)

[211] 인공지능이 인공지능 챗봇을 만든다
[211] 인공지능이 인공지능 챗봇을 만든다[211] 인공지능이 인공지능 챗봇을 만든다
[211] 인공지능이 인공지능 챗봇을 만든다
 
[233] 대형 컨테이너 클러스터에서의 고가용성 Network Load Balancing: Maglev Hashing Scheduler i...
[233] 대형 컨테이너 클러스터에서의 고가용성 Network Load Balancing: Maglev Hashing Scheduler i...[233] 대형 컨테이너 클러스터에서의 고가용성 Network Load Balancing: Maglev Hashing Scheduler i...
[233] 대형 컨테이너 클러스터에서의 고가용성 Network Load Balancing: Maglev Hashing Scheduler i...
 
[215] Druid로 쉽고 빠르게 데이터 분석하기
[215] Druid로 쉽고 빠르게 데이터 분석하기[215] Druid로 쉽고 빠르게 데이터 분석하기
[215] Druid로 쉽고 빠르게 데이터 분석하기
 
[245]Papago Internals: 모델분석과 응용기술 개발
[245]Papago Internals: 모델분석과 응용기술 개발[245]Papago Internals: 모델분석과 응용기술 개발
[245]Papago Internals: 모델분석과 응용기술 개발
 
[236] 스트림 저장소 최적화 이야기: 아파치 드루이드로부터 얻은 교훈
[236] 스트림 저장소 최적화 이야기: 아파치 드루이드로부터 얻은 교훈[236] 스트림 저장소 최적화 이야기: 아파치 드루이드로부터 얻은 교훈
[236] 스트림 저장소 최적화 이야기: 아파치 드루이드로부터 얻은 교훈
 
[235]Wikipedia-scale Q&A
[235]Wikipedia-scale Q&A[235]Wikipedia-scale Q&A
[235]Wikipedia-scale Q&A
 
[244]로봇이 현실 세계에 대해 학습하도록 만들기
[244]로봇이 현실 세계에 대해 학습하도록 만들기[244]로봇이 현실 세계에 대해 학습하도록 만들기
[244]로봇이 현실 세계에 대해 학습하도록 만들기
 
[243] Deep Learning to help student’s Deep Learning
[243] Deep Learning to help student’s Deep Learning[243] Deep Learning to help student’s Deep Learning
[243] Deep Learning to help student’s Deep Learning
 
[234]Fast & Accurate Data Annotation Pipeline for AI applications
[234]Fast & Accurate Data Annotation Pipeline for AI applications[234]Fast & Accurate Data Annotation Pipeline for AI applications
[234]Fast & Accurate Data Annotation Pipeline for AI applications
 
Old version: [233]대형 컨테이너 클러스터에서의 고가용성 Network Load Balancing
Old version: [233]대형 컨테이너 클러스터에서의 고가용성 Network Load BalancingOld version: [233]대형 컨테이너 클러스터에서의 고가용성 Network Load Balancing
Old version: [233]대형 컨테이너 클러스터에서의 고가용성 Network Load Balancing
 
[226]NAVER 광고 deep click prediction: 모델링부터 서빙까지
[226]NAVER 광고 deep click prediction: 모델링부터 서빙까지[226]NAVER 광고 deep click prediction: 모델링부터 서빙까지
[226]NAVER 광고 deep click prediction: 모델링부터 서빙까지
 
[225]NSML: 머신러닝 플랫폼 서비스하기 & 모델 튜닝 자동화하기
[225]NSML: 머신러닝 플랫폼 서비스하기 & 모델 튜닝 자동화하기[225]NSML: 머신러닝 플랫폼 서비스하기 & 모델 튜닝 자동화하기
[225]NSML: 머신러닝 플랫폼 서비스하기 & 모델 튜닝 자동화하기
 
[224]네이버 검색과 개인화
[224]네이버 검색과 개인화[224]네이버 검색과 개인화
[224]네이버 검색과 개인화
 
[216]Search Reliability Engineering (부제: 지진에도 흔들리지 않는 네이버 검색시스템)
[216]Search Reliability Engineering (부제: 지진에도 흔들리지 않는 네이버 검색시스템)[216]Search Reliability Engineering (부제: 지진에도 흔들리지 않는 네이버 검색시스템)
[216]Search Reliability Engineering (부제: 지진에도 흔들리지 않는 네이버 검색시스템)
 
[214] Ai Serving Platform: 하루 수 억 건의 인퍼런스를 처리하기 위한 고군분투기
[214] Ai Serving Platform: 하루 수 억 건의 인퍼런스를 처리하기 위한 고군분투기[214] Ai Serving Platform: 하루 수 억 건의 인퍼런스를 처리하기 위한 고군분투기
[214] Ai Serving Platform: 하루 수 억 건의 인퍼런스를 처리하기 위한 고군분투기
 
[213] Fashion Visual Search
[213] Fashion Visual Search[213] Fashion Visual Search
[213] Fashion Visual Search
 
[232] TensorRT를 활용한 딥러닝 Inference 최적화
[232] TensorRT를 활용한 딥러닝 Inference 최적화[232] TensorRT를 활용한 딥러닝 Inference 최적화
[232] TensorRT를 활용한 딥러닝 Inference 최적화
 
[242]컴퓨터 비전을 이용한 실내 지도 자동 업데이트 방법: 딥러닝을 통한 POI 변화 탐지
[242]컴퓨터 비전을 이용한 실내 지도 자동 업데이트 방법: 딥러닝을 통한 POI 변화 탐지[242]컴퓨터 비전을 이용한 실내 지도 자동 업데이트 방법: 딥러닝을 통한 POI 변화 탐지
[242]컴퓨터 비전을 이용한 실내 지도 자동 업데이트 방법: 딥러닝을 통한 POI 변화 탐지
 
[212]C3, 데이터 처리에서 서빙까지 가능한 하둡 클러스터
[212]C3, 데이터 처리에서 서빙까지 가능한 하둡 클러스터[212]C3, 데이터 처리에서 서빙까지 가능한 하둡 클러스터
[212]C3, 데이터 처리에서 서빙까지 가능한 하둡 클러스터
 
[223]기계독해 QA: 검색인가, NLP인가?
[223]기계독해 QA: 검색인가, NLP인가?[223]기계독해 QA: 검색인가, NLP인가?
[223]기계독해 QA: 검색인가, NLP인가?
 

[216]딥러닝예제로보는개발자를위한통계 최재걸

  • 2. Deview 2015.. Data Mining (KDD) Machine Learning ( AI ) Statistics From http://www.kdnuggets.com/2014/06/data-science-skills-business-problems.html
  • 3. 1. ML, DM and Statistics
  • 5. 1.3 Data Mining - Experience 데이터마이닝으로 해결한 문제가 많다 해결못한 것도 많다
  • 7. 1.2 Machine Learning - experience 머신 러닝으로 해결한 문제도 많다. 해결 안되는 것도 많다
  • 8. 1.3 Statistics From www.quora.com - The World is probabilistic - Model and Distribution Too formal but strong
  • 9. 1.4 Why statistics? Data Mining (KDD) Machine Learning ( AI ) Statistics DATA  Probability – inevitably Association Rule ( Conditional Probability) K-means ( EM ) 1. NO BLACK BOX 2. BREAKTHROUGH 畵龍點睛
  • 10. 2. A Statistical View of Deep Learning From http://blog.shakirm.com/wp- content/uploads/2015/07/SVDL.pdf
  • 11. 2.1 Deep Learning in ML Neural Net을 알고있으니 잘 할 수 있을거라 생각. 2012년 input hidden output Class..두개니까.. 1,0 Sigmoid로 activation 숫자.. 음.. 4개의 classifier 목적함수 J 만들고, 학습은, 미분해서 backpropagation.. “Oh.. Piece of Cake!”
  • 12. 2.1 Deep Learning in ML !!! 구글 DistBelief “그래봐야 뉴럴넷”
  • 13. 2.1 Deep Learning in ML 딥러닝이 너무 선전… 나도 해야하는 것 아닌가? 2013년 input hidden1 output hidden2 숫자.. 4개의 classifier 다시 3개.. Class..두개니까.. 1,0 Hidden node 에서 엑티베이션. 다시 hidden. Correlation을 엄청나게 고려하겠다는 거군.. Ok! “Oh.. Piece of Cake!”
  • 14. 2.1 Deep Learning in ML 도전!!! CNN 갑자기 왠 컨볼루션? Sub-sampling? “막하자는겁니까?”
  • 15. 2.1 Deep Learning in ML 딥러닝은 운명. 7전8기 input hidden1 hidden2 “3차 포기 임박” outputhidden3 Stochastic gradient descent는 많이 쓰는 거고, Overfitting이야 생길수 있으니, 정규화패턴 넣어주고. Vanishing problem? ReLU, Drop OUT ?.. ㅠㅜ.
  • 16. 2.1 Deep Learning in ML ReLU의 정체 Hinton 교수가 2010년 BM 의 성능이 향상된다고 발표한 것. “Activation function은 이름을 잘못지었다.” Hinton. The Great British
  • 17. 2.1 Deep Learning in Statistics ReLU의 정체 g 맞긴 하지만 그렇게만 말하면 안되지 않나요...ㅠㅜ g는 Sigmoid 함수  목적은 activation하기 위해서.. “Sigmoid 가 아니어도 된다. Non-linear하게 값을 전달하고자 할뿐”Linear Model Sigmoid 자리에 다른 함수가 들어가도 된다..
  • 18. 2.1 Deep Learning in Statistics Generalized Function g Generalized Linear Model Sigmoid 자리에 다른 함수가 들어가도 된다.. weight input 1. Output이 linear 2. Output 이 1,0 3. Output 이 횟수 4. Output이 linear가 아닐때..
  • 19. 2.2 Deep Learning in Statistics Generalized Linear Model input hidden1 GLM Layer 하나가 여러 개의 GLM으로 파악된다. LM g GLMs “glm은 매우 익숙”
  • 20. 2.2 Deep Learning in Statistics Recursive Generalized Linear Model GLM의 중첩이 DNN이다. LM g GLMs input hidden1 output hidden2 LM g 𝔼[y] x
  • 21. 2.3 GLM의 link function 액티베이션함수Statistics의 링크함수 Logistic ( logit) Sigmoid Multinomial( M logit) Softmax Tobit (Censored Probit) ReLU !! Poisson (count) - The Great Hinton( 2010) 어디서 힌트를 얻었을까? Probit ( Normal) - 링크 vs 엑티베이션 비어있음!! – 새 영역 LM g x
  • 22. 2.3 Anti-Overfit GLM 에서 overffit 막으려고 하는 것 – Regularization Term Machine LearningStatistics L1 ( Lasso ) - ( non –convex) L2 ( Gaussian ) L2 Lp-norm - AIC, BIC - (쓸 수 없음) 비어있음!! 𝐽 = 𝐶𝑜𝑠𝑡 + 𝜆 𝑤2
  • 23. 2.4 DROP-OUT 추정해야할 변수가 너무 많을때 통계에서는 .. BreakThrough Machine Learning Statistics Spike and Slab ( 1988)Drop OUT (2014)
  • 24. 2.5 Deep = Recursive “Recursive XXXs” LM g GLMs LM g 𝔼[y] x Recursive System = deep Only Linear? NO!
  • 25. 2.6 Deep Boltzman Machine Recursive Auto Encoder Boltzman Machine을 recursive하게 연결. Hinton. The Great British RBM g RBM RBM g 𝔼[y] x
  • 26. 2.7 Deep Gaussian Mixture Gaussian Mixture 를 recursive하게 연결해도 될까? GMM g GMM g 𝔼[y] x 된다. 2014년 publish 됨. 뉴럴넷 그림만 보면 알 수 없음 논문 주제
  • 27. 2.7 Deep Gaussian Mixture -cont Unsupervised Learning with Deep Gaussian Mixture Model 𝑑 𝑑𝜃 𝑙𝑛𝑝 𝑋 𝜋, 𝜇, Σ = 𝜋 𝑝 𝑁 𝑥 𝑛 𝜇 𝑝, Σ 𝑝 𝜋 𝑞 𝑁 𝑥 𝑛 𝜇 𝑞, Σ 𝑞𝑞∈Φ𝑛,𝑝 𝑑 𝑑𝜃 𝑙𝑛𝑁 𝑥 𝑛 𝜇 𝑝, Σ 𝑝
  • 28. 2.8 Convolutionary NN 재도전!!! CNN CON g LM g 𝔼[y] x “막하는것아님”
  • 29. 2.8 정리하면.. Statistical View 로 clear하게 deep learning을 볼 수 있다. BreakThrough Statistics 영역에서 이미 연구된 것들이 영감을 줄 수 있다.
  • 32. 3.2 Learn from problem-solving Gaussian Mixture Model for MUSIC ( 2012 ) Beat빠르기 전자음 가우시언믹스쳐를 알고는 있었지만, 사용할 수 없을 것 같았음. 실제 상황 + 이론 “느리니까 쓰지않는다.”
  • 33. 3.3 Roughly saying about Statistics.. 분포통계기술통계 검정통계회귀통계
  • 34. 3.4 기초통계 입사한지 얼마 안되었을 때.. “기초통계를 보고싶다” “송중기가 어떻게생겼는가?” ->잘생겼네. ->눈은어떻고,코는어떻고,… 평균 Median, quantile, variance, … “데이터가 어떻게 생겼는지 알고싶다”
  • 35. 3.5 분포통계 Dirichlet - 드리쉴레.. 드리끌레.. 그건 어느 나라 말입니까? LDA ( 2010) 분포의 식에 현혹.. 분포의 관계로 부터 출발
  • 36. 3.5 분포통계 제가 사용하는 분포 구조입니다. 베르누이 이항분포 정규분표 t분표 카이스퀘 어분표 F분표 다항분포 다변량정 규분표 베타분포 드리쉴레 분포 프아송 분포 감마분포 (지수분포) 검정통계continuousdiscrete 동전던지기 여러번 무한번 평균 제곱: 분산 나누기 일정시간 거꾸로 거꾸로 거꾸로 주사위 여러번 무한번
  • 37. 3.5 분포통계 제가 사용하는 분포 구조입니다. 베르누이 이항분포 정규분표 t분표 카이스퀘 어분표 F분표 다항분포 다변량정 규분표 베타분포 드리쉴레 분포 프아송 분포 감마분포 (지수분포) 검정통계continuousdiscrete bernuill binomial poisson multinomial Multivariate normaml gaussian beta dirichlet Student t Chi-square F Gamma 일정시간 -
  • 38. 3.5 분포통계 예제 Latent Dirichlet Allocation : LDA ( 2010) 다항분포 드리쉴레 분포 multinomial dirichlet 실전!
  • 39. 3.6 회귀통계 하고 싶은 것은.. 각 feature의 Weight 학습. 𝑦 = 𝑤1 𝑥1 + 𝑤2 𝑥2 + 𝜖 R에서 lm 하면됨. 로지스틱? 쁘아송? 감마? …
  • 40. 3.6 회귀통계 Y가 좀 너무 크거나, 작으면.. 약간 이상해 지는 느낌… 𝑦 = 𝑤1 𝑥1 + 𝑤2 𝑥2 + 𝜖 1년간 회사를 그만둔 사람 수? 좀 작은데.. 연봉..? 좀 너무 숫자가 큰데.. poisson gamma
  • 41. 3.6 회귀통계 Y가 좀 너무 크거나, 작으면.. 약간 이상해 지는 느낌… 𝑦 = 𝑤1 𝑥1 + 𝑤2 𝑥2 + 𝜖 1년간 회사를 그만둔 사람 수? 좀 작은데.. 연봉..? 좀 너무 숫자가 큰데.. poisson gamma logistic Multi logistic identity
  • 42. 3.6 회귀통계 예제 노출되는 랭킹과 클릭수와의 관계 𝑦 = 𝑤1 𝑥1 + 𝜖 10000 = w*1등 + error 5000 = w*2등 + error 중요한건 Y 의 분포  분포를 알아야.. log(𝑦) = 𝑤1 𝑥1 + 𝜖 LINEARNON-L
  • 43. 3.6 통계 분포 + 회귀 + 검정  경험으로 습득 poisson gamma logistic Multi logistic identity 평균 분산
  • 45. 마치며.. - Statistics can inspire. - Statistics, not from book but from problem-solving.
  • 46. Q&A