SlideShare une entreprise Scribd logo
1  sur  48
Télécharger pour lire hors ligne
텐서플로우로 배우는 딥러닝
전북대학교주찬웅
현재 가장 핫한 토픽
https://www.youtube.com/watch?v=VOC3huqHrss
인공지능이란?
인공지능
머신러닝
딥러닝
머신러닝이란?
If 배가 고프면, then 밥을 먹어라 데이터 기반 → 예측 + 학습
Explicit Programming Machine Learning
간단한 문제 복잡한 문제
Ex) 스팸필터, 추천 시스템,
요일과 교통상황 사이의 상관관계
머신러닝이란?
지도학습
비지도학습 강화학습
지도학습이란?
• 입력데이터와 정답데이터가 주어졌을 때,
이 데이터의 상관관계를 가장 잘 표현하는 함수를 구하는 것
입력
? 정답
지도학습이란?
개 or 고양이
분류해주는 모델
(Classification)
각각의
확률
지도학습이란?
집 값을 예측해주는
모델(Regression)
연속적인
값
집의 위치
층수
집 주위의 교통환경
방의 개수
해당 지역 범죄율
비지도학습이란?
• 입력데이터만 주어졌을 때, 모델 스스로 데이터안에서 어떠한 관계를 찾아
내는 것
• 정답데이터가 주어지지 않는다는 점에서 지도학습과의 차이점을 보임
강화학습이란?
• 환경과 상호작용을 하며, 잘한 행동에는 칭찬을 못한 행동에 대해서
벌을 주면서 최적의 행동을 찾는 것
강화학습이란?
https://www.youtube.com/watch?v=Tm
PfTpjtdgg
왜 딥러닝일까?
• 머신러닝을 이용한 학습방법은 오래 전부터 존재
• 하지만, 머신러닝이 Linear한 성질 때문에, XOR문제와 같은 간단한
비선형 문제조차도 해결 불가능
• H(s) = WX (W : 가중치의 벡터, X: 입력의 벡터)
딥러닝이란?
• 인간의 뇌를 본따서 만든 인공신경망을 이용하여 학습하는 것
• 인공신경망을 넓고 다층(Deep)으로 쌓으면 딥러닝(Deep-Learning)
딥러닝이란?
• 신경망을 다층으로 쌓으면 비선형 문제도 해결 가능
• 신경망 출력에 비선형 활성화 함수를 추가함
활성화 함수란?
• 어떠한 입력이 들어와서 함수 출력이 나왔을 때, 이 함수를 활성화 하
는 함수
• 아무리 Linear한 함수를 다층으로 쌓아도 선형 함수
• 활성화 함수를 사용함으로써 함수가 비선형이 됨
어떻게 학습을 할까?
• 입력데이터와 정답데이터가 필요(지도학습)
• 입력데이터와 정답데이터에 맞는 최적의 함수를 찾아야함
1
2
3
1
2
3
입력 정답
F(x)
어떻게 학습을 할까?
• F(x) = Wx 라는 일차 방정식으로 표현
• 우리가 구해야 할 것은 W(weight : 가중치) 만약 W가 ‘2’라면?
1
2
3
2
4
6
입력 추측(정답X)
F(x) = Wx
1
2
3
실제 정답
어떻게 학습을 할까?
• 오차(loss/cost/object)를 줄이면 결국 잘 맞는 함수이지 않을까?
• Regression 문제에서는 MSE(Mean Square Error)를 사용. 출력
과 정답 값의 차이를 나타내는 함수
• Classification 문제에서는 Cross-Entropy를 사용.
어떻게 학습을 할까?
2
4
6
출력(정답X)
1
2
3
정답
=
1
3
2 − 1 2 + 4 − 2 2 + 6 − 3 2
=
14
3
= 4.67
F(x) = 2(w) * X
어떻게 학습을 할까?
0
5
10
15
20
-2 -1 0 1 2 3 4
MSE
W(weight)
어떻게 학습을 할까?
• MSE가 최소가 되는 지점을 구해야함(Minimize 문제)
• 미분을 하여 그 값(기울기)이 0이 되는 W가 해당 그래프의 최소값
0
5
10
15
20
-2 -1 0 1 2 3 4
MSE
W(weight)
기울기 = 0
어떻게 학습을 할까?
• 경사 하강법을 이용(Gradient Descent Algorithm)
• 𝑊 = 𝑊 − 𝛼
𝜕𝐸
𝜕𝑊
(𝛼 ∶ 𝐿𝑒𝑎𝑟𝑛𝑖𝑛𝑔 𝑅𝑎𝑡𝑒 학습률)
0
5
10
15
20
-2 0 2 4
MSE
W(weight)
어떻게 학습을 할까?
• 경사 하강법을 이용(Gradient Descent Algorithm)
• 𝑊 = 𝑊 − 𝛼
𝜕𝐸
𝜕𝑊
(𝛼 ∶ 𝐿𝑒𝑎𝑟𝑛𝑖𝑛𝑔 𝑅𝑎𝑡𝑒 학습률)
0
5
10
15
20
-2 0 2 4
MSE
W(weight)
어떻게 학습을 할까?
• 경사 하강법을 이용(Gradient Descent Algorithm)
• 𝑊 = 𝑊 − 𝛼
𝜕𝐸
𝜕𝑊
(𝛼 ∶ 𝐿𝑒𝑎𝑟𝑛𝑖𝑛𝑔 𝑅𝑎𝑡𝑒 학습률)
0
5
10
15
20
-2 0 2 4
MSE
W(weight)
어떻게 학습을 할까?
• 경사 하강법을 이용(Gradient Descent Algorithm)
• 𝑊 = 𝑊 − 𝛼
𝜕𝐸
𝜕𝑊
(𝛼 ∶ 𝐿𝑒𝑎𝑟𝑛𝑖𝑛𝑔 𝑅𝑎𝑡𝑒 학습률)
0
5
10
15
20
-2 0 2 4
MSE
W(weight)
딥러닝의 큰 문제점
• 기존 머신러닝(Linear)은 층이 하나라서 미분이 가능했음
• 딥러닝은 층이 깊어지면 사실상 미분이 불가능해짐
• 딥러닝이 오래전부터 있었지만 더 이상 발전을 못해 왔음(빙하기)
• Backpropagation이라는 알고리즘이 나온 후 부터 다시 발전
미분 가능?
Backpropagation이란?
• 현재 딥러닝 학습에서 사용되는 가장 중요한 개념
• 복잡한 형태의 함수를 Chain rule을 이용해 쉽게 기울기를 구할 수
있음
W
Backpropagation이란?
W
MSE
𝜕𝐸
𝜕𝑊
=
𝜕𝐸
𝜕𝑜𝑢𝑡
∗
𝜕𝑜𝑢𝑡
𝜕𝑖𝑛
∗
𝜕𝑖𝑛
𝜕𝑊
Chain rule :
out
in
후에 다시 경사하강법을 이용하여 W 업데이트
활성화 함수
또 다시 빙하기
• Deep하게 층을 쌓고 Backpropagation을 통해서 여러 복잡한 문제
들 해결
• But, 너무 층이 깊어지면서 Backpropagation으로 오류가 입력단까
지 전달되지 못하는 현상 발견
• 이러한 문제를 Vanishing Gradient라고 함
Vanishing Gradient
• 원인은 비선형 문제를 풀기위해서 추가한 활성화 함수들(tanh, sigmoid)
• 모든 출력을 [0,1]사이로 압축해버리는 Sigmoid 특성때문에 기울기가 거의
사라져버림
• 아무리 미분 값이 커도 최대 0.25
• Backpropagation을 할 때, 최대 0.25인 값을 곱해서 점점 그 값이 희미해
짐
Sigmoid의 미분
Vanishing Gradient
• 이 문제를 해결하기 위해서 아주 간단한 활성화 함수를 추가
• 0보다 작으면 0, 0보다 크면 그 값을 그대로 출력해주는 활성화 함수
(Rectified Linear Unit : ReLU)
• ReLU를 미분하면 계단함수가 나옴, 기울기는 더 이상 사라지지 않게 됨
ReLU의 미분
CNN의 발견
• Convolution Neural Network(합성곱 신경망)
• 현재 거의 모든 영상처리에 사용
• 이미지를 단순하게 픽셀로 계산하는 것이 아니고, 이미지의 공간 특성
을 살릴 수 있게 Convolution Filter를 통해서 이미지에서 Feature
를 추출하고 그 Feature들을 이용하여 이미지를 분류
Feature 추출 단계 분류 단계
RNN의 발견
• Recurrent Neural Network(순환 신경망)
• 현재 대부분 시계열 데이터 처리에 사용
• 현재 상태의 출력을 다시 입력으로 사용함으로써 이전 상태를 기억
Tensorflow란?
• 구글에서 개발한 파이썬 딥러닝 라이브러리
• 미분이나 여러 복잡한 계산들을 쉽게 함수로 정의해놓음으로써, 쉽게
원하는 모델 구현 가능
Tensorflow의 차별점
• 기존 Numpy로 구성된 딥러닝 네트워크는 데이터와 모델이 한번에 만
들어지고 학습이 이루어짐
• Tensorflow는 일단 모델의 껍데기를 먼저 구성해놓고, Session을
시작하면서 모델들을 Session위로 불러옴
• 그 후에 Placeholder를 통해 학습할 데이터를 흘려줌
Tensorflow에서 꼭 알아야할 개념
• tf.Placeholder
• tf.Variable
• tf.nn
• tf.train
• tf.Session
• feed_dict
간단한 예제
1
2
3
1
2
3
입력 정답
F(x)
0
5
10
15
20
-2 0 2 4
MSE
W(weight)
간단한 예제
모델의 껍데기를 만드는 부분
간단한 예제
X Y
X * W
간단한 예제
𝑊 = 𝑊 − 𝛼
𝜕𝐸
𝜕𝑊
(𝛼 ∶ 𝐿𝑒𝑎𝑟𝑛𝑖𝑛𝑔 𝑅𝑎𝑡𝑒 학습률)
간단한 예제
실제 데이터를 흘려보내서 학습하는 부분
간단한 예제
X Y
X * W
tf.Session
간단한 예제
1 Epoch : 모든 데이터 셋을 한 번 학습
1 iteration : 1회 학습
minibatch : 데이터 셋을 batch size 크기로 쪼개서 학습
ex) 총 데이터가 100개, batch size가 10이면,
1 iteration = 10개 데이터에 대해서 학습
1 Epoch = 100/batch size = 10 iteration
1 Epoch
batch size 데이터 셋
간단한 예제
X Y
X * W
tf.Session
Flow
간단한 예제
라이브러리 사용으로 Cost를 쉽게 Minimize할 수 있음
간단한 예제
참고
• https://github.com/jcwleo/
• https://www.youtube.com/watch?v=VOC3huq
Hrss
• https://www.youtube.com/watch?v=TmPfTpjt
dgg
• https://brunch.co.kr/@chris-song/39
• http://pythonkim.tistory.com/40
• https://ml4a.github.io/images/figures/relu.png
감사합니다
QnA

Contenu connexe

Tendances

밑바닥부터 시작하는딥러닝 8장
밑바닥부터 시작하는딥러닝 8장밑바닥부터 시작하는딥러닝 8장
밑바닥부터 시작하는딥러닝 8장Sunggon Song
 
[기초개념] Recurrent Neural Network (RNN) 소개
[기초개념] Recurrent Neural Network (RNN) 소개[기초개념] Recurrent Neural Network (RNN) 소개
[기초개념] Recurrent Neural Network (RNN) 소개Donghyeon Kim
 
Ai 그까이거
Ai 그까이거Ai 그까이거
Ai 그까이거도형 임
 
Brief intro : Invariance and Equivariance
Brief intro : Invariance and EquivarianceBrief intro : Invariance and Equivariance
Brief intro : Invariance and Equivariance홍배 김
 
인공지능 방법론 - Deep Learning 쉽게 이해하기
인공지능 방법론 - Deep Learning 쉽게 이해하기인공지능 방법론 - Deep Learning 쉽게 이해하기
인공지능 방법론 - Deep Learning 쉽게 이해하기Byoung-Hee Kim
 
Intriguing properties of contrastive losses
Intriguing properties of contrastive lossesIntriguing properties of contrastive losses
Intriguing properties of contrastive lossestaeseon ryu
 
[DL輪読会]大規模分散強化学習の難しい問題設定への適用
[DL輪読会]大規模分散強化学習の難しい問題設定への適用[DL輪読会]大規模分散強化学習の難しい問題設定への適用
[DL輪読会]大規模分散強化学習の難しい問題設定への適用Deep Learning JP
 
순환신경망(Recurrent neural networks) 개요
순환신경망(Recurrent neural networks) 개요순환신경망(Recurrent neural networks) 개요
순환신경망(Recurrent neural networks) 개요Byoung-Hee Kim
 
A brief introduction to recent segmentation methods
A brief introduction to recent segmentation methodsA brief introduction to recent segmentation methods
A brief introduction to recent segmentation methodsShunta Saito
 
モデルアーキテクチャ観点からの高速化2019
モデルアーキテクチャ観点からの高速化2019モデルアーキテクチャ観点からの高速化2019
モデルアーキテクチャ観点からの高速化2019Yusuke Uchida
 
텐서플로우 설치도 했고 튜토리얼도 봤고 기초 예제도 짜봤다면 TensorFlow KR Meetup 2016
텐서플로우 설치도 했고 튜토리얼도 봤고 기초 예제도 짜봤다면 TensorFlow KR Meetup 2016텐서플로우 설치도 했고 튜토리얼도 봤고 기초 예제도 짜봤다면 TensorFlow KR Meetup 2016
텐서플로우 설치도 했고 튜토리얼도 봤고 기초 예제도 짜봤다면 TensorFlow KR Meetup 2016Taehoon Kim
 
1시간만에 GAN(Generative Adversarial Network) 완전 정복하기
1시간만에 GAN(Generative Adversarial Network) 완전 정복하기1시간만에 GAN(Generative Adversarial Network) 완전 정복하기
1시간만에 GAN(Generative Adversarial Network) 완전 정복하기NAVER Engineering
 
딥 러닝 자연어 처리를 학습을 위한 파워포인트. (Deep Learning for Natural Language Processing)
딥 러닝 자연어 처리를 학습을 위한 파워포인트. (Deep Learning for Natural Language Processing)딥 러닝 자연어 처리를 학습을 위한 파워포인트. (Deep Learning for Natural Language Processing)
딥 러닝 자연어 처리를 학습을 위한 파워포인트. (Deep Learning for Natural Language Processing)WON JOON YOO
 
기계학습 / 딥러닝이란 무엇인가
기계학습 / 딥러닝이란 무엇인가기계학습 / 딥러닝이란 무엇인가
기계학습 / 딥러닝이란 무엇인가Yongha Kim
 
【DL輪読会】ConvNeXt V2: Co-designing and Scaling ConvNets with Masked Autoencoders
【DL輪読会】ConvNeXt V2: Co-designing and Scaling ConvNets with Masked Autoencoders【DL輪読会】ConvNeXt V2: Co-designing and Scaling ConvNets with Masked Autoencoders
【DL輪読会】ConvNeXt V2: Co-designing and Scaling ConvNets with Masked AutoencodersDeep Learning JP
 
分散深層学習 @ NIPS'17
分散深層学習 @ NIPS'17分散深層学習 @ NIPS'17
分散深層学習 @ NIPS'17Takuya Akiba
 
【DL輪読会】Hyena Hierarchy: Towards Larger Convolutional Language Models
【DL輪読会】Hyena Hierarchy: Towards Larger Convolutional Language Models【DL輪読会】Hyena Hierarchy: Towards Larger Convolutional Language Models
【DL輪読会】Hyena Hierarchy: Towards Larger Convolutional Language ModelsDeep Learning JP
 
Recurrent Neural Net의 이론과 설명
Recurrent Neural Net의 이론과 설명Recurrent Neural Net의 이론과 설명
Recurrent Neural Net의 이론과 설명홍배 김
 
猫でも分かるVariational AutoEncoder
猫でも分かるVariational AutoEncoder猫でも分かるVariational AutoEncoder
猫でも分かるVariational AutoEncoderSho Tatsuno
 

Tendances (20)

밑바닥부터 시작하는딥러닝 8장
밑바닥부터 시작하는딥러닝 8장밑바닥부터 시작하는딥러닝 8장
밑바닥부터 시작하는딥러닝 8장
 
[기초개념] Recurrent Neural Network (RNN) 소개
[기초개념] Recurrent Neural Network (RNN) 소개[기초개념] Recurrent Neural Network (RNN) 소개
[기초개념] Recurrent Neural Network (RNN) 소개
 
Ai 그까이거
Ai 그까이거Ai 그까이거
Ai 그까이거
 
Brief intro : Invariance and Equivariance
Brief intro : Invariance and EquivarianceBrief intro : Invariance and Equivariance
Brief intro : Invariance and Equivariance
 
인공지능 방법론 - Deep Learning 쉽게 이해하기
인공지능 방법론 - Deep Learning 쉽게 이해하기인공지능 방법론 - Deep Learning 쉽게 이해하기
인공지능 방법론 - Deep Learning 쉽게 이해하기
 
Intriguing properties of contrastive losses
Intriguing properties of contrastive lossesIntriguing properties of contrastive losses
Intriguing properties of contrastive losses
 
[DL輪読会]大規模分散強化学習の難しい問題設定への適用
[DL輪読会]大規模分散強化学習の難しい問題設定への適用[DL輪読会]大規模分散強化学習の難しい問題設定への適用
[DL輪読会]大規模分散強化学習の難しい問題設定への適用
 
ResNetの仕組み
ResNetの仕組みResNetの仕組み
ResNetの仕組み
 
순환신경망(Recurrent neural networks) 개요
순환신경망(Recurrent neural networks) 개요순환신경망(Recurrent neural networks) 개요
순환신경망(Recurrent neural networks) 개요
 
A brief introduction to recent segmentation methods
A brief introduction to recent segmentation methodsA brief introduction to recent segmentation methods
A brief introduction to recent segmentation methods
 
モデルアーキテクチャ観点からの高速化2019
モデルアーキテクチャ観点からの高速化2019モデルアーキテクチャ観点からの高速化2019
モデルアーキテクチャ観点からの高速化2019
 
텐서플로우 설치도 했고 튜토리얼도 봤고 기초 예제도 짜봤다면 TensorFlow KR Meetup 2016
텐서플로우 설치도 했고 튜토리얼도 봤고 기초 예제도 짜봤다면 TensorFlow KR Meetup 2016텐서플로우 설치도 했고 튜토리얼도 봤고 기초 예제도 짜봤다면 TensorFlow KR Meetup 2016
텐서플로우 설치도 했고 튜토리얼도 봤고 기초 예제도 짜봤다면 TensorFlow KR Meetup 2016
 
1시간만에 GAN(Generative Adversarial Network) 완전 정복하기
1시간만에 GAN(Generative Adversarial Network) 완전 정복하기1시간만에 GAN(Generative Adversarial Network) 완전 정복하기
1시간만에 GAN(Generative Adversarial Network) 완전 정복하기
 
딥 러닝 자연어 처리를 학습을 위한 파워포인트. (Deep Learning for Natural Language Processing)
딥 러닝 자연어 처리를 학습을 위한 파워포인트. (Deep Learning for Natural Language Processing)딥 러닝 자연어 처리를 학습을 위한 파워포인트. (Deep Learning for Natural Language Processing)
딥 러닝 자연어 처리를 학습을 위한 파워포인트. (Deep Learning for Natural Language Processing)
 
기계학습 / 딥러닝이란 무엇인가
기계학습 / 딥러닝이란 무엇인가기계학습 / 딥러닝이란 무엇인가
기계학습 / 딥러닝이란 무엇인가
 
【DL輪読会】ConvNeXt V2: Co-designing and Scaling ConvNets with Masked Autoencoders
【DL輪読会】ConvNeXt V2: Co-designing and Scaling ConvNets with Masked Autoencoders【DL輪読会】ConvNeXt V2: Co-designing and Scaling ConvNets with Masked Autoencoders
【DL輪読会】ConvNeXt V2: Co-designing and Scaling ConvNets with Masked Autoencoders
 
分散深層学習 @ NIPS'17
分散深層学習 @ NIPS'17分散深層学習 @ NIPS'17
分散深層学習 @ NIPS'17
 
【DL輪読会】Hyena Hierarchy: Towards Larger Convolutional Language Models
【DL輪読会】Hyena Hierarchy: Towards Larger Convolutional Language Models【DL輪読会】Hyena Hierarchy: Towards Larger Convolutional Language Models
【DL輪読会】Hyena Hierarchy: Towards Larger Convolutional Language Models
 
Recurrent Neural Net의 이론과 설명
Recurrent Neural Net의 이론과 설명Recurrent Neural Net의 이론과 설명
Recurrent Neural Net의 이론과 설명
 
猫でも分かるVariational AutoEncoder
猫でも分かるVariational AutoEncoder猫でも分かるVariational AutoEncoder
猫でも分かるVariational AutoEncoder
 

Similaire à 텐서플로우로 배우는 딥러닝

인공지능, 기계학습 그리고 딥러닝
인공지능, 기계학습 그리고 딥러닝인공지능, 기계학습 그리고 딥러닝
인공지능, 기계학습 그리고 딥러닝Jinwon Lee
 
머신 러닝을 해보자 1장 (2022년 스터디)
머신 러닝을 해보자 1장 (2022년 스터디)머신 러닝을 해보자 1장 (2022년 스터디)
머신 러닝을 해보자 1장 (2022년 스터디)ssusercdf17c
 
밑바닥부터시작하는딥러닝 Ch2
밑바닥부터시작하는딥러닝 Ch2밑바닥부터시작하는딥러닝 Ch2
밑바닥부터시작하는딥러닝 Ch2HyeonSeok Choi
 
3.unsupervised learing(epoch#2)
3.unsupervised learing(epoch#2)3.unsupervised learing(epoch#2)
3.unsupervised learing(epoch#2)Haesun Park
 
Deep Learning from scratch 4장 : neural network learning
Deep Learning from scratch 4장 : neural network learningDeep Learning from scratch 4장 : neural network learning
Deep Learning from scratch 4장 : neural network learningJinSooKim80
 
Lecture 4: Neural Networks I
Lecture 4: Neural Networks ILecture 4: Neural Networks I
Lecture 4: Neural Networks ISang Jun Lee
 
From maching learning to deep learning
From maching learning to deep learningFrom maching learning to deep learning
From maching learning to deep learningYongdae Kim
 
2.supervised learning(epoch#2)-3
2.supervised learning(epoch#2)-32.supervised learning(epoch#2)-3
2.supervised learning(epoch#2)-3Haesun Park
 
딥러닝을 위한 Tensor flow(skt academy)
딥러닝을 위한 Tensor flow(skt academy)딥러닝을 위한 Tensor flow(skt academy)
딥러닝을 위한 Tensor flow(skt academy)Tae Young Lee
 
Coursera Machine Learning (by Andrew Ng)_강의정리
Coursera Machine Learning (by Andrew Ng)_강의정리Coursera Machine Learning (by Andrew Ng)_강의정리
Coursera Machine Learning (by Andrew Ng)_강의정리SANG WON PARK
 
[네이버AI해커톤]어떻게 걱정을 멈추고 베이스라인을 사랑하는 법을 배우게 되었는가
[네이버AI해커톤]어떻게 걱정을 멈추고 베이스라인을 사랑하는 법을 배우게 되었는가[네이버AI해커톤]어떻게 걱정을 멈추고 베이스라인을 사랑하는 법을 배우게 되었는가
[네이버AI해커톤]어떻게 걱정을 멈추고 베이스라인을 사랑하는 법을 배우게 되었는가NAVER Engineering
 
2.supervised learning(epoch#2)-1
2.supervised learning(epoch#2)-12.supervised learning(epoch#2)-1
2.supervised learning(epoch#2)-1Haesun Park
 
Nationality recognition
Nationality recognitionNationality recognition
Nationality recognition준영 박
 
[2023] Cut and Learn for Unsupervised Object Detection and Instance Segmentation
[2023] Cut and Learn for Unsupervised Object Detection and Instance Segmentation[2023] Cut and Learn for Unsupervised Object Detection and Instance Segmentation
[2023] Cut and Learn for Unsupervised Object Detection and Instance Segmentationtaeseon ryu
 
한눈에 보는 머신러닝
한눈에 보는 머신러닝한눈에 보는 머신러닝
한눈에 보는 머신러닝주경 이
 
Workshop 210417 dhlee
Workshop 210417 dhleeWorkshop 210417 dhlee
Workshop 210417 dhleeDongheon Lee
 
파이썬과 케라스로 배우는 강화학습 저자특강
파이썬과 케라스로 배우는 강화학습 저자특강파이썬과 케라스로 배우는 강화학습 저자특강
파이썬과 케라스로 배우는 강화학습 저자특강Woong won Lee
 
Guided policy search
Guided policy searchGuided policy search
Guided policy searchJaehyeon Park
 
파이썬으로 익히는 딥러닝 기본 (18년)
파이썬으로 익히는 딥러닝 기본 (18년)파이썬으로 익히는 딥러닝 기본 (18년)
파이썬으로 익히는 딥러닝 기본 (18년)SK(주) C&C - 강병호
 

Similaire à 텐서플로우로 배우는 딥러닝 (20)

인공지능, 기계학습 그리고 딥러닝
인공지능, 기계학습 그리고 딥러닝인공지능, 기계학습 그리고 딥러닝
인공지능, 기계학습 그리고 딥러닝
 
머신 러닝을 해보자 1장 (2022년 스터디)
머신 러닝을 해보자 1장 (2022년 스터디)머신 러닝을 해보자 1장 (2022년 스터디)
머신 러닝을 해보자 1장 (2022년 스터디)
 
밑바닥부터시작하는딥러닝 Ch2
밑바닥부터시작하는딥러닝 Ch2밑바닥부터시작하는딥러닝 Ch2
밑바닥부터시작하는딥러닝 Ch2
 
3.unsupervised learing(epoch#2)
3.unsupervised learing(epoch#2)3.unsupervised learing(epoch#2)
3.unsupervised learing(epoch#2)
 
Deep Learning from scratch 4장 : neural network learning
Deep Learning from scratch 4장 : neural network learningDeep Learning from scratch 4장 : neural network learning
Deep Learning from scratch 4장 : neural network learning
 
DL from scratch(4~5)
DL from scratch(4~5)DL from scratch(4~5)
DL from scratch(4~5)
 
Lecture 4: Neural Networks I
Lecture 4: Neural Networks ILecture 4: Neural Networks I
Lecture 4: Neural Networks I
 
From maching learning to deep learning
From maching learning to deep learningFrom maching learning to deep learning
From maching learning to deep learning
 
2.supervised learning(epoch#2)-3
2.supervised learning(epoch#2)-32.supervised learning(epoch#2)-3
2.supervised learning(epoch#2)-3
 
딥러닝을 위한 Tensor flow(skt academy)
딥러닝을 위한 Tensor flow(skt academy)딥러닝을 위한 Tensor flow(skt academy)
딥러닝을 위한 Tensor flow(skt academy)
 
Coursera Machine Learning (by Andrew Ng)_강의정리
Coursera Machine Learning (by Andrew Ng)_강의정리Coursera Machine Learning (by Andrew Ng)_강의정리
Coursera Machine Learning (by Andrew Ng)_강의정리
 
[네이버AI해커톤]어떻게 걱정을 멈추고 베이스라인을 사랑하는 법을 배우게 되었는가
[네이버AI해커톤]어떻게 걱정을 멈추고 베이스라인을 사랑하는 법을 배우게 되었는가[네이버AI해커톤]어떻게 걱정을 멈추고 베이스라인을 사랑하는 법을 배우게 되었는가
[네이버AI해커톤]어떻게 걱정을 멈추고 베이스라인을 사랑하는 법을 배우게 되었는가
 
2.supervised learning(epoch#2)-1
2.supervised learning(epoch#2)-12.supervised learning(epoch#2)-1
2.supervised learning(epoch#2)-1
 
Nationality recognition
Nationality recognitionNationality recognition
Nationality recognition
 
[2023] Cut and Learn for Unsupervised Object Detection and Instance Segmentation
[2023] Cut and Learn for Unsupervised Object Detection and Instance Segmentation[2023] Cut and Learn for Unsupervised Object Detection and Instance Segmentation
[2023] Cut and Learn for Unsupervised Object Detection and Instance Segmentation
 
한눈에 보는 머신러닝
한눈에 보는 머신러닝한눈에 보는 머신러닝
한눈에 보는 머신러닝
 
Workshop 210417 dhlee
Workshop 210417 dhleeWorkshop 210417 dhlee
Workshop 210417 dhlee
 
파이썬과 케라스로 배우는 강화학습 저자특강
파이썬과 케라스로 배우는 강화학습 저자특강파이썬과 케라스로 배우는 강화학습 저자특강
파이썬과 케라스로 배우는 강화학습 저자특강
 
Guided policy search
Guided policy searchGuided policy search
Guided policy search
 
파이썬으로 익히는 딥러닝 기본 (18년)
파이썬으로 익히는 딥러닝 기본 (18년)파이썬으로 익히는 딥러닝 기본 (18년)
파이썬으로 익히는 딥러닝 기본 (18년)
 

텐서플로우로 배우는 딥러닝