Soumettre la recherche
Mettre en ligne
與高中生談人工智慧與深度學習
•
15 j'aime
•
5,257 vues
Yen-lung Tsai
Suivre
以高中生可以理解的程度, 介紹人工智慧與深度學習。2017 分別在中山女中、松山高中給過演講。這是松山高中那次的版本。
Lire moins
Lire la suite
Technologie
Signaler
Partager
Signaler
Partager
1 sur 132
Télécharger maintenant
Télécharger pour lire hors ligne
Recommandé
資料結構-20個經典題型
資料結構-20個經典題型
逸 張
記号創発ロボティクスの狙い
記号創発ロボティクスの狙い
Tadahiro Taniguchi
スペクトラルグラフ理論入門
スペクトラルグラフ理論入門
irrrrr
Gurobi python
Gurobi python
Mikio Kubo
Union find(素集合データ構造)
Union find(素集合データ構造)
AtCoder Inc.
プログラミングコンテストでの動的計画法
プログラミングコンテストでの動的計画法
Takuya Akiba
資管所-20個你該懂的議題
資管所-20個你該懂的議題
逸 張
最近の自然言語処理
最近の自然言語処理
naoto moriyama
Recommandé
資料結構-20個經典題型
資料結構-20個經典題型
逸 張
記号創発ロボティクスの狙い
記号創発ロボティクスの狙い
Tadahiro Taniguchi
スペクトラルグラフ理論入門
スペクトラルグラフ理論入門
irrrrr
Gurobi python
Gurobi python
Mikio Kubo
Union find(素集合データ構造)
Union find(素集合データ構造)
AtCoder Inc.
プログラミングコンテストでの動的計画法
プログラミングコンテストでの動的計画法
Takuya Akiba
資管所-20個你該懂的議題
資管所-20個你該懂的議題
逸 張
最近の自然言語処理
最近の自然言語処理
naoto moriyama
劣モジュラ最適化と機械学習1章
劣モジュラ最適化と機械学習1章
Hakky St
[DL輪読会]Recent Advances in Autoencoder-Based Representation Learning
[DL輪読会]Recent Advances in Autoencoder-Based Representation Learning
Deep Learning JP
3次元の凸包を求める
3次元の凸包を求める
abc3141
線形計画法入門
線形計画法入門
Shunji Umetani
明日使えないすごいビット演算
明日使えないすごいビット演算
京大 マイコンクラブ
画像認識のための深層学習
画像認識のための深層学習
Saya Katafuchi
そこそこ速くて安全なRDBの使い方
そこそこ速くて安全なRDBの使い方
ShunsukeNakamura17
PFI Seminar 2012/03/15 カーネルとハッシュの機械学習
PFI Seminar 2012/03/15 カーネルとハッシュの機械学習
Preferred Networks
ラベル付けのいろは
ラベル付けのいろは
Kensuke Mitsuzawa
【チュートリアル】コンピュータビジョンによる動画認識 v2
【チュートリアル】コンピュータビジョンによる動画認識 v2
Hirokatsu Kataoka
Fugaku, the Successes and the Lessons Learned
Fugaku, the Successes and the Lessons Learned
RCCSRENKEI
基本計概祕笈(張逸)
基本計概祕笈(張逸)
逸 張
データサイエンス概論第一 5 時系列データの解析
データサイエンス概論第一 5 時系列データの解析
Seiichi Uchida
Deep Learning 勉強会 (Chapter 7-12)
Deep Learning 勉強会 (Chapter 7-12)
Ohsawa Goodfellow
局所特徴量と統計学習手法による物体検出
局所特徴量と統計学習手法による物体検出
MPRG_Chubu_University
自然言語処理
自然言語処理
naoto moriyama
PCL
PCL
Masafumi Noda
パターン認識第9章 学習ベクトル量子化
パターン認識第9章 学習ベクトル量子化
Miyoshi Yuya
最近のDeep Learning (NLP) 界隈におけるAttention事情
最近のDeep Learning (NLP) 界隈におけるAttention事情
Yuta Kikuchi
TabNetの論文紹介
TabNetの論文紹介
西岡 賢一郎
Arduino工作坊 - 羅伯特幫我寫作業
Arduino工作坊 - 羅伯特幫我寫作業
Chih-Ta Wu
用 GeoGebra 玩數學
用 GeoGebra 玩數學
Yen-lung Tsai
Contenu connexe
Tendances
劣モジュラ最適化と機械学習1章
劣モジュラ最適化と機械学習1章
Hakky St
[DL輪読会]Recent Advances in Autoencoder-Based Representation Learning
[DL輪読会]Recent Advances in Autoencoder-Based Representation Learning
Deep Learning JP
3次元の凸包を求める
3次元の凸包を求める
abc3141
線形計画法入門
線形計画法入門
Shunji Umetani
明日使えないすごいビット演算
明日使えないすごいビット演算
京大 マイコンクラブ
画像認識のための深層学習
画像認識のための深層学習
Saya Katafuchi
そこそこ速くて安全なRDBの使い方
そこそこ速くて安全なRDBの使い方
ShunsukeNakamura17
PFI Seminar 2012/03/15 カーネルとハッシュの機械学習
PFI Seminar 2012/03/15 カーネルとハッシュの機械学習
Preferred Networks
ラベル付けのいろは
ラベル付けのいろは
Kensuke Mitsuzawa
【チュートリアル】コンピュータビジョンによる動画認識 v2
【チュートリアル】コンピュータビジョンによる動画認識 v2
Hirokatsu Kataoka
Fugaku, the Successes and the Lessons Learned
Fugaku, the Successes and the Lessons Learned
RCCSRENKEI
基本計概祕笈(張逸)
基本計概祕笈(張逸)
逸 張
データサイエンス概論第一 5 時系列データの解析
データサイエンス概論第一 5 時系列データの解析
Seiichi Uchida
Deep Learning 勉強会 (Chapter 7-12)
Deep Learning 勉強会 (Chapter 7-12)
Ohsawa Goodfellow
局所特徴量と統計学習手法による物体検出
局所特徴量と統計学習手法による物体検出
MPRG_Chubu_University
自然言語処理
自然言語処理
naoto moriyama
PCL
PCL
Masafumi Noda
パターン認識第9章 学習ベクトル量子化
パターン認識第9章 学習ベクトル量子化
Miyoshi Yuya
最近のDeep Learning (NLP) 界隈におけるAttention事情
最近のDeep Learning (NLP) 界隈におけるAttention事情
Yuta Kikuchi
TabNetの論文紹介
TabNetの論文紹介
西岡 賢一郎
Tendances
(20)
劣モジュラ最適化と機械学習1章
劣モジュラ最適化と機械学習1章
[DL輪読会]Recent Advances in Autoencoder-Based Representation Learning
[DL輪読会]Recent Advances in Autoencoder-Based Representation Learning
3次元の凸包を求める
3次元の凸包を求める
線形計画法入門
線形計画法入門
明日使えないすごいビット演算
明日使えないすごいビット演算
画像認識のための深層学習
画像認識のための深層学習
そこそこ速くて安全なRDBの使い方
そこそこ速くて安全なRDBの使い方
PFI Seminar 2012/03/15 カーネルとハッシュの機械学習
PFI Seminar 2012/03/15 カーネルとハッシュの機械学習
ラベル付けのいろは
ラベル付けのいろは
【チュートリアル】コンピュータビジョンによる動画認識 v2
【チュートリアル】コンピュータビジョンによる動画認識 v2
Fugaku, the Successes and the Lessons Learned
Fugaku, the Successes and the Lessons Learned
基本計概祕笈(張逸)
基本計概祕笈(張逸)
データサイエンス概論第一 5 時系列データの解析
データサイエンス概論第一 5 時系列データの解析
Deep Learning 勉強会 (Chapter 7-12)
Deep Learning 勉強会 (Chapter 7-12)
局所特徴量と統計学習手法による物体検出
局所特徴量と統計学習手法による物体検出
自然言語処理
自然言語処理
PCL
PCL
パターン認識第9章 学習ベクトル量子化
パターン認識第9章 学習ベクトル量子化
最近のDeep Learning (NLP) 界隈におけるAttention事情
最近のDeep Learning (NLP) 界隈におけるAttention事情
TabNetの論文紹介
TabNetの論文紹介
Similaire à 與高中生談人工智慧與深度學習
Arduino工作坊 - 羅伯特幫我寫作業
Arduino工作坊 - 羅伯特幫我寫作業
Chih-Ta Wu
用 GeoGebra 玩數學
用 GeoGebra 玩數學
Yen-lung Tsai
2016 Hadoop Conf TW - 如何建置數據精靈
2016 Hadoop Conf TW - 如何建置數據精靈
晨揚 施
讓數字說故事的7種方法 / 商業簡報網-韓明文講師
讓數字說故事的7種方法 / 商業簡報網-韓明文講師
明文 韓
用AI創造大商機:媒體、廣告、電商、零售業的視覺辨識應用
用AI創造大商機:媒體、廣告、電商、零售業的視覺辨識應用
Albert Y. C. Chen
Power BI x R
Power BI x R
Chia-Chi Chang
那些mockup沒告訴你的事@WebConf.tw 2013
那些mockup沒告訴你的事@WebConf.tw 2013
Adam Wang
類神經網路的極限在哪裡
類神經網路的極限在哪裡
AI.academy
Similaire à 與高中生談人工智慧與深度學習
(8)
Arduino工作坊 - 羅伯特幫我寫作業
Arduino工作坊 - 羅伯特幫我寫作業
用 GeoGebra 玩數學
用 GeoGebra 玩數學
2016 Hadoop Conf TW - 如何建置數據精靈
2016 Hadoop Conf TW - 如何建置數據精靈
讓數字說故事的7種方法 / 商業簡報網-韓明文講師
讓數字說故事的7種方法 / 商業簡報網-韓明文講師
用AI創造大商機:媒體、廣告、電商、零售業的視覺辨識應用
用AI創造大商機:媒體、廣告、電商、零售業的視覺辨識應用
Power BI x R
Power BI x R
那些mockup沒告訴你的事@WebConf.tw 2013
那些mockup沒告訴你的事@WebConf.tw 2013
類神經網路的極限在哪裡
類神經網路的極限在哪裡
Plus de Yen-lung Tsai
Deep Learning and Design Thinking
Deep Learning and Design Thinking
Yen-lung Tsai
強化學習 Reinforcement Learning
強化學習 Reinforcement Learning
Yen-lung Tsai
生成對抗模式 GAN 的介紹
生成對抗模式 GAN 的介紹
Yen-lung Tsai
Recurrent Neural Network 遞迴式神經網路
Recurrent Neural Network 遞迴式神經網路
Yen-lung Tsai
手把手打開Python資料分析大門
手把手打開Python資料分析大門
Yen-lung Tsai
深度學習實作上的各種卡關
深度學習實作上的各種卡關
Yen-lung Tsai
人工智慧不是魔法,是數學
人工智慧不是魔法,是數學
Yen-lung Tsai
[數學、邏輯與人生] 05 數,三聲數
[數學、邏輯與人生] 05 數,三聲數
Yen-lung Tsai
[數學軟體應用] 05 HTML+CSS
[數學軟體應用] 05 HTML+CSS
Yen-lung Tsai
[數學、邏輯與人生] 03 集合和數學歸納法
[數學、邏輯與人生] 03 集合和數學歸納法
Yen-lung Tsai
[數學、邏輯與人生] 01 基本邏輯和真值表
[數學、邏輯與人生] 01 基本邏輯和真值表
Yen-lung Tsai
03 串起你的數據
03 串起你的數據
Yen-lung Tsai
Markdown可以做什麼
Markdown可以做什麼
Yen-lung Tsai
02 和電腦對話
02 和電腦對話
Yen-lung Tsai
01 jupyter 第一課
01 jupyter 第一課
Yen-lung Tsai
[數學、邏輯與人生] 00 課程簡介
[數學、邏輯與人生] 00 課程簡介
Yen-lung Tsai
數學軟體應用課程 00 - 課程介紹
數學軟體應用課程 00 - 課程介紹
Yen-lung Tsai
Days on Jupyter
Days on Jupyter
Yen-lung Tsai
Plus de Yen-lung Tsai
(18)
Deep Learning and Design Thinking
Deep Learning and Design Thinking
強化學習 Reinforcement Learning
強化學習 Reinforcement Learning
生成對抗模式 GAN 的介紹
生成對抗模式 GAN 的介紹
Recurrent Neural Network 遞迴式神經網路
Recurrent Neural Network 遞迴式神經網路
手把手打開Python資料分析大門
手把手打開Python資料分析大門
深度學習實作上的各種卡關
深度學習實作上的各種卡關
人工智慧不是魔法,是數學
人工智慧不是魔法,是數學
[數學、邏輯與人生] 05 數,三聲數
[數學、邏輯與人生] 05 數,三聲數
[數學軟體應用] 05 HTML+CSS
[數學軟體應用] 05 HTML+CSS
[數學、邏輯與人生] 03 集合和數學歸納法
[數學、邏輯與人生] 03 集合和數學歸納法
[數學、邏輯與人生] 01 基本邏輯和真值表
[數學、邏輯與人生] 01 基本邏輯和真值表
03 串起你的數據
03 串起你的數據
Markdown可以做什麼
Markdown可以做什麼
02 和電腦對話
02 和電腦對話
01 jupyter 第一課
01 jupyter 第一課
[數學、邏輯與人生] 00 課程簡介
[數學、邏輯與人生] 00 課程簡介
數學軟體應用課程 00 - 課程介紹
數學軟體應用課程 00 - 課程介紹
Days on Jupyter
Days on Jupyter
與高中生談人工智慧與深度學習
1.
⼈⼯智慧 深度學習 蔡炎⿓ 政治⼤學應⽤數學系 與⾼中⽣談 與
2.
⼈⼯智慧時代來臨, 機器 將取代你的⼯作! 我們常聽⼈說
3.
未來 10 年,
現有的 50% 的⼯作會消失!
4.
好可怕, 好可怕, 好可怕?
5.
其實消失的⼯作很多
6.
以前的台車 — 推車師傅的工作都被取代了
7.
被取代不是最該擔⼼的問 題... 因為還有更多新 ⼯作!
8.
我們正在召喚惡魔! “ ” —伊隆·馬斯克 PayPal, SpaceX, Tesla (聯合) 創辦人 ⽤⼈⼯智慧
9.
Artificial intelligence is all
about math.“ ” —楊⽴昆 (Yann LeCun) NYU 教授, Facebook AI Director https://code.facebook.com/pages/1902086376686983
10.
2017 年台灣⼈⼯智慧年慧 AlphaGo 創始⼈之⼀⿈⼠傑博⼠演講 AlphaGo
的故事
11.
AlphaGo Lee AlphaGo Master AlphaGo Zero 中國烏鎮 圍棋會 4:1 擊敗世界 棋王李世乭 神秘⾼⼿網路 60 連勝 與柯潔對奕, ⼈⼯智慧與⼈ 的合作 完全⾃學的⼈ ⼯智慧,
擊敗 之前版本 2016.3 2016.12.29 —2017.1.4 2017.5 2017.10
12.
事實上也沒那麼可怕 ⾃動駕駛 近 100% 機會會實現
13.
哆啦a夢 近期內不可能 不過我們還有 95 年的時間 2112 年 9 月 3 日
14.
假設今天你在路上撿到⼀ 個神燈...
15.
你擦拭了以後果然如傳說 出現⼀位巨⼈...
16.
為了報答你, 他給你兩個 選擇, 你只能選⼀個 說好的三個願望呢?
17.
你會選哪個 任意函數⽣成器 現⾦三千萬 1 2
18.
當然要選 任意函數⽣成器!!
19.
WHY?
20.
函數是什麼呢?
21.
函數定義 一個函數 f 是由某個集合 X 到另一個 集合 Y 的對映關係。x 對映到 y 我們 記為 f(x) = y。要符合兩個條件...
22.
函數定義 每一個在 X (我們稱為定義域) 中的元 素 x, 都有一個在 Y (我們稱為值域) 裡的元素 y, 使得 f(x) = y。 條件 1
23.
函數定義 如果今天有在 X 中的兩個元素 x1, x2, 且 x1=x2, 則我們有 條件 2 f(x1) = f(x2)
24.
可以⽤⼈話說⼀次嗎?
25.
函數其實是⼀個解答本
26.
函數定義 一個函數 f 是由某個集合 X 到另一個 集合 Y 的對映關係。x 對映到 y 我們 記為 f(x) = y。要符合兩個條件... 所有可能的答案 如 {A, B, C, D, E} 所有可能的問題
27.
函數定義 每一個在 X (我們稱為定義域) 中的元 素 x, 都有一個在 Y (我們稱為值域) 裡的元素 y, 使得 f(x) = y。 條件1 每個問題都要有答案!
28.
函數定義 如果今天有在 X 中的兩個元素 x1, x2, 且 x1=x2, 則我們有 條件2 f(x1) = f(x2) 每個問題就一個答案!
29.
活⽣⽣的例⼦
30.
股票點數預測例⼦ 我想知道某⽀股票明天 的收盤價。
31.
f(⽇期 x) =
某股票 x 當天的收盤價 股票點數預測例⼦
32.
f(⽇期 x) =
某股票 x 當天的收盤價 股票點數預測 這可能不是最好的描述法。也許我們比 較想要⽤用之前的情況預測我們的想知道 的那天。也就類似是上⾯面這樣的函數。 例⼦
33.
f(x, y) =
x, y 這兩個⼈的速配指數 我們再度碰到要把⼈人變成⼀一串串描述他的 數字。很多可以⽤用, 比如星座、⾎血型、 興趣、學歷等等我們都可想辦法轉數字。 例⼦ 速配指數
34.
f( ) =
6 其實這裡有兩兩個問題要討論: 1. 輸入圖形很⼤大的時候呢? 2. 輸出是 0.2, 代表什什麼呢? 28x28 例⼦ 圖形辨識
35.
總之我們就是要函數
36.
很數學的例⼦
37.
R 到 R 的函數 R2 到 R 的函數 R 到 R2 的函數
38.
函數學習三部曲 真實世界我們要問的問題化做函數。 收集我們知道「正確答案」的訓練資料。 找出這個函數!
39.
暗⿊學習法 真的有學任意函數的技法
40.
就是「神經網路」!
41.
在 1980-1990 左右是很 潮的東⻄
42.
Hidden Layer Output Layer Input Layer 暗黑魔法
43.
厲害的是神經網路什麼都 學得會! 而且你完全不用告訴它函數應該長什麼樣 子: 線性啦、二次多項式啦等等。
44.
打開暗⿊世界
45.
46.
每個神經元動作基本上是 ⼀樣的!
47.
每個神經元就是接受 若⼲個輸⼊, 然後送出 ⼀個輸出。
48.
輸⼊做加權和。 wi xi i =1 3 ∑
49.
加上偏值 (bias) wi xi i
=1 3 ∑ + b
50.
再⽤激活函數作⽤上去, 即為輸出。 ϕ( wi xi i
=1 3 ∑ + b) = h
51.
幾個 activation functions ReLU Sigmoid Gaussian
52.
變數就是 weights, biases
53.
「學成的」神經網路 1 2 1 21 1
54.
假設輸入 1 2 1 21 1 (x1 ,x2 ) =
(1,3) 1 3 1 3 8
55.
假設用 ReLU 1 2 1 1 3 ϕ(8) = 8
56.
這樣子的神經網路變數有幾個呢?練習
57.
當⼀個神經網路結構決定、 activation functions 也決定,
那可以 調的就是 weights, biases。我們把這 些參數的集合叫 , 每⼀個 就定義⼀ 個函數, 我們把它看成⼀個集合。 固定結構神經網路的函數空間
58.
我們就是要找 使得 和目標函數最接近
59.
「最近」是什麼意思 就是 “loss function”最小
60.
假設我們有訓練資料
61.
我們希望它越小越好 最常用 loss function 這什麼啊?
62.
x 網路路輸出 真正的
誤差 1 2 3 1 2 5 2 -3 3 6 8 2 4 7 2 -5 5 6 6 0 6 4 8 4 7 8 9 1 總誤差怎麼 算?
63.
x 網路路輸出 真正的
誤差 1 2 3 1 2 5 2 -3 3 6 8 2 4 7 2 -5 5 6 6 0 6 4 8 4 7 8 9 1 加總可以 嗎? 加總 = 0!!
64.
x 網路路輸出 真正的
誤差 1 2 3 1 2 5 2 -3 3 6 8 2 4 7 2 -5 5 6 6 0 6 4 8 4 7 8 9 1 平⽅和 1 9 4 25 0 16 1 加總是 56
65.
基本上這樣調 learning rate
66.
這可怕的東⻄是什麼意 思?
67.
記得 L 是
w1, w2, b1, 的函數 希望越⼩越好
68.
為了簡化, 我們先把 L
想 成只有⼀個變數 w
69.
w 目前的值 如何⾛到最⼩值?
70.
w 目前的值 我知道, a 點要向 右移動!
71.
電腦怎麼「看」出 來?
72.
切線是關鍵!
73.
切線斜率 < 0
74.
切線斜率 > 0
75.
切線斜率指向 (局部) 最 ⼤值的⽅向!!
76.
符號 切線斜率 切線斜率
77.
切線斜率是變化率 切線斜率 切線斜率
78.
切線斜率合理的符號符號 因為是變化率, 合理的符號可以是: ⼜醜⼜不潮!
79.
切線斜率合理的符號符號 萊布尼茲說我們要潮就這樣寫: y 對 w
在 a 點的變化
80.
切線斜率合理的符號符號 對任意的 w, 我們會寫成: 簡潔就是潮! 切線斜率函數
81.
正負指向 (局部) 極⼤ 切線斜率 切線斜率
82.
往 (局部) 極小值移動重點 我們想調整 w 的值, 往極小值移動, 應該讓新的 w 變成:
83.
往 (局部) 極小值移動重點 比如現在在 w=a, 要調整為
84.
調整⽰意圖 切線斜率
85.
有時會跑過頭! 切線斜率
86.
往 (局部) 極小值移動重點 為了不要一次調太大, 我們會乘上一 個小小的數, 叫 Leraning Rate:
87.
求切線斜率的動作, 就是 微分
88.
⾃⽜頓和萊布尼茲以來我 們就很會算。
89.
王牌公式
90.
王牌公式 n 被推下來 留下 n-1
91.
例⼦ 設 L(w) = w2, 求 L 在 w=3 之切線斜 率。
92.
例⼦ 我們來調整 w, 讓 L 變小! 這裡 leraning rate 取 0.2
93.
例⼦ 我們來調整 w, 讓 L 變小! 這裡 leraning rate 取 0.2 w L(w) 3 9 1.8
3.24 1.08 1.1664 0.65 0.4225 0.39 0.1521 0.23 0.0529 0.14 0.0196 0.08 0.0064
94.
重要性質 微分是線性的
95.
重要性質 微分是線性的 ′L (aw)
= a ′L (w)
96.
所有多項式函數我們都會 微分!!
97.
練習 試著微微看這個函數:
98.
例⼦ 試著微微看這個函數:
99.
可是, 變數不只⼀個...
100.
例⼦ 假設這時我們在: 一樣準備往 (局部) 極小值移動。
101.
假裝只有⼀個變數! 比如說 w1
102.
例⼦ 如果除了 w1, 其他變數不動... ⼀個變數的函數!
103.
例⼦ 同理,
104.
例⼦ 於是我們又會調整 w1, w2, b1, 讓 L 慢慢 走向 (局部) 極小。 w1 w2 b1
105.
例⼦ 寫在一起看來更有學問! 新的 這叫 L 的 gradient
106.
但這符號有點麻煩 還要新創函數
107.
偏微分定義 我們有 L(w1, w2, b1) 這三個變數的函 數, 當我們只把 w1 當變數, 其他 w2, b1 當常數的微分。
108.
偏微分定義 同理,
109.
梯度 (gradient)符號 函數 L 的 gradient 就變成:
110.
梯度 (gradient)符號 Gradient 當然要有很酷的符號:
111.
梯度 (gradient)符號 我們調整 w1, w2, b1 的方法就變成:
112.
這「學習法」有個很潮的名字 Gradient Descent 梯度下降
113.
回到我們的例⼦
114.
例⼦ 在
115.
例⼦
116.
例⼦ 這次我們的 learning rate 取
117.
例⼦ 就這樣做下去。 (w1,w2,b1) L (1, -1,
2) 4 (0.92, -0.96, 1.96) 3.0976 (0.85, -0.92, 1.92) 2.3988 (0.79, -0.89, 1.89) 1.8576 (0.73, -0.87, 1.87) 1.4385 (0.69, -0.84, 1.84) 1.1140
118.
Deep Learning 三⼤天王 標準 NN
CNN RNN
119.
真⼼不騙
120.
標準的神經網路
121.
filter 1 filter 2 input 每個
filter 看⼀一個特徵, 掃過每 ⼀一個點, 紀錄該點附近的「特 徵強度」。 Convolutional Neural Network (CNN)
122.
Recurrent Neural Network (RNN) ht 1 = σ (w1 xt 1 +
w2 xt 2 + w3 h3 t−1 + w4 h4 t−1 + b1 ) 會加入上⼀一次的 outputs 當這次的 inputs。
123.
強化學習 生成對抗模式 (GAN) VAE 膠囊 ? 標準 NN CNN
RNN
124.
應⽤例⼦ 都只是在學個函數
125.
台灣黑熊 圖形辨識
126.
電腦打電動 目前狀態 「最佳」動作
127.
Agent (電腦) 環境 動作 action 獎勵 reward rt St rt 強化學習 reinforcement learning at
128.
對話機器人 目前的字 下一個字
129.
字1 字2 回1 EOS 回1 回2 回k EOS 對話機器人應用
130.
很少的訓練資料達成任務! 我們想⽤神經網路, ⽣出⼀個 字型中⽋缺的字。 (莊喻能⽼師) 舊字型 新字型 創造新字型應用
131.
GAN重點 ⽣成器Noise 判斷器 真的 or 假的
132.
FaceBook/yenlung
Télécharger maintenant