SlideShare a Scribd company logo
1 of 142
ニューラルネットワークについて
1. 概要
2. パーセプトロン
3. パーセプトロンとは何か
4. AND関数とOR関数
5. 教師付き学習
6. パーセプトロンの限界
7. シグモイドニューロン
8. XOR関数を実現する
9. シグモイドニューロンの種類
10. 誤差逆伝播法
11. 誤差逆伝播法の課題
12. 再起型ニューラルネットワーク
ニューラルネットワークについて
1. 概要
2. パーセプトロン
3. パーセプトロンとは何か
4. AND関数とOR関数
5. 教師付き学習
6. パーセプトロンの限界
7. シグモイドニューロン
8. XOR関数を実現する
9. シグモイドニューロンの種類
10. 誤差逆伝播法
11. 誤差逆伝播法の課題
12. 再起型ニューラルネットワーク
1.概要
ニューラルネットワークとは何か
ニューラルネットワークは、人間の脳を模倣したアルゴリズムの一式のこと。
人間に代わってデータをクラスタリングし、分類し、パターン認識をするように設計されている。
1. 概要
1. 概要
(補足)
パターン認識(pattern recognition)とは
認識対象がいくつかの概念に分類できる時、まず認識対象から何らかの複数の特徴量を計測(抽
出)し、観測されたパターンをそれらの概念のうちのひとつに対応させる処理 のこと。
クラスタリング(clustering)とは
クラスター(cluster) :ひとまとまりの集合体のこと。
クラスタリング(clustering):データの全体集合をいくつかの集合体に分類する動作、手法のこと。
2.パーセプトロン
1. パーセプトロンとは何か
2. AND関数とOR関数
3. 教師付き学習
4. パーセプトロンの限界
2. パーセプトロン:パーセプトロンとは何か
パーセプトロンについて
● 複数のパーセプトロンがニューラルネットワークを構成している。
● パーセプトロンは複数の二進数x1,x2,…を入力にとり、1個の二進数を出力する。
具体的に
n 個の入力信号 x1 , x2 , … , xn に対して、1個の出力信号out が決定される。
それぞれの入力が出力に及ぼす影響の大きさを表す実数を重みwと表現すると、
生体のニューロンの膜電位に相当する量net は
net = w1 x1 + w2 x2 + … + wn xn
重みwの絶対値が大きい⇒入力信号が増幅されて伝わるので net に与える影響も大きくなる。
重みwの絶対値が小さい⇒net に与える影響も小さくなる。
2. パーセプトロン:パーセプトロンとは何か
ニューロンの出力out 得るには、「net からニューロンが興奮するかしないかの閾値θを引いた値」
を活性化関数f(x)に代入する。
out = f (net - θ)
活性化関数f(x)は、以下のようなステップ関数で表され、
膜電位を表す量net が閾値θを超えた場合、
1 を出力(ニューロンは興奮する )
膜電位を表す量net が閾値θを超えなかった場合、
0 を出力(何も起こらない)
2. パーセプトロン:パーセプトロンとは何か
ここまでのまとめ
パーセプトロンの出力が0になるか1になるかは、入力×重みの和と閾値の大小比較で決まる。
つまり、ニューロンの重みと閾値を決定することで、そのニューロンの入力と出力の関係が決まる。
学習:
ニューロンが、自動で重みと閾値を形成していくこと。
2. パーセプトロン:パーセプトロンとは何か
実際に、ニューロンモデルの出力を計算してみる。
この図のニューロンモデルの重みと閾値は次のような値になっている。
w1 = 1.0 , w2 = 1.0 , θ = 1.5
x1 , x2 はそれぞれ 1 か 0 の値をとり、その組み合わせが4通り。
2. パーセプトロン:AND関数とOR関数
w1 = 1.0 , w2 = 1.0 , θ = 1.5
1. x1 = 0 , x2 = 0 の場合
net = w1・x1 + w2・x2 = 1.0 ・ 0.0 + 1.0 ・ 0.0 = 0.0
out = f (net - θ) = f (0.0 - 1.5) = f (-1.5) = 0.0
2. x1 = 0 , x2 = 1 の場合
net = w1・x1 + w2・x2 = 1.0 ・ 0.0 + 1.0 ・ 1.0 = 1.0
out = f (net - θ) = f (1.0 - 1.5) = f (-0.5) = 0.0
3. x1 = 0 , x2 = 0 の場合
net = w1・x1 + w2・x2 = 1.0 ・ 1.0 + 1.0 ・ 0.0 = 1.0
out = f (net - θ) = f (1.0 - 1.5) = f (-0.5) = 0.0
4. x1 = 1 , x2 = 1 の場合
net = w1・x1 + w2・x2 = 1.0 ・ 1.0 + 1.0 ・ 1.0 = 2.0
out = f (net - θ) = f (2.0 - 1.5) = f (0.5) = 1.0
2. パーセプトロン:AND関数とOR関数
1. x1 = 0 かつ x2 = 0 のとき => out = 0
2. x1 = 0 かつ x2 = 1 のとき => out = 0
3. x1 = 0 かつ x2 = 0 のとき => out = 0
4. x1 = 1 かつ x2 = 1 のとき => out = 1
AND関数(論理積)とよばれる論理関数が成立する。
このニューロンモデルはAND関数を計算できることがわかる。
2. パーセプトロン:AND関数とOR関数
逆のアプローチを試してみる。
1. x1 = 0 または x2 = 0 のとき => out = 0
2. x1 = 0 または x2 = 1 のとき => out = 1
3. x1 = 0 または x2 = 0 のとき => out = 1
4. x1 = 1 または x2 = 1 のとき => out = 1
...のような
OR関数とよばれる論理関数を成立させたい!
=>重みと閾値を決めていこう
2. パーセプトロン:AND関数とOR関数
閾値θを0.5に設定してみる!
w1 = 1.0 , w2 = 1.0 , θ = 0.5
1. x1 = 0 , x2 = 0 の場合
net = w1・x1 + w2・x2 = 1.0 ・ 0.0 + 1.0 ・ 0.0 = 0.0
out = f (net - θ) = f (0.0 - 0.5) = f (-0.5) = 0.0
2. x1 = 0 , x2 = 1 の場合
net = w1・x1 + w2・x2 = 1.0 ・ 0.0 + 1.0 ・ 1.0 = 1.0
out = f (net - θ) = f (1.0 - 0.5) = f (0.5) = 1.0
3. x1 = 0 , x2 = 0 の場合
net = w1・x1 + w2・x2 = 1.0 ・ 1.0 + 1.0 ・ 0.0 = 1.0
out = f (net - θ) = f (1.0 - 0.5) = f (0.5) = 1.0
4. x1 = 1 , x2 = 1 の場合
net = w1・x1 + w2・x2 = 1.0 ・ 1.0 + 1.0 ・ 1.0 = 2.0
out = f (net - θ) = f (2.0 - 0.5) = f (1.5) = 1.0
2. パーセプトロン:AND関数とOR関数
最初の目的のとおり
1. x1 = 0 または x2 = 0 のとき => out = 0
2. x1 = 0 または x2 = 1 のとき => out = 1
3. x1 = 0 または x2 = 0 のとき => out = 1
4. x1 = 1 または x2 = 1 のとき => out = 1
...のような
OR関数が成立!
※必ずしも重みや閾値が今回のような値でないといけないということは決してなく、
他の値でもOR関数を実現できることに注意。
2. パーセプトロン:AND関数とOR関数
誤り訂正学習法で教師つき学習を体験する !
※この学習法では複数のニューロンから構成されるネットワークに対しては学習を行えないことに注意
用意するもの
・入力信号 :xp1 , xp2 , … , xpn
・それに対する理想的な出力信号(教師信号) :yp
入力の数を n 、入力信号と教師信号の組の数を P とする。
前頁のOR関数とAND関数の場合は、
入力の数が n = 2 、入力信号と教師信号の組の数が、P = 4 となっている。
2. パーセプトロン:教師付き学習
誤り訂正学習法では、入力信号が与えられるごとに、閾値と全ての重みに対して、教師信号とニュー
ロンの出力との誤差に基づいて、次式のように重みを修正していく。
wi
new = wi
old + η(yp - out ) xpi (1≦ i ≦n )
wi
new : 修正された後の新しい重み
wi
old : 修整される前の古い重み
η : 学習率(通常 1 以下の値に設定される正の小さな定数)
yp = 1 にもかかわらず、out = 0 を出力する場合、out = 1 になるように、重みを ηxi だけ増加させる。
yp = 0 にもかかわらず、out = 1 を出力する場合、out = 0 になるように、重みを ηxi だけ減少させる。
これを P 個全ての入力信号に対して、重み wi が変化しなくなるまで繰り返す。
yp - out =
1 (yp = 1, out = 0 のとき)
-1 (yp = 0, out = 1 のとき)
0 (yp = out のとき)
2. パーセプトロン:教師付き学習
ところで、便宜上、ニューロンモデルを別の表現で表すことにする。
out = f (net - θ)なので、netから先にθを引いておく(net’とする)。
閾値θの代わりに、常に 1 を与える入力 x0 = 1 と、x0に対する重み w0 = -θとすると
net’ = -θ・1.0 + w1 x1 + w2 x2 + … + wn xn
= w0 x0 + w1 x1 + w2 x2 + … + wn xn
out = f (net’) と表すことができる。
…それでは次のページで計算する。
2. パーセプトロン:教師付き学習
学習の結果、
重み:
w1 = 1, w2 = 1,
閾値:
θ = -1
と設定すると、理
想の結果が得られ
ることがわかる。
’
学習前の重みは全て 0 net = 0 のときには 1 を出力するようにしている。
2. パーセプトロン:教師付き学習
ただし、1個のニューロンの能力には限界がある... !
XOR関数とよばれる論理関数は、1個のニューロンでは絶対に実現できない。
※活性化関数 f (net’) の効果によって、
ニューロンは、net’ が 0 より大きいときに 1 を出力し、
net’ が 0 より小さいときに 0 を出力するため。
ココどうしよう??
2. パーセプトロン:パーセプトロンの限界
ニューロンが 1 を出力するか、0 を出力するかの境界線は、次式のように表すことができる。
net = w0 x0 + w1 x1 + w2 x2 = 0
AND関数やOR関数の場合、
0 を出力すべき点と 1 を出力すべき点を、
上式の直線によって分けることができる。=> 線形分離可能な問題
2. パーセプトロン:パーセプトロンの限界
XOR関数の場合、
0 を出力すべき点と 1 を出力すべき点を、
前述の直線によって分けることができないことがわかる。=> 線形分離不可能な問題
>>>1個のニューロンによって実現できる論理関数と実現できない論理関数がある。
2. パーセプトロン:パーセプトロンの限界
1個のニューロンによって実現できない論理関数を実現するためには、
複数のニューロンを結合し、ネットワークを構成する必要がある。
2. パーセプトロン:パーセプトロンの限界
3.シグモイドニューロン
(多層パーセプトロン)
1. XOR関数を実現する
2. シグモイドニューロンの種類
3. 誤差逆伝播法
4. 誤差逆伝播法の課題
5. 再起型ニューラルネットワーク
XOR関数に3個のニューロンを使ってリベンジする。
x1 = 0, x2 = 0のとき
-0.5 + 0*1 + 0*(-1) = 0 => 0
-0.5 + 0*(-1) + 0*1 = 0 => 0
-0.5 + 0*1 + 0*1 = 0 => 0
x1 = 0 x2 = 1のとき
-0.5 + 0*1 + 1*(-1) = -1.5 => 0
-0.5 + 0*(-1) + 1*1 = 0.5 => 1
-0.5 + 0*1 + 1*1 = 0.5 =>1
x1 = 1, x2 = 0のとき
-0.5 + 1*1 + 0*(-1) = 0.5 => 0
-0.5 + 1*(-1) + 0*1 = -1.5 => 0
-0.5 + 1*1 + 0*1 = 0.5 =>1
x1= 1, x2 = 1のとき
-0.5 + 1*1 + 1(-1) = -0.5 => 0
-0.5 + 1*(-1) + 1*1 = -0.5 => 0
-0.5 + 0*1 + 0*1 = -0.5 => 0
ちょっと悩んだこと。。。
重みはそのニューロンごとに変えてもいいか悩んだ。
1番目のニューロンではx1の重みは1.0で2番目のニューロンではx1の
重みは-1.0になってる。
でも、個々のニューロンとみれば勿論ニューロンごとに重みを変え
てもいいのかと結論に至る。
3. シグモイドニューロン:XOR関数を実現する
複数のニューロンの構成の仕方は様々で大きく2つにわけることができる。
3. シグモイドニューロン:シグモイドニューロンの種類
階層型ニューラルネットワーク
(フィードフォワード(順伝播型)ニューラルネ
ットワーク(feedforward neural networks))
相互結合型ニューラルネットワーク
複数のニューロンの構成の仕方は様々。
3. シグモイドニューロン:シグモイドニューロンの種類
再帰型ニューラルネットワーク
( RNN : Recurrent Neural Network )
畳み込みニューラルネットワーク
(CNN : Convolutional Neural Network)
パーセプトロンで行った誤り訂正学習法は、複数のニューロンから構成されるネットワークに対し
ては学習を行えない。
そこで、ニューラルネットワークの種類と、そのニューラルネットワークで行わせたい情報処理の
目的に合わせた学習法がいろいろと提案されている。
階層型ニューラルネットワークに対する教師付き学習法として誤差逆伝播法がある。
大まかな流れ
①入力信号を与えてネットワ-クの出力を計算する
②ネットワ-クの出力と教師信号との誤差を計算する
③それを利用して重みを更新する
3. シグモイドニューロン:誤差逆伝播法
第n 層のニューロンの数を Ln 個
第 p 番目の入力信号:xp1, xp2, xp3, … xpL1
第 p 番目の教師信号:yp1, yp2, yp3, … ypLN
<各ニューロンの出力>
outj
n:第 n 層、第 j 番目のニューロンの出力
入力層のニューロンは入力信号を中間層に伝えるだけで、
何の処理も行われない。
out j1 = xj (1≦j ≦ L 1)
各層の0番目のニューロンは、
次の層のニューロンへ常に 1 を出力する。
out0
n = 1 (1≦n ≦ N -1)
他のニューロンの出力信号:
第 n 層 j 番目と第 n -1 層 i 番目のニューロンの間の重み
3. シグモイドニューロン:誤差逆伝播法
誤差逆伝播法では活性化関数は次式のシグモイド関数よばれる関数になる。
どれだけ出力層の出力が教師信号に近づいてるのかを表す尺度として、2乗誤差 E を定義する。
この E が 0 に近づけば近づくほど、出力層の出力が教師信号に近づくことになる。
>>>誤差逆伝播法の目的:2乗誤差 E を 0 に近づけるように重み wj
n
i
n -1を決めること。
3. シグモイドニューロン:誤差逆伝播法
誤差逆伝播法も勾配法に基づいて学習が行う。
誤差逆伝播法の原理
w :横軸をある1つの重み
E :縦軸を2乗誤差
wopt : E が最小となるような重み
wold : 現在の重み
学習によって wold から wopt へ近づくように
重みの更新を行う。
wold の地点での傾きから、
変更量 ⊿w を求める。
新たな重み wnew を求める。
wnew = wold + ⊿w
3. シグモイドニューロン:誤差逆伝播法
w のみを変数として E を微分する(偏微分する)と
傾きの符号が正のとき w を減少(変更量が負)させ、負のときは w を増加させる。
変更量は係数ηを使って、
これを繰り返すことで、wopt に近づいていく。
3. シグモイドニューロン:誤差逆伝播法
重みwj
n
i
n -1のとき
wj
n
i
n -1(new) = wj
n
i
n -1(old) + ⊿wj
n
i
n -1
wnew = wold + ⊿w
3. シグモイドニューロン:誤差逆伝播法
n = N のとき、
n < N のとき、
n = N のとき、
のとき
δj
n = -(y p j - out j
N ) out j
N (1 - out j
N )
3. シグモイドニューロン:誤差逆伝播法
n < N のとき、
δj
n は、教師信号とネットワークの出力である y p i , out i
N を使って計算できる。
n < N のとき、δj
n を求めるには、δj
n +1 を求めておく必要がある。
3. シグモイドニューロン:誤差逆伝播法
誤差信号 δj
n は出力層から入力層へ向かって、通常の信号の流れとは逆向きに伝播していく。
3. シグモイドニューロン:誤差逆伝播法
誤差逆伝播法の流れ
※学習が終了しネットワークを使用する段階では、手順4から7までの操作は行われないことに注意
① 初期値として、全ての重みを乱数によって -0.1~0.1 程度の範囲の小さな値に設定する。さらに、学習率 η
(0<η≦1) を設定する。
② 入力信号 x p i (1≦i ≦L 1) をネットワークに入力する。
③ 入力層から出力層に向けて、各ニューロンの出力を計算する。
④ 出力層の出力 out j
N と教師信号 y p j の誤差から、δj
N を計算する。具体的には、以下の式を計算する。
δj
n = -(y p j - out j
N ) out j
N (1 - out j
N )
⑤ ④で求めた、δj
N を使って、中間層の誤差信号 δj
n (n < N ) を計算する。具体的には、以下の式を計算する。
⑥ ④⑤で求めた δj
n を使って、以下の式のように重みを更新する。
⊿w j
n
i
n -1 = -η δj
n out j
n -1
⑦ 全パターンに対する2乗誤差 E が十分に小さくなったと判断したら、学習は終了する。
そうでなければ、全パターンについて手順2から手順6までの操作を繰り返す。
3. シグモイドニューロン:誤差逆伝播法
誤差逆伝播法の問題点
局所解の問題
誤差逆伝播法は勾配法を基本にしているため、常に2乗誤差 E が減少するように重みが変
更されるが、図のようにくぼみの部分に落ち込んでしまうと、そこからは抜け出ることが
できずに、そこで学習がストップしてしまう。このようなくぼみを局所解とよぶ。
3. シグモイドニューロン:誤差逆伝播法の課題
誤差逆伝播法の問題点
過学習の問題
あまりにも学習時の2乗誤差 E にこだわりすぎて、学習をさせすぎると、サンプルに対してはよく
あてはまるモデルは構築される一方で, 未知のサンプルに対する予測の精度が極めて悪化するとい
う現象 が起こる。黒丸の教師信号で学習を行ったネットワークで、実線と破線の2つのような入出
力関係が得られたとする。実線は、教師信号と教師信号との間で出力に激しい変化が存在しない、
一方で、破線では、教師信号と教師信号との間では存在する。
要するに、訓練データに対して学習されているが、未知のデータに対して適合できていない状態の
こと。
3. シグモイドニューロン:誤差逆伝播法の課題
誤差逆伝播法の問題点
ネットワークの構造を決定する方法が存在しないという問題
誤差逆伝播法では、学習開始時から終了時まで、そのネットワークの構造が変化しない。
ただ、ある入力信号と教師信号に対して、中間層のニューロン数を決定する方法が確立していない。
3. シグモイドニューロン:誤差逆伝播法の課題
次はRNN(再帰型ニューラルネットワーク)の話
フィードフォワードは、前方への一方向のみに情報を通過させる。
(同じノードを再び通過することはない)
ex)必ずしも最初に処理した写真が、次に処理する写真の分類に関連するわけではない。
...に対して、RNNは、
● 情報を繰り返しループ状に通過させる。
● 現在と近い過去の2か所から情報を受け取り、それらを組み合わせて新しい情報をどう処理す
るかを決める。
情報が連続体であるとき、記憶能力を使うとフィードフォワードネットワークだと不可能なタスク
を再帰型であれば行うことができる。
最大の特徴
文章など一続きの連続した情報を利用することができるという点。
ex)5語からなる文章があるとすると、再帰型ニューラルネットワークでは1層1語という形で5層の
ニューラルネットワークを構成する。
3. シグモイドニューロン:再起型ニューラルネットワーク
3. シグモイドニューロン:再起型ニューラルネットワーク
同じネットワークの複数の
コピーであり、それぞれが
後続のネットワークにメッ
セージを渡すイメージ。
何が嬉しい...?
● 次の言葉を予測したい場合、その前の言葉が何だったのかを知っておくべきで、
RNNは直前の計算に左右されずに、連続的な要素ごとに同じ作業を行わせること
ができる。
● 予測変換のように、直前の言葉を利用して次の言葉の出現確率を予測するという
ことができるようになる。
● 機械翻訳や文章生成などを行うことができるようになる。
● テキストとして記載されたデータばかりでなく、音声を聞き取るスピーチ認識を
することも可能になり、前後のつながりがある動画なども認識が可能になる。
3. シグモイドニューロン:再起型ニューラルネットワーク
訳す際、入力サイズと出力サイズが
固定されず、可変になる。
ニューラル翻訳は、Encoder Decoder
モデルを基本としている。
Encoder Decoderモデルは2種類の
RNNで構成されている。
下部のEncoder部分のRNNで可変長
の翻訳元文から状態に出力し、上部
のDecoder部分で可変長の翻訳後の
文を生成。
*Encoder:データの形式を変換する
* Decoder:変換したのを戻す
3. シグモイドニューロン:再起型ニューラルネットワーク
機械翻訳
GoogleのNeural Machine Translationは、さらにAttentionと8層のResidual Connectionを導入
したLSTMを使った強力なモデルになっており、それはRNNの拡張。
入力と出力が可変のLSTMが多層になっていて、Residual Connectionがあるところが異な
るが、基本は同様のモデルだということが分かる。
3. シグモイドニューロン:再起型ニューラルネットワーク
音声認識
音声認識も同様に、入力が可変長の音声で、出力が可変長の認識後のテキストになる。
↑スタンフォード大学のDeep Neural Networkを使った音声認識の研究の画像
音声を画像と見立てて、入力にConvolution層を使って、出力がRNNになっている。
3. シグモイドニューロン:再起型ニューラルネットワーク
画像の概要生成
入力を画像にして、ニューラルネットワークに画像の説明をさせることができる。
逆に、説明文から画像も出力することができる。
3. シグモイドニューロン:再起型ニューラルネットワーク
RNNの種類
■ Simple RNN
■ LSTM
□ GRU
□ Bi-directional RNN
□ Attention RNN
3. シグモイドニューロン:再起型ニューラルネットワーク
Simple RNN(Simple Recurrent Network(単純再帰型ネットワーク))
隠れ層が隠れ層自身に接続して、ある時点での状態
を次の状態の入力値として使うことができる。
適切に訓練さえされていれば、時間的な情報を受け
渡すことができる。
ある時点 t での入力値 xtと前回時点での状態 st-1 か
ら新しい st に状態が遷移する。
状態 st から出力値の yt が出力される。
Simple RNNは次のように定義することができる。
3. シグモイドニューロン:再起型ニューラルネットワーク
LSTM(Long short-term memory)
Simple RNNの問題点 => 理論上は上手くいくことが、現実ではかなり前の古い情報を考慮するよ
うには学習されなかった。勾配消失(局所解)の問題が原因。
LSTMは、従来のRNNセルでは長期依存が必要なタスクを学習することができなかった問題を解決し
たモデルで、長期的な依存関係を学習することのできる、RNNの特別な一種
「the clouds are in the sky,」
>skyを予測できる。
「 I grew up in France………………………... I speak fluent French. 」
>関連する情報との距離が遠くなるに従い、RNNは情報を
関連づけて学習することができなくなる。
3. シグモイドニューロン:再起型ニューラルネットワーク
LSTMの画期的な特徴は、「ゲート」と呼ばれる情報の取捨選択をできるところ!
各ゲートでの情報の取捨選択は、シ
グモイド関数で行われる。
出力が0であれば、ゲートを通さず、
1であれば全て通す。
仮に忘却ゲートを1にして、入力ゲ
ートを0にすると、状態は永久に保
持され続ける。
忘却ゲートのおかげで、言語モデルの例では、「彼は…」と続く文が終わったときに、主語が彼
であるという状態を忘れるといったことができるようになる。時系列データでは季節の変わり目
や日付の変更に対応できる。
3. シグモイドニューロン:再起型ニューラルネットワーク
もう少し詳しく...
それぞれの線は、ベクトル全体を、
一つのノードの出力から他のノー
ドの入力に運ぶ。
ピンクの円は、ベクトルの加算の
ような、一点の操作を表し、黄色
のボックスは、学習されるニュー
ラルネットワークの層を表す。
合流している線は連結を意味し、
分岐している線は内容がコピーさ
れ、そのコピーが別の場所に行く
ことを表す。
simple RNN
LSTM
3. シグモイドニューロン:再起型ニューラルネットワーク
LSTMはRNNの中間層のユニットのLSTM block、
そして3つのゲートで実現されている。
LSTM block
拡大
3. シグモイドニューロン:再起型ニューラルネットワーク
セル状態は一種のコンベア・ベルトのようなもので、
線形相互作用のみでできている。
セル状態に対し情報を削除したり追加する操作は
ゲートと呼ばれる構造により制御される。 シグモイドニューラルネット層が行う。
0は「何も通さない」
1は「全てを通す」
3. シグモイドニューロン:再起型ニューラルネットワーク
3つのゲート、その1
セル状態から捨てる情報を判定する
この判定は「忘却ゲート層」と呼ばれるシグモイド層によって行われる。
ht−1 と xt を見て、セル状態 Ct−1 の中の各数値のために 0 と 1 の間の数値を出力する。
1 は「完全に維持する」を表し、 0 は「完全に取り除く」を表す。
使い時:既に出てきた単語に基づいて次の単語を予測するとき、代名詞の箱に入れるものを変
える必要がある。ex) Aは走る。彼(A)は転ぶ。Bは走る。彼(B)は転ばない。
3. シグモイドニューロン:再起型ニューラルネットワーク
3つのゲート、その2
セル状態で保存する新たな情報を判定する
「入力ゲート層」と呼ばれるシグモイド層は、どの値を更新するかを判定する。
tanh 層は、セル状態に加えられる新たな候補値のベクトル を作成し、
状態を更新するために、これら2つを組み合わせる。
使い時:先の例の続きで、彼(A) → 彼(B)に置き換える
3. シグモイドニューロン:再起型ニューラルネットワーク
忘れたいとき ft = 0が出力されるので
古い値は消える
新しい値に更新!
:各状態値を更新すると決定した割合でスケーリングされた、新たな候補値
3. シグモイドニューロン:再起型ニューラルネットワーク
3つのゲート、その3
出力するものを判定する
まず、セル状態のどの部分を出力するかを判定するため、シグモイド層を実行する。
判定された部分のみ出力するため、セル状態に tanh(非常に単純な層)を適用し、それにシグモイドゲートの
出力を掛ける。
使い時:主語の後に、動詞がくる場合、動詞に関連する主語を出力することが求められる可能性がある。例
えば、英語で主語が単数か複数かを出力すると、動詞が後につづく場合、どの活用形であるべきかわかる。
3. シグモイドニューロン:再起型ニューラルネットワーク
3. シグモイドニューロン:畳み込みニューラルネットワーク
全結合 → θ → y_ ⇔ y
パラメータの最適化を逆伝播
softmax 出力 正解
入力
(28, 28, 1)
第 1 層
(28, 28, 32)
(14, 14, 32)
第 2 層
(14, 14, 64)
(7, 7, 64)
畳み込み
(5, 5, 1, 32)
プーリング
畳み込み
(5, 5, 32, 64)
プーリング
誤差最小化
一致なら正解
不一致なら不正解
全体の流れ
3. シグモイドニューロン:畳み込みニューラルネットワーク
畳み込みフィルター
0 0 0
0 1 0
0 0 1
0*1
1*1
1 0 0
0 0 0
1 0 1
0*1
0 0 0
0 0 0
1 0 0
⇨ ⇨ ⇨
ストライド
⇩
⇩
⇩
2
2 3
2 3 1
1 行目の
畳み込み処理
2 3 1
1
2 3 1
1 4
2 3 1
1 4 1
2 3 1
1 4 1
3
2 3 1
1 4 1
3 4
2 3 1
1 4 1
3 4 3
2 行目の
畳み込み処理
3 行目の
畳み込み処理
畳み込む (convolve)
3. シグモイドニューロン:畳み込みニューラルネットワーク
3. シグモイドニューロン:畳み込みニューラルネットワーク
ストライド
ストライド 1 のとき
ストライド 2 のとき
3. シグモイドニューロン:畳み込みニューラルネットワーク
ゼロパディング(Zero Padding) … 入力の特徴マップの周辺を0で埋めること。
畳み込み層とプーリング層で出力サイズは次第に小さくなる。
⇩(ゼロパディングによって)
サイズを増やしたりすると層の数を増やすことができる。
何が嬉しい?
・端のデータに対する畳み込み回数が増えるので端の特徴も
考慮されるようになる。
・畳み込み演算の回数が増えるのでパラメーターの更新が多
く実行される。
・カーネルのサイズや、層の数を調整できる。
3. シグモイドニューロン:畳み込みニューラルネットワーク
プーリング処理 … 情報を圧縮すること
何が嬉しい?
・微小な位置変化に対して頑健となる
・ある程度過学習を抑制する
・計算コストを下げる
平均プーリングもある
3. シグモイドニューロン:畳み込みニューラルネットワーク
活性化関数(w*x を 0 か 1 かにする関数、 Activation Function)
恒等関数 ステップ関数 シグモイド関数
ReLU関数ソフトマックス関数
Hyperbolic Tangent
3. シグモイドニューロン:畳み込みニューラルネットワーク
ReLU関数
画像認識やニューラルネットワークで多用されている。
ソフトマックス関数
全ての出力値が 1 になるように変換する。
⇨入力値を確率の値に変換する。
3. シグモイドニューロン:畳み込みニューラルネットワーク
n : outputのレイヤー数
3. シグモイドニューロン:畳み込みニューラルネットワーク
トレーニングデータセット
60,000件のうち、今回使用するのは55,000件!
ラベルデータ(正解)
その画像が何の数字を与えられているか
=正解データ=ラベル
文字データ(28 * 28px)
784個の数字で構成されている。
3. シグモイドニューロン:畳み込みニューラルネットワーク
多次元の行列(tensor)が
流れていくから
tensorflow
ニューラルネットワークと深層学習
http://nnadl-ja.github.io/nnadl_site_ja/chap1.html
愛媛大学 村上研究室
http://ipr20.cs.ehime-u.ac.jp/column/neural/index.html
高卒でもわかる機械学習
http://hokuts.com/2016/05/29/bp1/
静岡理工大学
https://www.sist.ac.jp/~suganuma/kougi/other_lecture/SE/net/net.htm#4
Quiita
http://qiita.com/KojiOhki/items/89cd7b69a8a6239d67ca
http://qiita.com/miyamotok0105/items/3435930cc04650bce54d
DeepAge
https://deepage.net/deep_learning/2017/05/23/recurrent-neural-networks.html
1.概要
ニューラルネットワークとは何か
ニューラルネットワークは、人間の脳を模倣したアルゴリズムの一式のこと。
人間に代わってデータをクラスタリングし、分類し、パターン認識をするように設計されている。
1. 概要
1. 概要
(補足)
パターン認識(pattern recognition)とは
認識対象がいくつかの概念に分類できる時、まず認識対象から何らかの複数の特徴量を計測(抽
出)し、観測されたパターンをそれらの概念のうちのひとつに対応させる処理 のこと。
クラスタリング(clustering)とは
クラスター(cluster) :ひとまとまりの集合体のこと。
クラスタリング(clustering):データの全体集合をいくつかの集合体に分類する動作、手法のこと。
2.パーセプトロン
1. パーセプトロンとは何か
2. AND関数とOR関数
3. 教師付き学習
4. パーセプトロンの限界
2. パーセプトロン:パーセプトロンとは何か
パーセプトロンについて
● 複数のパーセプトロンがニューラルネットワークを構成している。
● パーセプトロンは複数の二進数x1,x2,…を入力にとり、1個の二進数を出力する。
具体的に
n 個の入力信号 x1 , x2 , … , xn に対して、1個の出力信号out が決定される。
それぞれの入力が出力に及ぼす影響の大きさを表す実数を重みwと表現すると、
生体のニューロンの膜電位に相当する量net は
net = w1 x1 + w2 x2 + … + wn xn
重みwの絶対値が大きい⇒入力信号が増幅されて伝わるので net に与える影響も大きくなる。
重みwの絶対値が小さい⇒net に与える影響も小さくなる。
2. パーセプトロン:パーセプトロンとは何か
ニューロンの出力out 得るには、「net からニューロンが興奮するかしないかの閾値θを引いた値」
を活性化関数f(x)に代入する。
out = f (net - θ)
活性化関数f(x)は、以下のようなステップ関数で表され、
膜電位を表す量net が閾値θを超えた場合、
1 を出力(ニューロンは興奮する )
膜電位を表す量net が閾値θを超えなかった場合、
0 を出力(何も起こらない)
2. パーセプトロン:パーセプトロンとは何か
ここまでのまとめ
パーセプトロンの出力が0になるか1になるかは、入力×重みの和と閾値の大小比較で決まる。
つまり、ニューロンの重みと閾値を決定することで、そのニューロンの入力と出力の関係が決まる。
学習:
ニューロンが、自動で重みと閾値を形成していくこと。
2. パーセプトロン:パーセプトロンとは何か
実際に、ニューロンモデルの出力を計算してみる。
この図のニューロンモデルの重みと閾値は次のような値になっている。
w1 = 1.0 , w2 = 1.0 , θ = 1.5
x1 , x2 はそれぞれ 1 か 0 の値をとり、その組み合わせが4通り。
2. パーセプトロン:AND関数とOR関数
w1 = 1.0 , w2 = 1.0 , θ = 1.5
1. x1 = 0 , x2 = 0 の場合
net = w1・x1 + w2・x2 = 1.0 ・ 0.0 + 1.0 ・ 0.0 = 0.0
out = f (net - θ) = f (0.0 - 1.5) = f (-1.5) = 0.0
2. x1 = 0 , x2 = 1 の場合
net = w1・x1 + w2・x2 = 1.0 ・ 0.0 + 1.0 ・ 1.0 = 1.0
out = f (net - θ) = f (1.0 - 1.5) = f (-0.5) = 0.0
3. x1 = 0 , x2 = 0 の場合
net = w1・x1 + w2・x2 = 1.0 ・ 1.0 + 1.0 ・ 0.0 = 1.0
out = f (net - θ) = f (1.0 - 1.5) = f (-0.5) = 0.0
4. x1 = 1 , x2 = 1 の場合
net = w1・x1 + w2・x2 = 1.0 ・ 1.0 + 1.0 ・ 1.0 = 2.0
out = f (net - θ) = f (2.0 - 1.5) = f (0.5) = 1.0
2. パーセプトロン:AND関数とOR関数
1. x1 = 0 かつ x2 = 0 のとき => out = 0
2. x1 = 0 かつ x2 = 1 のとき => out = 0
3. x1 = 0 かつ x2 = 0 のとき => out = 0
4. x1 = 1 かつ x2 = 1 のとき => out = 1
AND関数(論理積)とよばれる論理関数が成立する。
このニューロンモデルはAND関数を計算できることがわかる。
2. パーセプトロン:AND関数とOR関数
逆のアプローチを試してみる。
1. x1 = 0 または x2 = 0 のとき => out = 0
2. x1 = 0 または x2 = 1 のとき => out = 1
3. x1 = 0 または x2 = 0 のとき => out = 1
4. x1 = 1 または x2 = 1 のとき => out = 1
...のような
OR関数とよばれる論理関数を成立させたい!
=>重みと閾値を決めていこう
2. パーセプトロン:AND関数とOR関数
閾値θを0.5に設定してみる!
w1 = 1.0 , w2 = 1.0 , θ = 0.5
1. x1 = 0 , x2 = 0 の場合
net = w1・x1 + w2・x2 = 1.0 ・ 0.0 + 1.0 ・ 0.0 = 0.0
out = f (net - θ) = f (0.0 - 0.5) = f (-0.5) = 0.0
2. x1 = 0 , x2 = 1 の場合
net = w1・x1 + w2・x2 = 1.0 ・ 0.0 + 1.0 ・ 1.0 = 1.0
out = f (net - θ) = f (1.0 - 0.5) = f (0.5) = 1.0
3. x1 = 0 , x2 = 0 の場合
net = w1・x1 + w2・x2 = 1.0 ・ 1.0 + 1.0 ・ 0.0 = 1.0
out = f (net - θ) = f (1.0 - 0.5) = f (0.5) = 1.0
4. x1 = 1 , x2 = 1 の場合
net = w1・x1 + w2・x2 = 1.0 ・ 1.0 + 1.0 ・ 1.0 = 2.0
out = f (net - θ) = f (2.0 - 0.5) = f (1.5) = 1.0
2. パーセプトロン:AND関数とOR関数
最初の目的のとおり
1. x1 = 0 または x2 = 0 のとき => out = 0
2. x1 = 0 または x2 = 1 のとき => out = 1
3. x1 = 0 または x2 = 0 のとき => out = 1
4. x1 = 1 または x2 = 1 のとき => out = 1
...のような
OR関数が成立!
※必ずしも重みや閾値が今回のような値でないといけないということは決してなく、
他の値でもOR関数を実現できることに注意。
2. パーセプトロン:AND関数とOR関数
誤り訂正学習法で教師つき学習を体験する !
※この学習法では複数のニューロンから構成されるネットワークに対しては学習を行えないことに注意
用意するもの
・入力信号 :xp1 , xp2 , … , xpn
・それに対する理想的な出力信号(教師信号) :yp
入力の数を n 、入力信号と教師信号の組の数を P とする。
前頁のOR関数とAND関数の場合は、
入力の数が n = 2 、入力信号と教師信号の組の数が、P = 4 となっている。
2. パーセプトロン:教師付き学習
誤り訂正学習法では、入力信号が与えられるごとに、閾値と全ての重みに対して、教師信号とニュー
ロンの出力との誤差に基づいて、次式のように重みを修正していく。
wi
new = wi
old + η(yp - out ) xpi (1≦ i ≦n )
wi
new : 修正された後の新しい重み
wi
old : 修整される前の古い重み
η : 学習率(通常 1 以下の値に設定される正の小さな定数)
yp = 1 にもかかわらず、out = 0 を出力する場合、out = 1 になるように、重みを ηxi だけ増加させる。
yp = 0 にもかかわらず、out = 1 を出力する場合、out = 0 になるように、重みを ηxi だけ減少させる。
これを P 個全ての入力信号に対して、重み wi が変化しなくなるまで繰り返す。
yp - out =
1 (yp = 1, out = 0 のとき)
-1 (yp = 0, out = 1 のとき)
0 (yp = out のとき)
2. パーセプトロン:教師付き学習
ところで、便宜上、ニューロンモデルを別の表現で表すことにする。
out = f (net - θ)なので、netから先にθを引いておく(net’とする)。
閾値θの代わりに、常に 1 を与える入力 x0 = 1 と、x0に対する重み w0 = -θとすると
net’ = -θ・1.0 + w1 x1 + w2 x2 + … + wn xn
= w0 x0 + w1 x1 + w2 x2 + … + wn xn
out = f (net’) と表すことができる。
…それでは次のページで計算する。
2. パーセプトロン:教師付き学習
学習の結果、
重み:
w1 = 1, w2 = 1,
閾値:
θ = -1
と設定すると、理
想の結果が得られ
ることがわかる。
’
学習前の重みは全て 0 net = 0 のときには 1 を出力するようにしている。
2. パーセプトロン:教師付き学習
ただし、1個のニューロンの能力には限界がある... !
XOR関数とよばれる論理関数は、1個のニューロンでは絶対に実現できない。
※活性化関数 f (net’) の効果によって、
ニューロンは、net’ が 0 より大きいときに 1 を出力し、
net’ が 0 より小さいときに 0 を出力するため。
ココどうしよう??
2. パーセプトロン:パーセプトロンの限界
ニューロンが 1 を出力するか、0 を出力するかの境界線は、次式のように表すことができる。
net = w0 x0 + w1 x1 + w2 x2 = 0
AND関数やOR関数の場合、
0 を出力すべき点と 1 を出力すべき点を、
上式の直線によって分けることができる。=> 線形分離可能な問題
2. パーセプトロン:パーセプトロンの限界
XOR関数の場合、
0 を出力すべき点と 1 を出力すべき点を、
前述の直線によって分けることができないことがわかる。=> 線形分離不可能な問題
>>>1個のニューロンによって実現できる論理関数と実現できない論理関数がある。
2. パーセプトロン:パーセプトロンの限界
1個のニューロンによって実現できない論理関数を実現するためには、
複数のニューロンを結合し、ネットワークを構成する必要がある。
2. パーセプトロン:パーセプトロンの限界
3.シグモイドニューロン
(多層パーセプトロン)
1. XOR関数を実現する
2. シグモイドニューロンの種類
3. 誤差逆伝播法
4. 誤差逆伝播法の課題
5. 再起型ニューラルネットワーク
XOR関数に3個のニューロンを使ってリベンジする。
x1 = 0, x2 = 0のとき
-0.5 + 0*1 + 0*(-1) = 0 => 0
-0.5 + 0*(-1) + 0*1 = 0 => 0
-0.5 + 0*1 + 0*1 = 0 => 0
x1 = 0 x2 = 1のとき
-0.5 + 0*1 + 1*(-1) = -1.5 => 0
-0.5 + 0*(-1) + 1*1 = 0.5 => 1
-0.5 + 0*1 + 1*1 = 0.5 =>1
x1 = 1, x2 = 0のとき
-0.5 + 1*1 + 0*(-1) = 0.5 => 0
-0.5 + 1*(-1) + 0*1 = -1.5 => 0
-0.5 + 1*1 + 0*1 = 0.5 =>1
x1= 1, x2 = 1のとき
-0.5 + 1*1 + 1(-1) = -0.5 => 0
-0.5 + 1*(-1) + 1*1 = -0.5 => 0
-0.5 + 0*1 + 0*1 = -0.5 => 0
ちょっと悩んだこと。。。
重みはそのニューロンごとに変えてもいいか悩んだ。
1番目のニューロンではx1の重みは1.0で2番目のニューロンではx1の
重みは-1.0になってる。
でも、個々のニューロンとみれば勿論ニューロンごとに重みを変え
てもいいのかと結論に至る。
3. シグモイドニューロン:XOR関数を実現する
複数のニューロンの構成の仕方は様々で大きく2つにわけることができる。
3. シグモイドニューロン:シグモイドニューロンの種類
階層型ニューラルネットワーク
(フィードフォワード(順伝播型)ニューラルネ
ットワーク(feedforward neural networks))
相互結合型ニューラルネットワーク
複数のニューロンの構成の仕方は様々。
3. シグモイドニューロン:シグモイドニューロンの種類
再帰型ニューラルネットワーク
( RNN : Recurrent Neural Network )
畳み込みニューラルネットワーク
(CNN : Convolutional Neural Network)
パーセプトロンで行った誤り訂正学習法は、複数のニューロンから構成されるネットワークに対し
ては学習を行えない。
そこで、ニューラルネットワークの種類と、そのニューラルネットワークで行わせたい情報処理の
目的に合わせた学習法がいろいろと提案されている。
階層型ニューラルネットワークに対する教師付き学習法として誤差逆伝播法がある。
大まかな流れ
①入力信号を与えてネットワ-クの出力を計算する
②ネットワ-クの出力と教師信号との誤差を計算する
③それを利用して重みを更新する
3. シグモイドニューロン:誤差逆伝播法
第n 層のニューロンの数を Ln 個
第 p 番目の入力信号:xp1, xp2, xp3, … xpL1
第 p 番目の教師信号:yp1, yp2, yp3, … ypLN
<各ニューロンの出力>
outj
n:第 n 層、第 j 番目のニューロンの出力
入力層のニューロンは入力信号を中間層に伝えるだけで、
何の処理も行われない。
out j1 = xj (1≦j ≦ L 1)
各層の0番目のニューロンは、
次の層のニューロンへ常に 1 を出力する。
out0
n = 1 (1≦n ≦ N -1)
他のニューロンの出力信号:
第 n 層 j 番目と第 n -1 層 i 番目のニューロンの間の重み
3. シグモイドニューロン:誤差逆伝播法
誤差逆伝播法では活性化関数は次式のシグモイド関数よばれる関数になる。
どれだけ出力層の出力が教師信号に近づいてるのかを表す尺度として、2乗誤差 E を定義する。
この E が 0 に近づけば近づくほど、出力層の出力が教師信号に近づくことになる。
>>>誤差逆伝播法の目的:2乗誤差 E を 0 に近づけるように重み wj
n
i
n -1を決めること。
3. シグモイドニューロン:誤差逆伝播法
誤差逆伝播法も勾配法に基づいて学習が行う。
誤差逆伝播法の原理
w :横軸をある1つの重み
E :縦軸を2乗誤差
wopt : E が最小となるような重み
wold : 現在の重み
学習によって wold から wopt へ近づくように
重みの更新を行う。
wold の地点での傾きから、
変更量 ⊿w を求める。
新たな重み wnew を求める。
wnew = wold + ⊿w
3. シグモイドニューロン:誤差逆伝播法
w のみを変数として E を微分する(偏微分する)と
傾きの符号が正のとき w を減少(変更量が負)させ、負のときは w を増加させる。
変更量は係数ηを使って、
これを繰り返すことで、wopt に近づいていく。
3. シグモイドニューロン:誤差逆伝播法
重みwj
n
i
n -1のとき
wj
n
i
n -1(new) = wj
n
i
n -1(old) + ⊿wj
n
i
n -1
wnew = wold + ⊿w
3. シグモイドニューロン:誤差逆伝播法
n = N のとき、
n < N のとき、
n = N のとき、
のとき
δj
n = -(y p j - out j
N ) out j
N (1 - out j
N )
3. シグモイドニューロン:誤差逆伝播法
n < N のとき、
δj
n は、教師信号とネットワークの出力である y p i , out i
N を使って計算できる。
n < N のとき、δj
n を求めるには、δj
n +1 を求めておく必要がある。
3. シグモイドニューロン:誤差逆伝播法
誤差信号 δj
n は出力層から入力層へ向かって、通常の信号の流れとは逆向きに伝播していく。
3. シグモイドニューロン:誤差逆伝播法
誤差逆伝播法の流れ
※学習が終了しネットワークを使用する段階では、手順4から7までの操作は行われないことに注意
① 初期値として、全ての重みを乱数によって -0.1~0.1 程度の範囲の小さな値に設定する。さらに、学習率 η
(0<η≦1) を設定する。
② 入力信号 x p i (1≦i ≦L 1) をネットワークに入力する。
③ 入力層から出力層に向けて、各ニューロンの出力を計算する。
④ 出力層の出力 out j
N と教師信号 y p j の誤差から、δj
N を計算する。具体的には、以下の式を計算する。
δj
n = -(y p j - out j
N ) out j
N (1 - out j
N )
⑤ ④で求めた、δj
N を使って、中間層の誤差信号 δj
n (n < N ) を計算する。具体的には、以下の式を計算する。
⑥ ④⑤で求めた δj
n を使って、以下の式のように重みを更新する。
⊿w j
n
i
n -1 = -η δj
n out j
n -1
⑦ 全パターンに対する2乗誤差 E が十分に小さくなったと判断したら、学習は終了する。
そうでなければ、全パターンについて手順2から手順6までの操作を繰り返す。
3. シグモイドニューロン:誤差逆伝播法
誤差逆伝播法の問題点
局所解の問題
誤差逆伝播法は勾配法を基本にしているため、常に2乗誤差 E が減少するように重みが変
更されるが、図のようにくぼみの部分に落ち込んでしまうと、そこからは抜け出ることが
できずに、そこで学習がストップしてしまう。このようなくぼみを局所解とよぶ。
3. シグモイドニューロン:誤差逆伝播法の課題
誤差逆伝播法の問題点
過学習の問題
あまりにも学習時の2乗誤差 E にこだわりすぎて、学習をさせすぎると、サンプルに対してはよく
あてはまるモデルは構築される一方で, 未知のサンプルに対する予測の精度が極めて悪化するとい
う現象 が起こる。黒丸の教師信号で学習を行ったネットワークで、実線と破線の2つのような入出
力関係が得られたとする。実線は、教師信号と教師信号との間で出力に激しい変化が存在しない、
一方で、破線では、教師信号と教師信号との間では存在する。
要するに、訓練データに対して学習されているが、未知のデータに対して適合できていない状態の
こと。
3. シグモイドニューロン:誤差逆伝播法の課題
誤差逆伝播法の問題点
ネットワークの構造を決定する方法が存在しないという問題
誤差逆伝播法では、学習開始時から終了時まで、そのネットワークの構造が変化しない。
ただ、ある入力信号と教師信号に対して、中間層のニューロン数を決定する方法が確立していない。
3. シグモイドニューロン:誤差逆伝播法の課題
次はRNN(再帰型ニューラルネットワーク)の話
フィードフォワードは、前方への一方向のみに情報を通過させる。
(同じノードを再び通過することはない)
ex)必ずしも最初に処理した写真が、次に処理する写真の分類に関連するわけではない。
...に対して、RNNは、
● 情報を繰り返しループ状に通過させる。
● 現在と近い過去の2か所から情報を受け取り、それらを組み合わせて新しい情報をどう処理す
るかを決める。
情報が連続体であるとき、記憶能力を使うとフィードフォワードネットワークだと不可能なタスク
を再帰型であれば行うことができる。
最大の特徴
文章など一続きの連続した情報を利用することができるという点。
ex)5語からなる文章があるとすると、再帰型ニューラルネットワークでは1層1語という形で5層の
ニューラルネットワークを構成する。
3. シグモイドニューロン:再起型ニューラルネットワーク
3. シグモイドニューロン:再起型ニューラルネットワーク
同じネットワークの複数の
コピーであり、それぞれが
後続のネットワークにメッ
セージを渡すイメージ。
何が嬉しい...?
● 次の言葉を予測したい場合、その前の言葉が何だったのかを知っておくべきで、
RNNは直前の計算に左右されずに、連続的な要素ごとに同じ作業を行わせること
ができる。
● 予測変換のように、直前の言葉を利用して次の言葉の出現確率を予測するという
ことができるようになる。
● 機械翻訳や文章生成などを行うことができるようになる。
● テキストとして記載されたデータばかりでなく、音声を聞き取るスピーチ認識を
することも可能になり、前後のつながりがある動画なども認識が可能になる。
3. シグモイドニューロン:再起型ニューラルネットワーク
訳す際、入力サイズと出力サイズが
固定されず、可変になる。
ニューラル翻訳は、Encoder Decoder
モデルを基本としている。
Encoder Decoderモデルは2種類の
RNNで構成されている。
下部のEncoder部分のRNNで可変長
の翻訳元文から状態に出力し、上部
のDecoder部分で可変長の翻訳後の
文を生成。
*Encoder:データの形式を変換する
* Decoder:変換したのを戻す
3. シグモイドニューロン:再起型ニューラルネットワーク
機械翻訳
GoogleのNeural Machine Translationは、さらにAttentionと8層のResidual Connectionを導入
したLSTMを使った強力なモデルになっており、それはRNNの拡張。
入力と出力が可変のLSTMが多層になっていて、Residual Connectionがあるところが異な
るが、基本は同様のモデルだということが分かる。
3. シグモイドニューロン:再起型ニューラルネットワーク
音声認識
音声認識も同様に、入力が可変長の音声で、出力が可変長の認識後のテキストになる。
↑スタンフォード大学のDeep Neural Networkを使った音声認識の研究の画像
音声を画像と見立てて、入力にConvolution層を使って、出力がRNNになっている。
3. シグモイドニューロン:再起型ニューラルネットワーク
画像の概要生成
入力を画像にして、ニューラルネットワークに画像の説明をさせることができる。
逆に、説明文から画像も出力することができる。
3. シグモイドニューロン:再起型ニューラルネットワーク
RNNの種類
■ Simple RNN
■ LSTM
□ GRU
□ Bi-directional RNN
□ Attention RNN
3. シグモイドニューロン:再起型ニューラルネットワーク
Simple RNN(Simple Recurrent Network(単純再帰型ネットワーク))
隠れ層が隠れ層自身に接続して、ある時点での状態
を次の状態の入力値として使うことができる。
適切に訓練さえされていれば、時間的な情報を受け
渡すことができる。
ある時点 t での入力値 xtと前回時点での状態 st-1 か
ら新しい st に状態が遷移する。
状態 st から出力値の yt が出力される。
Simple RNNは次のように定義することができる。
3. シグモイドニューロン:再起型ニューラルネットワーク
LSTM(Long short-term memory)
Simple RNNの問題点 => 理論上は上手くいくことが、現実ではかなり前の古い情報を考慮するよ
うには学習されなかった。勾配消失(局所解)の問題が原因。
LSTMは、従来のRNNセルでは長期依存が必要なタスクを学習することができなかった問題を解決し
たモデルで、長期的な依存関係を学習することのできる、RNNの特別な一種
「the clouds are in the sky,」
>skyを予測できる。
「 I grew up in France………………………... I speak fluent French. 」
>関連する情報との距離が遠くなるに従い、RNNは情報を
関連づけて学習することができなくなる。
3. シグモイドニューロン:再起型ニューラルネットワーク
LSTMの画期的な特徴は、「ゲート」と呼ばれる情報の取捨選択をできるところ!
各ゲートでの情報の取捨選択は、シ
グモイド関数で行われる。
出力が0であれば、ゲートを通さず、
1であれば全て通す。
仮に忘却ゲートを1にして、入力ゲ
ートを0にすると、状態は永久に保
持され続ける。
忘却ゲートのおかげで、言語モデルの例では、「彼は…」と続く文が終わったときに、主語が彼
であるという状態を忘れるといったことができるようになる。時系列データでは季節の変わり目
や日付の変更に対応できる。
3. シグモイドニューロン:再起型ニューラルネットワーク
もう少し詳しく...
それぞれの線は、ベクトル全体を、
一つのノードの出力から他のノー
ドの入力に運ぶ。
ピンクの円は、ベクトルの加算の
ような、一点の操作を表し、黄色
のボックスは、学習されるニュー
ラルネットワークの層を表す。
合流している線は連結を意味し、
分岐している線は内容がコピーさ
れ、そのコピーが別の場所に行く
ことを表す。
simple RNN
LSTM
3. シグモイドニューロン:再起型ニューラルネットワーク
LSTMはRNNの中間層のユニットのLSTM block、
そして3つのゲートで実現されている。
LSTM block
拡大
3. シグモイドニューロン:再起型ニューラルネットワーク
セル状態は一種のコンベア・ベルトのようなもので、
線形相互作用のみでできている。
セル状態に対し情報を削除したり追加する操作は
ゲートと呼ばれる構造により制御される。 シグモイドニューラルネット層が行う。
0は「何も通さない」
1は「全てを通す」
3. シグモイドニューロン:再起型ニューラルネットワーク
3つのゲート、その1
セル状態から捨てる情報を判定する
この判定は「忘却ゲート層」と呼ばれるシグモイド層によって行われる。
ht−1 と xt を見て、セル状態 Ct−1 の中の各数値のために 0 と 1 の間の数値を出力する。
1 は「完全に維持する」を表し、 0 は「完全に取り除く」を表す。
使い時:既に出てきた単語に基づいて次の単語を予測するとき、代名詞の箱に入れるものを変
える必要がある。ex) Aは走る。彼(A)は転ぶ。Bは走る。彼(B)は転ばない。
3. シグモイドニューロン:再起型ニューラルネットワーク
3つのゲート、その2
セル状態で保存する新たな情報を判定する
「入力ゲート層」と呼ばれるシグモイド層は、どの値を更新するかを判定する。
tanh 層は、セル状態に加えられる新たな候補値のベクトル を作成し、
状態を更新するために、これら2つを組み合わせる。
使い時:先の例の続きで、彼(A) → 彼(B)に置き換える
3. シグモイドニューロン:再起型ニューラルネットワーク
忘れたいとき ft = 0が出力されるので
古い値は消える
新しい値に更新!
:各状態値を更新すると決定した割合でスケーリングされた、新たな候補値
3. シグモイドニューロン:再起型ニューラルネットワーク
3つのゲート、その3
出力するものを判定する
まず、セル状態のどの部分を出力するかを判定するため、シグモイド層を実行する。
判定された部分のみ出力するため、セル状態に tanh(非常に単純な層)を適用し、それにシグモイドゲートの
出力を掛ける。
使い時:主語の後に、動詞がくる場合、動詞に関連する主語を出力することが求められる可能性がある。例
えば、英語で主語が単数か複数かを出力すると、動詞が後につづく場合、どの活用形であるべきかわかる。
3. シグモイドニューロン:再起型ニューラルネットワーク
3. シグモイドニューロン:畳み込みニューラルネットワーク
全結合 → θ → y_ ⇔ y
パラメータの最適化を逆伝播
softmax 出力 正解
入力
(28, 28, 1)
第 1 層
(28, 28, 32)
(14, 14, 32)
第 2 層
(14, 14, 64)
(7, 7, 64)
畳み込み
(5, 5, 1, 32)
プーリング
畳み込み
(5, 5, 32, 64)
プーリング
誤差最小化
一致なら正解
不一致なら不正解
全体の流れ
3. シグモイドニューロン:畳み込みニューラルネットワーク
畳み込みフィルター
0 0 0
0 1 0
0 0 1
0*1
1*1
1 0 0
0 0 0
1 0 1
0*1
0 0 0
0 0 0
1 0 0
⇨ ⇨ ⇨
ストライド
⇩
⇩
⇩
2
2 3
2 3 1
1 行目の
畳み込み処理
2 3 1
1
2 3 1
1 4
2 3 1
1 4 1
2 3 1
1 4 1
3
2 3 1
1 4 1
3 4
2 3 1
1 4 1
3 4 3
2 行目の
畳み込み処理
3 行目の
畳み込み処理
畳み込む (convolve)
3. シグモイドニューロン:畳み込みニューラルネットワーク
3. シグモイドニューロン:畳み込みニューラルネットワーク
ストライド
ストライド 1 のとき
ストライド 2 のとき
3. シグモイドニューロン:畳み込みニューラルネットワーク
ゼロパディング(Zero Padding) … 入力の特徴マップの周辺を0で埋めること。
畳み込み層とプーリング層で出力サイズは次第に小さくなる。
⇩(ゼロパディングによって)
サイズを増やしたりすると層の数を増やすことができる。
何が嬉しい?
・端のデータに対する畳み込み回数が増えるので端の特徴も
考慮されるようになる。
・畳み込み演算の回数が増えるのでパラメーターの更新が多
く実行される。
・カーネルのサイズや、層の数を調整できる。
3. シグモイドニューロン:畳み込みニューラルネットワーク
プーリング処理 … 情報を圧縮すること
何が嬉しい?
・微小な位置変化に対して頑健となる
・ある程度過学習を抑制する
・計算コストを下げる
平均プーリングもある
3. シグモイドニューロン:畳み込みニューラルネットワーク
活性化関数(w*x を 0 か 1 かにする関数、 Activation Function)
恒等関数 ステップ関数 シグモイド関数
ReLU関数ソフトマックス関数
Hyperbolic Tangent
3. シグモイドニューロン:畳み込みニューラルネットワーク
ReLU関数
画像認識やニューラルネットワークで多用されている。
ソフトマックス関数
全ての出力値が 1 になるように変換する。
⇨入力値を確率の値に変換する。
3. シグモイドニューロン:畳み込みニューラルネットワーク
n : outputのレイヤー数
3. シグモイドニューロン:畳み込みニューラルネットワーク
トレーニングデータセット
60,000件のうち、今回使用するのは55,000件!
ラベルデータ(正解)
その画像が何の数字を与えられているか
=正解データ=ラベル
文字データ(28 * 28px)
784個の数字で構成されている。
3. シグモイドニューロン:畳み込みニューラルネットワーク
多次元の行列(tensor)が
流れていくから
tensorflow
ニューラルネットワークと深層学習
http://nnadl-ja.github.io/nnadl_site_ja/chap1.html
愛媛大学 村上研究室
http://ipr20.cs.ehime-u.ac.jp/column/neural/index.html
高卒でもわかる機械学習
http://hokuts.com/2016/05/29/bp1/
静岡理工大学
https://www.sist.ac.jp/~suganuma/kougi/other_lecture/SE/net/net.htm#4
Quiita
http://qiita.com/KojiOhki/items/89cd7b69a8a6239d67ca
http://qiita.com/miyamotok0105/items/3435930cc04650bce54d
DeepAge
https://deepage.net/deep_learning/2017/05/23/recurrent-neural-networks.html
ニューラルネットワークについて

More Related Content

What's hot

ΠΛΗ10 ΚΑΡΤΑ ΜΑΘΗΜΑ 1.3
ΠΛΗ10 ΚΑΡΤΑ ΜΑΘΗΜΑ 1.3ΠΛΗ10 ΚΑΡΤΑ ΜΑΘΗΜΑ 1.3
ΠΛΗ10 ΚΑΡΤΑ ΜΑΘΗΜΑ 1.3Dimitris Psounis
 
CODE FESTIVAL 2015 解説
CODE FESTIVAL 2015 解説CODE FESTIVAL 2015 解説
CODE FESTIVAL 2015 解説AtCoder Inc.
 
今日からできる構造学習(主に構造化パーセプトロンについて)
今日からできる構造学習(主に構造化パーセプトロンについて)今日からできる構造学習(主に構造化パーセプトロンについて)
今日からできる構造学習(主に構造化パーセプトロンについて)syou6162
 
Verilog-HDL Tutorial (5)
Verilog-HDL Tutorial (5)Verilog-HDL Tutorial (5)
Verilog-HDL Tutorial (5)Hiroki Nakahara
 
Ml professional bandit_chapter2
Ml professional bandit_chapter2Ml professional bandit_chapter2
Ml professional bandit_chapter2Takeru Maehara
 
CRC-32
CRC-32CRC-32
CRC-327shi
 
コンピュータシステムの理論と実装2
コンピュータシステムの理論と実装2コンピュータシステムの理論と実装2
コンピュータシステムの理論と実装2H T
 
Prml 最尤推定からベイズ曲線フィッティング
Prml 最尤推定からベイズ曲線フィッティングPrml 最尤推定からベイズ曲線フィッティング
Prml 最尤推定からベイズ曲線フィッティングtakutori
 
AtCoder Regular Contest 001
AtCoder Regular Contest 001AtCoder Regular Contest 001
AtCoder Regular Contest 001AtCoder Inc.
 
はじめてのパターン認識 第1章
はじめてのパターン認識 第1章はじめてのパターン認識 第1章
はじめてのパターン認識 第1章Prunus 1350
 
劣モジュラ最適化と機械学習1章
劣モジュラ最適化と機械学習1章劣モジュラ最適化と機械学習1章
劣モジュラ最適化と機械学習1章Hakky St
 
HTML5によるニューラルネットワークの可視化
HTML5によるニューラルネットワークの可視化HTML5によるニューラルネットワークの可視化
HTML5によるニューラルネットワークの可視化z_kro
 
はじめてのパターン認識 第5章 k最近傍法(k_nn法)
はじめてのパターン認識 第5章 k最近傍法(k_nn法)はじめてのパターン認識 第5章 k最近傍法(k_nn法)
はじめてのパターン認識 第5章 k最近傍法(k_nn法)Motoya Wakiyama
 
(文献紹介)Deep Unrolling: Learned ISTA (LISTA)
(文献紹介)Deep Unrolling: Learned ISTA (LISTA)(文献紹介)Deep Unrolling: Learned ISTA (LISTA)
(文献紹介)Deep Unrolling: Learned ISTA (LISTA)Morpho, Inc.
 
プログラミングコンテストでの動的計画法
プログラミングコンテストでの動的計画法プログラミングコンテストでの動的計画法
プログラミングコンテストでの動的計画法Takuya Akiba
 

What's hot (20)

ΠΛΗ10 ΚΑΡΤΑ ΜΑΘΗΜΑ 1.3
ΠΛΗ10 ΚΑΡΤΑ ΜΑΘΗΜΑ 1.3ΠΛΗ10 ΚΑΡΤΑ ΜΑΘΗΜΑ 1.3
ΠΛΗ10 ΚΑΡΤΑ ΜΑΘΗΜΑ 1.3
 
ΠΛΗ10 ΜΑΘΗΜΑ 2.8
ΠΛΗ10 ΜΑΘΗΜΑ 2.8ΠΛΗ10 ΜΑΘΗΜΑ 2.8
ΠΛΗ10 ΜΑΘΗΜΑ 2.8
 
CODE FESTIVAL 2015 解説
CODE FESTIVAL 2015 解説CODE FESTIVAL 2015 解説
CODE FESTIVAL 2015 解説
 
今日からできる構造学習(主に構造化パーセプトロンについて)
今日からできる構造学習(主に構造化パーセプトロンについて)今日からできる構造学習(主に構造化パーセプトロンについて)
今日からできる構造学習(主に構造化パーセプトロンについて)
 
Verilog-HDL Tutorial (5)
Verilog-HDL Tutorial (5)Verilog-HDL Tutorial (5)
Verilog-HDL Tutorial (5)
 
Ml professional bandit_chapter2
Ml professional bandit_chapter2Ml professional bandit_chapter2
Ml professional bandit_chapter2
 
CRC-32
CRC-32CRC-32
CRC-32
 
7_1212.pptx
7_1212.pptx7_1212.pptx
7_1212.pptx
 
コンピュータシステムの理論と実装2
コンピュータシステムの理論と実装2コンピュータシステムの理論と実装2
コンピュータシステムの理論と実装2
 
Prml 最尤推定からベイズ曲線フィッティング
Prml 最尤推定からベイズ曲線フィッティングPrml 最尤推定からベイズ曲線フィッティング
Prml 最尤推定からベイズ曲線フィッティング
 
ΠΛΗ31 ΜΑΘΗΜΑ 2.3
ΠΛΗ31 ΜΑΘΗΜΑ 2.3ΠΛΗ31 ΜΑΘΗΜΑ 2.3
ΠΛΗ31 ΜΑΘΗΜΑ 2.3
 
AtCoder Regular Contest 001
AtCoder Regular Contest 001AtCoder Regular Contest 001
AtCoder Regular Contest 001
 
はじめてのパターン認識 第1章
はじめてのパターン認識 第1章はじめてのパターン認識 第1章
はじめてのパターン認識 第1章
 
劣モジュラ最適化と機械学習1章
劣モジュラ最適化と機械学習1章劣モジュラ最適化と機械学習1章
劣モジュラ最適化と機械学習1章
 
HTML5によるニューラルネットワークの可視化
HTML5によるニューラルネットワークの可視化HTML5によるニューラルネットワークの可視化
HTML5によるニューラルネットワークの可視化
 
Hoare論理
Hoare論理Hoare論理
Hoare論理
 
直交領域探索
直交領域探索直交領域探索
直交領域探索
 
はじめてのパターン認識 第5章 k最近傍法(k_nn法)
はじめてのパターン認識 第5章 k最近傍法(k_nn法)はじめてのパターン認識 第5章 k最近傍法(k_nn法)
はじめてのパターン認識 第5章 k最近傍法(k_nn法)
 
(文献紹介)Deep Unrolling: Learned ISTA (LISTA)
(文献紹介)Deep Unrolling: Learned ISTA (LISTA)(文献紹介)Deep Unrolling: Learned ISTA (LISTA)
(文献紹介)Deep Unrolling: Learned ISTA (LISTA)
 
プログラミングコンテストでの動的計画法
プログラミングコンテストでの動的計画法プログラミングコンテストでの動的計画法
プログラミングコンテストでの動的計画法
 

Similar to ニューラルネットワークについて

Tokyo webmining統計学部 第2回
Tokyo webmining統計学部 第2回Tokyo webmining統計学部 第2回
Tokyo webmining統計学部 第2回Issei Kurahashi
 
第2回 メドレー読書会
第2回 メドレー読書会第2回 メドレー読書会
第2回 メドレー読書会Toshifumi
 
20150310 第1回 ディープラーニング勉強会
20150310 第1回 ディープラーニング勉強会20150310 第1回 ディープラーニング勉強会
20150310 第1回 ディープラーニング勉強会哲朗 島田
 
Rで学ぶ逆変換(逆関数)法
Rで学ぶ逆変換(逆関数)法Rで学ぶ逆変換(逆関数)法
Rで学ぶ逆変換(逆関数)法Nagi Teramo
 
17ゼロから作るディープラーニング2章パーセプトロン
17ゼロから作るディープラーニング2章パーセプトロン17ゼロから作るディープラーニング2章パーセプトロン
17ゼロから作るディープラーニング2章パーセプトロンKeiichirou Miyamoto
 
深層学習 Day1レポート
深層学習 Day1レポート深層学習 Day1レポート
深層学習 Day1レポートtaishimotoda
 
機械学習と深層学習の数理
機械学習と深層学習の数理機械学習と深層学習の数理
機械学習と深層学習の数理Ryo Nakamura
 
東京都市大学 データ解析入門 6 回帰分析とモデル選択 1
東京都市大学 データ解析入門 6 回帰分析とモデル選択 1東京都市大学 データ解析入門 6 回帰分析とモデル選択 1
東京都市大学 データ解析入門 6 回帰分析とモデル選択 1hirokazutanaka
 

Similar to ニューラルネットワークについて (8)

Tokyo webmining統計学部 第2回
Tokyo webmining統計学部 第2回Tokyo webmining統計学部 第2回
Tokyo webmining統計学部 第2回
 
第2回 メドレー読書会
第2回 メドレー読書会第2回 メドレー読書会
第2回 メドレー読書会
 
20150310 第1回 ディープラーニング勉強会
20150310 第1回 ディープラーニング勉強会20150310 第1回 ディープラーニング勉強会
20150310 第1回 ディープラーニング勉強会
 
Rで学ぶ逆変換(逆関数)法
Rで学ぶ逆変換(逆関数)法Rで学ぶ逆変換(逆関数)法
Rで学ぶ逆変換(逆関数)法
 
17ゼロから作るディープラーニング2章パーセプトロン
17ゼロから作るディープラーニング2章パーセプトロン17ゼロから作るディープラーニング2章パーセプトロン
17ゼロから作るディープラーニング2章パーセプトロン
 
深層学習 Day1レポート
深層学習 Day1レポート深層学習 Day1レポート
深層学習 Day1レポート
 
機械学習と深層学習の数理
機械学習と深層学習の数理機械学習と深層学習の数理
機械学習と深層学習の数理
 
東京都市大学 データ解析入門 6 回帰分析とモデル選択 1
東京都市大学 データ解析入門 6 回帰分析とモデル選択 1東京都市大学 データ解析入門 6 回帰分析とモデル選択 1
東京都市大学 データ解析入門 6 回帰分析とモデル選択 1
 

Recently uploaded

Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。iPride Co., Ltd.
 
LoRaWANスマート距離検出センサー DS20L カタログ LiDARデバイス
LoRaWANスマート距離検出センサー  DS20L  カタログ  LiDARデバイスLoRaWANスマート距離検出センサー  DS20L  カタログ  LiDARデバイス
LoRaWANスマート距離検出センサー DS20L カタログ LiDARデバイスCRI Japan, Inc.
 
論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games
論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games
論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Gamesatsushi061452
 
新人研修 後半 2024/04/26の勉強会で発表されたものです。
新人研修 後半        2024/04/26の勉強会で発表されたものです。新人研修 後半        2024/04/26の勉強会で発表されたものです。
新人研修 後半 2024/04/26の勉強会で発表されたものです。iPride Co., Ltd.
 
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアルLoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアルCRI Japan, Inc.
 
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)NTT DATA Technology & Innovation
 
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。iPride Co., Ltd.
 
論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding
論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding
論文紹介:Selective Structured State-Spaces for Long-Form Video UnderstandingToru Tamaki
 
論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...
論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...
論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...Toru Tamaki
 
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)Hiroshi Tomioka
 
Observabilityは従来型の監視と何が違うのか(キンドリルジャパン社内勉強会:2022年10月27日発表)
Observabilityは従来型の監視と何が違うのか(キンドリルジャパン社内勉強会:2022年10月27日発表)Observabilityは従来型の監視と何が違うのか(キンドリルジャパン社内勉強会:2022年10月27日発表)
Observabilityは従来型の監視と何が違うのか(キンドリルジャパン社内勉強会:2022年10月27日発表)Hiroshi Tomioka
 

Recently uploaded (11)

Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
 
LoRaWANスマート距離検出センサー DS20L カタログ LiDARデバイス
LoRaWANスマート距離検出センサー  DS20L  カタログ  LiDARデバイスLoRaWANスマート距離検出センサー  DS20L  カタログ  LiDARデバイス
LoRaWANスマート距離検出センサー DS20L カタログ LiDARデバイス
 
論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games
論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games
論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games
 
新人研修 後半 2024/04/26の勉強会で発表されたものです。
新人研修 後半        2024/04/26の勉強会で発表されたものです。新人研修 後半        2024/04/26の勉強会で発表されたものです。
新人研修 後半 2024/04/26の勉強会で発表されたものです。
 
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアルLoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
 
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
 
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
 
論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding
論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding
論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding
 
論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...
論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...
論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...
 
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
 
Observabilityは従来型の監視と何が違うのか(キンドリルジャパン社内勉強会:2022年10月27日発表)
Observabilityは従来型の監視と何が違うのか(キンドリルジャパン社内勉強会:2022年10月27日発表)Observabilityは従来型の監視と何が違うのか(キンドリルジャパン社内勉強会:2022年10月27日発表)
Observabilityは従来型の監視と何が違うのか(キンドリルジャパン社内勉強会:2022年10月27日発表)
 

ニューラルネットワークについて