SlideShare a Scribd company logo
1 of 74
Download to read offline
ランダムフォレスト
2015年11月12日
近畿大学理工学部情報学科
波部 斉(Hitoshi HABE)
Email: habe@kindai.ac.jp Twitter: @habhit
SBRA 20152015/11/12 1
本日の構成
1. ランダムフォレストの特徴
2. ランダムフォレストの基礎
3. ランダムフォレストの応用
4. ランダムフォレストの実際
2015/11/12 SBRA 2015 2
本日の構成
1. ランダムフォレストの特徴
1. ツールとしての機械学習
2. ランダムフォレストとは
2. ランダムフォレストの基礎
3. ランダムフォレストの応用
4. ランダムフォレストの実際
2015/11/12 SBRA 2015 3
ツールとしての機械学習
• 歴史的な流れ
– ニューラルネット(NN)
• 顔検出 [Rowley-Kanade PAMI 1998]
• 深層学習
– ブースティング
• 顔検出 [Viola-Jones IJCV 2003]
– サポートベクトルマシン(SVM)
• HOG 人物検出 [Dalal CVPR 2005]
2015/11/12 SBRA 2015 4
コンピュータビジョンでの機械学習
• 取り扱う情報の単位
– 候補全体を一つの単位として対象かどう
かを判定する
• HOG 人物検出 [Dalal CVPR 2005]
– 局所領域での判定結果を統合して対象か
どうかを判定する
• Implicit Shape Model [Leibe ECCVWS 2004]
• Deformable Part Model [Felzenswalb CVPR 2008 ]
– より複雑な事象の理解へ
• データセット
– サイズ大,時空間情報
• 出力
– クラスラベルのみから多種情報
2015/11/12 SBRA 2015 5
ランダムフォレストとは?
• アンサンブル学習
– 複数の決定木(弱識別器)の結
果をあわせて識別・回帰・クラ
スタリングを行う
• バギング
– 入力学習データからのランダム
サンプリングを繰り返して弱識
別器を構成
2015/11/12 SBRA 2015 6
ランダムフォレスト
• メリット
– シンプル・わかりやすい・精度も良い・テストが高
速
三人よれば文殊の知恵?
• 三人の多数決をチームの答えにする
2015/11/12 7
よくデキるが得意分野が
重なる三人組
それほどデキないが
得意分野が異なる三人組
ふつうの三人組の方が良い成績!
SBRA 2015
多数決 多数決
正解
人物A
人物B
人物C
人物D
人物E
人物F
不正解
70%正解 80%正解
アンサンブル学習
• 𝐵𝐵 個の弱識別器それぞれの出力が分散 𝜎𝜎 の分
布にしたがう 確率変数 𝑋𝑋𝑖𝑖 であるとする
• 変数の間の相関係数が 𝜌𝜌 であるとするとその
平均の分散は
2015/11/12 SBRA 2015 8
𝜌𝜌𝜎𝜎2
+
1 − 𝜌𝜌
𝐵𝐵
𝜎𝜎2
個々の識別器(人物)の能力が特別優れていなくても
微妙に違うものを統合すれば結果がよくなる
𝜌𝜌𝜎𝜎2
分散を小さく
相関を小さく
弱識別器の
個数大
決定木のアンサンブル
• 決定木の特徴
– 深さを大きくすれば学習データによく適合できる
→ バイアス小
• 決定木のアンサンブル
– 相関の小さい決定木を集めることができれば分散
を小さくできる → 学習にランダムな要素を導入
2015/11/12 SBRA 2015 9
相関小
ブートストラップサンプリング
• 学習データ全体から個々の決定木の学習に利
用する学習データをランダムに選ぶ
2015/11/12 SBRA 2015 10
学習データ
ランダム
サンプリング
相関小
ランダムフォレストの歴史
• Tin Kam Ho 1995
– Random decision forests, ICDAR 1995
– ランダムに抽出した部分空間を使って学習した決定木を
統合
• Amit & Geman 1997
– Shape Quantization and Recognition with Randomized
Trees, Neural Computation,1997
• Leo Breiman 2001
– Random Forests , Machine Learning, 2001
– バギングによって決定木を学習
– 理論的考察
2015/11/12 SBRA 2015 11
Randomized Decision Trees
Randomized Decision Forests など様々な名前で呼ばれている
コンピュータビジョンへの応用
• 特徴点認識 [Lepetit CVPR 2005]
• 画像分割&認識 [Shotton CVPR 2008]
• 人体部位認識 [Shotton CVPR 2011]
2015/11/12 SBRA 2015 12
本日の構成
1. ランダムフォレストの特徴
2. ランダムフォレストの基礎
1. 基本構造
2. ランダムフォレストの学習
3. ランダムフォレストのテスト
4. 回帰などへの応用
5. ランダムフォレストの性質
3. ランダムフォレストの応用
4. ランダムフォレストの実際
2015/11/12 SBRA 2015 13
準備
• 対象とするデータ 𝒗𝒗 = 𝑥𝑥1, 𝑥𝑥2, … , 𝑥𝑥𝑑𝑑 ∈ ℝ𝑑𝑑
• 目標 𝑡𝑡
• 教師データ集合 𝑆𝑆 = {(𝒗𝒗, 𝑡𝑡)}
2015/11/12 SBRA 2015 14
𝑆𝑆
𝒗𝒗1, 𝑡𝑡1
学習
𝒗𝒗3, 𝑡𝑡3
𝒗𝒗4, 𝑡𝑡4
𝒗𝒗2, 𝑡𝑡2
+
未知
データ
• クラス識別:c ∈ ℕ
• 回帰: y ∈ ℝ𝑛𝑛テスト
𝒗𝒗 𝑡𝑡
決定木(二分決定木)
2015/11/12 SBRA 2015 15
𝒗𝒗
𝑝𝑝(𝑡𝑡| 𝒗𝒗)
ℎ( 𝒗𝒗, 𝜃𝜃)
分岐関数
ℎ 𝒗𝒗, 𝜃𝜃 = {0,1}
パラメータ
10
𝒗𝒗
特徴空間
決定木判定結果の統合(パターン識別)
2015/11/12 SBRA 2015 16
𝑝𝑝𝑡𝑡(𝑐𝑐|v)
∑𝑝𝑝𝑡𝑡(𝑐𝑐|v)
2クラス識別問題
𝑝𝑝𝑡𝑡(𝑐𝑐|v)
+
本日の構成
1. ランダムフォレストの特徴
2. ランダムフォレストの基礎
1. 基本構造
2. ランダムフォレストの学習
3. ランダムフォレストのテスト
4. 回帰などへの応用
5. ランダムフォレストの性質
3. ランダムフォレストの応用
4. ランダムフォレストの実際
2015/11/12 SBRA 2015 17
学習アルゴリズムの流れ
• 入力:学習データ集合 𝑆𝑆 = {𝒗𝒗, 𝑡𝑡}
• 𝑇𝑇個の決定木 T1, T2, … , T𝑇𝑇 それぞれについて
– 学習データ集合からサンプリング:𝑆𝑆 ⇒ 𝑆𝑆0
– サンプリングしたデータを根ノード(𝑗𝑗 = 0)に与え
以下を再帰的に繰り返す
• ノード 𝑗𝑗 での最適な分岐関数 ℎ∗(𝒗𝒗, 𝜃𝜃∗) を求める
• ℎ∗
に従って 𝑆𝑆𝑗𝑗 を分割して 𝑆𝑆𝑗𝑗
𝐿𝐿
と 𝑆𝑆𝑗𝑗
𝑅𝑅
を得る
• 終了条件をみたす? No→𝑆𝑆𝑗𝑗
𝐿𝐿
と𝑆𝑆𝑗𝑗
𝑅𝑅
を子ノードに与えて学習継
続,Yes→それより深くはしない
– すべての葉ノードが終了条件をみたす→木の学習終了
• すべての木の学習終了→Forestの学習終了
2015/11/12 SBRA 2015 18
並列化可能!!
学習アルゴリズムの流れ
• 入力:学習データ集合 𝑆𝑆 = {𝒗𝒗, 𝑡𝑡}
• 𝑇𝑇個の決定木 T1, T2, … , T𝑇𝑇 それぞれについて
– 学習データ集合からサンプリング:𝑆𝑆 ⇒ 𝑆𝑆0
– サンプリングしたデータを根ノード(𝑗𝑗 = 0)に与え
以下を再帰的に繰り返す
• ノード 𝑗𝑗 での最適な分岐関数 ℎ∗(𝒗𝒗, 𝜃𝜃∗) を求める
• ℎ∗
に従って 𝑆𝑆𝑗𝑗 を分割して 𝑆𝑆𝑗𝑗
𝐿𝐿
と 𝑆𝑆𝑗𝑗
𝑅𝑅
を得る
• 終了条件をみたす? No→𝑆𝑆𝑗𝑗
𝐿𝐿
と𝑆𝑆𝑗𝑗
𝑅𝑅
を子ノードに与えて学習継
続,Yes→それより深くはしない
– すべての葉ノードが終了条件をみたす→木の学習終了
• すべての木の学習終了→Forestの学習終了
2015/11/12 SBRA 2015 19
学習データ集合からのサンプリング
• ブートストラップサンプリング
– 学習データ集合全体から個々の決定木の学習に
利用するデータをランダムに選ぶ
• 重複を許す(w/ replacement)
• 使われないデータがあっても良い
2015/11/12 SBRA 2015 20
𝑆𝑆
𝒗𝒗1, 𝑡𝑡1
𝒗𝒗3, 𝑡𝑡3
𝒗𝒗4, 𝑡𝑡4
𝒗𝒗2, 𝑡𝑡2
𝒗𝒗1, 𝑡𝑡1
𝒗𝒗3, 𝑡𝑡3 𝑆𝑆1 𝒗𝒗3, 𝑡𝑡3 𝑆𝑆2
𝒗𝒗4, 𝑡𝑡4
𝒗𝒗3, 𝑡𝑡3
𝒗𝒗4, 𝑡𝑡4
学習アルゴリズムの流れ
• 入力:学習データ集合 𝑆𝑆 = {𝒗𝒗, 𝑡𝑡}
• 𝑇𝑇個の決定木 T1, T2, … , T𝑇𝑇 それぞれについて
– 学習データ集合からサンプリング:𝑆𝑆 ⇒ 𝑆𝑆0
– サンプリングしたデータを根ノード(𝑗𝑗 = 0)に与え
以下を再帰的に繰り返す
• ノード 𝑗𝑗 での最適な分岐関数 ℎ∗(𝒗𝒗, 𝜃𝜃∗) を求める
• ℎ∗
に従って 𝑆𝑆𝑗𝑗 を分割して 𝑆𝑆𝑗𝑗
𝐿𝐿
と 𝑆𝑆𝑗𝑗
𝑅𝑅
を得る
• 終了条件をみたす? No→𝑆𝑆𝑗𝑗
𝐿𝐿
と𝑆𝑆𝑗𝑗
𝑅𝑅
を子ノードに与えて学習継
続,Yes→それより深くはしない
– すべての葉ノードが終了条件をみたす→木の学習終了
• すべての木の学習終了→Forestの学習終了
2015/11/12 SBRA 2015 21
1. 根ノードから学習開始
2. 再帰的に以下を実行
A) ノード 𝑗𝑗 での最適な分
岐関数 ℎ∗
(𝒗𝒗, 𝜃𝜃∗
) を求め
る
B) ℎ∗に従って 𝑆𝑆𝑗𝑗 を分割
した 𝑆𝑆𝑗𝑗
𝐿𝐿
と 𝑆𝑆𝑗𝑗
𝑅𝑅
を与えて
子ノードを生成
C) 終了条件をみたす?
No→子ノードで学習
継続,Yes→終了
3. 全葉ノードで終了→終了
決定木学習の流れ
2015/11/12 SBRA 2015 22
n
0
1 2
𝑝𝑝(𝑡𝑡|v)
ℎ∗ = arg max 𝐼𝐼0
𝑆𝑆0
根ノード 𝑆𝑆0
𝑆𝑆𝑛𝑛
終了?→Yes
𝑆𝑆1 = 𝑆𝑆0
𝐿𝐿
𝑆𝑆2 = 𝑆𝑆0
𝑅𝑅
𝑆𝑆0
𝐿𝐿
𝑆𝑆0
𝑅𝑅
分岐関数の学習(1):イメージ
2015/11/12 SBRA 2015 23
𝑗𝑗 𝑆𝑆𝑗𝑗
𝑆𝑆𝑗𝑗
𝐿𝐿
𝑆𝑆𝑗𝑗
𝑅𝑅
𝑆𝑆𝑗𝑗
𝑆𝑆𝑗𝑗
𝐿𝐿 𝑆𝑆𝑗𝑗
𝑅𝑅
ランダムに選んだ
分岐関数候補から選ぶので
たとえ同一の学習データでも
試行ごとに微妙に異なる
決定木となる
分岐関数の学習(2):定式化
2015/11/12 SBRA 2015 24
𝑗𝑗
ℎ 𝒗𝒗, 𝜃𝜃𝑗𝑗 = {0, 1}
𝒗𝒗:入力データ
𝜃𝜃𝑗𝑗:パラメータ
𝑆𝑆𝑗𝑗
𝑆𝑆𝑗𝑗
𝐿𝐿
𝑆𝑆𝑗𝑗
𝑅𝑅
最適なパラメータ 𝜃𝜃∗
= arg max
𝜃𝜃𝑗𝑗∈ℑ𝑗𝑗
𝐼𝐼𝑗𝑗
目的関数: 𝐼𝐼𝑗𝑗= 𝐼𝐼 𝑆𝑆𝑗𝑗, 𝑆𝑆𝑗𝑗
𝐿𝐿
, 𝑆𝑆𝑗𝑗
𝑅𝑅
, 𝜃𝜃𝑗𝑗
パラメータ候補:ℑ𝑗𝑗 ∈ ℑ
分岐関数の学習(3):目的関数(1)
パターン識別の場合(クラスラベル集合𝐶𝐶)
• エントロピー(平均情報量)
𝐻𝐻 𝑆𝑆 = − �
𝑐𝑐∈𝐶𝐶
𝑝𝑝 𝑐𝑐 log(𝑝𝑝 𝑐𝑐 )
2015/11/12 SBRA 2015 25
2クラスの場合
𝐻𝐻 𝑆𝑆
𝑝𝑝 𝑐𝑐
それぞれのクラスが
等確率で存在するとき最大
𝐻𝐻 𝑆𝑆 :小
𝐻𝐻 𝑆𝑆 :大
分岐関数の学習(3):目的関数(2)
• 情報利得:分割前後のエントロピーの差
𝐼𝐼 = 𝐻𝐻 𝑆𝑆 − �
𝑖𝑖∈{𝐿𝐿,𝑅𝑅}
𝑆𝑆𝑖𝑖
𝑆𝑆
𝐻𝐻(𝑆𝑆𝑖𝑖
)
2015/11/12 SBRA 2015 26
分割前
分割後(重み付き平均)
𝐻𝐻 𝑆𝑆 = 0.7 𝐼𝐼1 = 0.7 − 0.7 = 0
𝜃𝜃1
𝜃𝜃2
𝐼𝐼2 = 0.7 − 0 = 0.7
分岐関数の学習(4):パラメータ候補
• すべてのパラメータ候補を試すのは非現実的
• 学習結果に適当な「ぶれ」を与える
• ランダムに抽出したものを利用
2015/11/12 SBRA 2015 27
ℑ𝑗𝑗 ∈ ℑ 全パラメータ
ノード𝑗𝑗の学習に
利用する
パラメータ
ランダム度合い: 𝜌𝜌 =
|ℑ𝑗𝑗|
|ℑ|
1. 根ノードから学習開始
2. 再帰的に以下を実行
A) ノード 𝑗𝑗 での最適な分
岐関数 ℎ∗
(𝒗𝒗, 𝜃𝜃∗
) を求め
る
B) ℎ∗に従って 𝑆𝑆𝑗𝑗 を分割
した 𝑆𝑆𝑗𝑗
𝐿𝐿
と 𝑆𝑆𝑗𝑗
𝑅𝑅
を与えて
子ノードを生成
C) 終了条件をみたす?
No→子ノードで学習
継続,Yes→終了
3. 全葉ノードで終了→終了
決定木学習の流れ
2015/11/12 SBRA 2015 28
n
0
1 2
𝜃𝜃∗ = arg max 𝐼𝐼0
𝑆𝑆0
根ノード 𝑆𝑆0
𝑆𝑆𝑛𝑛
終了?
𝑆𝑆1 = 𝑆𝑆0
𝐿𝐿
𝑆𝑆2 = 𝑆𝑆0
𝑅𝑅
𝑆𝑆0
𝐿𝐿
𝑆𝑆0
𝑅𝑅
決定木学習の終了
終了条件
1. あらかじめ定めた深さ𝐷𝐷に達
した場合
2. ノードに割り当てられた学
習データの個数|𝑆𝑆𝑛𝑛|が一定値
以下になったとき
3. 分割による情報利得𝐼𝐼𝑛𝑛が一定
値以下になったとき
終了すると𝑆𝑆𝑛𝑛から事後確率
𝑝𝑝(𝑡𝑡|v) の推定値を計算して保持
2015/11/12 SBRA 2015 29
n
𝑆𝑆𝑛𝑛
𝐷𝐷
𝑝𝑝(𝑡𝑡|v)
学習アルゴリズムの流れ
• 入力:学習データ集合 𝑆𝑆 = {𝒗𝒗, 𝑡𝑡}
• 𝑇𝑇個の決定木 T1, T2, … , T𝑇𝑇 それぞれについて
– 学習データ集合からサンプリング:𝑆𝑆 ⇒ 𝑆𝑆0
– サンプリングしたデータを根ノード(𝑗𝑗 = 0)に与え
以下を再帰的に繰り返す
• ノード 𝑗𝑗 での最適な分岐関数 ℎ∗(𝒗𝒗, 𝜃𝜃∗) を求める
• ℎ∗
に従って 𝑆𝑆𝑗𝑗 を分割して 𝑆𝑆𝑗𝑗
𝐿𝐿
と 𝑆𝑆𝑗𝑗
𝑅𝑅
を得る
• 終了条件をみたす? No→𝑆𝑆𝑗𝑗
𝐿𝐿
と𝑆𝑆𝑗𝑗
𝑅𝑅
を子ノードに与えて学習継
続,Yes→それより深くはしない
– すべての葉ノードが終了条件をみたす→木の学習終了
• すべての木の学習終了→Forestの学習終了
2015/11/12 SBRA 2015 30
本日の構成
1. ランダムフォレストの特徴
2. ランダムフォレストの基礎
1. 基本構造
2. ランダムフォレストの学習
3. ランダムフォレストのテスト
4. 回帰などへの応用
5. ランダムフォレストの性質
3. ランダムフォレストの応用
4. ランダムフォレストの実際
2015/11/12 SBRA 2015 31
テスト
• 与えられた入力を全ての決定木に入力して統合
2015/11/12 SBRA 2015 32
𝒗𝒗
𝑝𝑝1(𝑡𝑡|𝒗𝒗) 𝑝𝑝2(𝑡𝑡|𝒗𝒗) 𝑝𝑝𝑇𝑇(𝑡𝑡|𝒗𝒗)
𝑝𝑝 𝑡𝑡 v =
1
𝑇𝑇
�
𝑡𝑡=1
𝑇𝑇
𝑝𝑝𝑡𝑡(𝑡𝑡|𝒗𝒗) • 多数決
• 積をとる場合もある
並列化可能!!
本日の構成
1. ランダムフォレストの特徴
2. ランダムフォレストの基礎
1. 基本構造
2. ランダムフォレストの学習
3. ランダムフォレストのテスト
4. 回帰などへの応用
5. ランダムフォレストの性質
3. ランダムフォレストの応用
4. ランダムフォレストの実際
2015/11/12 SBRA 2015 33
ランダムフォレストによる回帰
• 出力
– パターン識別問題:c ∈ ℕ
– 回帰問題:y ∈ ℝ𝑛𝑛
2015/11/12 SBRA 2015 34
𝒗𝒗
𝒚𝒚
𝒗𝒗
𝒄𝒄
1
2
3
本日の構成
1. ランダムフォレストの特徴
2. ランダムフォレストの基礎
1. 基本構造
2. ランダムフォレストの学習
3. ランダムフォレストのテスト
4. 回帰などへの応用
5. ランダムフォレストの性質
3. ランダムフォレストの応用
4. ランダムフォレストの実際
2015/11/12 SBRA 2015 35
ランダムフォレストの性質
• パラメータチューニング
– 少々チューニングは必要だが比較的容易
• わかりやすさ
– 決定木なので識別規則が一目瞭然
• 複雑な対象の取り扱い
– 多クラス識別や回帰にもそのまま適用可能
– 非線形な対象の取り扱いも可能
• 処理コスト
– テストは高速
– 学習・テスト共に並列化に適している
2015/11/12 SBRA 2015 36
RFの汎化誤差推定
• Out-of-Bag Estimates
– ブートストラップサンプルに含まれなかったサン
プルを使って汎化誤差を推定
– 交差検定(cross-validation)を実行する必要はな
い
2015/11/12 SBRA 2015 37
𝒗𝒗
𝑝𝑝1(𝑡𝑡|𝒗𝒗) 𝑝𝑝𝑇𝑇(𝑡𝑡|𝒗𝒗)
𝒗𝒗 ∉ 𝑆𝑆1 𝒗𝒗 ∈ 𝑆𝑆2
𝒗𝒗 ∉ 𝑆𝑆𝑇𝑇
変数重要度
• 目的関数の改善に貢献
した度合いを積算
• OOBサンプルのうちラ
ンダムに選んだ変数を
置換
2015/11/12 SBRA 2015 38
𝑗𝑗 𝑆𝑆𝑗𝑗
𝑆𝑆𝑗𝑗
𝐿𝐿
𝑆𝑆𝑗𝑗
𝑅𝑅
𝜃𝜃∗
= arg max 𝐼𝐼
𝜃𝜃∗ に相当する変数に
対し 𝐼𝐼 を積算していく
𝒗𝒗𝑖𝑖 ∉ 𝑆𝑆
𝑣𝑣1
0
, 𝑣𝑣2
0
, 𝑣𝑣3
0
, … , 𝑣𝑣𝑑𝑑
0
𝑣𝑣1
1
, 𝑣𝑣2
1
, 𝑣𝑣3
1
, … , 𝑣𝑣𝑑𝑑
1
𝑣𝑣1
2
, 𝑣𝑣2
2
, 𝑣𝑣3
2
, … , 𝑣𝑣𝑑𝑑
2
性能の低下が
顕著であれば重要
顔認識における変数重要度
2015/11/12 SBRA 2015 39
Scikit-learn のサンプル
木の深さと過学習
• 木の深さ𝐷𝐷
– あまり深くしすぎると過学習を起こす
2015/11/12 SBRA 2015 40
木の深さと過学習:実例 [Criminisi 2011]
2015/11/12 SBRA 2015 41
max tree depth, D
overfittingunderfitting
T=200, D=3, w. l. = conic T=200, D=6, w. l. = conic T=200, D=15, w. l. = conic
Training points: 4-class mixed
ブースティングとの比較(1)
2015/11/12 SBRA 2015 42
ブースティングとの比較(2)
2015/11/12 SBRA 2015 43
本日の構成
1. ランダムフォレストの特徴
2. ランダムフォレストの基礎
3. ランダムフォレストの応用
1. CV問題への適用
2. 識別の応用例
3. 識別+回帰の応用例
4. 問題点と対策
4. ランダムフォレストの実際
2015/11/12 SBRA 2015 44
CV問題への適用:入力データ
• 入力データ 𝒗𝒗 = 𝑥𝑥1, 𝑥𝑥2, … , 𝑥𝑥𝑑𝑑 ∈ ℝ𝑑𝑑
– 画像/デプスマップ/3次元ボリュームの局所領
域を単位とする
– 局所領域における以下の特徴量で 𝒗𝒗 を構成(例)
• 輝度/色成分そのまま
• フィルタリング結果(微分など)
• HOGなどの特徴抽出結果
2015/11/12 SBRA 2015 45
𝒊𝒊 𝒗𝒗
𝒊𝒊
𝒆𝒆
𝒇𝒇
フィルタ
特徴検出
CV問題への適用:分岐関数
• 分岐関数の定義 ℎ 𝒗𝒗, 𝜃𝜃𝑗𝑗 = {0, 1}
– データ 𝒗𝒗 の2要素の差分をとって閾値処理
– 一様な明度変化などに対してロバスト
( cf. Haar-like 特徴)
2015/11/12 SBRA 2015 46
𝜙𝜙 = −
𝜙𝜙 = 𝑥𝑥𝑖𝑖 − 𝑥𝑥𝑗𝑗,
( 𝑖𝑖, 𝑗𝑗 ∈ 1, … , 𝑑𝑑 2
)
ℎ 𝒗𝒗, 𝜃𝜃𝑗𝑗 = �
1 𝜙𝜙 ≥ 𝜏𝜏 ,
0 𝜙𝜙 < 𝜏𝜏 .
𝒗𝒗
本日の構成
1. ランダムフォレストの特徴
2. ランダムフォレストの基礎
3. ランダムフォレストの応用
1. CV問題への適用
2. 識別の応用例
3. 識別+回帰の応用例
4. 問題点と対策
4. ランダムフォレストの実際
2015/11/12 SBRA 2015 47
リアルタイム特徴点認識
2015/11/12 SBRA 2015 48
[Lepetit et al., 2006]
デプスマップからの身体部位推定
2015/11/12 SBRA 2015 49[Shotton et al. 2011]
left
hand
right
shoulder neck
right
foot
Input depth image Visual features
• 人間の身体を31個の部位
に分割
• 入力:デプスマップ
• 出力:部位ラベル
2画素の奥行きの差
身体部位推定結果
2015/11/12 SBRA 2015 50
[Shotton et al. 2011]
本日の構成
1. ランダムフォレストの特徴
2. ランダムフォレストの基礎
3. ランダムフォレストの応用
1. CV問題への適用
2. 識別の応用例
3. 識別+回帰の応用例
4. 問題点と対策
4. ランダムフォレストの実際
2015/11/12 SBRA 2015 51
Hough Forest
• 局所パッチ&投票ベースの物体検出
– Implicit Shape Model [Leibe et al. 2003]
• ランダムフォレストで識別・回帰を行う
2015/11/12 SBRA 2015 52
[Gall et al. 2009]
[Okada 2009]
11, xc
22 , xc
3c
44 , xc
5c
ランダムフォレスト
入力:
・局所パッチ
出力:
・クラスラベル
・オフセット
Hough Forests の検出結果
2015/11/12 SBRA 2015 53
[Gall et al. 2009]
本日の構成
1. ランダムフォレストの特徴
2. ランダムフォレストの基礎
3. ランダムフォレストの応用
1. CV問題への適用
2. 識別の応用例
3. 識別+回帰の応用例
4. 問題点と対策
4. ランダムフォレストの実際
2015/11/12 SBRA 2015 54
ランダムフォレストの問題点
• 高い能力を得るには
– フォレストの規模が大きくなる
– メモリ使用量大
2015/11/12 SBRA 2015 55
・ 構造を工夫するもの
・ 構築(学習)過程を工夫するもの
Decision Jungles
• ランダムフォレストとの違い
– 複数の親ノードから一つの子ノードへの結合を
許す
2015/11/12 SBRA 2015 56
[Shotton NIPS 2013]
Microsoft Azure に実装
ランダムフォレストの問題点
• 高い能力を得るには
– フォレストの規模が大きくなる
– メモリ使用量大
2015/11/12 SBRA 2015 57
・ 構造を工夫するもの
・ 構築(学習)過程を工夫するもの
Alternating Decision Forests
• 深さ優先ではなく,幅優先で木を構築する
• 損失関数を大域的に最小化
• 通常の Random Forests よりも良い結果
2015/11/12 SBRA 2015 58
[Schulter CVPR 2013]
Boosted Random Forest
• ブースティングで順に決定木の精度向上
2015/11/12 SBRA 2015 59
[Mishima VISIGRAPP 2014]
誤差
重みづけ
誤差
重みづけ
構築したRFの最適化(1)
• 葉ノードに与えられた予測値の最適化
2015/11/12 SBRA 2015 60
[Ren CVPR 2015]
𝑥𝑥
0 0 0 0 0 0 1 0 0 0 0 1 0 0 0 0 0 0 0 0 0 1 0 0Φ(𝑥𝑥)
Indicator Vector
𝑦𝑦 = 𝑊𝑊Φ(𝑥𝑥)
Global Refinement of Random Forest
初期学習で葉ノードに
与えられた予測値の集合
• SVMと同様の目的関数で
最適な 𝑊𝑊 を導出できる
• 木同士が相補的な働きを
するようになる
構築したRFの最適化(2)
• 不要な葉ノードの統合(Pruning)
2015/11/12 SBRA 2015 61
[Ren CVPR 2015]
𝑤𝑤𝑡𝑡
• 隣接葉ノードでベクトルの L2 ノルムの和をとる
• 全体の中で下位の組みあわせを統合する
RF meets Deep Learning (1)
• Deep Neural Decision Forests
2015/11/12 SBRA 2015 62
[Kontschieder ICCV 2015]
• ノードの分岐学習の学習を Deep CNN の枠組みで行う
RF meets Deep Learning (2)
• Relating Cascaded RF to Deep CNN
2015/11/12 SBRA 2015 63
[Richmond arxiv 2015]
• カスケード型 RF と Deep CNN に相互変換する
本日の構成
1. ランダムフォレストの特徴
2. ランダムフォレストの基礎
3. ランダムフォレストの応用
4. ランダムフォレストの実際
2015/11/12 SBRA 2015 64
どの手法を使えばよいの?
• Choosing the right estimator
http://scikit-learn.org/stable/tutorial/machine_learning_map/
2015/11/12 65SBRA 2015
識別のところを拡大
2015/11/12 66SBRA 2015
線形サポートベクトルマシンや
k 最近傍法でうまくいくときはそれを使うべき
そうでないときにカーネルSVMはアンサンブル学習を
ランダムフォレストのパラメータ調整
• 基本的にはデータセット・タスク依存!
• 一般的に目にする議論としては
– 木を深くすると過学習につながるがあまり神経
質になる必要はない
– 節点で試す分岐関数の個数はあまり多くてはい
けない
2015/11/12 SBRA 2015 67
利用可能なライブラリ
• Open CV
– CvRTrees
• Python
– scikit-learn
– http://scikit-learn.org/stable/
• Waffles
– http://waffles.sourceforge.net/
• Randomforest-matlab
– http://code.google.com/p/randomforest-matlab/
• Leo Breiman
– http://www.stat.berkeley.edu/~breiman/RandomF
orests/cc_home.htm
2015/11/12 SBRA 2015 68
scikit-learn
• Python で利用できる機械学習ライブラリ
• ランダムフォレストを初めとしてSVM,ブー
スティングなどよく利用されている機械学習
手法が実装されている
• ドキュメントが非常に丁寧
2015/11/12 SBRA 2015 69
scikit-learn のサンプル
2015/11/12 SBRA 2015 70
IRISデータを使った比較
顔認識における変数重要度
入手可能な参考資料(1)
• Awesome Random Forest by Jungkwon Lee
– http://jiwonkim.org/awesome-random-forest/
• ICCV 2009 tutorial by Jamie Shotton
– http://www.iis.ee.ic.ac.uk/~tkkim/iccv09_tutorial
• ICCV 2011 tutorial by Antonio Criminisi
– http://research.microsoft.com/en-us/projects/decisionforests/
• ICCV 2013 tutorial by Jamie Shotton
– http://research.microsoft.com/en-us/um/cambridge/projects/iccv2013tutorial/
• 中部大学機械知覚&ロボティクスグループ
– http://mprg.jp/tutorials
2015/11/12 SBRA 2015 71
入手可能な参考資料(2)
• Elements of Statistical Learning (T. Hastie et
al., 2009)
– 和訳:統計的学習の基礎:データマイニング・
推論・予測,共立出版,2014
• Decision Forests for Computer Vision and
Medical Image Analysis (Antonio Criminisi et al.,
2013)
2015/11/12 SBRA 2015 72
まとめ
• ランダムフォレストの利点
– テストが高速/わかりやすい/そこそこ高性能
– 拡張が容易
• 今後
– 研究者/技術者の改良によって新たな展開?
2015/11/12 SBRA 2015 73
ご静聴ありがとうございました
2015/11/12 SBRA 2015 74

More Related Content

What's hot

一般化線形混合モデル入門の入門
一般化線形混合モデル入門の入門一般化線形混合モデル入門の入門
一般化線形混合モデル入門の入門Yu Tamura
 
ブースティング入門
ブースティング入門ブースティング入門
ブースティング入門Retrieva inc.
 
ようやく分かった!最尤推定とベイズ推定
ようやく分かった!最尤推定とベイズ推定ようやく分かった!最尤推定とベイズ推定
ようやく分かった!最尤推定とベイズ推定Akira Masuda
 
因果探索: 基本から最近の発展までを概説
因果探索: 基本から最近の発展までを概説因果探索: 基本から最近の発展までを概説
因果探索: 基本から最近の発展までを概説Shiga University, RIKEN
 
負の二項分布について
負の二項分布について負の二項分布について
負の二項分布についてHiroshi Shimizu
 
距離学習を導入した二値分類モデルによる異常音検知
距離学習を導入した二値分類モデルによる異常音検知距離学習を導入した二値分類モデルによる異常音検知
距離学習を導入した二値分類モデルによる異常音検知NU_I_TODALAB
 
Recent Advances on Transfer Learning and Related Topics Ver.2
Recent Advances on Transfer Learning and Related Topics Ver.2Recent Advances on Transfer Learning and Related Topics Ver.2
Recent Advances on Transfer Learning and Related Topics Ver.2Kota Matsui
 
[DL輪読会]Neural Ordinary Differential Equations
[DL輪読会]Neural Ordinary Differential Equations[DL輪読会]Neural Ordinary Differential Equations
[DL輪読会]Neural Ordinary Differential EquationsDeep Learning JP
 
グラフィカルモデル入門
グラフィカルモデル入門グラフィカルモデル入門
グラフィカルモデル入門Kawamoto_Kazuhiko
 
pymcとpystanでベイズ推定してみた話
pymcとpystanでベイズ推定してみた話pymcとpystanでベイズ推定してみた話
pymcとpystanでベイズ推定してみた話Classi.corp
 
ベイズファクターとモデル選択
ベイズファクターとモデル選択ベイズファクターとモデル選択
ベイズファクターとモデル選択kazutantan
 
心理学者のためのGlmm・階層ベイズ
心理学者のためのGlmm・階層ベイズ心理学者のためのGlmm・階層ベイズ
心理学者のためのGlmm・階層ベイズHiroshi Shimizu
 
[DL輪読会]data2vec: A General Framework for Self-supervised Learning in Speech,...
[DL輪読会]data2vec: A General Framework for  Self-supervised Learning in Speech,...[DL輪読会]data2vec: A General Framework for  Self-supervised Learning in Speech,...
[DL輪読会]data2vec: A General Framework for Self-supervised Learning in Speech,...Deep Learning JP
 
モデルではなく、データセットを蒸留する
モデルではなく、データセットを蒸留するモデルではなく、データセットを蒸留する
モデルではなく、データセットを蒸留するTakahiro Kubo
 
SSII2022 [SS2] 少ないデータやラベルを効率的に活用する機械学習技術 〜 足りない情報をどのように補うか?〜
SSII2022 [SS2] 少ないデータやラベルを効率的に活用する機械学習技術 〜 足りない情報をどのように補うか?〜SSII2022 [SS2] 少ないデータやラベルを効率的に活用する機械学習技術 〜 足りない情報をどのように補うか?〜
SSII2022 [SS2] 少ないデータやラベルを効率的に活用する機械学習技術 〜 足りない情報をどのように補うか?〜SSII
 
2 4.devianceと尤度比検定
2 4.devianceと尤度比検定2 4.devianceと尤度比検定
2 4.devianceと尤度比検定logics-of-blue
 
【DL輪読会】ViT + Self Supervised Learningまとめ
【DL輪読会】ViT + Self Supervised Learningまとめ【DL輪読会】ViT + Self Supervised Learningまとめ
【DL輪読会】ViT + Self Supervised LearningまとめDeep Learning JP
 
scikit-learnを用いた機械学習チュートリアル
scikit-learnを用いた機械学習チュートリアルscikit-learnを用いた機械学習チュートリアル
scikit-learnを用いた機械学習チュートリアル敦志 金谷
 
Curriculum Learning (関東CV勉強会)
Curriculum Learning (関東CV勉強会)Curriculum Learning (関東CV勉強会)
Curriculum Learning (関東CV勉強会)Yoshitaka Ushiku
 

What's hot (20)

一般化線形混合モデル入門の入門
一般化線形混合モデル入門の入門一般化線形混合モデル入門の入門
一般化線形混合モデル入門の入門
 
ブースティング入門
ブースティング入門ブースティング入門
ブースティング入門
 
ようやく分かった!最尤推定とベイズ推定
ようやく分かった!最尤推定とベイズ推定ようやく分かった!最尤推定とベイズ推定
ようやく分かった!最尤推定とベイズ推定
 
因果探索: 基本から最近の発展までを概説
因果探索: 基本から最近の発展までを概説因果探索: 基本から最近の発展までを概説
因果探索: 基本から最近の発展までを概説
 
負の二項分布について
負の二項分布について負の二項分布について
負の二項分布について
 
距離学習を導入した二値分類モデルによる異常音検知
距離学習を導入した二値分類モデルによる異常音検知距離学習を導入した二値分類モデルによる異常音検知
距離学習を導入した二値分類モデルによる異常音検知
 
Recent Advances on Transfer Learning and Related Topics Ver.2
Recent Advances on Transfer Learning and Related Topics Ver.2Recent Advances on Transfer Learning and Related Topics Ver.2
Recent Advances on Transfer Learning and Related Topics Ver.2
 
[DL輪読会]Neural Ordinary Differential Equations
[DL輪読会]Neural Ordinary Differential Equations[DL輪読会]Neural Ordinary Differential Equations
[DL輪読会]Neural Ordinary Differential Equations
 
グラフィカルモデル入門
グラフィカルモデル入門グラフィカルモデル入門
グラフィカルモデル入門
 
pymcとpystanでベイズ推定してみた話
pymcとpystanでベイズ推定してみた話pymcとpystanでベイズ推定してみた話
pymcとpystanでベイズ推定してみた話
 
ベイズファクターとモデル選択
ベイズファクターとモデル選択ベイズファクターとモデル選択
ベイズファクターとモデル選択
 
心理学者のためのGlmm・階層ベイズ
心理学者のためのGlmm・階層ベイズ心理学者のためのGlmm・階層ベイズ
心理学者のためのGlmm・階層ベイズ
 
[DL輪読会]data2vec: A General Framework for Self-supervised Learning in Speech,...
[DL輪読会]data2vec: A General Framework for  Self-supervised Learning in Speech,...[DL輪読会]data2vec: A General Framework for  Self-supervised Learning in Speech,...
[DL輪読会]data2vec: A General Framework for Self-supervised Learning in Speech,...
 
モデルではなく、データセットを蒸留する
モデルではなく、データセットを蒸留するモデルではなく、データセットを蒸留する
モデルではなく、データセットを蒸留する
 
SSII2022 [SS2] 少ないデータやラベルを効率的に活用する機械学習技術 〜 足りない情報をどのように補うか?〜
SSII2022 [SS2] 少ないデータやラベルを効率的に活用する機械学習技術 〜 足りない情報をどのように補うか?〜SSII2022 [SS2] 少ないデータやラベルを効率的に活用する機械学習技術 〜 足りない情報をどのように補うか?〜
SSII2022 [SS2] 少ないデータやラベルを効率的に活用する機械学習技術 〜 足りない情報をどのように補うか?〜
 
2 4.devianceと尤度比検定
2 4.devianceと尤度比検定2 4.devianceと尤度比検定
2 4.devianceと尤度比検定
 
【DL輪読会】ViT + Self Supervised Learningまとめ
【DL輪読会】ViT + Self Supervised Learningまとめ【DL輪読会】ViT + Self Supervised Learningまとめ
【DL輪読会】ViT + Self Supervised Learningまとめ
 
scikit-learnを用いた機械学習チュートリアル
scikit-learnを用いた機械学習チュートリアルscikit-learnを用いた機械学習チュートリアル
scikit-learnを用いた機械学習チュートリアル
 
一般化線形モデル (GLM) & 一般化加法モデル(GAM)
一般化線形モデル (GLM) & 一般化加法モデル(GAM) 一般化線形モデル (GLM) & 一般化加法モデル(GAM)
一般化線形モデル (GLM) & 一般化加法モデル(GAM)
 
Curriculum Learning (関東CV勉強会)
Curriculum Learning (関東CV勉強会)Curriculum Learning (関東CV勉強会)
Curriculum Learning (関東CV勉強会)
 

Viewers also liked

「はじめてでもわかる RandomForest 入門-集団学習による分類・予測 -」 -第7回データマイニング+WEB勉強会@東京
「はじめてでもわかる RandomForest 入門-集団学習による分類・予測 -」 -第7回データマイニング+WEB勉強会@東京「はじめてでもわかる RandomForest 入門-集団学習による分類・予測 -」 -第7回データマイニング+WEB勉強会@東京
「はじめてでもわかる RandomForest 入門-集団学習による分類・予測 -」 -第7回データマイニング+WEB勉強会@東京Koichi Hamada
 
10分でわかるRandom forest
10分でわかるRandom forest10分でわかるRandom forest
10分でわかるRandom forestYasunori Ozaki
 
Understanding Random Forests: From Theory to Practice
Understanding Random Forests: From Theory to PracticeUnderstanding Random Forests: From Theory to Practice
Understanding Random Forests: From Theory to PracticeGilles Louppe
 
スパースモデリング、スパースコーディングとその数理(第11回WBA若手の会)
スパースモデリング、スパースコーディングとその数理(第11回WBA若手の会)スパースモデリング、スパースコーディングとその数理(第11回WBA若手の会)
スパースモデリング、スパースコーディングとその数理(第11回WBA若手の会)narumikanno0918
 
いまさら聞けない機械学習の評価指標
いまさら聞けない機械学習の評価指標いまさら聞けない機械学習の評価指標
いまさら聞けない機械学習の評価指標圭輔 大曽根
 
初期研修医のための学会スライドのキホン
初期研修医のための学会スライドのキホン初期研修医のための学会スライドのキホン
初期研修医のための学会スライドのキホンk-kajiwara
 
機会学習ハッカソン:ランダムフォレスト
機会学習ハッカソン:ランダムフォレスト機会学習ハッカソン:ランダムフォレスト
機会学習ハッカソン:ランダムフォレストTeppei Baba
 
機械学習によるデータ分析まわりのお話
機械学習によるデータ分析まわりのお話機械学習によるデータ分析まわりのお話
機械学習によるデータ分析まわりのお話Ryota Kamoshida
 

Viewers also liked (8)

「はじめてでもわかる RandomForest 入門-集団学習による分類・予測 -」 -第7回データマイニング+WEB勉強会@東京
「はじめてでもわかる RandomForest 入門-集団学習による分類・予測 -」 -第7回データマイニング+WEB勉強会@東京「はじめてでもわかる RandomForest 入門-集団学習による分類・予測 -」 -第7回データマイニング+WEB勉強会@東京
「はじめてでもわかる RandomForest 入門-集団学習による分類・予測 -」 -第7回データマイニング+WEB勉強会@東京
 
10分でわかるRandom forest
10分でわかるRandom forest10分でわかるRandom forest
10分でわかるRandom forest
 
Understanding Random Forests: From Theory to Practice
Understanding Random Forests: From Theory to PracticeUnderstanding Random Forests: From Theory to Practice
Understanding Random Forests: From Theory to Practice
 
スパースモデリング、スパースコーディングとその数理(第11回WBA若手の会)
スパースモデリング、スパースコーディングとその数理(第11回WBA若手の会)スパースモデリング、スパースコーディングとその数理(第11回WBA若手の会)
スパースモデリング、スパースコーディングとその数理(第11回WBA若手の会)
 
いまさら聞けない機械学習の評価指標
いまさら聞けない機械学習の評価指標いまさら聞けない機械学習の評価指標
いまさら聞けない機械学習の評価指標
 
初期研修医のための学会スライドのキホン
初期研修医のための学会スライドのキホン初期研修医のための学会スライドのキホン
初期研修医のための学会スライドのキホン
 
機会学習ハッカソン:ランダムフォレスト
機会学習ハッカソン:ランダムフォレスト機会学習ハッカソン:ランダムフォレスト
機会学習ハッカソン:ランダムフォレスト
 
機械学習によるデータ分析まわりのお話
機械学習によるデータ分析まわりのお話機械学習によるデータ分析まわりのお話
機械学習によるデータ分析まわりのお話
 

Similar to ランダムフォレスト

ランダムフォレストとそのコンピュータビジョンへの応用
ランダムフォレストとそのコンピュータビジョンへの応用ランダムフォレストとそのコンピュータビジョンへの応用
ランダムフォレストとそのコンピュータビジョンへの応用Kinki University
 
【招待講演】パラメータ制約付き行列分解のベイズ汎化誤差解析【StatsML若手シンポ2020】
【招待講演】パラメータ制約付き行列分解のベイズ汎化誤差解析【StatsML若手シンポ2020】【招待講演】パラメータ制約付き行列分解のベイズ汎化誤差解析【StatsML若手シンポ2020】
【招待講演】パラメータ制約付き行列分解のベイズ汎化誤差解析【StatsML若手シンポ2020】Naoki Hayashi
 
時系列解析の使い方 - TokyoWebMining #17
時系列解析の使い方 - TokyoWebMining #17時系列解析の使い方 - TokyoWebMining #17
時系列解析の使い方 - TokyoWebMining #17horihorio
 
Direct Sparse Odometryの解説
Direct Sparse Odometryの解説Direct Sparse Odometryの解説
Direct Sparse Odometryの解説Masaya Kaneko
 
機械学習を民主化する取り組み
機械学習を民主化する取り組み機械学習を民主化する取り組み
機械学習を民主化する取り組みYoshitaka Ushiku
 
今日からはじめる微分方程式
今日からはじめる微分方程式今日からはじめる微分方程式
今日からはじめる微分方程式Ryo Kaji
 
[DL輪読会] “Asymmetric Tri-training for Unsupervised Domain Adaptation (ICML2017...
[DL輪読会] “Asymmetric Tri-training for Unsupervised Domain Adaptation (ICML2017...[DL輪読会] “Asymmetric Tri-training for Unsupervised Domain Adaptation (ICML2017...
[DL輪読会] “Asymmetric Tri-training for Unsupervised Domain Adaptation (ICML2017...Yusuke Iwasawa
 
[DL輪読会]10分で10本の論⽂をざっくりと理解する (ICML2020)
[DL輪読会]10分で10本の論⽂をざっくりと理解する (ICML2020)[DL輪読会]10分で10本の論⽂をざっくりと理解する (ICML2020)
[DL輪読会]10分で10本の論⽂をざっくりと理解する (ICML2020)Deep Learning JP
 
(文献紹介)Deep Unrolling: Learned ISTA (LISTA)
(文献紹介)Deep Unrolling: Learned ISTA (LISTA)(文献紹介)Deep Unrolling: Learned ISTA (LISTA)
(文献紹介)Deep Unrolling: Learned ISTA (LISTA)Morpho, Inc.
 
Pythonで始めた数値計算の授業@わんくま勉強会2018-04
Pythonで始めた数値計算の授業@わんくま勉強会2018-04Pythonで始めた数値計算の授業@わんくま勉強会2018-04
Pythonで始めた数値計算の授業@わんくま勉強会2018-04Katsuhiro Morishita
 
LCCC2010:Learning on Cores, Clusters and Cloudsの解説
LCCC2010:Learning on Cores,  Clusters and Cloudsの解説LCCC2010:Learning on Cores,  Clusters and Cloudsの解説
LCCC2010:Learning on Cores, Clusters and Cloudsの解説Preferred Networks
 
アンサンブル学習
アンサンブル学習アンサンブル学習
アンサンブル学習Hidekazu Tanaka
 
JAWSUG 20191028 (modified)
JAWSUG 20191028 (modified)JAWSUG 20191028 (modified)
JAWSUG 20191028 (modified)陽平 山口
 
Semi-supervised Active Learning Survey
Semi-supervised Active Learning SurveySemi-supervised Active Learning Survey
Semi-supervised Active Learning SurveyYo Ehara
 
統計的学習理論チュートリアル: 基礎から応用まで (Ibis2012)
統計的学習理論チュートリアル: 基礎から応用まで (Ibis2012)統計的学習理論チュートリアル: 基礎から応用まで (Ibis2012)
統計的学習理論チュートリアル: 基礎から応用まで (Ibis2012)Taiji Suzuki
 
13.01.20. 第1回DARM勉強会資料#4
13.01.20. 第1回DARM勉強会資料#413.01.20. 第1回DARM勉強会資料#4
13.01.20. 第1回DARM勉強会資料#4Yoshitake Takebayashi
 
全力解説!Transformer
全力解説!Transformer全力解説!Transformer
全力解説!TransformerArithmer Inc.
 
LET2011: Rによる教育データ分析入門
LET2011: Rによる教育データ分析入門LET2011: Rによる教育データ分析入門
LET2011: Rによる教育データ分析入門Yuichiro Kobayashi
 

Similar to ランダムフォレスト (20)

ランダムフォレストとそのコンピュータビジョンへの応用
ランダムフォレストとそのコンピュータビジョンへの応用ランダムフォレストとそのコンピュータビジョンへの応用
ランダムフォレストとそのコンピュータビジョンへの応用
 
【招待講演】パラメータ制約付き行列分解のベイズ汎化誤差解析【StatsML若手シンポ2020】
【招待講演】パラメータ制約付き行列分解のベイズ汎化誤差解析【StatsML若手シンポ2020】【招待講演】パラメータ制約付き行列分解のベイズ汎化誤差解析【StatsML若手シンポ2020】
【招待講演】パラメータ制約付き行列分解のベイズ汎化誤差解析【StatsML若手シンポ2020】
 
時系列解析の使い方 - TokyoWebMining #17
時系列解析の使い方 - TokyoWebMining #17時系列解析の使い方 - TokyoWebMining #17
時系列解析の使い方 - TokyoWebMining #17
 
PFI Christmas seminar 2009
PFI Christmas seminar 2009PFI Christmas seminar 2009
PFI Christmas seminar 2009
 
Direct Sparse Odometryの解説
Direct Sparse Odometryの解説Direct Sparse Odometryの解説
Direct Sparse Odometryの解説
 
機械学習を民主化する取り組み
機械学習を民主化する取り組み機械学習を民主化する取り組み
機械学習を民主化する取り組み
 
今日からはじめる微分方程式
今日からはじめる微分方程式今日からはじめる微分方程式
今日からはじめる微分方程式
 
[DL輪読会] “Asymmetric Tri-training for Unsupervised Domain Adaptation (ICML2017...
[DL輪読会] “Asymmetric Tri-training for Unsupervised Domain Adaptation (ICML2017...[DL輪読会] “Asymmetric Tri-training for Unsupervised Domain Adaptation (ICML2017...
[DL輪読会] “Asymmetric Tri-training for Unsupervised Domain Adaptation (ICML2017...
 
[DL輪読会]10分で10本の論⽂をざっくりと理解する (ICML2020)
[DL輪読会]10分で10本の論⽂をざっくりと理解する (ICML2020)[DL輪読会]10分で10本の論⽂をざっくりと理解する (ICML2020)
[DL輪読会]10分で10本の論⽂をざっくりと理解する (ICML2020)
 
(文献紹介)Deep Unrolling: Learned ISTA (LISTA)
(文献紹介)Deep Unrolling: Learned ISTA (LISTA)(文献紹介)Deep Unrolling: Learned ISTA (LISTA)
(文献紹介)Deep Unrolling: Learned ISTA (LISTA)
 
Pythonで始めた数値計算の授業@わんくま勉強会2018-04
Pythonで始めた数値計算の授業@わんくま勉強会2018-04Pythonで始めた数値計算の授業@わんくま勉強会2018-04
Pythonで始めた数値計算の授業@わんくま勉強会2018-04
 
LCCC2010:Learning on Cores, Clusters and Cloudsの解説
LCCC2010:Learning on Cores,  Clusters and Cloudsの解説LCCC2010:Learning on Cores,  Clusters and Cloudsの解説
LCCC2010:Learning on Cores, Clusters and Cloudsの解説
 
アンサンブル学習
アンサンブル学習アンサンブル学習
アンサンブル学習
 
JAWSUG 20191028 (modified)
JAWSUG 20191028 (modified)JAWSUG 20191028 (modified)
JAWSUG 20191028 (modified)
 
Semi-supervised Active Learning Survey
Semi-supervised Active Learning SurveySemi-supervised Active Learning Survey
Semi-supervised Active Learning Survey
 
統計的学習理論チュートリアル: 基礎から応用まで (Ibis2012)
統計的学習理論チュートリアル: 基礎から応用まで (Ibis2012)統計的学習理論チュートリアル: 基礎から応用まで (Ibis2012)
統計的学習理論チュートリアル: 基礎から応用まで (Ibis2012)
 
Random Forests
Random ForestsRandom Forests
Random Forests
 
13.01.20. 第1回DARM勉強会資料#4
13.01.20. 第1回DARM勉強会資料#413.01.20. 第1回DARM勉強会資料#4
13.01.20. 第1回DARM勉強会資料#4
 
全力解説!Transformer
全力解説!Transformer全力解説!Transformer
全力解説!Transformer
 
LET2011: Rによる教育データ分析入門
LET2011: Rによる教育データ分析入門LET2011: Rによる教育データ分析入門
LET2011: Rによる教育データ分析入門
 

ランダムフォレスト