SlideShare a Scribd company logo
1 of 26
ベイズ入門

  塩田   圭
自己紹介
   氏名: 塩田 圭(しおだ け
    い)
   学籍: 慶應義塾大学大学院
    理工学研究科開放環境科学
    専攻修士2年
   所属: 同 櫻井研究室(島田
    君と同じ)
   研究テーマ: 機械学習を利用
    した外国為替相場の変動に対
    する早期警戒手法の提案
   趣味: 旅行、散歩、コーヒー
目次
これまで学んできた統計学
 母集団の一部分である
  サンプルを調べて、母集
  団の性質を推定する方
  法論
                       母集団
 (大量の)無作為標本が
  対象かつサンプルは変
  化するもの
                             母平均
 サンプルで求めた統計                 母分散
  量(変動するもの)                  などなど
                標本平均
で母集団の統計量 サンプル   標本分散
(ただ一つ)を推定       などなど
ベイズ統計学
     母数     サンプル


     母数     サンプル        母集団


     母数     サンプル


   統計学の一流派
   未知母数は確率的に変化する
   サンプルは与えられたものとして、そのとき未知母数が
    どのような値を取るかを推定する
   一回限りの事象にも適応可能
ベイズ統計学の特徴、長所

特徴                長所
                     ベイズの定理での操作の一貫性
   必ずベイズの定理を使う
                     モデルさえ決めればすべての情
   主観確率              報が利用できる
                     データ以外の情報も可能
   事前情報の利用          漠然とした事前分布も可能
   未知量は確率的に変動       未知量について直接確率を求め
                      られる
   観測されたものは事実と      データや情報の蓄積を事前に利
    して固定              用
                     かく乱母数の処理が容易
   推測は条件付き          母数に制約があってもよい
   例外処理は認めない        擬でない事前分布のもとでは常
                      に許容される
キーワード&概念図
                     損失関数



                            最
                            小
                            化
            尤度
   主観確率
                   事後分布


 事前分布



          ベイズの定理
確率の考え方
   確率
       確からしさの尺度
       確率の公理を満たしていれば解釈は問題ではない
   客観説(頻度説)
       実験を行って、あることが起こった回数の%(相対頻度)を求
        めたもの
       非常に多くの回数の実験が必要(無限回の極限として定義さ
        れる)
   主観説
       ある人の確信の度合いを数値化したもの
       人によって異なり、比較不能
       実験できない事象についても適用可能
客観確率と主観確率

客観確率                  主観確率

   コイントス                コイントス
       投げた回数:1000           ある人:表も裏も同等に出
       表の回数:513              る
           0.523

       投げた回数:10000          別の人:表の方が出やす
       表の回数:4935             い
           0.4935
       その極限として              人によって違う
           0.5
                               ベイス統計では主観確率を採用
条件付き確率
   ある事象Cが与えられたときに、事象Aが起こる確率:



   くだけた説明をすると、
         ある出来事が起きた、あるいは、ある情報が分かっているときに、
                  ある事象が発生する確率

   さいころの例:
       2が出る確率:
       偶数が出る確率:
       偶数の目が出たと分かっているときに、それが2である確率:
ベイズの定理
   あるデータDが与えられたとき、
    ある仮説Hの確からしさの変化を
    表わしたもの

                       50%
   もともと仮説Hの確からしさは決
                             裏ばかり。。
    められるが、新しい情報データD
    が得られたときには仮説Hの確
    からしさは変更されるべきである
   新しく得られたヒントを使って、状
    況認識をどのように更新するか、
    を示している             30%
事前確率
   例:がん検診
       ある人ががん検診で「疑いあり」と言われてしまった!!

    がん検診を受ける前と後で、ある人ががんである確率がどのように変わるか?



   検査前:
       その人ががんであるかどうかについての情報は何もない

       世間一般で、ある人ががんである確率を採用
尤度
   がん検診の精度についてのモデル
       対象:健康な人、がんの人
       出力:+(陽性)、-(陰性)
       健康な人を検査をしたときの結果:



       がんの人を検査をしたときの結果:


   今回は+の尤度だけ注目すればいいのだろうか?
確率と尤度
   確率(和が1になる)
       まだ結果が分かっていないときに、ある事象が実現する確か
        らしさを表わしたもの

       まだ検査をしていない健康な人に対して、+と判断することの
        確からしさ
   尤度(和が1になるとは限らない=確率ではない)
       結果が分かっているときに、その結果を引き起こす条件の
        もっともらしさを表わしたもの

       検査結果が+と分かったときに、検査を受けた人が健康であ
        るとすることのもっともらしさ
全確率の公式
   事象Aの確率を分割して求める
         をもれなく、だぶりなく網羅する

    
        事象
        同時に起こり得ない事象(背反事
                            B1
                                 A
                                 B2   B3

        象)を合わせた確率は足し算する
        (和の法則)




       ポジティブになる確率を求める
事後確率
   ベイズの定理を使って計算




   事前確率と事後確率の比較
            3%           7%


       大したことはない。しかし、事前確率がもっと高かったら?
統計的決定
   ベイズの定理を用いて、新しい情報を組み込みながら現
    状把握することができるようになった
       がん検診で+が出たとき、
       健康である確率:97%  93%
       がんである確率:3%   7%
   分かるのはあくまで確率分布(可能性)に過ぎない
       次にどうするべきかは教えてくれない



   どんな方策でも自由に選択することができる
   統計的に合理的な決定方法とは?
損失関数
   合理的な決定(推定)
       ある基準を決めて、複数の方策の中から一つを選ぶ
       最良の選択とそれ以外の違い:無駄、損、失敗、正確さ
   推定の誤りに対してペナルティを設ける=損失関数
   損失関数を最小化するものを選択すればよい
         絶対損失      平方損失      0-1型単純損失
期待損失最小化
   損失関数の値は変動する
       得られたデータによって
       確率的に変動する母数や仮説によって
   平均して損失関数を最小化するものを選ぶべきだ(期待
    損失最小化)
   データ に対して最適な決定をする関数
   データについて平均:
   確率変動する母数についても平均:




                    ここを最小化するdを求める
例題
   重量比の異なる2枚のコイン
       偏り大、小




   一枚だけテーブルに置いてある
   何回か投げた結果を見て、どちらのコインか推定する
       試行一回当たり 回投げる
       データとしては、その試行での表の回数(   回)
モデル
   それぞれのコインの確率分布
    コイン1   表     裏     コイン2   表     裏

    確率     50%   50%   確率     25%   75%


   仮説
          :コイン1である
          :コイン2である
   コイントスのモデル(二項分布を仮定)
期待損失最小化による判別ルールの導出
   損失関数:         損失関数      仮説1を採用   仮説2を採用
                            (コイン1)   (コイン2)
       0-1型
                  本当はコイン1   0        1
       当たり・はずれ
                  本当はコイン2   1        0
   期待損失



   判別ルール
       期待損失を比較して、小さい方を採用(期待損失最小化)
一回目の試行
   試行の結果                事後確率
         :表、表、裏
   事前分布
       どちらのコインが選ばれ
        たか情報がないため、同
        程度の確からしさと仮定
                         尤度比の比較
   尤度
二回目の試行
   試行の結果              事後確率
         :裏、裏、裏
   事前分布
       一回目の試行での事
        後確率を利用

                       尤度比の比較
   尤度
事前情報あり
   試行の結果                  事後確率
         :表、表、裏
   事前分布
       どうも偏りの大きいコインら
        しいという噂がある

                           尤度比の比較
   尤度
まとめ
   ベイズ統計
       未知母数はすべて確率変動すると仮定
       主観確率を採用
       ベイズの定理による確率更新によって、状況の変化を表現
       事前分布、尤度の設定の仕方によって、結果が大きく異なる
       モデル設定の自由度の高さと情報更新の表現力の高さが評
        価されてデータ分析や自動判別等に利用されている。
   統計的決定
       取りうる選択肢と最もよい決定との差に課すペナルティを損失
        関数で表現
       期待損失を最小化する選択が最適とする
       損失関数も自由に設定でき、やり方によって結果が異なる

More Related Content

What's hot

StanとRでベイズ統計モデリング 1,2章
StanとRでベイズ統計モデリング 1,2章StanとRでベイズ統計モデリング 1,2章
StanとRでベイズ統計モデリング 1,2章Miki Katsuragi
 
階層ベイズと自由エネルギー
階層ベイズと自由エネルギー階層ベイズと自由エネルギー
階層ベイズと自由エネルギーHiroshi Shimizu
 
Chapter9 一歩進んだ文法(前半)
Chapter9 一歩進んだ文法(前半)Chapter9 一歩進んだ文法(前半)
Chapter9 一歩進んだ文法(前半)itoyan110
 
RStanとShinyStanによるベイズ統計モデリング入門
RStanとShinyStanによるベイズ統計モデリング入門RStanとShinyStanによるベイズ統計モデリング入門
RStanとShinyStanによるベイズ統計モデリング入門Masaki Tsuda
 
関数データ解析の概要とその方法
関数データ解析の概要とその方法関数データ解析の概要とその方法
関数データ解析の概要とその方法Hidetoshi Matsui
 
心理学におけるベイズ統計の流行を整理する
心理学におけるベイズ統計の流行を整理する心理学におけるベイズ統計の流行を整理する
心理学におけるベイズ統計の流行を整理するHiroshi Shimizu
 
20180118 一般化線形モデル(glm)
20180118 一般化線形モデル(glm)20180118 一般化線形モデル(glm)
20180118 一般化線形モデル(glm)Masakazu Shinoda
 
DARM勉強会第3回 (missing data analysis)
DARM勉強会第3回 (missing data analysis)DARM勉強会第3回 (missing data analysis)
DARM勉強会第3回 (missing data analysis)Masaru Tokuoka
 
Stanコードの書き方 中級編
Stanコードの書き方 中級編Stanコードの書き方 中級編
Stanコードの書き方 中級編Hiroshi Shimizu
 
rstanで簡単にGLMMができるglmmstan()を作ってみた
rstanで簡単にGLMMができるglmmstan()を作ってみたrstanで簡単にGLMMができるglmmstan()を作ってみた
rstanで簡単にGLMMができるglmmstan()を作ってみたHiroshi Shimizu
 
ベイズ統計学の概論的紹介
ベイズ統計学の概論的紹介ベイズ統計学の概論的紹介
ベイズ統計学の概論的紹介Naoki Hayashi
 
PRML輪読#4
PRML輪読#4PRML輪読#4
PRML輪読#4matsuolab
 
MCMCでマルチレベルモデル
MCMCでマルチレベルモデルMCMCでマルチレベルモデル
MCMCでマルチレベルモデルHiroshi Shimizu
 
あなたの心にBridgeSampling
あなたの心にBridgeSamplingあなたの心にBridgeSampling
あなたの心にBridgeSamplingdaiki hojo
 
負の二項分布について
負の二項分布について負の二項分布について
負の二項分布についてHiroshi Shimizu
 
PRMLの線形回帰モデル(線形基底関数モデル)
PRMLの線形回帰モデル(線形基底関数モデル)PRMLの線形回帰モデル(線形基底関数モデル)
PRMLの線形回帰モデル(線形基底関数モデル)Yasunori Ozaki
 
ノンパラベイズ入門の入門
ノンパラベイズ入門の入門ノンパラベイズ入門の入門
ノンパラベイズ入門の入門Shuyo Nakatani
 
15分でわかる(範囲の)ベイズ統計学
15分でわかる(範囲の)ベイズ統計学15分でわかる(範囲の)ベイズ統計学
15分でわかる(範囲の)ベイズ統計学Ken'ichi Matsui
 

What's hot (20)

StanとRでベイズ統計モデリング 1,2章
StanとRでベイズ統計モデリング 1,2章StanとRでベイズ統計モデリング 1,2章
StanとRでベイズ統計モデリング 1,2章
 
階層ベイズと自由エネルギー
階層ベイズと自由エネルギー階層ベイズと自由エネルギー
階層ベイズと自由エネルギー
 
Chapter9 一歩進んだ文法(前半)
Chapter9 一歩進んだ文法(前半)Chapter9 一歩進んだ文法(前半)
Chapter9 一歩進んだ文法(前半)
 
RStanとShinyStanによるベイズ統計モデリング入門
RStanとShinyStanによるベイズ統計モデリング入門RStanとShinyStanによるベイズ統計モデリング入門
RStanとShinyStanによるベイズ統計モデリング入門
 
関数データ解析の概要とその方法
関数データ解析の概要とその方法関数データ解析の概要とその方法
関数データ解析の概要とその方法
 
WAICとWBICのご紹介
WAICとWBICのご紹介WAICとWBICのご紹介
WAICとWBICのご紹介
 
心理学におけるベイズ統計の流行を整理する
心理学におけるベイズ統計の流行を整理する心理学におけるベイズ統計の流行を整理する
心理学におけるベイズ統計の流行を整理する
 
20180118 一般化線形モデル(glm)
20180118 一般化線形モデル(glm)20180118 一般化線形モデル(glm)
20180118 一般化線形モデル(glm)
 
DARM勉強会第3回 (missing data analysis)
DARM勉強会第3回 (missing data analysis)DARM勉強会第3回 (missing data analysis)
DARM勉強会第3回 (missing data analysis)
 
PRML第3章@京大PRML輪講
PRML第3章@京大PRML輪講PRML第3章@京大PRML輪講
PRML第3章@京大PRML輪講
 
Stanコードの書き方 中級編
Stanコードの書き方 中級編Stanコードの書き方 中級編
Stanコードの書き方 中級編
 
rstanで簡単にGLMMができるglmmstan()を作ってみた
rstanで簡単にGLMMができるglmmstan()を作ってみたrstanで簡単にGLMMができるglmmstan()を作ってみた
rstanで簡単にGLMMができるglmmstan()を作ってみた
 
ベイズ統計学の概論的紹介
ベイズ統計学の概論的紹介ベイズ統計学の概論的紹介
ベイズ統計学の概論的紹介
 
PRML輪読#4
PRML輪読#4PRML輪読#4
PRML輪読#4
 
MCMCでマルチレベルモデル
MCMCでマルチレベルモデルMCMCでマルチレベルモデル
MCMCでマルチレベルモデル
 
あなたの心にBridgeSampling
あなたの心にBridgeSamplingあなたの心にBridgeSampling
あなたの心にBridgeSampling
 
負の二項分布について
負の二項分布について負の二項分布について
負の二項分布について
 
PRMLの線形回帰モデル(線形基底関数モデル)
PRMLの線形回帰モデル(線形基底関数モデル)PRMLの線形回帰モデル(線形基底関数モデル)
PRMLの線形回帰モデル(線形基底関数モデル)
 
ノンパラベイズ入門の入門
ノンパラベイズ入門の入門ノンパラベイズ入門の入門
ノンパラベイズ入門の入門
 
15分でわかる(範囲の)ベイズ統計学
15分でわかる(範囲の)ベイズ統計学15分でわかる(範囲の)ベイズ統計学
15分でわかる(範囲の)ベイズ統計学
 

Similar to ベイズ入門

言いたいことと言えること talk at ATR 神谷研 セミナ 2008年12月
言いたいことと言えること talk at ATR 神谷研 セミナ 2008年12月言いたいことと言えること talk at ATR 神谷研 セミナ 2008年12月
言いたいことと言えること talk at ATR 神谷研 セミナ 2008年12月Shigeyuki Oba
 
2012心臓リハビリ
2012心臓リハビリ2012心臓リハビリ
2012心臓リハビリNaoki Nago
 
Bayesian statistics chapter2
Bayesian statistics chapter2Bayesian statistics chapter2
Bayesian statistics chapter2yyone7
 
20160713 srws第六回@メタ・アナリシス前半
20160713 srws第六回@メタ・アナリシス前半20160713 srws第六回@メタ・アナリシス前半
20160713 srws第六回@メタ・アナリシス前半SR WS
 
Analysis of clinical trials using sas 勉強用 isseing333
Analysis of clinical trials using sas 勉強用 isseing333Analysis of clinical trials using sas 勉強用 isseing333
Analysis of clinical trials using sas 勉強用 isseing333Issei Kurahashi
 
事前登録のやり方
事前登録のやり方事前登録のやり方
事前登録のやり方Yuki Yamada
 
Introduction to statistics
Introduction to statisticsIntroduction to statistics
Introduction to statisticsKohta Ishikawa
 
Bayesian Neural Networks : Survey
Bayesian Neural Networks : SurveyBayesian Neural Networks : Survey
Bayesian Neural Networks : Surveytmtm otm
 
臨床家が知っておくべき臨床疫学・統計
臨床家が知っておくべき臨床疫学・統計臨床家が知っておくべき臨床疫学・統計
臨床家が知っておくべき臨床疫学・統計Yasuaki Sagara
 
P値を使わないフィットネステストの評価法
P値を使わないフィットネステストの評価法P値を使わないフィットネステストの評価法
P値を使わないフィットネステストの評価法Taisuke Kinugasa
 
インフルエンザの診断2018
インフルエンザの診断2018インフルエンザの診断2018
インフルエンザの診断2018Naoki Nago
 
哲学者のための確率入門
哲学者のための確率入門哲学者のための確率入門
哲学者のための確率入門mznkn
 
「診断精度研究のメタ分析」の入門
「診断精度研究のメタ分析」の入門「診断精度研究のメタ分析」の入門
「診断精度研究のメタ分析」の入門yokomitsuken5
 
データサイエンス概論第一=4-1 相関・頻度・ヒストグラム
データサイエンス概論第一=4-1 相関・頻度・ヒストグラムデータサイエンス概論第一=4-1 相関・頻度・ヒストグラム
データサイエンス概論第一=4-1 相関・頻度・ヒストグラムSeiichi Uchida
 
[DSO]勉強会_データサイエンス講義_Chapter7
[DSO]勉強会_データサイエンス講義_Chapter7[DSO]勉強会_データサイエンス講義_Chapter7
[DSO]勉強会_データサイエンス講義_Chapter7tatsuyasakaeeda
 
明日から読めるメタ・アナリシス
明日から読めるメタ・アナリシス明日から読めるメタ・アナリシス
明日から読めるメタ・アナリシスYasuyuki Okumura
 

Similar to ベイズ入門 (20)

言いたいことと言えること talk at ATR 神谷研 セミナ 2008年12月
言いたいことと言えること talk at ATR 神谷研 セミナ 2008年12月言いたいことと言えること talk at ATR 神谷研 セミナ 2008年12月
言いたいことと言えること talk at ATR 神谷研 セミナ 2008年12月
 
2012心臓リハビリ
2012心臓リハビリ2012心臓リハビリ
2012心臓リハビリ
 
Bayesian statistics chapter2
Bayesian statistics chapter2Bayesian statistics chapter2
Bayesian statistics chapter2
 
20160713 srws第六回@メタ・アナリシス前半
20160713 srws第六回@メタ・アナリシス前半20160713 srws第六回@メタ・アナリシス前半
20160713 srws第六回@メタ・アナリシス前半
 
Influ dx
Influ dxInflu dx
Influ dx
 
統計分析
統計分析統計分析
統計分析
 
Analysis of clinical trials using sas 勉強用 isseing333
Analysis of clinical trials using sas 勉強用 isseing333Analysis of clinical trials using sas 勉強用 isseing333
Analysis of clinical trials using sas 勉強用 isseing333
 
事前登録のやり方
事前登録のやり方事前登録のやり方
事前登録のやり方
 
Introduction to statistics
Introduction to statisticsIntroduction to statistics
Introduction to statistics
 
Dbda chapter15
Dbda chapter15Dbda chapter15
Dbda chapter15
 
Bayesian Neural Networks : Survey
Bayesian Neural Networks : SurveyBayesian Neural Networks : Survey
Bayesian Neural Networks : Survey
 
臨床家が知っておくべき臨床疫学・統計
臨床家が知っておくべき臨床疫学・統計臨床家が知っておくべき臨床疫学・統計
臨床家が知っておくべき臨床疫学・統計
 
tadano m
tadano mtadano m
tadano m
 
P値を使わないフィットネステストの評価法
P値を使わないフィットネステストの評価法P値を使わないフィットネステストの評価法
P値を使わないフィットネステストの評価法
 
インフルエンザの診断2018
インフルエンザの診断2018インフルエンザの診断2018
インフルエンザの診断2018
 
哲学者のための確率入門
哲学者のための確率入門哲学者のための確率入門
哲学者のための確率入門
 
「診断精度研究のメタ分析」の入門
「診断精度研究のメタ分析」の入門「診断精度研究のメタ分析」の入門
「診断精度研究のメタ分析」の入門
 
データサイエンス概論第一=4-1 相関・頻度・ヒストグラム
データサイエンス概論第一=4-1 相関・頻度・ヒストグラムデータサイエンス概論第一=4-1 相関・頻度・ヒストグラム
データサイエンス概論第一=4-1 相関・頻度・ヒストグラム
 
[DSO]勉強会_データサイエンス講義_Chapter7
[DSO]勉強会_データサイエンス講義_Chapter7[DSO]勉強会_データサイエンス講義_Chapter7
[DSO]勉強会_データサイエンス講義_Chapter7
 
明日から読めるメタ・アナリシス
明日から読めるメタ・アナリシス明日から読めるメタ・アナリシス
明日から読めるメタ・アナリシス
 

More from Zansa

【Zansa】第17回 ブートストラップ法入門
【Zansa】第17回 ブートストラップ法入門【Zansa】第17回 ブートストラップ法入門
【Zansa】第17回 ブートストラップ法入門Zansa
 
121218 zansa13 for web
121218 zansa13 for web121218 zansa13 for web
121218 zansa13 for webZansa
 
【Zansa】第12回勉強会 -PRMLからベイズの世界へ
【Zansa】第12回勉強会 -PRMLからベイズの世界へ【Zansa】第12回勉強会 -PRMLからベイズの世界へ
【Zansa】第12回勉強会 -PRMLからベイズの世界へZansa
 
Zansa アト テクノロシ-ー業界の分析という仕事について http://zansa.info/materials-11.html
Zansa アト テクノロシ-ー業界の分析という仕事について http://zansa.info/materials-11.htmlZansa アト テクノロシ-ー業界の分析という仕事について http://zansa.info/materials-11.html
Zansa アト テクノロシ-ー業界の分析という仕事について http://zansa.info/materials-11.htmlZansa
 
【Zansa】物理学はWebデータ分析に使えるか
【Zansa】物理学はWebデータ分析に使えるか【Zansa】物理学はWebデータ分析に使えるか
【Zansa】物理学はWebデータ分析に使えるかZansa
 
第8回Zansa 俺の人生ランダムウォーク
第8回Zansa 俺の人生ランダムウォーク第8回Zansa 俺の人生ランダムウォーク
第8回Zansa 俺の人生ランダムウォークZansa
 
【Zansa】 人工社会-複雑系とマルチエージェントシミュレーションの紹介-
【Zansa】 人工社会-複雑系とマルチエージェントシミュレーションの紹介-【Zansa】 人工社会-複雑系とマルチエージェントシミュレーションの紹介-
【Zansa】 人工社会-複雑系とマルチエージェントシミュレーションの紹介-Zansa
 
第5回Zansa勉強会
第5回Zansa勉強会第5回Zansa勉強会
第5回Zansa勉強会Zansa
 
Zansa第4回勉強会 重回帰分析
Zansa第4回勉強会 重回帰分析Zansa第4回勉強会 重回帰分析
Zansa第4回勉強会 重回帰分析Zansa
 
Text classification zansa
Text classification zansaText classification zansa
Text classification zansaZansa
 
Zansa第二回11 28 発表資料 植木
Zansa第二回11 28 発表資料 植木Zansa第二回11 28 発表資料 植木
Zansa第二回11 28 発表資料 植木Zansa
 
Zansa0130presentation
Zansa0130presentationZansa0130presentation
Zansa0130presentationZansa
 

More from Zansa (12)

【Zansa】第17回 ブートストラップ法入門
【Zansa】第17回 ブートストラップ法入門【Zansa】第17回 ブートストラップ法入門
【Zansa】第17回 ブートストラップ法入門
 
121218 zansa13 for web
121218 zansa13 for web121218 zansa13 for web
121218 zansa13 for web
 
【Zansa】第12回勉強会 -PRMLからベイズの世界へ
【Zansa】第12回勉強会 -PRMLからベイズの世界へ【Zansa】第12回勉強会 -PRMLからベイズの世界へ
【Zansa】第12回勉強会 -PRMLからベイズの世界へ
 
Zansa アト テクノロシ-ー業界の分析という仕事について http://zansa.info/materials-11.html
Zansa アト テクノロシ-ー業界の分析という仕事について http://zansa.info/materials-11.htmlZansa アト テクノロシ-ー業界の分析という仕事について http://zansa.info/materials-11.html
Zansa アト テクノロシ-ー業界の分析という仕事について http://zansa.info/materials-11.html
 
【Zansa】物理学はWebデータ分析に使えるか
【Zansa】物理学はWebデータ分析に使えるか【Zansa】物理学はWebデータ分析に使えるか
【Zansa】物理学はWebデータ分析に使えるか
 
第8回Zansa 俺の人生ランダムウォーク
第8回Zansa 俺の人生ランダムウォーク第8回Zansa 俺の人生ランダムウォーク
第8回Zansa 俺の人生ランダムウォーク
 
【Zansa】 人工社会-複雑系とマルチエージェントシミュレーションの紹介-
【Zansa】 人工社会-複雑系とマルチエージェントシミュレーションの紹介-【Zansa】 人工社会-複雑系とマルチエージェントシミュレーションの紹介-
【Zansa】 人工社会-複雑系とマルチエージェントシミュレーションの紹介-
 
第5回Zansa勉強会
第5回Zansa勉強会第5回Zansa勉強会
第5回Zansa勉強会
 
Zansa第4回勉強会 重回帰分析
Zansa第4回勉強会 重回帰分析Zansa第4回勉強会 重回帰分析
Zansa第4回勉強会 重回帰分析
 
Text classification zansa
Text classification zansaText classification zansa
Text classification zansa
 
Zansa第二回11 28 発表資料 植木
Zansa第二回11 28 発表資料 植木Zansa第二回11 28 発表資料 植木
Zansa第二回11 28 発表資料 植木
 
Zansa0130presentation
Zansa0130presentationZansa0130presentation
Zansa0130presentation
 

Recently uploaded

TEAMIN Service overview for customer_20240422.pdf
TEAMIN Service overview for customer_20240422.pdfTEAMIN Service overview for customer_20240422.pdf
TEAMIN Service overview for customer_20240422.pdfyukisuga3
 
【ゲーム理論入門】ChatGPTが作成した ゲーム理論の問題を解く #3 Slide
【ゲーム理論入門】ChatGPTが作成した ゲーム理論の問題を解く #3 Slide【ゲーム理論入門】ChatGPTが作成した ゲーム理論の問題を解く #3 Slide
【ゲーム理論入門】ChatGPTが作成した ゲーム理論の問題を解く #3 Slidessusere0a682
 
リアル戦国探究in米沢 当日講座2スライド(スタッフ共有用)『人を致すも人に致されず』についてのスライド
リアル戦国探究in米沢 当日講座2スライド(スタッフ共有用)『人を致すも人に致されず』についてのスライドリアル戦国探究in米沢 当日講座2スライド(スタッフ共有用)『人を致すも人に致されず』についてのスライド
リアル戦国探究in米沢 当日講座2スライド(スタッフ共有用)『人を致すも人に致されず』についてのスライドKen Fukui
 
My Inspire High Award 2024  「正義って存在するの?」
My Inspire High Award 2024  「正義って存在するの?」My Inspire High Award 2024  「正義って存在するの?」
My Inspire High Award 2024  「正義って存在するの?」inspirehighstaff03
 
My Inspire High Award 2024「Yakushima Islandってなんか変じゃない?」.pdf
My Inspire High Award 2024「Yakushima Islandってなんか変じゃない?」.pdfMy Inspire High Award 2024「Yakushima Islandってなんか変じゃない?」.pdf
My Inspire High Award 2024「Yakushima Islandってなんか変じゃない?」.pdfinspirehighstaff03
 
What I did before opening my business..pdf
What I did before opening my business..pdfWhat I did before opening my business..pdf
What I did before opening my business..pdfoganekyokoi
 
My Inspire High Award 2024「スーパーマーケットで回収されたキャベツ外葉は廃棄されているの?」
My Inspire High Award 2024「スーパーマーケットで回収されたキャベツ外葉は廃棄されているの?」My Inspire High Award 2024「スーパーマーケットで回収されたキャベツ外葉は廃棄されているの?」
My Inspire High Award 2024「スーパーマーケットで回収されたキャベツ外葉は廃棄されているの?」inspirehighstaff03
 
Establishment and operation of medical corporations.pdf
Establishment and operation of medical corporations.pdfEstablishment and operation of medical corporations.pdf
Establishment and operation of medical corporations.pdfoganekyokoi
 
My Inspire High Award2024「外国人が日本のテーブルマナーに驚く理由は?」
My Inspire High Award2024「外国人が日本のテーブルマナーに驚く理由は?」My Inspire High Award2024「外国人が日本のテーブルマナーに驚く理由は?」
My Inspire High Award2024「外国人が日本のテーブルマナーに驚く理由は?」inspirehighstaff03
 
My Inspire High Award 2024「なぜ、好きなことにいつかは飽きるの」
My Inspire High Award 2024「なぜ、好きなことにいつかは飽きるの」My Inspire High Award 2024「なぜ、好きなことにいつかは飽きるの」
My Inspire High Award 2024「なぜ、好きなことにいつかは飽きるの」inspirehighstaff03
 
My Inspire High Award 2024「なぜ人は他人と違うところがあってもそれをなかなか誇れないのか?」
My Inspire High Award 2024「なぜ人は他人と違うところがあってもそれをなかなか誇れないのか?」My Inspire High Award 2024「なぜ人は他人と違うところがあってもそれをなかなか誇れないのか?」
My Inspire High Award 2024「なぜ人は他人と違うところがあってもそれをなかなか誇れないのか?」inspirehighstaff03
 
リアル戦国探究in米沢 事前講座2スライド(スタッフ共有用)『両雄の強さの秘密』についてのスライド
リアル戦国探究in米沢 事前講座2スライド(スタッフ共有用)『両雄の強さの秘密』についてのスライドリアル戦国探究in米沢 事前講座2スライド(スタッフ共有用)『両雄の強さの秘密』についてのスライド
リアル戦国探究in米沢 事前講座2スライド(スタッフ共有用)『両雄の強さの秘密』についてのスライドKen Fukui
 
My Inspire High Award 2024「世の中の流行はどのようにして生まれるのか」
My Inspire High Award 2024「世の中の流行はどのようにして生まれるのか」My Inspire High Award 2024「世の中の流行はどのようにして生まれるのか」
My Inspire High Award 2024「世の中の流行はどのようにして生まれるのか」inspirehighstaff03
 
My Inspire High Award 2024    「孤独は敵なのか?」
My Inspire High Award 2024    「孤独は敵なのか?」My Inspire High Award 2024    「孤独は敵なのか?」
My Inspire High Award 2024    「孤独は敵なのか?」inspirehighstaff03
 
My Inspire High Award 2024 「本当の『悪者』って何?」
My Inspire High Award 2024 「本当の『悪者』って何?」My Inspire High Award 2024 「本当の『悪者』って何?」
My Inspire High Award 2024 「本当の『悪者』って何?」inspirehighstaff03
 
My Inspire High Award 2024 「AIと仲良くなるには?」
My Inspire High Award 2024 「AIと仲良くなるには?」My Inspire High Award 2024 「AIと仲良くなるには?」
My Inspire High Award 2024 「AIと仲良くなるには?」inspirehighstaff03
 
My Inspire High Award 2024「なぜ議会への関心が低いのか?」
My Inspire High Award 2024「なぜ議会への関心が低いのか?」My Inspire High Award 2024「なぜ議会への関心が低いのか?」
My Inspire High Award 2024「なぜ議会への関心が低いのか?」inspirehighstaff03
 
My Inspire High Award 2024「老いることは不幸なこと?」
My Inspire High Award 2024「老いることは不幸なこと?」My Inspire High Award 2024「老いることは不幸なこと?」
My Inspire High Award 2024「老いることは不幸なこと?」inspirehighstaff03
 
リアル戦国探究in米沢 事前講座1スライド(スタッフ共有用)『川中島の謎』についてのスライド
リアル戦国探究in米沢 事前講座1スライド(スタッフ共有用)『川中島の謎』についてのスライドリアル戦国探究in米沢 事前講座1スライド(スタッフ共有用)『川中島の謎』についてのスライド
リアル戦国探究in米沢 事前講座1スライド(スタッフ共有用)『川中島の謎』についてのスライドKen Fukui
 
My Inspire High Award 2024「他者と自分、対立を防ぐには?」
My Inspire High Award 2024「他者と自分、対立を防ぐには?」My Inspire High Award 2024「他者と自分、対立を防ぐには?」
My Inspire High Award 2024「他者と自分、対立を防ぐには?」inspirehighstaff03
 

Recently uploaded (20)

TEAMIN Service overview for customer_20240422.pdf
TEAMIN Service overview for customer_20240422.pdfTEAMIN Service overview for customer_20240422.pdf
TEAMIN Service overview for customer_20240422.pdf
 
【ゲーム理論入門】ChatGPTが作成した ゲーム理論の問題を解く #3 Slide
【ゲーム理論入門】ChatGPTが作成した ゲーム理論の問題を解く #3 Slide【ゲーム理論入門】ChatGPTが作成した ゲーム理論の問題を解く #3 Slide
【ゲーム理論入門】ChatGPTが作成した ゲーム理論の問題を解く #3 Slide
 
リアル戦国探究in米沢 当日講座2スライド(スタッフ共有用)『人を致すも人に致されず』についてのスライド
リアル戦国探究in米沢 当日講座2スライド(スタッフ共有用)『人を致すも人に致されず』についてのスライドリアル戦国探究in米沢 当日講座2スライド(スタッフ共有用)『人を致すも人に致されず』についてのスライド
リアル戦国探究in米沢 当日講座2スライド(スタッフ共有用)『人を致すも人に致されず』についてのスライド
 
My Inspire High Award 2024  「正義って存在するの?」
My Inspire High Award 2024  「正義って存在するの?」My Inspire High Award 2024  「正義って存在するの?」
My Inspire High Award 2024  「正義って存在するの?」
 
My Inspire High Award 2024「Yakushima Islandってなんか変じゃない?」.pdf
My Inspire High Award 2024「Yakushima Islandってなんか変じゃない?」.pdfMy Inspire High Award 2024「Yakushima Islandってなんか変じゃない?」.pdf
My Inspire High Award 2024「Yakushima Islandってなんか変じゃない?」.pdf
 
What I did before opening my business..pdf
What I did before opening my business..pdfWhat I did before opening my business..pdf
What I did before opening my business..pdf
 
My Inspire High Award 2024「スーパーマーケットで回収されたキャベツ外葉は廃棄されているの?」
My Inspire High Award 2024「スーパーマーケットで回収されたキャベツ外葉は廃棄されているの?」My Inspire High Award 2024「スーパーマーケットで回収されたキャベツ外葉は廃棄されているの?」
My Inspire High Award 2024「スーパーマーケットで回収されたキャベツ外葉は廃棄されているの?」
 
Establishment and operation of medical corporations.pdf
Establishment and operation of medical corporations.pdfEstablishment and operation of medical corporations.pdf
Establishment and operation of medical corporations.pdf
 
My Inspire High Award2024「外国人が日本のテーブルマナーに驚く理由は?」
My Inspire High Award2024「外国人が日本のテーブルマナーに驚く理由は?」My Inspire High Award2024「外国人が日本のテーブルマナーに驚く理由は?」
My Inspire High Award2024「外国人が日本のテーブルマナーに驚く理由は?」
 
My Inspire High Award 2024「なぜ、好きなことにいつかは飽きるの」
My Inspire High Award 2024「なぜ、好きなことにいつかは飽きるの」My Inspire High Award 2024「なぜ、好きなことにいつかは飽きるの」
My Inspire High Award 2024「なぜ、好きなことにいつかは飽きるの」
 
My Inspire High Award 2024「なぜ人は他人と違うところがあってもそれをなかなか誇れないのか?」
My Inspire High Award 2024「なぜ人は他人と違うところがあってもそれをなかなか誇れないのか?」My Inspire High Award 2024「なぜ人は他人と違うところがあってもそれをなかなか誇れないのか?」
My Inspire High Award 2024「なぜ人は他人と違うところがあってもそれをなかなか誇れないのか?」
 
リアル戦国探究in米沢 事前講座2スライド(スタッフ共有用)『両雄の強さの秘密』についてのスライド
リアル戦国探究in米沢 事前講座2スライド(スタッフ共有用)『両雄の強さの秘密』についてのスライドリアル戦国探究in米沢 事前講座2スライド(スタッフ共有用)『両雄の強さの秘密』についてのスライド
リアル戦国探究in米沢 事前講座2スライド(スタッフ共有用)『両雄の強さの秘密』についてのスライド
 
My Inspire High Award 2024「世の中の流行はどのようにして生まれるのか」
My Inspire High Award 2024「世の中の流行はどのようにして生まれるのか」My Inspire High Award 2024「世の中の流行はどのようにして生まれるのか」
My Inspire High Award 2024「世の中の流行はどのようにして生まれるのか」
 
My Inspire High Award 2024    「孤独は敵なのか?」
My Inspire High Award 2024    「孤独は敵なのか?」My Inspire High Award 2024    「孤独は敵なのか?」
My Inspire High Award 2024    「孤独は敵なのか?」
 
My Inspire High Award 2024 「本当の『悪者』って何?」
My Inspire High Award 2024 「本当の『悪者』って何?」My Inspire High Award 2024 「本当の『悪者』って何?」
My Inspire High Award 2024 「本当の『悪者』って何?」
 
My Inspire High Award 2024 「AIと仲良くなるには?」
My Inspire High Award 2024 「AIと仲良くなるには?」My Inspire High Award 2024 「AIと仲良くなるには?」
My Inspire High Award 2024 「AIと仲良くなるには?」
 
My Inspire High Award 2024「なぜ議会への関心が低いのか?」
My Inspire High Award 2024「なぜ議会への関心が低いのか?」My Inspire High Award 2024「なぜ議会への関心が低いのか?」
My Inspire High Award 2024「なぜ議会への関心が低いのか?」
 
My Inspire High Award 2024「老いることは不幸なこと?」
My Inspire High Award 2024「老いることは不幸なこと?」My Inspire High Award 2024「老いることは不幸なこと?」
My Inspire High Award 2024「老いることは不幸なこと?」
 
リアル戦国探究in米沢 事前講座1スライド(スタッフ共有用)『川中島の謎』についてのスライド
リアル戦国探究in米沢 事前講座1スライド(スタッフ共有用)『川中島の謎』についてのスライドリアル戦国探究in米沢 事前講座1スライド(スタッフ共有用)『川中島の謎』についてのスライド
リアル戦国探究in米沢 事前講座1スライド(スタッフ共有用)『川中島の謎』についてのスライド
 
My Inspire High Award 2024「他者と自分、対立を防ぐには?」
My Inspire High Award 2024「他者と自分、対立を防ぐには?」My Inspire High Award 2024「他者と自分、対立を防ぐには?」
My Inspire High Award 2024「他者と自分、対立を防ぐには?」
 

ベイズ入門

  • 2. 自己紹介  氏名: 塩田 圭(しおだ け い)  学籍: 慶應義塾大学大学院 理工学研究科開放環境科学 専攻修士2年  所属: 同 櫻井研究室(島田 君と同じ)  研究テーマ: 機械学習を利用 した外国為替相場の変動に対 する早期警戒手法の提案  趣味: 旅行、散歩、コーヒー
  • 4. これまで学んできた統計学  母集団の一部分である サンプルを調べて、母集 団の性質を推定する方 法論 母集団  (大量の)無作為標本が 対象かつサンプルは変 化するもの 母平均  サンプルで求めた統計 母分散 量(変動するもの) などなど 標本平均 で母集団の統計量 サンプル 標本分散 (ただ一つ)を推定 などなど
  • 5. ベイズ統計学 母数 サンプル 母数 サンプル 母集団 母数 サンプル  統計学の一流派  未知母数は確率的に変化する  サンプルは与えられたものとして、そのとき未知母数が どのような値を取るかを推定する  一回限りの事象にも適応可能
  • 6. ベイズ統計学の特徴、長所 特徴 長所  ベイズの定理での操作の一貫性  必ずベイズの定理を使う  モデルさえ決めればすべての情  主観確率 報が利用できる  データ以外の情報も可能  事前情報の利用  漠然とした事前分布も可能  未知量は確率的に変動  未知量について直接確率を求め られる  観測されたものは事実と  データや情報の蓄積を事前に利 して固定 用  かく乱母数の処理が容易  推測は条件付き  母数に制約があってもよい  例外処理は認めない  擬でない事前分布のもとでは常 に許容される
  • 7. キーワード&概念図 損失関数 最 小 化 尤度 主観確率 事後分布 事前分布 ベイズの定理
  • 8. 確率の考え方  確率  確からしさの尺度  確率の公理を満たしていれば解釈は問題ではない  客観説(頻度説)  実験を行って、あることが起こった回数の%(相対頻度)を求 めたもの  非常に多くの回数の実験が必要(無限回の極限として定義さ れる)  主観説  ある人の確信の度合いを数値化したもの  人によって異なり、比較不能  実験できない事象についても適用可能
  • 9. 客観確率と主観確率 客観確率 主観確率  コイントス  コイントス  投げた回数:1000  ある人:表も裏も同等に出  表の回数:513 る 0.523  投げた回数:10000  別の人:表の方が出やす  表の回数:4935 い 0.4935  その極限として  人によって違う 0.5 ベイス統計では主観確率を採用
  • 10. 条件付き確率  ある事象Cが与えられたときに、事象Aが起こる確率:  くだけた説明をすると、 ある出来事が起きた、あるいは、ある情報が分かっているときに、 ある事象が発生する確率  さいころの例:  2が出る確率:  偶数が出る確率:  偶数の目が出たと分かっているときに、それが2である確率:
  • 11. ベイズの定理  あるデータDが与えられたとき、 ある仮説Hの確からしさの変化を 表わしたもの 50%  もともと仮説Hの確からしさは決 裏ばかり。。 められるが、新しい情報データD が得られたときには仮説Hの確 からしさは変更されるべきである  新しく得られたヒントを使って、状 況認識をどのように更新するか、 を示している 30%
  • 12. 事前確率  例:がん検診  ある人ががん検診で「疑いあり」と言われてしまった!! がん検診を受ける前と後で、ある人ががんである確率がどのように変わるか?  検査前:  その人ががんであるかどうかについての情報は何もない  世間一般で、ある人ががんである確率を採用
  • 13. 尤度  がん検診の精度についてのモデル  対象:健康な人、がんの人  出力:+(陽性)、-(陰性)  健康な人を検査をしたときの結果:  がんの人を検査をしたときの結果:  今回は+の尤度だけ注目すればいいのだろうか?
  • 14. 確率と尤度  確率(和が1になる)  まだ結果が分かっていないときに、ある事象が実現する確か らしさを表わしたもの  まだ検査をしていない健康な人に対して、+と判断することの 確からしさ  尤度(和が1になるとは限らない=確率ではない)  結果が分かっているときに、その結果を引き起こす条件の もっともらしさを表わしたもの  検査結果が+と分かったときに、検査を受けた人が健康であ るとすることのもっともらしさ
  • 15. 全確率の公式  事象Aの確率を分割して求める  をもれなく、だぶりなく網羅する  事象 同時に起こり得ない事象(背反事 B1 A B2 B3 象)を合わせた確率は足し算する (和の法則)  ポジティブになる確率を求める
  • 16. 事後確率  ベイズの定理を使って計算  事前確率と事後確率の比較 3% 7%  大したことはない。しかし、事前確率がもっと高かったら?
  • 17. 統計的決定  ベイズの定理を用いて、新しい情報を組み込みながら現 状把握することができるようになった  がん検診で+が出たとき、  健康である確率:97% 93%  がんである確率:3% 7%  分かるのはあくまで確率分布(可能性)に過ぎない  次にどうするべきかは教えてくれない  どんな方策でも自由に選択することができる  統計的に合理的な決定方法とは?
  • 18. 損失関数  合理的な決定(推定)  ある基準を決めて、複数の方策の中から一つを選ぶ  最良の選択とそれ以外の違い:無駄、損、失敗、正確さ  推定の誤りに対してペナルティを設ける=損失関数  損失関数を最小化するものを選択すればよい 絶対損失 平方損失 0-1型単純損失
  • 19. 期待損失最小化  損失関数の値は変動する  得られたデータによって  確率的に変動する母数や仮説によって  平均して損失関数を最小化するものを選ぶべきだ(期待 損失最小化)  データ に対して最適な決定をする関数  データについて平均:  確率変動する母数についても平均: ここを最小化するdを求める
  • 20. 例題  重量比の異なる2枚のコイン  偏り大、小  一枚だけテーブルに置いてある  何回か投げた結果を見て、どちらのコインか推定する  試行一回当たり 回投げる  データとしては、その試行での表の回数( 回)
  • 21. モデル  それぞれのコインの確率分布 コイン1 表 裏 コイン2 表 裏 確率 50% 50% 確率 25% 75%  仮説  :コイン1である  :コイン2である  コイントスのモデル(二項分布を仮定)
  • 22. 期待損失最小化による判別ルールの導出  損失関数: 損失関数 仮説1を採用 仮説2を採用 (コイン1) (コイン2)  0-1型 本当はコイン1 0 1  当たり・はずれ 本当はコイン2 1 0  期待損失  判別ルール  期待損失を比較して、小さい方を採用(期待損失最小化)
  • 23. 一回目の試行  試行の結果  事後確率  :表、表、裏  事前分布  どちらのコインが選ばれ たか情報がないため、同 程度の確からしさと仮定  尤度比の比較  尤度
  • 24. 二回目の試行  試行の結果  事後確率  :裏、裏、裏  事前分布  一回目の試行での事 後確率を利用  尤度比の比較  尤度
  • 25. 事前情報あり  試行の結果  事後確率  :表、表、裏  事前分布  どうも偏りの大きいコインら しいという噂がある  尤度比の比較  尤度
  • 26. まとめ  ベイズ統計  未知母数はすべて確率変動すると仮定  主観確率を採用  ベイズの定理による確率更新によって、状況の変化を表現  事前分布、尤度の設定の仕方によって、結果が大きく異なる  モデル設定の自由度の高さと情報更新の表現力の高さが評 価されてデータ分析や自動判別等に利用されている。  統計的決定  取りうる選択肢と最もよい決定との差に課すペナルティを損失 関数で表現  期待損失を最小化する選択が最適とする  損失関数も自由に設定でき、やり方によって結果が異なる