SlideShare une entreprise Scribd logo
1  sur  34
Télécharger pour lire hors ligne
Fast Abstractive Summarization with
Reinforce-Selected Sentence Rewriting
0
三浦 泰嗣
電通国際情報サービス
(ISID)
自己紹介
COPYRIGHT 2017 INFORMATION SERVICES INTERNATIONAL - DENTSU, LTD. ALL RIGHTS RESERVED.
1
• 三浦 泰嗣(Miura Yasuhide)
• 電通国際情報サービス 開発技術部 新領域研究Gr
• Twitter/GitHub: ymym3412
• 自然言語処理万事屋として生きる日々
※株式会社アラヤさんとマグロを数えている会社です
こんなことやってます
COPYRIGHT 2017 INFORMATION SERVICES INTERNATIONAL - DENTSU, LTD. ALL RIGHTS RESERVED.
2
ACLの全論文サマリ 気軽にContribution!
GitHub: ymym3412/acl-papers
【宣伝】
COPYRIGHT 2017 INFORMATION SERVICES INTERNATIONAL - DENTSU, LTD. ALL RIGHTS RESERVED.
3
本編
COPYRIGHT 2017 INFORMATION SERVICES INTERNATIONAL - DENTSU, LTD. ALL RIGHTS RESERVED.
4
まとめ
COPYRIGHT 2017 INFORMATION SERVICES INTERNATIONAL - DENTSU, LTD. ALL RIGHTS RESERVED.
5
• 文書要約を行うDeep Learningモデル
• 文章から文の抽出を行い、それを書き直す形で要約を生成する
「Extract-Then-Rewrite」手法
• Maximum-Likelihood TrainingとA2Cによる強化学習を組み合わせた学
習手法
• CNN/Daily Mail DatasetなどでPointer Generator, Reinforced Model
を抑えてState-of-the-Art
文書要約(Document Summarization)
COPYRIGHT 2017 INFORMATION SERVICES INTERNATIONAL - DENTSU, LTD. ALL RIGHTS RESERVED.
6
• 文書中から重要な情報を拾ってきてまとめあげたい
• Extractive(抽出型)とAbstractive(生成型)のアプローチが存在する
※Google AI Blogより https://ai.googleblog.com/2016/08/text-summarization-with-tensorflow.html
抽出型要約(Extractive Summarization)
COPYRIGHT 2017 INFORMATION SERVICES INTERNATIONAL - DENTSU, LTD. ALL RIGHTS RESERVED.
7
• 原文中の表現を使って要約を生成する
• 長い歴史
• 近年はニューラルネットを使った手法も
[Erkan and Radev, 2004)]
[Nallapati et al. 2017]
生成型要約(Abstractive Summarization)
COPYRIGHT 2017 INFORMATION SERVICES INTERNATIONAL - DENTSU, LTD. ALL RIGHTS RESERVED.
8
• 原文中の表現以外も使って要約を生成する
• 大雑把に言うとExtractive以外
• 近年のDeep Learningブームで盛んに研究されている
• 今回のテーマ
[See et al., 2017)][Nallapati+ 2016] [Paulus et al., 2018)]
近年のDLベースの生成型要約モデル
COPYRIGHT 2017 INFORMATION SERVICES INTERNATIONAL - DENTSU, LTD. ALL RIGHTS RESERVED.
9
• Attention Based Summarization[Rush et al. 2015]
• Attention + ニューラル言語モデル
• Seq2Seq + Attention[Nallapati et al. 2016]
• Seq2Seq + Attention
• Pointer Generator[See et al. 2017]
• Copy Mechanism + Coverage Mechanism
• Reinforced Model[Paulus et al. 2018]
• Intra Attention + Reinforcement Learning
Deep Learningベーステキスト生成につきまとう課題
COPYRIGHT 2017 INFORMATION SERVICES INTERNATIONAL - DENTSU, LTD. ALL RIGHTS RESERVED.
10
1. Repetition
• Decode時に同じ単語を繰り返してしまう
2. Out-of-Vocabulary(OOV)
• 学習データに存在しない単語をDecodeできない
3. Non-differentiable
• 微分不可能な処理を挟むと学習できない
Repetition
COPYRIGHT 2017 INFORMATION SERVICES INTERNATIONAL - DENTSU, LTD. ALL RIGHTS RESERVED.
11
RNNで長いテキストを生成する際に、既に出力した単語(あるいはフレー
ズ)を再度生成してしまう問題
対策: Coverage MechanismやIntra-Attention
同じフレーズが生成されてしまっている!
Coverage Mechanism
時刻t’の
Attention分布
同じ単語を選ぶ
(次元iの値が大きくなる)と
covloss↑
Intra-Attention
DecoderにもAttentionをかけContext Vectorを得る
Out-of-Vocabulary(OOV)
COPYRIGHT 2017 INFORMATION SERVICES INTERNATIONAL - DENTSU, LTD. ALL RIGHTS RESERVED.
12
学習データにない単語やUNKトークンに置き換えられた低頻度語を、Test
時にDecodeできない問題
対策: Copy Mechanism[Merity et al. 2016][Gu et al. 2016]
(Decode時に入力単語をCopyして生成)
⇒以前Qiitaに記事を書いたので詳しくはこちら: Seq2Seq+Attentionのその先へ
https://qiita.com/ymym3412/items/c84e6254de89c9952c55
低頻度語は学習データ内でUNKに置き換えられ
てしまうため、Decodeできない
Non-differentiable
COPYRIGHT 2017 INFORMATION SERVICES INTERNATIONAL - DENTSU, LTD. ALL RIGHTS RESERVED.
13
損失関数の計算に微分不可能な処理を挟むと、Back Propagationによる学
習を行えない
⇒微分不可能な処理とは?
対策: 強化学習[Chen et al. 2017]やMinimum Risk Training[Cheng et al. 2016]
例1: KB対話 例2: 評価指標の直接最適化
提案手法
COPYRIGHT 2017 INFORMATION SERVICES INTERNATIONAL - DENTSU, LTD. ALL RIGHTS RESERVED.
14
提案モデルの概要
COPYRIGHT 2017 INFORMATION SERVICES INTERNATIONAL - DENTSU, LTD. ALL RIGHTS RESERVED.
15
• 生成型要約モデル(抽出型要約もできるよ!)
• Extract-Then-Rewriteの方式で要約を生成する
• ExtractとAbstractに分けるアプローチは最近見る
• A Unified Model for Extractive and Abstractive Summarization using Inconsistency Loss[Hsu et al.
2018] ACL2018
• Generating Wikipedia by Summarizing Long Sequences[Liu et al. 2018] ICLR2018
• 抽出を行うExtractorとRewriteを行うAbstractor
Extract-Then-Rewrite?
COPYRIGHT 2017 INFORMATION SERVICES INTERNATIONAL - DENTSU, LTD. ALL RIGHTS RESERVED.
16
• 人間が要約を作るときの流れを参考に
• 文章の重要な箇所にあたりをつけてから、それらをまとめて要約を作る
• 文章中の重要な文を抽出し、それを書き直すことで生成型要約を作る
Extract Rewrite
Extract
COPYRIGHT 2017 INFORMATION SERVICES INTERNATIONAL - DENTSU, LTD. ALL RIGHTS RESERVED.
17
• Extractorモデルが担当
• Temporal Convolution Model[Kim, 2014]で文を特徴ベクトルに変換
• Bi-LSTMで文脈を考慮した文の表現に変換
• Pointer Network[Vinyals et al. 2015]で入力にAttentionをかけて文を抽出
Rewrite
COPYRIGHT 2017 INFORMATION SERVICES INTERNATIONAL - DENTSU, LTD. ALL RIGHTS RESERVED.
18
• Abstractorモデルが担当
• Extractorが抽出した文を受け取り要約を作る
• Seq2Seqモデル + Attention
• Copy Mechanismを使うことで未知語を回避(OOVの緩和)
たぶん構造は
これに近い
親の顔より見た
Seq2Seq + Attention
Copy Mechanism
Training
COPYRIGHT 2017 INFORMATION SERVICES INTERNATIONAL - DENTSU, LTD. ALL RIGHTS RESERVED.
19
• Maximum-Likelihood TrainingとReinforcement Learningの2段階
• 最初からE2EだとExtractorが貧弱なうちはAbstractorの学習が滞る
• Maximum-Likelihood TrainingはExtractor, Abstractorそれぞれを
MLEを使って教師あり学習
• ⇒教師ラベルは?
• ⇒⇒proxy target label[Nallapati et al. 2017]
生成型要約の
t番目の文
文書の
i番目の文
Training
COPYRIGHT 2017 INFORMATION SERVICES INTERNATIONAL - DENTSU, LTD. ALL RIGHTS RESERVED.
20
• Extractorによる文の選択処理が微分不可
• 評価指標ROUGEを報酬とした強化学習でモデル全体の学習を行う
• ただしRLの学習ではAbstractorのパラメータはfix
• REINFORCE[Williams, 1992]は勾配の分散が大きいためA2Cを採用する
• AgentはExtractor
• 報酬はGround truth summaryとのROUGE-LF1
• CriticとしてPointer NetのDecoder
• 出力は状態価値関数
(ちょっと復習)強化学習
COPYRIGHT 2017 INFORMATION SERVICES INTERNATIONAL - DENTSU, LTD. ALL RIGHTS RESERVED.
21
• エージェントが文を抽出(行動 at)し、それをAbstractorがRewriteし、GT summaryとの
ROUGEから報酬Rtを得る
• 環境(文書)からt-1に抽出した文を状態st(論文中ではct)として観測する
• 方策 = Extractor ※ゼロから始める強化学習より https://www.slideshare.net/pfi/nlp2018-introduction-of-deep-reinforcement-learning
REINFORCEアルゴリズムによる方策勾配法
COPYRIGHT 2017 INFORMATION SERVICES INTERNATIONAL - DENTSU, LTD. ALL RIGHTS RESERVED.
22
• 方策: Extractorのパラメータ更新式
• 行動価値関数Q(c,j)を即時報酬Rtで近似するのがREINFORCE
• 今回は初めからQ(c,j)を報酬の期待値として定義してしまっている
• しかしREINFORCEは勾配の分散が大きい
t-1に抽出した文がctで
tに抽出した文がjtのときのROUGE値の期待
値
Extractorがjtを抽出したときの対数尤度
A2CアルゴリズムによるExtractorの学習
COPYRIGHT 2017 INFORMATION SERVICES INTERNATIONAL - DENTSU, LTD. ALL RIGHTS RESERVED.
23
• REINFORCEでは勾配の計算時にベースラインを導入できる
• ベースラインとして学習可能なCriticを使い勾配の分散を小さくする
• Criticは状態がcのときの報酬を推定する
• Advantage関数を用いると、最終的な勾配は以下の式になる
Advantage学習では、
行動価値関数Qの更新に
数step先の報酬も考慮する
※ はCriticの予想した値
提案モデルと課題への対策
COPYRIGHT 2017 INFORMATION SERVICES INTERNATIONAL - DENTSU, LTD. ALL RIGHTS RESERVED.
24
1. Repetition
• ⇒Extractorが重複を排除して抽出。またBeam Search時にN-gram重複を避けるように
Reranking
2. Out-of-Vocabulary(OOV)
• ⇒AbstractorへのCopy Mechanismの導入
3. Non-differentiable
• ⇒Extractorでの抽出の微分不可能性について、強化学習の導入で対応
実験
COPYRIGHT 2017 INFORMATION SERVICES INTERNATIONAL - DENTSU, LTD. ALL RIGHTS RESERVED.
25
CNN/Daily Mail Datasetでの実験
COPYRIGHT 2017 INFORMATION SERVICES INTERNATIONAL - DENTSU, LTD. ALL RIGHTS RESERVED.
26
• Extractive/Abstractive 両セッティングで実験
• 両セッティングでState-of-the-Art
Pointer-GeneratorとのABテストのAbstractiveness
COPYRIGHT 2017 INFORMATION SERVICES INTERNATIONAL - DENTSU, LTD. ALL RIGHTS RESERVED.
27
• Pointer-Generatorとの人手でのABテスト
• Relevanceで差はついたが、Readabilityは大差なし
• 出来上がる要約のAbstractivenessの計測
• 2~4gramの範囲で大きな改善
• とはいえ単語の刈り取りをすれば2-gram~は上昇する(はず)
計算時間の比較
COPYRIGHT 2017 INFORMATION SERVICES INTERNATIONAL - DENTSU, LTD. ALL RIGHTS RESERVED.
28
• Abstractorによる要約生成は複数の抽出文に依存していないため、抽出
した文から要約を生成する部分を並列化可能!
• こんな感じに並列化できる(右図)
• 最大で24倍の高速化に成功
まとめ
COPYRIGHT 2017 INFORMATION SERVICES INTERNATIONAL - DENTSU, LTD. ALL RIGHTS RESERVED.
29
• 生成型要約を行うExtract-Then-Rewriteモデルの提案
• 近年の潮流をよく押さえている
• 微分不可能な抽出処理に対してA2Cによる強化学習を導入
• 生成された要約を見ると「Rewrite」というより「Compress」
• 論文中でもcompressと述べられている
• Abstractorに改良の余地?
• Extract-Then-Abstractモデルは今後の生成型要約手法のトレンドにな
るかもしれない
参考文献
COPYRIGHT 2017 INFORMATION SERVICES INTERNATIONAL - DENTSU, LTD. ALL RIGHTS RESERVED.
30
• Text summarization with TensorFlow: https://ai.googleblog.com/2016/08/text-summarization-with-tensorflow.html
• Gunes Erkan, Dragomir R. Radev. 2004: LexRank: Graph-based Lexical Centrality as Salience in Text Summarization :
https://www.aaai.org/Papers/JAIR/Vol22/JAIR-2214.pdf
• Ramesh Nallapati, Feifei Zhai, and Bowen Zhou. 2017: SummaRuNNer: A Recurrent Neural Network based Sequence Model for
Extractive Summarization of Documents: https://arxiv.org/pdf/1611.04230.pdf
• Romain Paulus, Caiming Xiong, and Richard Socher. 2018: A Deep Reinforced Model for Abstractive Summarization:
https://arxiv.org/abs/1705.04304
• Abigail See, Peter J. Liu, and Christopher D. Manning. 2017: Get To The Point: Summarization with Pointer-Generator Networks:
https://arxiv.org/abs/1704.04368
• Ramesh Nallapati, Bowen Zhou, Cicero dos Santos, C¸ aglar Gulc¸ehre, and Bing Xiang. 2016: Abstractive Text Summarization Using
Sequence-to-Sequence RNNs and Beyond: https://arxiv.org/abs/1602.06023
• Alexander M. Rush, Sumit Chopra, and Jason Weston. 2015: A Neural Attention Model for Abstractive Sentence Summarization:
https://arxiv.org/abs/1509.00685
• Seq2Seq+Attentionのその先へ: https://qiita.com/ymym3412/items/c84e6254de89c9952c55
• Stephen Merity, Caiming Xiong, James Bradbury, and Richard Socher. 2016: Pointer Sentinel Mixture Models:
https://arxiv.org/abs/1609.07843
• Jiatao Gu, Zhengdong Lu, Hang Li, and Victor OK Li. 2016: Incorporating Copying Mechanism in Sequence-to-Sequence Learning:
https://arxiv.org/abs/1603.06393
参考文献
COPYRIGHT 2017 INFORMATION SERVICES INTERNATIONAL - DENTSU, LTD. ALL RIGHTS RESERVED.
31
• Shiqi Shen, Yong Cheng, Zhongjun He, Wei He, Hua Wu, Maosong Sun, Yang Liu. 2015: Minimum Risk Training for Neural Machine
Translation: https://arxiv.org/abs/1512.02433
• 大自然言語時代のための、文章要約: https://qiita.com/icoxfog417/items/d06651db10e27220c819
• Wan-Ting Hsu, Chieh-Kai Lin, Ming-Ying Lee, Kerui Min, Jing Tang, Min Sun. 2018:A Unified Model for Extractive and Abstractive
Summarization using Inconsistency Loss: https://arxiv.org/abs/1805.06266v1
• Peter J. Liu, Mohammad Saleh, Etienne Pot, Ben Goodrich, Ryan Sepassi, Lukasz Kaiser, Noam Shazeer. 2018:Generating Wikipedia by
Summarizing Long Sequences: https://arxiv.org/abs/1801.10198
• Yoon Kim. 2014: Convolutional Neural Networks for Sentence Classification: https://arxiv.org/abs/1408.5882
• Oriol Vinyals, Meire Fortunato, and Navdeep Jaitly. 2015: Pointer Networks: https://arxiv.org/abs/1506.03134
• ゼロから始める深層強化学習(NLP2018講演資料)/ Introduction of Deep Reinforcement Learning: https://www.slideshare.net/pfi/nlp2018-
introduction-of-deep-reinforcement-learning
• Ronald J. Williams. 1992: Simple statistical gradientfollowing algorithms for connectionist reinforcement learning: http://www-
anw.cs.umass.edu/~barto/courses/cs687/williams92simple.pdf
• Sequence Level Training with Recurrent Neural Networks (関東CV勉強会 強化学習論文読み会):
https://www.slideshare.net/YoshitakaUshiku/sequence-level-training-with-recurrent-neural-networks-cv
• これからの強化学習: http://www.morikita.co.jp/books/book/3034
• つくりながら学ぶ!深層強化学習 PyTorchによる実践プログラミング: https://book.mynavi.jp/manatee/books/detail/id=91985
• Yen-Chun Chen, Mohit Bansal: Fast Abstractive Summarization with Reinforce-Selected Sentence Rewriting:
https://arxiv.org/abs/1805.11080v1
APPENDIX
COPYRIGHT 2017 INFORMATION SERVICES INTERNATIONAL - DENTSU, LTD. ALL RIGHTS RESERVED.
32
モデルによる要約
COPYRIGHT 2017 INFORMATION SERVICES INTERNATIONAL - DENTSU, LTD. ALL RIGHTS RESERVED.
33

Contenu connexe

Similaire à Fast abstractive summarization with reinforce selected sentence rewriting

XP祭り関西2011 森崎 修司「プラクティスが有効にはたらく前提は明らかになっていますか?」
XP祭り関西2011 森崎 修司「プラクティスが有効にはたらく前提は明らかになっていますか?」XP祭り関西2011 森崎 修司「プラクティスが有効にはたらく前提は明らかになっていますか?」
XP祭り関西2011 森崎 修司「プラクティスが有効にはたらく前提は明らかになっていますか?」Shuji Morisaki
 
Abstractive Text Summarization @Retrieva seminar
Abstractive Text Summarization @Retrieva seminarAbstractive Text Summarization @Retrieva seminar
Abstractive Text Summarization @Retrieva seminarKodaira Tomonori
 
localstackによるAWS Lambdaの開発環境を、miniconda上でつくったら簡単便利だった話
localstackによるAWS Lambdaの開発環境を、miniconda上でつくったら簡単便利だった話localstackによるAWS Lambdaの開発環境を、miniconda上でつくったら簡単便利だった話
localstackによるAWS Lambdaの開発環境を、miniconda上でつくったら簡単便利だった話真治 米田
 
Tokyo r25 hiro_macchan
Tokyo r25 hiro_macchanTokyo r25 hiro_macchan
Tokyo r25 hiro_macchanHiroki Matsui
 
レボリューションR(RRE)のご紹介
レボリューションR(RRE)のご紹介レボリューションR(RRE)のご紹介
レボリューションR(RRE)のご紹介Satoshi Kitajima
 
Goでヤフーの分散オブジェクトストレージを作った話 Go Conference 2017 Spring
Goでヤフーの分散オブジェクトストレージを作った話 Go Conference 2017 SpringGoでヤフーの分散オブジェクトストレージを作った話 Go Conference 2017 Spring
Goでヤフーの分散オブジェクトストレージを作った話 Go Conference 2017 SpringYahoo!デベロッパーネットワーク
 
「解説資料」ViTPose: Simple Vision Transformer Baselines for Human Pose Estimation
「解説資料」ViTPose: Simple Vision Transformer Baselines for Human Pose Estimation 「解説資料」ViTPose: Simple Vision Transformer Baselines for Human Pose Estimation
「解説資料」ViTPose: Simple Vision Transformer Baselines for Human Pose Estimation Takumi Ohkuma
 
【DL輪読会】ViTPose: Simple Vision Transformer Baselines for Human Pose Estimation
【DL輪読会】ViTPose: Simple Vision Transformer Baselines for Human Pose Estimation【DL輪読会】ViTPose: Simple Vision Transformer Baselines for Human Pose Estimation
【DL輪読会】ViTPose: Simple Vision Transformer Baselines for Human Pose EstimationDeep Learning JP
 
20190604 aws well-architected_tool_seminar_detail
20190604 aws well-architected_tool_seminar_detail20190604 aws well-architected_tool_seminar_detail
20190604 aws well-architected_tool_seminar_detailYoshii Ryo
 
Spring I/O 2017 報告 ThymeleafのWebFlux対応
Spring I/O 2017 報告 ThymeleafのWebFlux対応Spring I/O 2017 報告 ThymeleafのWebFlux対応
Spring I/O 2017 報告 ThymeleafのWebFlux対応Takuya Iwatsuka
 
認証/認可が実現する安全で高速分析可能な分析処理基盤
認証/認可が実現する安全で高速分析可能な分析処理基盤認証/認可が実現する安全で高速分析可能な分析処理基盤
認証/認可が実現する安全で高速分析可能な分析処理基盤Masahiro Kiura
 
[XP祭り2017][B-3(1)]DevOps時代のプロジェクトマネージメントを考えよう
[XP祭り2017][B-3(1)]DevOps時代のプロジェクトマネージメントを考えよう[XP祭り2017][B-3(1)]DevOps時代のプロジェクトマネージメントを考えよう
[XP祭り2017][B-3(1)]DevOps時代のプロジェクトマネージメントを考えようShigeki Morizane
 
Pythonを含む多くのプログラミング言語を扱う処理フレームワークとパターン、鷲崎弘宜、PyConJP 2016 招待講演
Pythonを含む多くのプログラミング言語を扱う処理フレームワークとパターン、鷲崎弘宜、PyConJP 2016 招待講演Pythonを含む多くのプログラミング言語を扱う処理フレームワークとパターン、鷲崎弘宜、PyConJP 2016 招待講演
Pythonを含む多くのプログラミング言語を扱う処理フレームワークとパターン、鷲崎弘宜、PyConJP 2016 招待講演Hironori Washizaki
 
OSSコミッタの生活とその必要性
OSSコミッタの生活とその必要性OSSコミッタの生活とその必要性
OSSコミッタの生活とその必要性Hirofumi Ichihara
 
Chainer on Azure 2 年の歴史
Chainer on Azure 2 年の歴史Chainer on Azure 2 年の歴史
Chainer on Azure 2 年の歴史Hirono Jumpei
 
実践 Reactive Extensions
実践 Reactive Extensions実践 Reactive Extensions
実践 Reactive ExtensionsShin Ise
 
AWS Summit New York 2017 Keynote Recap
AWS Summit New York 2017 Keynote RecapAWS Summit New York 2017 Keynote Recap
AWS Summit New York 2017 Keynote RecapEiji Shinohara
 

Similaire à Fast abstractive summarization with reinforce selected sentence rewriting (20)

XP祭り関西2011 森崎 修司「プラクティスが有効にはたらく前提は明らかになっていますか?」
XP祭り関西2011 森崎 修司「プラクティスが有効にはたらく前提は明らかになっていますか?」XP祭り関西2011 森崎 修司「プラクティスが有効にはたらく前提は明らかになっていますか?」
XP祭り関西2011 森崎 修司「プラクティスが有効にはたらく前提は明らかになっていますか?」
 
Abstractive Text Summarization @Retrieva seminar
Abstractive Text Summarization @Retrieva seminarAbstractive Text Summarization @Retrieva seminar
Abstractive Text Summarization @Retrieva seminar
 
localstackによるAWS Lambdaの開発環境を、miniconda上でつくったら簡単便利だった話
localstackによるAWS Lambdaの開発環境を、miniconda上でつくったら簡単便利だった話localstackによるAWS Lambdaの開発環境を、miniconda上でつくったら簡単便利だった話
localstackによるAWS Lambdaの開発環境を、miniconda上でつくったら簡単便利だった話
 
Tokyo r25 hiro_macchan
Tokyo r25 hiro_macchanTokyo r25 hiro_macchan
Tokyo r25 hiro_macchan
 
レボリューションR(RRE)のご紹介
レボリューションR(RRE)のご紹介レボリューションR(RRE)のご紹介
レボリューションR(RRE)のご紹介
 
全文検索入門
全文検索入門全文検索入門
全文検索入門
 
Goでヤフーの分散オブジェクトストレージを作った話 Go Conference 2017 Spring
Goでヤフーの分散オブジェクトストレージを作った話 Go Conference 2017 SpringGoでヤフーの分散オブジェクトストレージを作った話 Go Conference 2017 Spring
Goでヤフーの分散オブジェクトストレージを作った話 Go Conference 2017 Spring
 
「解説資料」ViTPose: Simple Vision Transformer Baselines for Human Pose Estimation
「解説資料」ViTPose: Simple Vision Transformer Baselines for Human Pose Estimation 「解説資料」ViTPose: Simple Vision Transformer Baselines for Human Pose Estimation
「解説資料」ViTPose: Simple Vision Transformer Baselines for Human Pose Estimation
 
【DL輪読会】ViTPose: Simple Vision Transformer Baselines for Human Pose Estimation
【DL輪読会】ViTPose: Simple Vision Transformer Baselines for Human Pose Estimation【DL輪読会】ViTPose: Simple Vision Transformer Baselines for Human Pose Estimation
【DL輪読会】ViTPose: Simple Vision Transformer Baselines for Human Pose Estimation
 
20190604 aws well-architected_tool_seminar_detail
20190604 aws well-architected_tool_seminar_detail20190604 aws well-architected_tool_seminar_detail
20190604 aws well-architected_tool_seminar_detail
 
Spring I/O 2017 報告 ThymeleafのWebFlux対応
Spring I/O 2017 報告 ThymeleafのWebFlux対応Spring I/O 2017 報告 ThymeleafのWebFlux対応
Spring I/O 2017 報告 ThymeleafのWebFlux対応
 
認証/認可が実現する安全で高速分析可能な分析処理基盤
認証/認可が実現する安全で高速分析可能な分析処理基盤認証/認可が実現する安全で高速分析可能な分析処理基盤
認証/認可が実現する安全で高速分析可能な分析処理基盤
 
[XP祭り2017][B-3(1)]DevOps時代のプロジェクトマネージメントを考えよう
[XP祭り2017][B-3(1)]DevOps時代のプロジェクトマネージメントを考えよう[XP祭り2017][B-3(1)]DevOps時代のプロジェクトマネージメントを考えよう
[XP祭り2017][B-3(1)]DevOps時代のプロジェクトマネージメントを考えよう
 
Pythonを含む多くのプログラミング言語を扱う処理フレームワークとパターン、鷲崎弘宜、PyConJP 2016 招待講演
Pythonを含む多くのプログラミング言語を扱う処理フレームワークとパターン、鷲崎弘宜、PyConJP 2016 招待講演Pythonを含む多くのプログラミング言語を扱う処理フレームワークとパターン、鷲崎弘宜、PyConJP 2016 招待講演
Pythonを含む多くのプログラミング言語を扱う処理フレームワークとパターン、鷲崎弘宜、PyConJP 2016 招待講演
 
JavaOne2017参加報告 Microservices topic & approach #jjug
JavaOne2017参加報告 Microservices topic & approach #jjugJavaOne2017参加報告 Microservices topic & approach #jjug
JavaOne2017参加報告 Microservices topic & approach #jjug
 
ICML2017 参加報告会 山本康生
ICML2017 参加報告会 山本康生ICML2017 参加報告会 山本康生
ICML2017 参加報告会 山本康生
 
OSSコミッタの生活とその必要性
OSSコミッタの生活とその必要性OSSコミッタの生活とその必要性
OSSコミッタの生活とその必要性
 
Chainer on Azure 2 年の歴史
Chainer on Azure 2 年の歴史Chainer on Azure 2 年の歴史
Chainer on Azure 2 年の歴史
 
実践 Reactive Extensions
実践 Reactive Extensions実践 Reactive Extensions
実践 Reactive Extensions
 
AWS Summit New York 2017 Keynote Recap
AWS Summit New York 2017 Keynote RecapAWS Summit New York 2017 Keynote Recap
AWS Summit New York 2017 Keynote Recap
 

Plus de Yasuhide Miura

Divide, Conquer and Combine: Hierarchical Feature Fusion Network with Local a...
Divide, Conquer and Combine: Hierarchical Feature Fusion Network with Local a...Divide, Conquer and Combine: Hierarchical Feature Fusion Network with Local a...
Divide, Conquer and Combine: Hierarchical Feature Fusion Network with Local a...Yasuhide Miura
 
A Survey on Cross-Modal Embedding
A Survey on Cross-Modal EmbeddingA Survey on Cross-Modal Embedding
A Survey on Cross-Modal EmbeddingYasuhide Miura
 
Maskgan better text generation via filling in the ____
Maskgan better text generation via filling in the   ____Maskgan better text generation via filling in the   ____
Maskgan better text generation via filling in the ____Yasuhide Miura
 
Deconvolutional paragraph representation learning
Deconvolutional paragraph representation learningDeconvolutional paragraph representation learning
Deconvolutional paragraph representation learningYasuhide Miura
 
放送大学テキスト「自然言語処理」 7章 構文の解析(1)
放送大学テキスト「自然言語処理」 7章 構文の解析(1)放送大学テキスト「自然言語処理」 7章 構文の解析(1)
放送大学テキスト「自然言語処理」 7章 構文の解析(1)Yasuhide Miura
 

Plus de Yasuhide Miura (6)

Bert for multimodal
Bert for multimodalBert for multimodal
Bert for multimodal
 
Divide, Conquer and Combine: Hierarchical Feature Fusion Network with Local a...
Divide, Conquer and Combine: Hierarchical Feature Fusion Network with Local a...Divide, Conquer and Combine: Hierarchical Feature Fusion Network with Local a...
Divide, Conquer and Combine: Hierarchical Feature Fusion Network with Local a...
 
A Survey on Cross-Modal Embedding
A Survey on Cross-Modal EmbeddingA Survey on Cross-Modal Embedding
A Survey on Cross-Modal Embedding
 
Maskgan better text generation via filling in the ____
Maskgan better text generation via filling in the   ____Maskgan better text generation via filling in the   ____
Maskgan better text generation via filling in the ____
 
Deconvolutional paragraph representation learning
Deconvolutional paragraph representation learningDeconvolutional paragraph representation learning
Deconvolutional paragraph representation learning
 
放送大学テキスト「自然言語処理」 7章 構文の解析(1)
放送大学テキスト「自然言語処理」 7章 構文の解析(1)放送大学テキスト「自然言語処理」 7章 構文の解析(1)
放送大学テキスト「自然言語処理」 7章 構文の解析(1)
 

Fast abstractive summarization with reinforce selected sentence rewriting

  • 1. Fast Abstractive Summarization with Reinforce-Selected Sentence Rewriting 0 三浦 泰嗣 電通国際情報サービス (ISID)
  • 2. 自己紹介 COPYRIGHT 2017 INFORMATION SERVICES INTERNATIONAL - DENTSU, LTD. ALL RIGHTS RESERVED. 1 • 三浦 泰嗣(Miura Yasuhide) • 電通国際情報サービス 開発技術部 新領域研究Gr • Twitter/GitHub: ymym3412 • 自然言語処理万事屋として生きる日々 ※株式会社アラヤさんとマグロを数えている会社です
  • 3. こんなことやってます COPYRIGHT 2017 INFORMATION SERVICES INTERNATIONAL - DENTSU, LTD. ALL RIGHTS RESERVED. 2 ACLの全論文サマリ 気軽にContribution! GitHub: ymym3412/acl-papers
  • 4. 【宣伝】 COPYRIGHT 2017 INFORMATION SERVICES INTERNATIONAL - DENTSU, LTD. ALL RIGHTS RESERVED. 3
  • 5. 本編 COPYRIGHT 2017 INFORMATION SERVICES INTERNATIONAL - DENTSU, LTD. ALL RIGHTS RESERVED. 4
  • 6. まとめ COPYRIGHT 2017 INFORMATION SERVICES INTERNATIONAL - DENTSU, LTD. ALL RIGHTS RESERVED. 5 • 文書要約を行うDeep Learningモデル • 文章から文の抽出を行い、それを書き直す形で要約を生成する 「Extract-Then-Rewrite」手法 • Maximum-Likelihood TrainingとA2Cによる強化学習を組み合わせた学 習手法 • CNN/Daily Mail DatasetなどでPointer Generator, Reinforced Model を抑えてState-of-the-Art
  • 7. 文書要約(Document Summarization) COPYRIGHT 2017 INFORMATION SERVICES INTERNATIONAL - DENTSU, LTD. ALL RIGHTS RESERVED. 6 • 文書中から重要な情報を拾ってきてまとめあげたい • Extractive(抽出型)とAbstractive(生成型)のアプローチが存在する ※Google AI Blogより https://ai.googleblog.com/2016/08/text-summarization-with-tensorflow.html
  • 8. 抽出型要約(Extractive Summarization) COPYRIGHT 2017 INFORMATION SERVICES INTERNATIONAL - DENTSU, LTD. ALL RIGHTS RESERVED. 7 • 原文中の表現を使って要約を生成する • 長い歴史 • 近年はニューラルネットを使った手法も [Erkan and Radev, 2004)] [Nallapati et al. 2017]
  • 9. 生成型要約(Abstractive Summarization) COPYRIGHT 2017 INFORMATION SERVICES INTERNATIONAL - DENTSU, LTD. ALL RIGHTS RESERVED. 8 • 原文中の表現以外も使って要約を生成する • 大雑把に言うとExtractive以外 • 近年のDeep Learningブームで盛んに研究されている • 今回のテーマ [See et al., 2017)][Nallapati+ 2016] [Paulus et al., 2018)]
  • 10. 近年のDLベースの生成型要約モデル COPYRIGHT 2017 INFORMATION SERVICES INTERNATIONAL - DENTSU, LTD. ALL RIGHTS RESERVED. 9 • Attention Based Summarization[Rush et al. 2015] • Attention + ニューラル言語モデル • Seq2Seq + Attention[Nallapati et al. 2016] • Seq2Seq + Attention • Pointer Generator[See et al. 2017] • Copy Mechanism + Coverage Mechanism • Reinforced Model[Paulus et al. 2018] • Intra Attention + Reinforcement Learning
  • 11. Deep Learningベーステキスト生成につきまとう課題 COPYRIGHT 2017 INFORMATION SERVICES INTERNATIONAL - DENTSU, LTD. ALL RIGHTS RESERVED. 10 1. Repetition • Decode時に同じ単語を繰り返してしまう 2. Out-of-Vocabulary(OOV) • 学習データに存在しない単語をDecodeできない 3. Non-differentiable • 微分不可能な処理を挟むと学習できない
  • 12. Repetition COPYRIGHT 2017 INFORMATION SERVICES INTERNATIONAL - DENTSU, LTD. ALL RIGHTS RESERVED. 11 RNNで長いテキストを生成する際に、既に出力した単語(あるいはフレー ズ)を再度生成してしまう問題 対策: Coverage MechanismやIntra-Attention 同じフレーズが生成されてしまっている! Coverage Mechanism 時刻t’の Attention分布 同じ単語を選ぶ (次元iの値が大きくなる)と covloss↑ Intra-Attention DecoderにもAttentionをかけContext Vectorを得る
  • 13. Out-of-Vocabulary(OOV) COPYRIGHT 2017 INFORMATION SERVICES INTERNATIONAL - DENTSU, LTD. ALL RIGHTS RESERVED. 12 学習データにない単語やUNKトークンに置き換えられた低頻度語を、Test 時にDecodeできない問題 対策: Copy Mechanism[Merity et al. 2016][Gu et al. 2016] (Decode時に入力単語をCopyして生成) ⇒以前Qiitaに記事を書いたので詳しくはこちら: Seq2Seq+Attentionのその先へ https://qiita.com/ymym3412/items/c84e6254de89c9952c55 低頻度語は学習データ内でUNKに置き換えられ てしまうため、Decodeできない
  • 14. Non-differentiable COPYRIGHT 2017 INFORMATION SERVICES INTERNATIONAL - DENTSU, LTD. ALL RIGHTS RESERVED. 13 損失関数の計算に微分不可能な処理を挟むと、Back Propagationによる学 習を行えない ⇒微分不可能な処理とは? 対策: 強化学習[Chen et al. 2017]やMinimum Risk Training[Cheng et al. 2016] 例1: KB対話 例2: 評価指標の直接最適化
  • 15. 提案手法 COPYRIGHT 2017 INFORMATION SERVICES INTERNATIONAL - DENTSU, LTD. ALL RIGHTS RESERVED. 14
  • 16. 提案モデルの概要 COPYRIGHT 2017 INFORMATION SERVICES INTERNATIONAL - DENTSU, LTD. ALL RIGHTS RESERVED. 15 • 生成型要約モデル(抽出型要約もできるよ!) • Extract-Then-Rewriteの方式で要約を生成する • ExtractとAbstractに分けるアプローチは最近見る • A Unified Model for Extractive and Abstractive Summarization using Inconsistency Loss[Hsu et al. 2018] ACL2018 • Generating Wikipedia by Summarizing Long Sequences[Liu et al. 2018] ICLR2018 • 抽出を行うExtractorとRewriteを行うAbstractor
  • 17. Extract-Then-Rewrite? COPYRIGHT 2017 INFORMATION SERVICES INTERNATIONAL - DENTSU, LTD. ALL RIGHTS RESERVED. 16 • 人間が要約を作るときの流れを参考に • 文章の重要な箇所にあたりをつけてから、それらをまとめて要約を作る • 文章中の重要な文を抽出し、それを書き直すことで生成型要約を作る Extract Rewrite
  • 18. Extract COPYRIGHT 2017 INFORMATION SERVICES INTERNATIONAL - DENTSU, LTD. ALL RIGHTS RESERVED. 17 • Extractorモデルが担当 • Temporal Convolution Model[Kim, 2014]で文を特徴ベクトルに変換 • Bi-LSTMで文脈を考慮した文の表現に変換 • Pointer Network[Vinyals et al. 2015]で入力にAttentionをかけて文を抽出
  • 19. Rewrite COPYRIGHT 2017 INFORMATION SERVICES INTERNATIONAL - DENTSU, LTD. ALL RIGHTS RESERVED. 18 • Abstractorモデルが担当 • Extractorが抽出した文を受け取り要約を作る • Seq2Seqモデル + Attention • Copy Mechanismを使うことで未知語を回避(OOVの緩和) たぶん構造は これに近い 親の顔より見た Seq2Seq + Attention Copy Mechanism
  • 20. Training COPYRIGHT 2017 INFORMATION SERVICES INTERNATIONAL - DENTSU, LTD. ALL RIGHTS RESERVED. 19 • Maximum-Likelihood TrainingとReinforcement Learningの2段階 • 最初からE2EだとExtractorが貧弱なうちはAbstractorの学習が滞る • Maximum-Likelihood TrainingはExtractor, Abstractorそれぞれを MLEを使って教師あり学習 • ⇒教師ラベルは? • ⇒⇒proxy target label[Nallapati et al. 2017] 生成型要約の t番目の文 文書の i番目の文
  • 21. Training COPYRIGHT 2017 INFORMATION SERVICES INTERNATIONAL - DENTSU, LTD. ALL RIGHTS RESERVED. 20 • Extractorによる文の選択処理が微分不可 • 評価指標ROUGEを報酬とした強化学習でモデル全体の学習を行う • ただしRLの学習ではAbstractorのパラメータはfix • REINFORCE[Williams, 1992]は勾配の分散が大きいためA2Cを採用する • AgentはExtractor • 報酬はGround truth summaryとのROUGE-LF1 • CriticとしてPointer NetのDecoder • 出力は状態価値関数
  • 22. (ちょっと復習)強化学習 COPYRIGHT 2017 INFORMATION SERVICES INTERNATIONAL - DENTSU, LTD. ALL RIGHTS RESERVED. 21 • エージェントが文を抽出(行動 at)し、それをAbstractorがRewriteし、GT summaryとの ROUGEから報酬Rtを得る • 環境(文書)からt-1に抽出した文を状態st(論文中ではct)として観測する • 方策 = Extractor ※ゼロから始める強化学習より https://www.slideshare.net/pfi/nlp2018-introduction-of-deep-reinforcement-learning
  • 23. REINFORCEアルゴリズムによる方策勾配法 COPYRIGHT 2017 INFORMATION SERVICES INTERNATIONAL - DENTSU, LTD. ALL RIGHTS RESERVED. 22 • 方策: Extractorのパラメータ更新式 • 行動価値関数Q(c,j)を即時報酬Rtで近似するのがREINFORCE • 今回は初めからQ(c,j)を報酬の期待値として定義してしまっている • しかしREINFORCEは勾配の分散が大きい t-1に抽出した文がctで tに抽出した文がjtのときのROUGE値の期待 値 Extractorがjtを抽出したときの対数尤度
  • 24. A2CアルゴリズムによるExtractorの学習 COPYRIGHT 2017 INFORMATION SERVICES INTERNATIONAL - DENTSU, LTD. ALL RIGHTS RESERVED. 23 • REINFORCEでは勾配の計算時にベースラインを導入できる • ベースラインとして学習可能なCriticを使い勾配の分散を小さくする • Criticは状態がcのときの報酬を推定する • Advantage関数を用いると、最終的な勾配は以下の式になる Advantage学習では、 行動価値関数Qの更新に 数step先の報酬も考慮する ※ はCriticの予想した値
  • 25. 提案モデルと課題への対策 COPYRIGHT 2017 INFORMATION SERVICES INTERNATIONAL - DENTSU, LTD. ALL RIGHTS RESERVED. 24 1. Repetition • ⇒Extractorが重複を排除して抽出。またBeam Search時にN-gram重複を避けるように Reranking 2. Out-of-Vocabulary(OOV) • ⇒AbstractorへのCopy Mechanismの導入 3. Non-differentiable • ⇒Extractorでの抽出の微分不可能性について、強化学習の導入で対応
  • 26. 実験 COPYRIGHT 2017 INFORMATION SERVICES INTERNATIONAL - DENTSU, LTD. ALL RIGHTS RESERVED. 25
  • 27. CNN/Daily Mail Datasetでの実験 COPYRIGHT 2017 INFORMATION SERVICES INTERNATIONAL - DENTSU, LTD. ALL RIGHTS RESERVED. 26 • Extractive/Abstractive 両セッティングで実験 • 両セッティングでState-of-the-Art
  • 28. Pointer-GeneratorとのABテストのAbstractiveness COPYRIGHT 2017 INFORMATION SERVICES INTERNATIONAL - DENTSU, LTD. ALL RIGHTS RESERVED. 27 • Pointer-Generatorとの人手でのABテスト • Relevanceで差はついたが、Readabilityは大差なし • 出来上がる要約のAbstractivenessの計測 • 2~4gramの範囲で大きな改善 • とはいえ単語の刈り取りをすれば2-gram~は上昇する(はず)
  • 29. 計算時間の比較 COPYRIGHT 2017 INFORMATION SERVICES INTERNATIONAL - DENTSU, LTD. ALL RIGHTS RESERVED. 28 • Abstractorによる要約生成は複数の抽出文に依存していないため、抽出 した文から要約を生成する部分を並列化可能! • こんな感じに並列化できる(右図) • 最大で24倍の高速化に成功
  • 30. まとめ COPYRIGHT 2017 INFORMATION SERVICES INTERNATIONAL - DENTSU, LTD. ALL RIGHTS RESERVED. 29 • 生成型要約を行うExtract-Then-Rewriteモデルの提案 • 近年の潮流をよく押さえている • 微分不可能な抽出処理に対してA2Cによる強化学習を導入 • 生成された要約を見ると「Rewrite」というより「Compress」 • 論文中でもcompressと述べられている • Abstractorに改良の余地? • Extract-Then-Abstractモデルは今後の生成型要約手法のトレンドにな るかもしれない
  • 31. 参考文献 COPYRIGHT 2017 INFORMATION SERVICES INTERNATIONAL - DENTSU, LTD. ALL RIGHTS RESERVED. 30 • Text summarization with TensorFlow: https://ai.googleblog.com/2016/08/text-summarization-with-tensorflow.html • Gunes Erkan, Dragomir R. Radev. 2004: LexRank: Graph-based Lexical Centrality as Salience in Text Summarization : https://www.aaai.org/Papers/JAIR/Vol22/JAIR-2214.pdf • Ramesh Nallapati, Feifei Zhai, and Bowen Zhou. 2017: SummaRuNNer: A Recurrent Neural Network based Sequence Model for Extractive Summarization of Documents: https://arxiv.org/pdf/1611.04230.pdf • Romain Paulus, Caiming Xiong, and Richard Socher. 2018: A Deep Reinforced Model for Abstractive Summarization: https://arxiv.org/abs/1705.04304 • Abigail See, Peter J. Liu, and Christopher D. Manning. 2017: Get To The Point: Summarization with Pointer-Generator Networks: https://arxiv.org/abs/1704.04368 • Ramesh Nallapati, Bowen Zhou, Cicero dos Santos, C¸ aglar Gulc¸ehre, and Bing Xiang. 2016: Abstractive Text Summarization Using Sequence-to-Sequence RNNs and Beyond: https://arxiv.org/abs/1602.06023 • Alexander M. Rush, Sumit Chopra, and Jason Weston. 2015: A Neural Attention Model for Abstractive Sentence Summarization: https://arxiv.org/abs/1509.00685 • Seq2Seq+Attentionのその先へ: https://qiita.com/ymym3412/items/c84e6254de89c9952c55 • Stephen Merity, Caiming Xiong, James Bradbury, and Richard Socher. 2016: Pointer Sentinel Mixture Models: https://arxiv.org/abs/1609.07843 • Jiatao Gu, Zhengdong Lu, Hang Li, and Victor OK Li. 2016: Incorporating Copying Mechanism in Sequence-to-Sequence Learning: https://arxiv.org/abs/1603.06393
  • 32. 参考文献 COPYRIGHT 2017 INFORMATION SERVICES INTERNATIONAL - DENTSU, LTD. ALL RIGHTS RESERVED. 31 • Shiqi Shen, Yong Cheng, Zhongjun He, Wei He, Hua Wu, Maosong Sun, Yang Liu. 2015: Minimum Risk Training for Neural Machine Translation: https://arxiv.org/abs/1512.02433 • 大自然言語時代のための、文章要約: https://qiita.com/icoxfog417/items/d06651db10e27220c819 • Wan-Ting Hsu, Chieh-Kai Lin, Ming-Ying Lee, Kerui Min, Jing Tang, Min Sun. 2018:A Unified Model for Extractive and Abstractive Summarization using Inconsistency Loss: https://arxiv.org/abs/1805.06266v1 • Peter J. Liu, Mohammad Saleh, Etienne Pot, Ben Goodrich, Ryan Sepassi, Lukasz Kaiser, Noam Shazeer. 2018:Generating Wikipedia by Summarizing Long Sequences: https://arxiv.org/abs/1801.10198 • Yoon Kim. 2014: Convolutional Neural Networks for Sentence Classification: https://arxiv.org/abs/1408.5882 • Oriol Vinyals, Meire Fortunato, and Navdeep Jaitly. 2015: Pointer Networks: https://arxiv.org/abs/1506.03134 • ゼロから始める深層強化学習(NLP2018講演資料)/ Introduction of Deep Reinforcement Learning: https://www.slideshare.net/pfi/nlp2018- introduction-of-deep-reinforcement-learning • Ronald J. Williams. 1992: Simple statistical gradientfollowing algorithms for connectionist reinforcement learning: http://www- anw.cs.umass.edu/~barto/courses/cs687/williams92simple.pdf • Sequence Level Training with Recurrent Neural Networks (関東CV勉強会 強化学習論文読み会): https://www.slideshare.net/YoshitakaUshiku/sequence-level-training-with-recurrent-neural-networks-cv • これからの強化学習: http://www.morikita.co.jp/books/book/3034 • つくりながら学ぶ!深層強化学習 PyTorchによる実践プログラミング: https://book.mynavi.jp/manatee/books/detail/id=91985 • Yen-Chun Chen, Mohit Bansal: Fast Abstractive Summarization with Reinforce-Selected Sentence Rewriting: https://arxiv.org/abs/1805.11080v1
  • 33. APPENDIX COPYRIGHT 2017 INFORMATION SERVICES INTERNATIONAL - DENTSU, LTD. ALL RIGHTS RESERVED. 32
  • 34. モデルによる要約 COPYRIGHT 2017 INFORMATION SERVICES INTERNATIONAL - DENTSU, LTD. ALL RIGHTS RESERVED. 33