SlideShare une entreprise Scribd logo
1  sur  46
第3回アジア翻訳ワークショップの
人手評価結果の分析
中澤 敏明
科学技術振興機構(JST)
2016年11月25日 第4回特許情報シンポジウム
アジア翻訳ワークショップ (WAT)
• Workshop on Asian Translation
– アジア言語を対象とした機械翻訳評価ワークショップ
– 日本語、中国語、韓国語、インドネシア語、ヒンディー語、
英語
– 2014年より開催、今年で3回目
• WAT2016
– 12月12日に大阪で開催(Coling2016併設)
– 今回から研究論文も募集
– 招待講演はGoogleの賀沢氏
http://lotus.kuee.kyoto-u.ac.jp/WAT/
2
WAT2016翻訳タスク
• 科学技術論文(ASPEC)
– 日英、日中
• 特許(JPC)
– 日英、日中、日韓
• 新聞記事(BPPT)
– インドネシア英
• 混合ドメイン
– ヒンディー英、ヒンディー日
3
翻訳タスク参加チーム一覧
Team ID Organization
ASPEC JPC BPPT IITBC pivot
JE EJ JC CJ JE EJ JC CJ JK KJ EI IE HE EH HJ JH
NAIST Nara Institute of Science and Technology ✓
Kyoto-U Kyoto University ✓ ✓ ✓ ✓
TMU Tokyo Metropolitan University ✓
bjtu_nlp Beijing Jiaotong University ✓ ✓ ✓ ✓ ✓ ✓ ✓ ✓
Sense Saarland University ✓ ✓
NICT-2
National Institute of Information
and Communication Technology
✓ ✓ ✓ ✓ ✓ ✓ ✓ ✓
WASUIPS Waseda University ✓
EHR Ehara NLP Research Laboratory ✓ ✓ ✓ ✓ ✓ ✓
ntt NTT Communication Science Laboratories ✓
TOKYOMT Weblio, Inc. ✓
IITB-EN-ID Indian Institute of Technology Bombay ✓ ✓
JAPIO Japan Patent Information Organization ✓ ✓ ✓ ✓ ✓
IITP-MT Indian Institute of Technology Patna ✓
UT-KAY University of Tokyo ✓
UT-AKY University of Tokyo ✓
# of participants 5 7 3 6 2 3 2 6 0 2 2 2 0 2 1 0
outside Japancompany
NMT
4
SMTとNMTの違い
ちょっと脱線
5
訓練データ 開発データ 入力文
フレーズ
テーブル 素性の重み
言語モデ
ル
N-best
翻訳結果
最終
翻訳結果
チューニング
(MERT,MIRA)
デコード
リランキング/
後編集
一般的な統計翻訳(SMT)の枠組み
デコーダー
(Moses, Travatar,
KyotoEBMT)
6
単語アライメント
(GIZA, Nile)
Attention-based Neural Machine Translation
新
た
な
翻
訳
手
法
を 提
案
す
る
Encoder
入力文の
情報を
行列に変換
Attention
どの単語に
注目するかを
1出力ごとに計
算
Decoder
先頭から
1単語ずつ
翻訳を生成
2000
0.1
0.5
…
0.3
0.8
0.1
…
1.2
1.5
0.2
…
0.7
0.7
0.3
…
0.6
0.9
1.1
…
1.0
0.3
0.2
…
0.1
0.45
0.20
0.25
0.05
0.02
0.03
we propose a novel
[0.642 0.338 … 0.603]
2000
context vector
……
6
6
6
Encodeされた
入力文
入力単語の
注目度
入力文 出力文
7
Attention-based Neural Machine Translation
新たな 翻訳 手法 を 提案 する
embedding
forward LSTM
backward LSTM
we propose a novel translation method
attention
decoder LSTM
softmax
input
output
<EOS>
<EOS>
8
Attention-based Neural Machine Translation
- Encoder -
新たな 翻訳 手法 を 提案 する
[0.1 0.5 … 0.3] [0.8 0.1 … 1.2] [1.5 0.2 … 0.7] [0.7 0.3 … 0.6] [0.9 1.1 … 1.0] [0.3 0.2 … 0.1]
[0.6 … 0.4] [0.3 … 0.2] [0.2 … 0.8] [0.7 … 0.1] [0.4 … 0.4] [0.9 … 0.3]
LSTM LSTM LSTM LSTM LSTM LSTM
LSTM LSTM LSTM LSTM LSTM LSTM
2000次元
2つのベクトルの結合
[0.1 … 0.5] [0.8 … 0.2] [1.5 … 0.1] [0.7 … 1.1] [0.9 … 0.8] [0.3 … 0.4]
[0.2 … 0.3] [1.9 … 1.2] [0.2 … 0.7] [1.5 … 0.6] [0.1 … 1.0] [1.4 … 0.1]
620次元
各単語独立
1000次元
前の単語列の
情報を含む
Source Embedding
9
Attention-based Neural Machine Translation
- Attention & Decoder -
0.1
0.5
…
0.3
0.8
0.1
…
1.2
1.5
0.2
…
0.7
0.7
0.3
…
0.6
0.9
1.1
…
1.0
0.3
0.2
…
0.1
0.45
0.20
0.25
0.05
0.02
0.03
[0.642 0.338 … 0.603]
LSTM
we propose a novel
[0.2 … 0.8]
LSTM
Encodeされた
入力文
LSTM
Softmax
[0.01 … 0.6 … 0.03]
Target
Embedding
目的言語の
語彙数次元
1つ前の出力を使う
context vector
入力単語の
注目度
[1.70 0.89 1.11 -0.50 -1.41 -1.01]
非線形変換
正規化
10
SMTとNMTの違い
• NMTではフレーズテーブルという概念は存在しない
– 単語アライメントは必要ない
• NMTは、SMTのように入力文を単語(フレーズ)単位
で「置き換える」ことで翻訳しているわけではなく、入
力文を見ながら翻訳文を作り出している
– 入力文を過不足なくカバーして翻訳することができない
• NMTでは入口(入力文)と出口(翻訳文)以外は全て
数値計算(行列の積など)だけで動いている
• 現状のNMTの枠組みでは、指定部分を指定訳にす
るなどの前処理・後処理ができない
11
SMTとNMTの違い
• モデルのトレーニングに時間がかかる
– 100万文の対訳コーパスで3日ぐらい
– GPUが必須、CPUでは10倍以上時間がかかる
• 使う対訳コーパスによって最高のパフォーマンスが
出る設定が全然ちがう
– この設定を自動で決められるようにはなっていない
– どの設定がいいかは経験や直感に頼る部分が大きい
– 初期パラメータをランダムに設定するため、同じコーパス、
同じ設定でトレーニングしても、最終的な精度が全然違う
ことがある
12
WAT2016の翻訳評価方法
13
翻訳結果評価方法
• 自動評価
– BLEU, RIBES, AM-FM [Banchs+, 2015]
– 自動評価サーバーを用意し、参加者が翻訳結果を提出す
ると自動的に評価され、都度Webに結果が公開される
• 人手評価: 二段階評価
1. 一対比較評価
• 各チーム各言語対2つまで翻訳結果を提出可能
2. 特許庁が公開している特許文献機械翻訳の品質評価手
順のうち、「内容の伝達レベルの評価」
• 一対比較評価の結果、各言語対上位3システムを対象に評価
14
一対比較評価
• 各システムの翻訳結果をベースライン(フレーズベー
スSMT)と文ごとに比較
• 評価対象文はテストセットのうちの400文
• 5人の評価者が文ごとにベースラインより良いか(+1)、
悪いか(-1)、同程度か(0)を評価
• 5人の評価を足し合わせて、+2以上ならばその文は
ベースラインより良いと、-2以下ならば悪いと、それ
以外ならば同程度と判定
• 最終的にスコアを以下の式で計算
– Pairwise Score = 100 × (勝ち数 - 負け数) / 400
15
内容の伝達レベルの評価
• 一対評価対象文のうちの200文を評価
• 2人の評価者が文ごとに特許庁の基準により評価
評価
値
評価基準
5 すべての重要情報が正確に伝達されている。 (100%)
4 ほとんどの重要情報は正確に伝達されている。 (80%〜)
3 半分以上の重要情報は正確に伝達されている。 (50%〜)
2 いくつかの重要情報は正確に伝達されている。 (20%〜)
1
文意がわからない、もしくは正確に伝達されている重要情報
は
ほとんどない。 (〜20%)
https://www.jpo.go.jp/shiryou/toushin/chousa/tokkyohonyaku_hyouka.htm
16
特許翻訳タスク評価結果
17
http://lotus.kuee.kyoto-u.ac.jp/WAT/evaluation/
日→英 評価結果
NMT A Online A SMT A 1 SMT A 2 RBMT A SMT B SMT C
18
日→英 評価結果
NMT A Online A SMT A 1 NMT A Online A SMT A 1
19
英→日 評価結果
NMT A SMT A 1 SMT B SMT A 2 SMT C 1 SMT D Online A SMT C 2 RBMT A
20
英→日 評価結果
NMT ASMT A 1 SMT B NMT ASMT A 1 SMT B
21
日→中 評価結果
SMT A 1 SMT B SMT C NMT A SMT A 2 Online A RBMT A
22
日→中 評価結果
SMT A 1 SMT CNMT A
SMT A 1 SMT CNMT A
23
中→日 評価結果
NMT A 1 SMT A 1 SMT A 2 SMT B 1 SMT C
(2015)
NMT A 2 SMT D 1 SMT B 2 SMT D 2 NMT B EBMT A
(2015)
SMT E
(2015)
Online A SMT F
24
中→日 評価結果
NMT A 1 SMT A 1 SMT B 1 NMT A 1 SMT A 1 SMT B 1
25
韓→日 評価結果
SMT A 1 SMT B 1
(2015)
SMT C 1 SMT B 2
(2015)
SMT D 1
(2015)
NMT A 1
(2015)
SMT D 2
(2015)
Online A NMT A 2
(2015)
SMT D 1
(2015)
SMT E 1
(2015)
SMT F SMT E 2
(2015)
SMT B 2 SMT D 2
(2015)
26
韓→日 評価結果
SMT C 1 SMT A 1 Online A SMT C 1 SMT A 1 Online A
27
特許翻訳 経年評価
NMT (2016) EBMT (2015) SMT (2016) NMT (2015)
44.99 41.35 71.51 71.38BLEU BLEU
28
科学技術論文翻訳 経年評価
NMT (2016) SMT (2015)
26.22 25.41BLEU 36.19 35.83BLEU
31.98 31.61BLEU 46.04 41.75BLEU
NMT (2016) SMT (2015)
NMT (2016) SMT (2015) NMT (2016) SMT (2015) 29
翻訳結果の分析
30
翻訳例
1. SMTにおいて(5, 5)の評価だったものが、 NMTにお
いてどちらも5未満の評価になったもの
2. NMTにおいてどちらも2以下の評価になったもの
• 中→日 特許文、日→英・英→日 科学技術論文
31
IN “聚合酶链反应”(“PCR”)是本领域技术人员熟知的。
REF 「ポリメラーゼ連鎖反応」(「PCR」)は、当業者によく知られている。
SMT「ポリメラーゼ連鎖反応(PCR)」は、当業者に周知である。 (5, 5)
NMT「重反応」(「PCR」)は当業者に周知である。 (4, 2)
IN 具体来讲,如图2中所示地执行晶锭生长步骤(S110)。
REF 具体的には、図2に示すように、まずインゴット成長工程(S110)を実施する。
SMT具体的には、図2に示すように、インゴット成長工程(S110)が行われる。 (5, 5)
NMT具体的には、図2に示すように結晶成長工程を行う(S110)。 (4, 4)
IN
关于施加与最佳值错开的电压时获得的电流量受到血液试样内的血细胞比容值
(Hct值)的影响。
REF
最適値から外れた電圧を印加した時に取得される電流量は、血液試料内のヘマト
クリット値(Hct値)によって左右され得る。
SMT
最適値からずれる電圧を印加した際に得られる電流量は、血液試料内のヘマトク
リット値(Hct値)の影響を受ける。 (5, 5)
NMT
最適な値の電圧を印加する際に得られる電流量は、血液試料内のヘマトクリット値
(Hct値)の影響を受ける。 (4, 4)
特許 中→日 1
32
IN 本发明片剂还可以包含包衣层,它可占片剂组合物的约0-15%(重量)。
REF
また錠剤は、錠剤組成全量中0〜約15重量%を含むコーティング層を有することが
できる。
SMT
本発明の錠剤は、コーティング層をさらに含むことができるが、それは、錠剤組成物
の約0〜15重量%を占めることができる。 (5, 5)
NMT
本発明の錠剤はまた、錠剤組成物の約0〜15重量%(重量)を含有していてもよい。
(1, 2)
IN
使用由高取向热解石墨(HOPG)制成的单色器702作为X射线的单色化单元以便提
取Mo的特征X射线。
REF
X線の単色化手段としては高配向性熱分解黒鉛(HOPG)のモノクロメータ702を用
いMoの特性X線部分を抽出する。
SMT
X線として高配向熱分解黒鉛(HOPG)からなるモノクロメータ702の単色化ユニット
を用いてMoの特性X線を抽出することができる。 (3, 3)
NMT
高配向熱分解黒鉛(HOPG)からなるの702は、X線を用いてX線を抽出するために、X
線を使用する。 (1, 2)
特許 中→日 2
33
IN Hartree−Fock−Bogoliubov法を用いて変形した原子核の対密度分布を調べた。
REF
Using Hartree-Fock-Bogoliubov method, pairing density distribution of the
deformed nuclei was investigated.
SMT
The pair density distribution of deformed nuclei was investigated using Hartree-
Fock-Bogoliubov method. (5, 5)
NMT
The density distribution of deformed nuclei is investigated by the Hartree - Fock -
Bogoliubov method. (4, 4)
IN 軸対称な四重極変形した原子核を対象にした。
REF Axial symmetric quadrupole deformed nuclei were examined.
SMTThe axisymmetric quadrupole deformation nuclei were made to be an object. (5, 5)
NMTAn axially symmetric quadrupole nucleus is studied. (4, 3)
IN 表面型対相関を用いて密度分布と対密度分布の角度依存性を求めた。
REF
Angular dependences of the density distribution and pairing density distribution
were obtained with the surface type pairing correlation.
SMT
The angular dependence of density distribution and pair density distribution was
obtained using a surface-type pair correlation. (5, 5)
NMT
The surface - pair correlation is used to obtain the angular dependence of the
density distribution and the density distribution. (4, 4)
論文 日→英 1
34
IN 食事については,全介助から半介助となった。
REF On the meal, changing from all support to half support was realized.
SMTThe meal became half assistance from the assistance. (1, 4)
NMTOn the meal, it became the assistance from all assistance assistance. (1, 2)
IN 排せつ,排尿はまだ時間を要する
REF It takes much more times in excretion and urination.
SMTThe excretion, urination, still needs the time. (5, 5)
NMTExcretion and voidance are necessary for a long time. (1, 2)
IN スキー滑走中に転倒受傷し右膝変形ととう痛にて受診。
REF
A man tumbled over in a ski slide and was injured and then had right knee
deformation and pain and so received medical examination.
SMT
He had medical examination by pain and right knee deformation injured overturning
during ski. (3, 4)
NMT
The ski was injured in ski ski sliding, and it had medical examination by right knee
deformation and pain. (2, 2)
論文 日→英 2
35
IN
Using Hartree-Fock-Bogoliubov method, pairing density distribution of the
deformed nuclei was investigated.
REF Hartree−Fock−Bogoliubov法を用いて変形した原子核の対密度分布を調べた。
SMT
Hartree ‐ Fock ‐ Bogoliubov法を用いて,変形した核の対密度分布を調べた。
(5, 5)
NMT標記の方法を用いて,変形核の対密度分布を調べた。 (4, 3)
IN
By this approach, monodispersed swollen styrene particles were obtained and the
fine particles in the title were synthesized.
REF この方法で,単分散なスチレン膨潤粒子を得,標記微粒子を合成した。
SMT
このアプローチにより,単分散膨潤スチレン粒子が得られ,標記微粒子を合成した。
(5, 5)
NMTこの方法により,単分散のスチレン粒子を得,標記微粒子を合成した。 (4, 4)
IN No side effect was noted during treatment.
REF 治療中,副作用は認めなかった。
SMT治療中に副作用はなかった。 (5, 5)
NMT副作用は認めなかった。 (4, 3)
論文 英→日 1
36
IN
The liver and intestine were extracorporeally observed through the central
abdominal wall in the gestational age.
REF 在胎中,肝と腸が中心腹壁を介し体外的に観察された。
SMT肝臓や小腸は妊娠期間における中枢腹壁を通して体外に観察された。 (5, 4)
NMT妊娠時の腹部CTでは,肝,腸管はほぼ全周性に描出された。 (1, 1)
IN
Pilot plant tests showed the system gives clean water reusable as feed water to
deionizers.
REF
パイロットプラントによる結果は,純水装置の原水として再利用可能レベル迄処理で
きた。
SMT
パイロットプラント試験はdeionizersに水として清浄水再使用を与えるシステムを示
した。 (3, 4)
NMTパイロットプラント試験により,本システムの有効性を確認した。 (2, 1)
IN Polonium 210 is found, in an extremely low amount though, in the cigarette smoke.
REF またポロニウム210はごく微量であるが,タバコの煙の中にも含まれている。
SMTたばこ煙が極めて低い量で210ポロニウムが見られる。 (3, 5)
NMTシガレット210は極低濃度ではあるが,たばこ煙では検出されていない。 (1, 2)
論文 英→日 2
37
結果からわかること
• NMTはアジア言語の翻訳においても有効
• NMTでは翻訳文の流暢さは完璧に近い
• ただし正確性は完璧ではない
– 平均的な翻訳精度は格段に向上するが、訳抜けが起こり
やすく、完璧な翻訳になる割合が低い
– 低頻度語の翻訳に弱い
– たまにおかしくなったように同じ単語を繰り返し出力する
• 上記問題の解決方法はすでに提案され始めている
38
結果からわかること
• 日中翻訳はかなり向上した
– 同様の結果は中英翻訳でも確認されている
• https://arxiv.org/abs/1610.01108
– おそらく、中国語の単語分割誤りの影響がNMTでは低減
されることが原因
• そもそも翻訳精度が高かった日英翻訳では前期
の問題により日中ほど大きな向上は見られない
39
今後の展望
• ニューラル翻訳(NMT)はここ数年で急激に発展し、統
計翻訳の精度を追い越している
• NMTの研究はまだ発展する可能性が高い
• ただし、過去の遺産(SMT)が活躍する場もまだ残って
いることは確かで、うまく組み合わせられると良い
– 特に対訳コーパスが少量の場合NMTはSMTよりも弱い
– NMTの発展次第では本当に遺産になる可能性もあるが
40
NMTのプロダクト化
2015/05 Baidu 中英
(http://www.aclweb.org/anthology/W15-4110)
2016/08 SYSTRAN 12言語 (日、韓、英、仏など)
(http://blog.systransoft.com)
2016/10 WIPO 中、日、韓→英 (特許文)
(http://www.wipo.int/pressroom/en/articles/2016/article_0014.html)
2016/11 Microsoft 10言語 (英、日、中、仏、独、西、葡、露、伊、剌)
(https://blogs.msdn.microsoft.com/translation/)
2016/11 Google 8言語 (英、日、中、韓、仏、独、西、葡、土)
(https://japan.googleblog.com/2016/11/google.html)
41
Googleのニューラルネットワーク翻訳
日→英 英→日 日→中 中→日
旧Google 16.91 18.28 11.16 11.56
Google NMT 22.04 26.19 15.94* 18.75*
Best System 26.39 36.19 31.98 46.04
科学技術論文翻訳@WAT2016
日→英 英→日 日→中 中→日 韓→日
旧Google 35.77 36.88 23.02 26.99 54.78
Google NMT 49.35 50.60 33.04* 42.66* 44.42*
Best System 41.62 50.28 33.40 58.66 71.51
特許翻訳@WAT2016
(* 英語を介した翻訳)
42
特許庁からの意見招請
43
44
$20 / 100万文字
(参考)読売新聞1日分の文字数: 約13万文字
Google NMTの使い方
• Google翻訳では複数のエンジンが並行して動いてい
る
• NMTを使うには、Google翻訳公式ページ
(https://translate.google.com/)か、Google Translate
APIを使うほうが良い
– それ以外のページを経由する場合は旧システムの結果に
なる可能性がある
• NMTは英語とその他の言語間しか対応していない
– 日中などを直接翻訳すると、旧システムの結果
• 見分け方は、翻訳された文をポイントした時に、単語
対応が表示されるかどうか
45
今後どうなるか?
• Google NMTと同等か、少し良い程度の翻訳の質を
納品する翻訳会社は、立ち行かなくなる
– クラウド翻訳サービスの会社は危ない?
• Google NMTの結果をそのまま、もしくは多少の修正
で納品する会社が多発
– Google NMTを使ったかどうかを見分けるのが難しい
• 一般の人がGoogle NMTの結果をそのまま使用し、
Web上や街中に誤訳が氾濫
– 今でもたまに問題になるが、今後はさらに悪化?
46

Contenu connexe

Tendances

ACL Reading @NAIST: Fast and Robust Neural Network Joint Model for Statistica...
ACL Reading @NAIST: Fast and Robust Neural Network Joint Model for Statistica...ACL Reading @NAIST: Fast and Robust Neural Network Joint Model for Statistica...
ACL Reading @NAIST: Fast and Robust Neural Network Joint Model for Statistica...Yusuke Oda
 
深層学習時代の自然言語処理
深層学習時代の自然言語処理深層学習時代の自然言語処理
深層学習時代の自然言語処理Yuya Unno
 
言語と知識の深層学習@認知科学会サマースクール
言語と知識の深層学習@認知科学会サマースクール言語と知識の深層学習@認知科学会サマースクール
言語と知識の深層学習@認知科学会サマースクールYuya Unno
 
予測型戦略を知るための機械学習チュートリアル
予測型戦略を知るための機械学習チュートリアル予測型戦略を知るための機械学習チュートリアル
予測型戦略を知るための機械学習チュートリアルYuya Unno
 
最近のDeep Learning (NLP) 界隈におけるAttention事情
最近のDeep Learning (NLP) 界隈におけるAttention事情最近のDeep Learning (NLP) 界隈におけるAttention事情
最近のDeep Learning (NLP) 界隈におけるAttention事情Yuta Kikuchi
 
単語・句の分散表現の学習
単語・句の分散表現の学習単語・句の分散表現の学習
単語・句の分散表現の学習Naoaki Okazaki
 
ニューラル機械翻訳の動向@IBIS2017
ニューラル機械翻訳の動向@IBIS2017ニューラル機械翻訳の動向@IBIS2017
ニューラル機械翻訳の動向@IBIS2017Toshiaki Nakazawa
 
子どもの言語獲得のモデル化とNN Language ModelsNN
子どもの言語獲得のモデル化とNN Language ModelsNN 子どもの言語獲得のモデル化とNN Language ModelsNN
子どもの言語獲得のモデル化とNN Language ModelsNN Chiba Institute of Technology
 
形態素解析の過去・現在・未来
形態素解析の過去・現在・未来形態素解析の過去・現在・未来
形態素解析の過去・現在・未来Preferred Networks
 
Jubatusのリアルタイム分散レコメンデーション@TokyoNLP#9
Jubatusのリアルタイム分散レコメンデーション@TokyoNLP#9Jubatusのリアルタイム分散レコメンデーション@TokyoNLP#9
Jubatusのリアルタイム分散レコメンデーション@TokyoNLP#9Yuya Unno
 
深層学習フレームワークChainerの特徴
深層学習フレームワークChainerの特徴深層学習フレームワークChainerの特徴
深層学習フレームワークChainerの特徴Yuya Unno
 
言語資源と付き合う
言語資源と付き合う言語資源と付き合う
言語資源と付き合うYuya Unno
 
情報抽出入門 〜非構造化データを構造化させる技術〜
情報抽出入門 〜非構造化データを構造化させる技術〜情報抽出入門 〜非構造化データを構造化させる技術〜
情報抽出入門 〜非構造化データを構造化させる技術〜Yuya Unno
 
Chainerの使い方と 自然言語処理への応用
Chainerの使い方と自然言語処理への応用Chainerの使い方と自然言語処理への応用
Chainerの使い方と 自然言語処理への応用Yuya Unno
 
深層学習による機械とのコミュニケーション
深層学習による機械とのコミュニケーション深層学習による機械とのコミュニケーション
深層学習による機械とのコミュニケーションYuya Unno
 
文法圧縮入門:超高速テキスト処理のためのデータ圧縮(NLP2014チュートリアル)
文法圧縮入門:超高速テキスト処理のためのデータ圧縮(NLP2014チュートリアル)文法圧縮入門:超高速テキスト処理のためのデータ圧縮(NLP2014チュートリアル)
文法圧縮入門:超高速テキスト処理のためのデータ圧縮(NLP2014チュートリアル)Shirou Maruyama
 
Vision-and-Language Navigation: Interpreting visually-grounded navigation ins...
Vision-and-Language Navigation: Interpreting visually-grounded navigation ins...Vision-and-Language Navigation: Interpreting visually-grounded navigation ins...
Vision-and-Language Navigation: Interpreting visually-grounded navigation ins...Yoshitaka Ushiku
 
Tf勉強会(5)
Tf勉強会(5)Tf勉強会(5)
Tf勉強会(5)tak9029
 

Tendances (20)

ACL Reading @NAIST: Fast and Robust Neural Network Joint Model for Statistica...
ACL Reading @NAIST: Fast and Robust Neural Network Joint Model for Statistica...ACL Reading @NAIST: Fast and Robust Neural Network Joint Model for Statistica...
ACL Reading @NAIST: Fast and Robust Neural Network Joint Model for Statistica...
 
深層学習時代の自然言語処理
深層学習時代の自然言語処理深層学習時代の自然言語処理
深層学習時代の自然言語処理
 
言語と知識の深層学習@認知科学会サマースクール
言語と知識の深層学習@認知科学会サマースクール言語と知識の深層学習@認知科学会サマースクール
言語と知識の深層学習@認知科学会サマースクール
 
予測型戦略を知るための機械学習チュートリアル
予測型戦略を知るための機械学習チュートリアル予測型戦略を知るための機械学習チュートリアル
予測型戦略を知るための機械学習チュートリアル
 
最近のDeep Learning (NLP) 界隈におけるAttention事情
最近のDeep Learning (NLP) 界隈におけるAttention事情最近のDeep Learning (NLP) 界隈におけるAttention事情
最近のDeep Learning (NLP) 界隈におけるAttention事情
 
単語・句の分散表現の学習
単語・句の分散表現の学習単語・句の分散表現の学習
単語・句の分散表現の学習
 
ニューラル機械翻訳の動向@IBIS2017
ニューラル機械翻訳の動向@IBIS2017ニューラル機械翻訳の動向@IBIS2017
ニューラル機械翻訳の動向@IBIS2017
 
子どもの言語獲得のモデル化とNN Language ModelsNN
子どもの言語獲得のモデル化とNN Language ModelsNN 子どもの言語獲得のモデル化とNN Language ModelsNN
子どもの言語獲得のモデル化とNN Language ModelsNN
 
形態素解析の過去・現在・未来
形態素解析の過去・現在・未来形態素解析の過去・現在・未来
形態素解析の過去・現在・未来
 
Jubatusのリアルタイム分散レコメンデーション@TokyoNLP#9
Jubatusのリアルタイム分散レコメンデーション@TokyoNLP#9Jubatusのリアルタイム分散レコメンデーション@TokyoNLP#9
Jubatusのリアルタイム分散レコメンデーション@TokyoNLP#9
 
深層学習による自然言語処理の研究動向
深層学習による自然言語処理の研究動向深層学習による自然言語処理の研究動向
深層学習による自然言語処理の研究動向
 
深層学習フレームワークChainerの特徴
深層学習フレームワークChainerの特徴深層学習フレームワークChainerの特徴
深層学習フレームワークChainerの特徴
 
言語資源と付き合う
言語資源と付き合う言語資源と付き合う
言語資源と付き合う
 
情報抽出入門 〜非構造化データを構造化させる技術〜
情報抽出入門 〜非構造化データを構造化させる技術〜情報抽出入門 〜非構造化データを構造化させる技術〜
情報抽出入門 〜非構造化データを構造化させる技術〜
 
Chainerの使い方と 自然言語処理への応用
Chainerの使い方と自然言語処理への応用Chainerの使い方と自然言語処理への応用
Chainerの使い方と 自然言語処理への応用
 
深層学習による機械とのコミュニケーション
深層学習による機械とのコミュニケーション深層学習による機械とのコミュニケーション
深層学習による機械とのコミュニケーション
 
文法圧縮入門:超高速テキスト処理のためのデータ圧縮(NLP2014チュートリアル)
文法圧縮入門:超高速テキスト処理のためのデータ圧縮(NLP2014チュートリアル)文法圧縮入門:超高速テキスト処理のためのデータ圧縮(NLP2014チュートリアル)
文法圧縮入門:超高速テキスト処理のためのデータ圧縮(NLP2014チュートリアル)
 
Vision-and-Language Navigation: Interpreting visually-grounded navigation ins...
Vision-and-Language Navigation: Interpreting visually-grounded navigation ins...Vision-and-Language Navigation: Interpreting visually-grounded navigation ins...
Vision-and-Language Navigation: Interpreting visually-grounded navigation ins...
 
Emnlp読み会資料
Emnlp読み会資料Emnlp読み会資料
Emnlp読み会資料
 
Tf勉強会(5)
Tf勉強会(5)Tf勉強会(5)
Tf勉強会(5)
 

En vedette

G社のNMT論文を読んでみた
G社のNMT論文を読んでみたG社のNMT論文を読んでみた
G社のNMT論文を読んでみたToshiaki Nakazawa
 
Attention-based NMT description
Attention-based NMT descriptionAttention-based NMT description
Attention-based NMT descriptionToshiaki Nakazawa
 
Insertion Position Selection Model for Flexible Non-Terminals in Dependency T...
Insertion Position Selection Model for Flexible Non-Terminals in Dependency T...Insertion Position Selection Model for Flexible Non-Terminals in Dependency T...
Insertion Position Selection Model for Flexible Non-Terminals in Dependency T...Toshiaki Nakazawa
 
Promoting Science and Technology Exchange using Machine Translation
Promoting Science and Technology Exchange using Machine TranslationPromoting Science and Technology Exchange using Machine Translation
Promoting Science and Technology Exchange using Machine TranslationToshiaki Nakazawa
 
3-step Parallel Corpus Cleaning using Monolingual Crowd Workers
3-step Parallel Corpus Cleaning using Monolingual Crowd Workers3-step Parallel Corpus Cleaning using Monolingual Crowd Workers
3-step Parallel Corpus Cleaning using Monolingual Crowd WorkersToshiaki Nakazawa
 
RubyエンジニアがPythonをdisるためにPythonを勉強してみた
RubyエンジニアがPythonをdisるためにPythonを勉強してみたRubyエンジニアがPythonをdisるためにPythonを勉強してみた
RubyエンジニアがPythonをdisるためにPythonを勉強してみたYusuke Kon
 
捗るリコメンドシステムの裏事情(ハッカドール)
捗るリコメンドシステムの裏事情(ハッカドール)捗るリコメンドシステムの裏事情(ハッカドール)
捗るリコメンドシステムの裏事情(ハッカドール)mosa siru
 
自然言語処理のためのDeep Learning
自然言語処理のためのDeep Learning自然言語処理のためのDeep Learning
自然言語処理のためのDeep LearningYuta Kikuchi
 
Pythonによる機械学習の最前線
Pythonによる機械学習の最前線Pythonによる機械学習の最前線
Pythonによる機械学習の最前線Kimikazu Kato
 
scikit-learnを用いた機械学習チュートリアル
scikit-learnを用いた機械学習チュートリアルscikit-learnを用いた機械学習チュートリアル
scikit-learnを用いた機械学習チュートリアル敦志 金谷
 
機械学習によるデータ分析まわりのお話
機械学習によるデータ分析まわりのお話機械学習によるデータ分析まわりのお話
機械学習によるデータ分析まわりのお話Ryota Kamoshida
 
機械学習チュートリアル@Jubatus Casual Talks
機械学習チュートリアル@Jubatus Casual Talks機械学習チュートリアル@Jubatus Casual Talks
機械学習チュートリアル@Jubatus Casual TalksYuya Unno
 

En vedette (13)

G社のNMT論文を読んでみた
G社のNMT論文を読んでみたG社のNMT論文を読んでみた
G社のNMT論文を読んでみた
 
Attention-based NMT description
Attention-based NMT descriptionAttention-based NMT description
Attention-based NMT description
 
Insertion Position Selection Model for Flexible Non-Terminals in Dependency T...
Insertion Position Selection Model for Flexible Non-Terminals in Dependency T...Insertion Position Selection Model for Flexible Non-Terminals in Dependency T...
Insertion Position Selection Model for Flexible Non-Terminals in Dependency T...
 
Promoting Science and Technology Exchange using Machine Translation
Promoting Science and Technology Exchange using Machine TranslationPromoting Science and Technology Exchange using Machine Translation
Promoting Science and Technology Exchange using Machine Translation
 
3-step Parallel Corpus Cleaning using Monolingual Crowd Workers
3-step Parallel Corpus Cleaning using Monolingual Crowd Workers3-step Parallel Corpus Cleaning using Monolingual Crowd Workers
3-step Parallel Corpus Cleaning using Monolingual Crowd Workers
 
RubyエンジニアがPythonをdisるためにPythonを勉強してみた
RubyエンジニアがPythonをdisるためにPythonを勉強してみたRubyエンジニアがPythonをdisるためにPythonを勉強してみた
RubyエンジニアがPythonをdisるためにPythonを勉強してみた
 
捗るリコメンドシステムの裏事情(ハッカドール)
捗るリコメンドシステムの裏事情(ハッカドール)捗るリコメンドシステムの裏事情(ハッカドール)
捗るリコメンドシステムの裏事情(ハッカドール)
 
Deep learning を用いた画像から説明文の自動生成に関する研究の紹介
Deep learning を用いた画像から説明文の自動生成に関する研究の紹介Deep learning を用いた画像から説明文の自動生成に関する研究の紹介
Deep learning を用いた画像から説明文の自動生成に関する研究の紹介
 
自然言語処理のためのDeep Learning
自然言語処理のためのDeep Learning自然言語処理のためのDeep Learning
自然言語処理のためのDeep Learning
 
Pythonによる機械学習の最前線
Pythonによる機械学習の最前線Pythonによる機械学習の最前線
Pythonによる機械学習の最前線
 
scikit-learnを用いた機械学習チュートリアル
scikit-learnを用いた機械学習チュートリアルscikit-learnを用いた機械学習チュートリアル
scikit-learnを用いた機械学習チュートリアル
 
機械学習によるデータ分析まわりのお話
機械学習によるデータ分析まわりのお話機械学習によるデータ分析まわりのお話
機械学習によるデータ分析まわりのお話
 
機械学習チュートリアル@Jubatus Casual Talks
機械学習チュートリアル@Jubatus Casual Talks機械学習チュートリアル@Jubatus Casual Talks
機械学習チュートリアル@Jubatus Casual Talks
 

Similaire à 第3回アジア翻訳ワークショップの人手評価結果の分析

SQiP2016発表資料_プロセス改善の黒歴史(slideshare共有版)
SQiP2016発表資料_プロセス改善の黒歴史(slideshare共有版)SQiP2016発表資料_プロセス改善の黒歴史(slideshare共有版)
SQiP2016発表資料_プロセス改善の黒歴史(slideshare共有版)Adachi Kenji
 
NFVとその周辺の話題
NFVとその周辺の話題NFVとその周辺の話題
NFVとその周辺の話題Takanari Konishi
 
Kansai MT Pivot Arekore
Kansai MT Pivot ArekoreKansai MT Pivot Arekore
Kansai MT Pivot ArekoreAkiva Miura
 
世界に目を向けよう - ASTER国際連携活動事例(JaSST'15 tokyo)
世界に目を向けよう - ASTER国際連携活動事例(JaSST'15 tokyo)世界に目を向けよう - ASTER国際連携活動事例(JaSST'15 tokyo)
世界に目を向けよう - ASTER国際連携活動事例(JaSST'15 tokyo)Keizo Tatsumi
 
ICST 2017の歩き方 -歴史、開催概要、聴きどころ、Who's Who ・・ -
ICST 2017の歩き方 -歴史、開催概要、聴きどころ、Who's Who ・・ -ICST 2017の歩き方 -歴史、開催概要、聴きどころ、Who's Who ・・ -
ICST 2017の歩き方 -歴史、開催概要、聴きどころ、Who's Who ・・ -Keizo Tatsumi
 
How to write a Post-Editing Guide that will optimize your QA Process, by Uwe ...
How to write a Post-Editing Guide that will optimize your QA Process, by Uwe ...How to write a Post-Editing Guide that will optimize your QA Process, by Uwe ...
How to write a Post-Editing Guide that will optimize your QA Process, by Uwe ...TAUS - The Language Data Network
 
Spring I/O 2016 報告 Test / Cloud / Other Popular Sessions
Spring I/O 2016 報告 Test / Cloud / Other Popular SessionsSpring I/O 2016 報告 Test / Cloud / Other Popular Sessions
Spring I/O 2016 報告 Test / Cloud / Other Popular SessionsTakuya Iwatsuka
 
20180312 IPv6 summit-sapporo
20180312 IPv6 summit-sapporo20180312 IPv6 summit-sapporo
20180312 IPv6 summit-sapporoAkira Nakagawa
 
Qualtricsによるオンラインアンケートの作成(1) 導入編
Qualtricsによるオンラインアンケートの作成(1) 導入編Qualtricsによるオンラインアンケートの作成(1) 導入編
Qualtricsによるオンラインアンケートの作成(1) 導入編igarashilab
 
NFV関連の話題 ~Service Function Chainingを中心に~
NFV関連の話題 ~Service Function Chainingを中心に~NFV関連の話題 ~Service Function Chainingを中心に~
NFV関連の話題 ~Service Function Chainingを中心に~Takanari Konishi
 
OpenStack Summit Tokyoに参加してみた
OpenStack Summit Tokyoに参加してみたOpenStack Summit Tokyoに参加してみた
OpenStack Summit Tokyoに参加してみたMitsuhiro SHIGEMATSU
 
MicroServiceArchitecture
MicroServiceArchitectureMicroServiceArchitecture
MicroServiceArchitectureKaseya Hiroshi
 
ROSCon2019 参加報告:オーバビュー+α
ROSCon2019 参加報告:オーバビュー+αROSCon2019 参加報告:オーバビュー+α
ROSCon2019 参加報告:オーバビュー+αHideki Takase
 
構文情報に基づく機械翻訳のための能動学習手法と人手翻訳による評価
構文情報に基づく機械翻訳のための能動学習手法と人手翻訳による評価構文情報に基づく機械翻訳のための能動学習手法と人手翻訳による評価
構文情報に基づく機械翻訳のための能動学習手法と人手翻訳による評価Akiva Miura
 
20100520 【qpstudy01】 チームでトライ!インフラ構築のススメ
20100520 【qpstudy01】 チームでトライ!インフラ構築のススメ20100520 【qpstudy01】 チームでトライ!インフラ構築のススメ
20100520 【qpstudy01】 チームでトライ!インフラ構築のススメYukitaka Ohmura
 

Similaire à 第3回アジア翻訳ワークショップの人手評価結果の分析 (20)

SQiP2016発表資料_プロセス改善の黒歴史(slideshare共有版)
SQiP2016発表資料_プロセス改善の黒歴史(slideshare共有版)SQiP2016発表資料_プロセス改善の黒歴史(slideshare共有版)
SQiP2016発表資料_プロセス改善の黒歴史(slideshare共有版)
 
不完全な文の構文解析に基づく同時音声翻訳
不完全な文の構文解析に基づく同時音声翻訳不完全な文の構文解析に基づく同時音声翻訳
不完全な文の構文解析に基づく同時音声翻訳
 
NFVとその周辺の話題
NFVとその周辺の話題NFVとその周辺の話題
NFVとその周辺の話題
 
Kansai MT Pivot Arekore
Kansai MT Pivot ArekoreKansai MT Pivot Arekore
Kansai MT Pivot Arekore
 
世界に目を向けよう - ASTER国際連携活動事例(JaSST'15 tokyo)
世界に目を向けよう - ASTER国際連携活動事例(JaSST'15 tokyo)世界に目を向けよう - ASTER国際連携活動事例(JaSST'15 tokyo)
世界に目を向けよう - ASTER国際連携活動事例(JaSST'15 tokyo)
 
ICST 2017の歩き方 -歴史、開催概要、聴きどころ、Who's Who ・・ -
ICST 2017の歩き方 -歴史、開催概要、聴きどころ、Who's Who ・・ -ICST 2017の歩き方 -歴史、開催概要、聴きどころ、Who's Who ・・ -
ICST 2017の歩き方 -歴史、開催概要、聴きどころ、Who's Who ・・ -
 
How to write a Post-Editing Guide that will optimize your QA Process, by Uwe ...
How to write a Post-Editing Guide that will optimize your QA Process, by Uwe ...How to write a Post-Editing Guide that will optimize your QA Process, by Uwe ...
How to write a Post-Editing Guide that will optimize your QA Process, by Uwe ...
 
Spring I/O 2016 報告 Test / Cloud / Other Popular Sessions
Spring I/O 2016 報告 Test / Cloud / Other Popular SessionsSpring I/O 2016 報告 Test / Cloud / Other Popular Sessions
Spring I/O 2016 報告 Test / Cloud / Other Popular Sessions
 
20180312 IPv6 summit-sapporo
20180312 IPv6 summit-sapporo20180312 IPv6 summit-sapporo
20180312 IPv6 summit-sapporo
 
Qualtricsによるオンラインアンケートの作成(1) 導入編
Qualtricsによるオンラインアンケートの作成(1) 導入編Qualtricsによるオンラインアンケートの作成(1) 導入編
Qualtricsによるオンラインアンケートの作成(1) 導入編
 
Bee Style:vol.027
Bee Style:vol.027Bee Style:vol.027
Bee Style:vol.027
 
NFV関連の話題 ~Service Function Chainingを中心に~
NFV関連の話題 ~Service Function Chainingを中心に~NFV関連の話題 ~Service Function Chainingを中心に~
NFV関連の話題 ~Service Function Chainingを中心に~
 
NICT - TAUS Tokyo Forum 2015
NICT - TAUS Tokyo Forum 2015NICT - TAUS Tokyo Forum 2015
NICT - TAUS Tokyo Forum 2015
 
OpenStack Summit Tokyoに参加してみた
OpenStack Summit Tokyoに参加してみたOpenStack Summit Tokyoに参加してみた
OpenStack Summit Tokyoに参加してみた
 
MicroServiceArchitecture
MicroServiceArchitectureMicroServiceArchitecture
MicroServiceArchitecture
 
ROSCon2019 参加報告:オーバビュー+α
ROSCon2019 参加報告:オーバビュー+αROSCon2019 参加報告:オーバビュー+α
ROSCon2019 参加報告:オーバビュー+α
 
RMQ クエリ処理
RMQ クエリ処理RMQ クエリ処理
RMQ クエリ処理
 
構文情報に基づく機械翻訳のための能動学習手法と人手翻訳による評価
構文情報に基づく機械翻訳のための能動学習手法と人手翻訳による評価構文情報に基づく機械翻訳のための能動学習手法と人手翻訳による評価
構文情報に基づく機械翻訳のための能動学習手法と人手翻訳による評価
 
20100520 【qpstudy01】 チームでトライ!インフラ構築のススメ
20100520 【qpstudy01】 チームでトライ!インフラ構築のススメ20100520 【qpstudy01】 チームでトライ!インフラ構築のススメ
20100520 【qpstudy01】 チームでトライ!インフラ構築のススメ
 
Bee Style: Vol.030
Bee Style: Vol.030Bee Style: Vol.030
Bee Style: Vol.030
 

第3回アジア翻訳ワークショップの人手評価結果の分析

  • 2. アジア翻訳ワークショップ (WAT) • Workshop on Asian Translation – アジア言語を対象とした機械翻訳評価ワークショップ – 日本語、中国語、韓国語、インドネシア語、ヒンディー語、 英語 – 2014年より開催、今年で3回目 • WAT2016 – 12月12日に大阪で開催(Coling2016併設) – 今回から研究論文も募集 – 招待講演はGoogleの賀沢氏 http://lotus.kuee.kyoto-u.ac.jp/WAT/ 2
  • 3. WAT2016翻訳タスク • 科学技術論文(ASPEC) – 日英、日中 • 特許(JPC) – 日英、日中、日韓 • 新聞記事(BPPT) – インドネシア英 • 混合ドメイン – ヒンディー英、ヒンディー日 3
  • 4. 翻訳タスク参加チーム一覧 Team ID Organization ASPEC JPC BPPT IITBC pivot JE EJ JC CJ JE EJ JC CJ JK KJ EI IE HE EH HJ JH NAIST Nara Institute of Science and Technology ✓ Kyoto-U Kyoto University ✓ ✓ ✓ ✓ TMU Tokyo Metropolitan University ✓ bjtu_nlp Beijing Jiaotong University ✓ ✓ ✓ ✓ ✓ ✓ ✓ ✓ Sense Saarland University ✓ ✓ NICT-2 National Institute of Information and Communication Technology ✓ ✓ ✓ ✓ ✓ ✓ ✓ ✓ WASUIPS Waseda University ✓ EHR Ehara NLP Research Laboratory ✓ ✓ ✓ ✓ ✓ ✓ ntt NTT Communication Science Laboratories ✓ TOKYOMT Weblio, Inc. ✓ IITB-EN-ID Indian Institute of Technology Bombay ✓ ✓ JAPIO Japan Patent Information Organization ✓ ✓ ✓ ✓ ✓ IITP-MT Indian Institute of Technology Patna ✓ UT-KAY University of Tokyo ✓ UT-AKY University of Tokyo ✓ # of participants 5 7 3 6 2 3 2 6 0 2 2 2 0 2 1 0 outside Japancompany NMT 4
  • 6. 訓練データ 開発データ 入力文 フレーズ テーブル 素性の重み 言語モデ ル N-best 翻訳結果 最終 翻訳結果 チューニング (MERT,MIRA) デコード リランキング/ 後編集 一般的な統計翻訳(SMT)の枠組み デコーダー (Moses, Travatar, KyotoEBMT) 6 単語アライメント (GIZA, Nile)
  • 7. Attention-based Neural Machine Translation 新 た な 翻 訳 手 法 を 提 案 す る Encoder 入力文の 情報を 行列に変換 Attention どの単語に 注目するかを 1出力ごとに計 算 Decoder 先頭から 1単語ずつ 翻訳を生成 2000 0.1 0.5 … 0.3 0.8 0.1 … 1.2 1.5 0.2 … 0.7 0.7 0.3 … 0.6 0.9 1.1 … 1.0 0.3 0.2 … 0.1 0.45 0.20 0.25 0.05 0.02 0.03 we propose a novel [0.642 0.338 … 0.603] 2000 context vector …… 6 6 6 Encodeされた 入力文 入力単語の 注目度 入力文 出力文 7
  • 8. Attention-based Neural Machine Translation 新たな 翻訳 手法 を 提案 する embedding forward LSTM backward LSTM we propose a novel translation method attention decoder LSTM softmax input output <EOS> <EOS> 8
  • 9. Attention-based Neural Machine Translation - Encoder - 新たな 翻訳 手法 を 提案 する [0.1 0.5 … 0.3] [0.8 0.1 … 1.2] [1.5 0.2 … 0.7] [0.7 0.3 … 0.6] [0.9 1.1 … 1.0] [0.3 0.2 … 0.1] [0.6 … 0.4] [0.3 … 0.2] [0.2 … 0.8] [0.7 … 0.1] [0.4 … 0.4] [0.9 … 0.3] LSTM LSTM LSTM LSTM LSTM LSTM LSTM LSTM LSTM LSTM LSTM LSTM 2000次元 2つのベクトルの結合 [0.1 … 0.5] [0.8 … 0.2] [1.5 … 0.1] [0.7 … 1.1] [0.9 … 0.8] [0.3 … 0.4] [0.2 … 0.3] [1.9 … 1.2] [0.2 … 0.7] [1.5 … 0.6] [0.1 … 1.0] [1.4 … 0.1] 620次元 各単語独立 1000次元 前の単語列の 情報を含む Source Embedding 9
  • 10. Attention-based Neural Machine Translation - Attention & Decoder - 0.1 0.5 … 0.3 0.8 0.1 … 1.2 1.5 0.2 … 0.7 0.7 0.3 … 0.6 0.9 1.1 … 1.0 0.3 0.2 … 0.1 0.45 0.20 0.25 0.05 0.02 0.03 [0.642 0.338 … 0.603] LSTM we propose a novel [0.2 … 0.8] LSTM Encodeされた 入力文 LSTM Softmax [0.01 … 0.6 … 0.03] Target Embedding 目的言語の 語彙数次元 1つ前の出力を使う context vector 入力単語の 注目度 [1.70 0.89 1.11 -0.50 -1.41 -1.01] 非線形変換 正規化 10
  • 11. SMTとNMTの違い • NMTではフレーズテーブルという概念は存在しない – 単語アライメントは必要ない • NMTは、SMTのように入力文を単語(フレーズ)単位 で「置き換える」ことで翻訳しているわけではなく、入 力文を見ながら翻訳文を作り出している – 入力文を過不足なくカバーして翻訳することができない • NMTでは入口(入力文)と出口(翻訳文)以外は全て 数値計算(行列の積など)だけで動いている • 現状のNMTの枠組みでは、指定部分を指定訳にす るなどの前処理・後処理ができない 11
  • 12. SMTとNMTの違い • モデルのトレーニングに時間がかかる – 100万文の対訳コーパスで3日ぐらい – GPUが必須、CPUでは10倍以上時間がかかる • 使う対訳コーパスによって最高のパフォーマンスが 出る設定が全然ちがう – この設定を自動で決められるようにはなっていない – どの設定がいいかは経験や直感に頼る部分が大きい – 初期パラメータをランダムに設定するため、同じコーパス、 同じ設定でトレーニングしても、最終的な精度が全然違う ことがある 12
  • 14. 翻訳結果評価方法 • 自動評価 – BLEU, RIBES, AM-FM [Banchs+, 2015] – 自動評価サーバーを用意し、参加者が翻訳結果を提出す ると自動的に評価され、都度Webに結果が公開される • 人手評価: 二段階評価 1. 一対比較評価 • 各チーム各言語対2つまで翻訳結果を提出可能 2. 特許庁が公開している特許文献機械翻訳の品質評価手 順のうち、「内容の伝達レベルの評価」 • 一対比較評価の結果、各言語対上位3システムを対象に評価 14
  • 15. 一対比較評価 • 各システムの翻訳結果をベースライン(フレーズベー スSMT)と文ごとに比較 • 評価対象文はテストセットのうちの400文 • 5人の評価者が文ごとにベースラインより良いか(+1)、 悪いか(-1)、同程度か(0)を評価 • 5人の評価を足し合わせて、+2以上ならばその文は ベースラインより良いと、-2以下ならば悪いと、それ 以外ならば同程度と判定 • 最終的にスコアを以下の式で計算 – Pairwise Score = 100 × (勝ち数 - 負け数) / 400 15
  • 16. 内容の伝達レベルの評価 • 一対評価対象文のうちの200文を評価 • 2人の評価者が文ごとに特許庁の基準により評価 評価 値 評価基準 5 すべての重要情報が正確に伝達されている。 (100%) 4 ほとんどの重要情報は正確に伝達されている。 (80%〜) 3 半分以上の重要情報は正確に伝達されている。 (50%〜) 2 いくつかの重要情報は正確に伝達されている。 (20%〜) 1 文意がわからない、もしくは正確に伝達されている重要情報 は ほとんどない。 (〜20%) https://www.jpo.go.jp/shiryou/toushin/chousa/tokkyohonyaku_hyouka.htm 16
  • 18. 日→英 評価結果 NMT A Online A SMT A 1 SMT A 2 RBMT A SMT B SMT C 18
  • 19. 日→英 評価結果 NMT A Online A SMT A 1 NMT A Online A SMT A 1 19
  • 20. 英→日 評価結果 NMT A SMT A 1 SMT B SMT A 2 SMT C 1 SMT D Online A SMT C 2 RBMT A 20
  • 21. 英→日 評価結果 NMT ASMT A 1 SMT B NMT ASMT A 1 SMT B 21
  • 22. 日→中 評価結果 SMT A 1 SMT B SMT C NMT A SMT A 2 Online A RBMT A 22
  • 23. 日→中 評価結果 SMT A 1 SMT CNMT A SMT A 1 SMT CNMT A 23
  • 24. 中→日 評価結果 NMT A 1 SMT A 1 SMT A 2 SMT B 1 SMT C (2015) NMT A 2 SMT D 1 SMT B 2 SMT D 2 NMT B EBMT A (2015) SMT E (2015) Online A SMT F 24
  • 25. 中→日 評価結果 NMT A 1 SMT A 1 SMT B 1 NMT A 1 SMT A 1 SMT B 1 25
  • 26. 韓→日 評価結果 SMT A 1 SMT B 1 (2015) SMT C 1 SMT B 2 (2015) SMT D 1 (2015) NMT A 1 (2015) SMT D 2 (2015) Online A NMT A 2 (2015) SMT D 1 (2015) SMT E 1 (2015) SMT F SMT E 2 (2015) SMT B 2 SMT D 2 (2015) 26
  • 27. 韓→日 評価結果 SMT C 1 SMT A 1 Online A SMT C 1 SMT A 1 Online A 27
  • 28. 特許翻訳 経年評価 NMT (2016) EBMT (2015) SMT (2016) NMT (2015) 44.99 41.35 71.51 71.38BLEU BLEU 28
  • 29. 科学技術論文翻訳 経年評価 NMT (2016) SMT (2015) 26.22 25.41BLEU 36.19 35.83BLEU 31.98 31.61BLEU 46.04 41.75BLEU NMT (2016) SMT (2015) NMT (2016) SMT (2015) NMT (2016) SMT (2015) 29
  • 31. 翻訳例 1. SMTにおいて(5, 5)の評価だったものが、 NMTにお いてどちらも5未満の評価になったもの 2. NMTにおいてどちらも2以下の評価になったもの • 中→日 特許文、日→英・英→日 科学技術論文 31
  • 32. IN “聚合酶链反应”(“PCR”)是本领域技术人员熟知的。 REF 「ポリメラーゼ連鎖反応」(「PCR」)は、当業者によく知られている。 SMT「ポリメラーゼ連鎖反応(PCR)」は、当業者に周知である。 (5, 5) NMT「重反応」(「PCR」)は当業者に周知である。 (4, 2) IN 具体来讲,如图2中所示地执行晶锭生长步骤(S110)。 REF 具体的には、図2に示すように、まずインゴット成長工程(S110)を実施する。 SMT具体的には、図2に示すように、インゴット成長工程(S110)が行われる。 (5, 5) NMT具体的には、図2に示すように結晶成長工程を行う(S110)。 (4, 4) IN 关于施加与最佳值错开的电压时获得的电流量受到血液试样内的血细胞比容值 (Hct值)的影响。 REF 最適値から外れた電圧を印加した時に取得される電流量は、血液試料内のヘマト クリット値(Hct値)によって左右され得る。 SMT 最適値からずれる電圧を印加した際に得られる電流量は、血液試料内のヘマトク リット値(Hct値)の影響を受ける。 (5, 5) NMT 最適な値の電圧を印加する際に得られる電流量は、血液試料内のヘマトクリット値 (Hct値)の影響を受ける。 (4, 4) 特許 中→日 1 32
  • 33. IN 本发明片剂还可以包含包衣层,它可占片剂组合物的约0-15%(重量)。 REF また錠剤は、錠剤組成全量中0〜約15重量%を含むコーティング層を有することが できる。 SMT 本発明の錠剤は、コーティング層をさらに含むことができるが、それは、錠剤組成物 の約0〜15重量%を占めることができる。 (5, 5) NMT 本発明の錠剤はまた、錠剤組成物の約0〜15重量%(重量)を含有していてもよい。 (1, 2) IN 使用由高取向热解石墨(HOPG)制成的单色器702作为X射线的单色化单元以便提 取Mo的特征X射线。 REF X線の単色化手段としては高配向性熱分解黒鉛(HOPG)のモノクロメータ702を用 いMoの特性X線部分を抽出する。 SMT X線として高配向熱分解黒鉛(HOPG)からなるモノクロメータ702の単色化ユニット を用いてMoの特性X線を抽出することができる。 (3, 3) NMT 高配向熱分解黒鉛(HOPG)からなるの702は、X線を用いてX線を抽出するために、X 線を使用する。 (1, 2) 特許 中→日 2 33
  • 34. IN Hartree−Fock−Bogoliubov法を用いて変形した原子核の対密度分布を調べた。 REF Using Hartree-Fock-Bogoliubov method, pairing density distribution of the deformed nuclei was investigated. SMT The pair density distribution of deformed nuclei was investigated using Hartree- Fock-Bogoliubov method. (5, 5) NMT The density distribution of deformed nuclei is investigated by the Hartree - Fock - Bogoliubov method. (4, 4) IN 軸対称な四重極変形した原子核を対象にした。 REF Axial symmetric quadrupole deformed nuclei were examined. SMTThe axisymmetric quadrupole deformation nuclei were made to be an object. (5, 5) NMTAn axially symmetric quadrupole nucleus is studied. (4, 3) IN 表面型対相関を用いて密度分布と対密度分布の角度依存性を求めた。 REF Angular dependences of the density distribution and pairing density distribution were obtained with the surface type pairing correlation. SMT The angular dependence of density distribution and pair density distribution was obtained using a surface-type pair correlation. (5, 5) NMT The surface - pair correlation is used to obtain the angular dependence of the density distribution and the density distribution. (4, 4) 論文 日→英 1 34
  • 35. IN 食事については,全介助から半介助となった。 REF On the meal, changing from all support to half support was realized. SMTThe meal became half assistance from the assistance. (1, 4) NMTOn the meal, it became the assistance from all assistance assistance. (1, 2) IN 排せつ,排尿はまだ時間を要する REF It takes much more times in excretion and urination. SMTThe excretion, urination, still needs the time. (5, 5) NMTExcretion and voidance are necessary for a long time. (1, 2) IN スキー滑走中に転倒受傷し右膝変形ととう痛にて受診。 REF A man tumbled over in a ski slide and was injured and then had right knee deformation and pain and so received medical examination. SMT He had medical examination by pain and right knee deformation injured overturning during ski. (3, 4) NMT The ski was injured in ski ski sliding, and it had medical examination by right knee deformation and pain. (2, 2) 論文 日→英 2 35
  • 36. IN Using Hartree-Fock-Bogoliubov method, pairing density distribution of the deformed nuclei was investigated. REF Hartree−Fock−Bogoliubov法を用いて変形した原子核の対密度分布を調べた。 SMT Hartree ‐ Fock ‐ Bogoliubov法を用いて,変形した核の対密度分布を調べた。 (5, 5) NMT標記の方法を用いて,変形核の対密度分布を調べた。 (4, 3) IN By this approach, monodispersed swollen styrene particles were obtained and the fine particles in the title were synthesized. REF この方法で,単分散なスチレン膨潤粒子を得,標記微粒子を合成した。 SMT このアプローチにより,単分散膨潤スチレン粒子が得られ,標記微粒子を合成した。 (5, 5) NMTこの方法により,単分散のスチレン粒子を得,標記微粒子を合成した。 (4, 4) IN No side effect was noted during treatment. REF 治療中,副作用は認めなかった。 SMT治療中に副作用はなかった。 (5, 5) NMT副作用は認めなかった。 (4, 3) 論文 英→日 1 36
  • 37. IN The liver and intestine were extracorporeally observed through the central abdominal wall in the gestational age. REF 在胎中,肝と腸が中心腹壁を介し体外的に観察された。 SMT肝臓や小腸は妊娠期間における中枢腹壁を通して体外に観察された。 (5, 4) NMT妊娠時の腹部CTでは,肝,腸管はほぼ全周性に描出された。 (1, 1) IN Pilot plant tests showed the system gives clean water reusable as feed water to deionizers. REF パイロットプラントによる結果は,純水装置の原水として再利用可能レベル迄処理で きた。 SMT パイロットプラント試験はdeionizersに水として清浄水再使用を与えるシステムを示 した。 (3, 4) NMTパイロットプラント試験により,本システムの有効性を確認した。 (2, 1) IN Polonium 210 is found, in an extremely low amount though, in the cigarette smoke. REF またポロニウム210はごく微量であるが,タバコの煙の中にも含まれている。 SMTたばこ煙が極めて低い量で210ポロニウムが見られる。 (3, 5) NMTシガレット210は極低濃度ではあるが,たばこ煙では検出されていない。 (1, 2) 論文 英→日 2 37
  • 38. 結果からわかること • NMTはアジア言語の翻訳においても有効 • NMTでは翻訳文の流暢さは完璧に近い • ただし正確性は完璧ではない – 平均的な翻訳精度は格段に向上するが、訳抜けが起こり やすく、完璧な翻訳になる割合が低い – 低頻度語の翻訳に弱い – たまにおかしくなったように同じ単語を繰り返し出力する • 上記問題の解決方法はすでに提案され始めている 38
  • 39. 結果からわかること • 日中翻訳はかなり向上した – 同様の結果は中英翻訳でも確認されている • https://arxiv.org/abs/1610.01108 – おそらく、中国語の単語分割誤りの影響がNMTでは低減 されることが原因 • そもそも翻訳精度が高かった日英翻訳では前期 の問題により日中ほど大きな向上は見られない 39
  • 40. 今後の展望 • ニューラル翻訳(NMT)はここ数年で急激に発展し、統 計翻訳の精度を追い越している • NMTの研究はまだ発展する可能性が高い • ただし、過去の遺産(SMT)が活躍する場もまだ残って いることは確かで、うまく組み合わせられると良い – 特に対訳コーパスが少量の場合NMTはSMTよりも弱い – NMTの発展次第では本当に遺産になる可能性もあるが 40
  • 41. NMTのプロダクト化 2015/05 Baidu 中英 (http://www.aclweb.org/anthology/W15-4110) 2016/08 SYSTRAN 12言語 (日、韓、英、仏など) (http://blog.systransoft.com) 2016/10 WIPO 中、日、韓→英 (特許文) (http://www.wipo.int/pressroom/en/articles/2016/article_0014.html) 2016/11 Microsoft 10言語 (英、日、中、仏、独、西、葡、露、伊、剌) (https://blogs.msdn.microsoft.com/translation/) 2016/11 Google 8言語 (英、日、中、韓、仏、独、西、葡、土) (https://japan.googleblog.com/2016/11/google.html) 41
  • 42. Googleのニューラルネットワーク翻訳 日→英 英→日 日→中 中→日 旧Google 16.91 18.28 11.16 11.56 Google NMT 22.04 26.19 15.94* 18.75* Best System 26.39 36.19 31.98 46.04 科学技術論文翻訳@WAT2016 日→英 英→日 日→中 中→日 韓→日 旧Google 35.77 36.88 23.02 26.99 54.78 Google NMT 49.35 50.60 33.04* 42.66* 44.42* Best System 41.62 50.28 33.40 58.66 71.51 特許翻訳@WAT2016 (* 英語を介した翻訳) 42
  • 45. Google NMTの使い方 • Google翻訳では複数のエンジンが並行して動いてい る • NMTを使うには、Google翻訳公式ページ (https://translate.google.com/)か、Google Translate APIを使うほうが良い – それ以外のページを経由する場合は旧システムの結果に なる可能性がある • NMTは英語とその他の言語間しか対応していない – 日中などを直接翻訳すると、旧システムの結果 • 見分け方は、翻訳された文をポイントした時に、単語 対応が表示されるかどうか 45
  • 46. 今後どうなるか? • Google NMTと同等か、少し良い程度の翻訳の質を 納品する翻訳会社は、立ち行かなくなる – クラウド翻訳サービスの会社は危ない? • Google NMTの結果をそのまま、もしくは多少の修正 で納品する会社が多発 – Google NMTを使ったかどうかを見分けるのが難しい • 一般の人がGoogle NMTの結果をそのまま使用し、 Web上や街中に誤訳が氾濫 – 今でもたまに問題になるが、今後はさらに悪化? 46