はじめに

このページは研究室の輪講のために作成されたページです.

青深層学習の7章 でRNNを扱いました.本ではCTCを使って,入出力で系列長の異なるデータへの対応をしました(読んでる限りは入力系列より短くはできるが長くはできないような).

この EMNLP2014 の論文では,encoder–decoderの提案,LSTM 的なユニットの提案,それらを使った英仏のフレーズ翻訳のタスクでの評価実験しています.(word embeddingsも少し出てきます)

nzwは機械翻訳について全くの素人であるので,モデル自体の話しかしません.また詳しい話は菊池さんの slideshare が非常にわかりやすいのでこちらをお勧めします.

本題

まずタイトルにあるencoder–decoderを別々に説明すると,

  • encoder:可変長の入力系列を固定長ベクトルに変換するRNN
  • decoder:固定長ベクトルを可変長の系列データに変換するRNN

です.

構造自体はシンプルです.まずencoderでは,入力系列(例えば,英語のフレーズ)を時刻ごとに受け取り,入力系列の最後まで入力したら固定長ベクトルの1つに変換します.次にdecoderでは,encoderで求めた固定長ベクトルとdecoder部分のRNNを使って時刻ごとに単語を1つずつ出力していき,文末を表す記号を出力するまで繰り返します.

論文の図1では下がencoder,上がdecoderになります.

nn

このとき,

  • :1単語に対応するone–hotベクトル
  • :固定長ベクトル
  • :1単語に対応するone–hotベクトル

です.

encoder–decoderの用途は,

  1. 入力系列から出力系列の生成
  2. 入出力の系列ペアのスコアリング

と言及されています.

encoderの計算

は時刻 におけるencoderの白いユニット部分の値です.

計算式はRNNなので以下のようになります.

関数 はロジスティックシグモイドやLSTMなどをおけます. この論文では LSTM 的なユニットを導入しているので,それがに対応します.

encoderのRNNは,青い本のRNNとほぼ同じ形です.

decoderの計算

は時刻 におけるdecoderの白いユニット部分の値です. encoderと異なり,が隠れ層に常に関係してきます.

出力層の計算は

となります. 確率値にしたいので,には,例えばsoftmax関数が使われます.

LSTM 的なRNNの隠れ層のユニット

LSTMよりもシンプルで似た働き(記憶と忘却)を持たせるために導入しています.

これが1ユニットです(LSTMの1メモリユニットに相当).

nn

  • :reset gate,確率値でに近いほど前の層の情報を無視,頻繁に活発化すれば短期記憶
  • :update gate,確率値で前の層の情報をどれだけ今の層に伝えるか,ずっと活性化していれば長期記憶
  • :入力ベクトル
  • :このユニットが出力する値
  • :hの計算に使う値

appendixの詳しい式の紹介

encoderの計算再び

入力系列から 固定長ベクトルを求めるまでの計算式です.

  • :隠れ層の番目のユニットのupdate geteの確率値
  • :reset geteの確率値
  • :時刻の隠れ層の番目のユニットの値
  • :word embeddingsの行列(このモデルで学習できる)
  • :前の層に対する重み
  • :入力系列を最後まで読みこんで計算したにかかる重み
  • :入力系列の分散表現にかかる重み
  • :ロジスティクスシグモイド関数

decoderの計算再び

初期値は

‘がついているものはencoderと同様です.

  • :maxout関数で計算
  • :出力層への入力にかかる重み
  • :固定長ベクトルの重み
  • :重み行列の要素

その他,nzw的に興味があった箇所

word embeddingsがこれでも学習できるらしく,上の式で出てきたを可視化した図が出てきている.NGやsub-sampligがないのでw2vの両モデルほど良い結果は出ないと思うけど,お得感がある.

あとを可視化するとフレーズが近くにまとまる.(なので,ベクトルを求めることは,入力系列のフレーズを埋め込んでるかPCAみたいなことをしていることに相当している?)