LRP Algorithm in NMT Algorithm: Layer-wise relevance propagation for NMT 14
Visualization of NMT model Source Side 近 0 jin 两 1 0 liang 近 jin 1 2 两 liang 年 nian 2 3 年 nian 来 4 lai 3 , 来 lai , 4 , , 5 5 美国 meiguo 6 6
Visualization of NMT model Target Side 0 my 1 0 我 wo visit 1 参拜 canbai is 2 2 是 shi 3 to 3 为了 weile 4 祈求 qiqiu pray 4 5 my 1 5 16
Translation error analysis Word Omission 5 vote 6 4 参 can of 5 7 众 zhong confidence 6 两 liang 7 in 8 院 yuan 8 9 the 10 信任 投票 </s> 9 10 xinren toupiao </s> senate 11 the 10 11 </s> 12 senate 11 17
Translation error analysis Word Repetition 18
Translation error analysis Unrelated Words 19
Translation error analysis Negation Reversion 20
Conclusion • We propose to use layer-wise relevance propagation to visualize and interpret NMT • Our approach can calculate the relevance between arbitrary hidden states and contextual words • It helps us to analyze translation errors and debug the model 21