NISHIO Hirokazu[Translate]
Memory Network
LSTMとの比較


old title: 記憶ネットワーク

記憶の追加: m_N \leftarrow x
記憶の取り出し:
o_1 = \mathrm{argmax}_i S_O(x, m_i)
o_2 = \mathrm{argmax}_i S_O((x, m_{o_1}, m_i)
nishioこの形ではo1\neq o2が保証されないのでは?
r = \mathrm{argmax}_{w\in \mathcal{V}} S_R((x, m_{o_1}, m_{o_2}), w)

SO, SRはそれぞれ
s(x,y) = \Phi(X)^T \; U^T \; U \; \Phi(y)
\PhiはD次元への埋め込み
このSO, SRの学習に必要な教師データを用意できるかどうかが現実問題としてはシビア

そこでend-to-end memory network

"Engineer's way of creating knowledge" the English version of my book is now available on [Engineer's way of creating knowledge]

(C)NISHIO Hirokazu / Converted from [Scrapbox] at [Edit]