NISHIO Hirokazu
[Translate]
SAN
畳み込み層を
自己注意
に置き換えたもの
https://twitter.com/omiita_atiimo/status/1300214659056726016?s=21
Tweet
Related Pages
自己注意
→
焦点
×
無視
×
意識
×
限られたリソース
×
重要
×
情報過多
×
注意
×
注意機構
×
加算注意
×
内積注意
×
ソースターゲット注意
×
自己注意
→
アテンション
→
日本語bert
×
vscodeでsys.path設定より前にimportが移動される
×
自己注意
×
bertの文ベクトル
×
リンク作成支援
×
日本語bertのfine-tuning
→
日本語BERTのrun_classifier読解
→
注意
×
attention
×
ハード注意機構
×
加法注意
×
内積注意
×
双線形
×
ソースターゲット注意
×
自己注意
×
cnn
×
注意機構
×
cnnと自己注意
×
rnn
×
隠れ状態
→
注意機構
→
埋め込みベクトル
×
位置エンコーディング
×
自己注意
→
位置エンコーディング
→
seq2seq
×
encoder-decoder
×
系列変換モデル
×
自己注意
×
pointer_networks
×
copynet
×
pointer_sentinel_mixture_models
×
pointer-generator_network
→
Sequence-to-Sequenceモデル
→
rnn
×
cnn
×
注意機構
×
łukasz_kaiser_et_al.,_arxiv,_2017/06
×
注意機構は辞書オブジェクト
×
加法注意
×
内積注意
×
ソースターゲット注意
×
自己注意
×
縮小付き内積注意
→
Transformer
"
Engineer's way of creating knowledge
" the English version of my book is now available on
[Engineer's way of creating knowledge]
(C)NISHIO Hirokazu / Converted from
[Scrapbox]
at
11/23/2025, 4:58:11 PM
[Edit]