NISHIO Hirokazu
[Translate]
Skip-Gram
Skip-Gramは要するに
AutoEncoder
の入力が同じ単語ではなく周囲の単語になったもの
単語
1-of-Kベクトル
を入力とする場合は同一の単語を入力にしてもあんまり
次元圧縮
のしようがないからね
仮に無理やりやったらどうなるだろう。出現頻度の高い順に選んだ中間層になるかな。
Tweet
Related Pages
深層学習による自然言語処理
検索と場所
レアシンボル
AutoEncoder
Skip-Gramと修辞的残像
→
概念の類似度は距離ではない
×
抽象化は次元削減
×
アナロジーと次元削減
×
次元削減
×
次元圧縮
×
抽象化
→
次元削減は抽象化
→
AutoEncoder
×
オートエンコーダー
→
オートエンコーダ
→
転置インデックスと指差し
×
一語文
×
AutoEncoder
×
場所の連続化
→
一語文の出力
→
latent_semantic_analysis
×
lsa
×
latent_semantic_indexing
×
lsi
×
tf-idf
×
特異値分解
×
埋め込み
×
フロベニウス・ノルム
×
AutoEncoder
→
潜在意味解析
"
Engineer's way of creating knowledge
" the English version of my book is now available on
[Engineer's way of creating knowledge]
(C)NISHIO Hirokazu / Converted from
[Scrapbox]
at
11/23/2025, 5:17:47 PM
[Edit]