NISHIO Hirokazu
[Translate]
部首+CNN+LSTMで極性判定
漢字の部首を特徴量として用いたCNN+LSTMによる文書分類 | 人工知能研究開発エンジニア集団 - 株式会社Nextremer
漢字の
部首
を特徴量として用いた
CNN
+
LSTM
による
極性判定
部首情報の取得には
CHISE / 漢字構造情報データベース
を使う
学年別漢字配当表
と組み合わせると良さそう
Tweet
Related Pages
LSTM
CHISE / 漢字構造情報データベース
→
LSTM
×
深層学習による自然言語処理
×
強教師あり記憶ネットワーク
×
end-to-end_memory_networks
→
Memory Network
→
llm
×
トライグラム
×
n-gram
×
ゼロ頻度問題
×
kneser-ney
×
べき分布
×
rnn言語モデル
×
rnnlm
×
LSTM
→
言語モデル
→
パスリコメンデーション
×
マルコフモデル
×
マルコフ文章生成
×
LSTM
×
系列変換モデル
×
次元削減注意
→
講演スライド作成プロセス
→
Transformer
×
bertとtransformer
×
rnn
×
cnn
×
注意機構
×
BERT
×
Curriculum Learning
×
masklm
→
BERT
→
自然言語処理
×
深層学習
×
rnn
×
LSTM
×
gru
×
recursive_neural_networks
×
tree-rnn
×
cnn
×
分散表現
×
lbl_model
×
対数双線形モデル
×
word2vec
×
skip-gram
×
cbow
×
seq2seq
×
注意機構
×
Memory Network
→
深層学習による自然言語処理
→
LSTM
×
言語モデル
×
スタック
→
LSTMをスタックに
→
注意
×
attention
×
ハード注意機構
×
加法注意
×
内積注意
×
双線形
×
ソースターゲット注意
×
自己注意
×
cnn
×
注意機構
×
CNNと自己注意
×
rnn
×
隠れ状態
→
注意機構
→
max_pooling
×
cnn
→
pooling
→
メタ情報
×
LSTM
×
rnn
×
BERT
→
入力列に対するメタ情報
→
ディープラーニング
×
固有表現
×
文字ベース
×
bilstm
×
LSTM
×
crf
×
未知語
→
ディープラーニングで作る固有表現認識器
→
複数のベクトル
×
まとめかた
×
平均
×
rnn
×
LSTM
×
注意機構
→
複数のベクトルのまとめかた
→
cnn
×
注意機構
×
Transformer
×
positional_encoding
→
CNNと自己注意
→
rnn
×
cnn
×
注意機構
×
łukasz_kaiser_et_al.,_arxiv,_2017/06
×
注意機構は辞書オブジェクト
×
加法注意
×
内積注意
×
ソースターゲット注意
×
自己注意
×
縮小付き内積注意
→
Transformer
→
注意機構
×
Transformer
×
cnn
→
自己注意
→
salimans+_2016
×
gan
×
LSTM
×
textcnn
×
logsumexp
×
soft-argmax
→
Feature Matching for Text Generation
→
LSTM
×
lstm-rnn
×
文章生成は複数単語を入力として受け取る
×
直接引用モデル
×
ページの行ベース言語モデル
→
言語モデル作成実験2018-09-28
→
チャットボット
×
n-gram
×
LSTM
×
テンプレートはめ込みモデル
×
直接引用モデル
×
文章生成は必要か?
→
ボットの発話
→
bengio+_2009
×
kumar+,_nips_2010
×
学年別漢字配当表
×
常用漢字
→
Curriculum Learning
→
言語モデル
×
ja.text8
×
LSTM
→
文字ベース言語モデル
→
cnn
→
CharCNN
"
Engineer's way of creating knowledge
" the English version of my book is now available on
[Engineer's way of creating knowledge]
(C)NISHIO Hirokazu / Converted from
[Scrapbox]
at
11/23/2025, 4:52:13 PM
[Edit]