NISHIO Hirokazu
[Translate]
2018-09-27
発話の生成
に関して、
直接引用モデル
が良いだろうとは思っているけども、一方で言語モデルはあった方が色々便利なので
RNNLM
で作っておこう
MaCabと
neologd
で形態素解析
Tweet
Related Pages
直接引用モデル
neologd
→
llm
×
トライグラム
×
n-gram
×
ゼロ頻度問題
×
kneser-ney
×
べき分布
×
rnn言語モデル
×
rnnlm
×
lstm
→
言語モデル
→
抽出型要約生成
×
直接引用モデル
×
生成型要約生成
×
要約
×
コピー機構
×
pointing_the_unknown_words
×
seq2seq
×
sequence-to-sequence_rnns_for_text_summarization
×
amr
×
abstract_meaning_representation
×
neural_headline_generation_on_abstract_meaning_representation
→
要約生成
→
lstm
×
lstm-rnn
×
文章生成は複数単語を入力として受け取る
×
直接引用モデル
×
ページの行ベース言語モデル
→
言語モデル作成実験2018-09-28
→
テキスト抽出
×
cidフォント埋め込み
×
本文抽出
×
機械学習による書籍pdfからの本文抽出
×
キーフレーズ抽出
×
チャットボット
×
neologd
→
2018-09-30
→
書籍コーパス
×
直接引用モデル
×
チャットボット
×
キーフレーズ出現
→
チャットボット2018-09-30
→
直接引用モデル
×
注意機構
×
隠れマルコフモデル
×
ビタビアルゴリズム
×
文章の粒度
×
発話
×
ppoi
→
注目部分を切り出す
→
書籍をチャットボット化
×
ボットの発話
×
クリーン質問ボット
×
直接引用モデル
→
書籍からの短文抽出
→
チャットボット
×
n-gram
×
lstm
×
テンプレートはめ込みモデル
×
直接引用モデル
×
文章生成は必要か?
→
ボットの発話
"
Engineer's way of creating knowledge
" the English version of my book is now available on
[Engineer's way of creating knowledge]
(C)NISHIO Hirokazu / Converted from
[Scrapbox]
at
11/23/2025, 11:10:49 AM
[Edit]