NISHIO Hirokazu
[Translate]
要約生成
抽出型要約生成
→関連:
直接引用モデル
生成型要約生成
#要約
順伝播NN(直前C個の単語を入力にとるモデル)
A. M. Rush, S. Chopra, and J. Weston. A neural attention model for abstractive sentence summarization. In Proceedings of EMNLP, pages 379-389, 2015
コピー機構
C. Gulcehre et al..
Pointing the unknown words
. In Proceedings of ACL, pages 140-149,20L6.
コピー機構を要約生成に使う
seq2seq
R. Nallapati, B. Xiang, and B. Zhou.
Sequence-to-sequence RNNs for text summarization
. arXiv:1602.06023, 2016.
AMR
(
abstract meaning representation
)
S. Takase et oL.
Neural headline generation on abstract meaning representation
. In Proceedi,ngs of EMNLP, pages 1054-1059, 2016
Tweet
Related Pages
ボトムアップ要約生成
注意機構を用いた要約生成
直接引用モデル
seq2seq
→
要約
×
情報が失われる
×
時間は限りあるリソース
×
すべての可視化は情報を捨てている
→
要約の過程で情報が失われるのでは?
→
asd
×
ダブル・エンパシー問題
×
規範的共感
×
手続き的共感
×
ai要約
×
枝葉の連想接続
×
ストーリーの交差点がアトムになる
×
相手の中の複雑さ
×
複雑さを保持する力
×
要約
×
asdは共感の欠如ではない
→
ASDは細部を記憶に残し非ASDは要約する
→
ai要約
×
説得力
×
可視化
×
要約
×
着地
×
マス向けのブロードリスニング
×
日テレnews×2024衆院選×ブロードリスニング
→
テキスト形式データからのブロードリスニング
→
要約
×
抽出
×
ai_bosses_on_what_keeps_them_up_at_night
→
要約ではなく抽出
→
望遠鏡
×
客観性
×
主観的解釈
×
取捨選択
×
要約
×
職人技
×
費用対効果
×
talk_to_the_city
×
要約職人
×
自動編み機
×
靴下職人
×
教会の権威失墜
×
科学の権威失墜
×
主観か客観かではなく、一人の主観から大勢の主観へ
→
教会の権威失墜と似た構造が、科学の権威失墜という形で発生するのかもしれない
→
入力されたテキストから興味深い部分を抽出する
×
要約
×
ai要約
×
面白引用プロンプト
×
引用
×
スープ
→
引用スープ
→
the_intelligence_age
×
ai要約
×
センスの哲学
×
大きな意味
×
小さな意味
×
要約
×
「面白い」は主観的
×
aiの主観
×
主観的にリジェクト
×
メトロポリスヘイスティングス名づけゲーム
×
生身の僕
×
西尾泰和の外部脳
×
しないよりベター
×
主観的に面白いところを抽出
×
さまざまな抽象度で問いを抽出
×
着地
→
面白引用プロンプト
→
gpt_mention
×
要約
×
gpt_builder
→
カスタムGPTsでコマンドにする
→
フラクタル要約
×
how_can_we_use_technology_to_go_past_simple_preferences_and_outcomes?
×
digital_peacebuilding_expo:_talk_to_the_city
×
まず要約
×
興味を持ったところを掘り下げる
×
段階的詳細化
×
エンジニアの知的生産術
×
まずは大雑把に
×
掘り下げる
×
要約
→
要約から掘り下げる
→
rag
×
advanced_rag
×
modular_rag
×
階層的なインデックス構造
×
ナレッジグラフ
×
要約
×
副次的なクエリに分解
×
ステップバックプロンプティング
×
メタデータ
×
再帰的な検索
×
least-to-mostプロンプティング法
×
ステップバック質問
→
Retrieval-Augmented Generation for Large Language Models: A Survey
→
フラクタル要約
×
チャンクサイズ
×
要約
×
チャンク
×
文脈
×
文脈とは何か?
×
前後の文章は文脈
×
トレーサビリティのある要約
→
フラクタル要約は文脈保持機構
→
フラクタル要約
×
議事録
×
必要に応じて掘り下げていける
×
ブラックボックス
×
トレーサビリティ
×
要約
→
トレーサビリティのある要約
→
日記2024-04-27
×
要約
×
フラクタル要約
×
時間軸指向
×
最初から最後まで目を通す
×
分解して再構築する
×
kj法
×
常緑のノート
×
アトミック
→
AIの考察2024-04-27
→
箇条書き
×
要約
×
興味
×
掘り下げ
×
読書
×
紙の本
×
知りたいこと
×
どこに書かれているか
×
検索
×
質問に関連した情報を見つけて回答を生成する
×
新しい検索
×
興味のあることを掘り下げていく
×
辞書を読む
×
掘り下げていく
×
デジタル化による読書体験の拡張
→
興味のあることを掘り下げていく読書スタイル
→
aiの漠然とした不安感勉強会
×
英語と日本語の性能差
×
マイノリティ言語
×
アーリーアダプター集団
×
移動する人
×
取り残される人
×
分断
×
津波から逃げる
×
aiの波に乗る
×
rag
×
グループウェア
×
顧客業務に寄り添う
×
ホワイトカラー
×
オフィスワーク支援
×
システム開発
×
対人インターフェース
×
複業規制
×
要約
→
"AIの漠然とした不安感勉強会"まとめ
→
要約
×
液状化
×
要約技術
×
検索
×
ターゲティング
×
行動ターゲティング
×
結晶化済みの長文を改めて適度なサイズの断片に噛み砕くシステム
×
BERTによる分節化
→
要約ではなく液状化
→
日記2023-10-26
×
知識の変容
×
要約
×
価値観
×
わかりやすい形
×
やわらかい歯車
×
谷
×
橋
×
間をつなぐもの
×
歯車のたとえ
×
レバレッジメモ
×
after_llm
×
要約は曖昧概念
×
間をつなぐものはなんだろうと考えるのは有益
→
知識の変容とその表現
→
要約
×
ピックアップ
×
gpt
×
概念の引き算
×
視点
×
ai時代の迅速なアプリ開発と未知の表現
→
要約で落ちる情報をピックアップして要約
→
発想法
×
同質性
×
グループ分け
×
分類
×
要約
×
分析
×
まとめる
×
異質のデータの組み合わせ
×
まとまる
×
発見
×
異質なデータをまとめる
×
異質のデータを統合する方法
×
統合化
×
統合
×
kj法
×
構造づくり
×
エンジニアの知的生産術
×
集めて並べる
×
モデル化
×
考えて積む
→
KJ法が生まれたプロセス
→
文脈が壊れそうな部分だけ重複させて切り出
×
重複してもよい
×
その話題に至る流れ
×
要約
×
のりしろ
×
より良い切り出し
×
井戸端一つで時間も注意力も足りなくなった
×
from_(切り出し元ページへのリンク)
×
元の文脈
×
ページを切り出すと発言の文脈が分断されてしまう
×
前置き
×
段差解消
×
バリ取り
×
スロープ
×
やすりがけ
→
切り出しにのりしろが必要
→
思考の結節点20200728
×
知識のグラフ
×
重み
×
要約
×
獣道の原理
×
シャペロン問題
×
弱いつながりと希少性
×
パスリコメンデーション
×
文章は順繰りに生まれるのではない
×
講演スライド作成プロセス
×
文章が作られるプロセス
×
知識表現
→
知識のグラフに重みが必要
→
タイトル
×
内容
×
要約
×
邦題が変
→
タイトルは内容の要約
→
bert
×
分節化
×
知識の液状化
×
コピー機構
→
BERTによる分節化
→
要約
→
Paper Digest
→
要約
×
sumy
→
LexRank
→
自然言語処理
×
深層学習
×
rnn
×
lstm
×
gru
×
recursive_neural_networks
×
tree-rnn
×
cnn
×
分散表現
×
lbl_model
×
対数双線形モデル
×
word2vec
×
skip-gram
×
cbow
×
seq2seq
×
注意機構
×
memory_network
→
深層学習による自然言語処理
→
seq2seq
×
encoder-decoder
×
系列変換モデル
×
自己注意
×
pointer_networks
×
copynet
×
pointer_sentinel_mixture_models
×
pointer-generator_network
→
Sequence-to-Sequenceモデル
→
lstm
×
lstm-rnn
×
文章生成は複数単語を入力として受け取る
×
直接引用モデル
×
ページの行ベース言語モデル
→
言語モデル作成実験2018-09-28
→
書籍コーパス
×
直接引用モデル
×
チャットボット
×
キーフレーズ出現
→
チャットボット2018-09-30
→
直接引用モデル
×
注意機構
×
隠れマルコフモデル
×
ビタビアルゴリズム
×
文章の粒度
×
発話
×
ppoi
→
注目部分を切り出す
→
発話の生成
×
直接引用モデル
×
rnnlm
×
neologd
→
2018-09-27
→
書籍をチャットボット化
×
ボットの発話
×
クリーン質問ボット
×
直接引用モデル
→
書籍からの短文抽出
→
チャットボット
×
n-gram
×
lstm
×
テンプレートはめ込みモデル
×
直接引用モデル
×
文章生成は必要か?
→
ボットの発話
→
タイトル
×
要約
×
決定権
×
バイアス
×
邦題が変
×
表札
→
タイトルは要約ではない
"
Engineer's way of creating knowledge
" the English version of my book is now available on
[Engineer's way of creating knowledge]
(C)NISHIO Hirokazu / Converted from
[Scrapbox]
at
11/23/2025, 5:33:04 PM
[Edit]