NISHIO Hirokazu[Translate]
チャットから知見を引き出すシステム
memo

ChatGPTが書いたものを見て「そうじゃないんだよな」と色々言ってたら作ろうとしていたものではないものができた

いちおうこちらも太らせておく
1: 1本のChat logは複数のチャンクからなる
そのチャンクの素朴な形が「AIの発言に対する人間のリアクションのペア」だ
単なるテキストに対するRAGでのチャンクわけだと構造を仮定しないで長さで切ったりするが、対象データがチャットならその構造を維持したほうがいい
本当はペアの前に「そこまでの話のコンテキスト」があるとベターかもしれないが、一旦素朴にやる
2: このpairからは0~N個の情報が抽出される
ここでどんな情報を抽出したいかが言語化される必要がある
「有益な情報が抽出したい」ならば「あなたは何を『有益』だと感じるのか」が言語化される必要がある
エンドユーザはもちろんそれを言語化できていない
なので僕の外部脳を読んだGPT5に考えさせて、そのプロンプトを実際に使って抽出されたものを見てフィードバックを返してアップデートさせた
prompt
あなたはインタビュー分析者です。次のQ(AIの質問)とA(人間の回答)を読み、 "有益な情報(UsefulInfo)"を0件以上、JSONで出力します。 有益である確率が低ければ0件の抽出でよい(hallucination禁止、ノイズを減らす)。 有益性の評価軸(各100点満点): - One-step-Forward(0-100点):回答者や読者が既知である可能性の高い一般論ではなく、「今持っている知識の一歩先」に相当する具体的洞察であること。陳腐な素人考えは0点。 - Bridge(0-100点):別テーマ/概念を結ぶ新結合(対比・因果・包含・連想など"類似以外の関係")を含むもの。N=1の洞察でも可。 - Actionability(0-100点):試せる具体的行動や条件/制約が明示されている程度。抽象的な批判(「具体性の欠如」など)は低得点。 - Falsifiable(0-100点):反例検証や計測方法に言及できる程度。 - Experienced(0-100点):発言者本人の具体的な経験に基づいている程度。「実際の社会課題への言及」だけでは不十分。本人が実際に体験・観察したことを重視。 注意点: - 単純な立場表明(「賛成です」「良いと思います」)は有益情報ではない - 個人的な態度表明のみ(「気にしていません」)は有益情報ではない - 抽象的な批判で具体性を欠くもの(「具体性がない」という指摘、これ自体が具体性を欠いている)は低評価
3: この抽出されたものの間に関連性が見つかる
Bridgeの抽出に関してはテキストに根差した関係抽出
ブリッジBは「XとYのブリッジ」であるので、その2つが重要な概念になり、その概念に関する情報が事後的に発見される
ここまでは全部「AIと人間のチャット」という均質なデータの間の相互作用として記述してきた
「エンドユーザとAIのチャット」と「分析者とAIのチャット」の間にこのシステムを使うことで、分析者が関係性を見出していなかったものの間に関係が見出される
少し工夫すれば「分析者とAIのチャット」ではなく既存のドキュメントであっても実現可能
既存のドキュメントの中で関連が見出されていないものの間に関連を見出すことができる

"Engineer's way of creating knowledge" the English version of my book is now available on [Engineer's way of creating knowledge]

(C)NISHIO Hirokazu / Converted from [Scrapbox] at [Edit]