NISHIO Hirokazu[Translate]
インタビューAIグランプリ2025-12-02

12/7の中間発表に向けて

誰にどのような価値を提供するのか曖昧なプロダクトはダメだと思う
誰がそれを運用しているのか、支払いをしているのか
意見を集めて政策提案の参考にしたい政党が運用しているし高額な?AI費用も支払っている
これが主たる顧客なのであって、顧客が価値を感じなければ停止されるだけ
「意見を聞いて欲しい欲を持った市民に意見を聞いて守られたという充足感を与えること」は除外すべきだ
市民も時間を支払いしているという意見はそれはそうだと思う
「最初から読まれないとわかってるなら回答しなかったよ」となる
この問題の解決はそれらの人のログをレポート作成の入力データにすることではなく、ちゃんと回答者を事前に選抜することだと思う
誰の意見が聞きたいかはケースバイケース
船荷証券の議論に関して、船荷証券なんて聞いたこともなかったという人からの情報はあんまり役に立たない
貿易業務の専門家の意見が必要
もちろんブロックチェーンがどうこうという別の専門性からの意見はあった
これは貿易業務の専門家からは出てこないと思うので、聞いて結合することで価値が生まれる可能性はある
保健行政に関しては、保健行政の専門家の意見も大事だが改正によって影響を受ける人の意見も大事
後者もある種の専門家なんだが専門家だと認識されていない
「当事者」と言えばいいのか
結局「実体験に基づく情報」が欲しいんだな
みんなからふわっとしたセンチメントを集めたい場合もある
これは広聴AIとかでできるのでスルーでいいと思う

レポートとして提出できそうなものは一通りできてる
細かい改善サイクルを回すことに時間を割くより
もっと別のアプローチを考えたり
思考を整理したり
する方がいい

ChatGPT Proにここまでの議論を踏まえて考えさせるのがいいか

Cartographer的なことをしたい感じになってきたな

GPT5.1 Pro
いちばん大事そうなのは、「より良い未来=より良い意思決定」をちゃんと定義して、そのための知識インフラを作ることだと思います。
ここまでの実験ログは、すでにそのインフラの「プロトタイプ」を作っている感じがあるので、それを少し抽象化してみます。

1. あなたの実験がもう示している「必要条件」
(1) 「誰の、どの経験が、どんな仮説を動かしたか」が追えること
(2) 「AIを信じる」のではなく「検証パイプラインを信じる」こと
『このAIは優秀だから大丈夫』ではなく、『このパイプラインは検証込みで設計されているから大丈夫』という信頼の持ち方
(3) 速度→質への転換を前提にした設計
>ver.1の有用性が論文ほどでなくても、1日で出てくるとそれを見て質問をアップデートしていく改善のサイクルが回りやすい
これがめちゃくちゃ重要で、
「1発必中の完璧なレポート」ではなく
「安く・早く・安全に、baselineを更新し続ける装置」
のほうが、長期的には質を生む。
2. ここから未来側に extrapolate すると見えてくるもの
2-1. 「計算可能な公共性」のフォーマット
あなたがやろうとしている baseline.txt + JSON グラフは、そのまま公共的な議論を機械可読な形で積み上げるフォーマットになり得ます。
必要そうなのは:
1. baseline_line の標準的な粒度
1行=「主語+述語+条件」くらいの仮説
IDが振られていて、時系列で更新履歴が追える
2. proposal / snippet / term との標準的な結線
baseline_line ←→ proposal ←→ snippet ←→ term
relation_type と confidence(strength)が入っている
3. このグラフから、任意のビューを切り出すためのクエリ習慣
これが整うと、「政策議論のログ」がナラティブではなくデータ構造として扱えるようになる。
そのデータ構造から、Markdownレポートでも、可視化でも、Google Docsコメント風UIでも、好きなビューを生やせる。

2-2. 「誰の声を何に使うか」を設計として書き下す
あなたが最初に強調していた、
「意見を聞いて欲しい欲」の充足はスコープ外
顧客は「意見を政策に使う側」であり、そこに価値が出ないと止まる
船荷証券は専門家、保健行政は当事者+専門家、などターゲットはケースバイケース
これをちゃんと設計要素として明文化した仕組みが必要だと思います。

2-3. 「ドキュメント+コメントスレッド型熟議」の規格化
Google Docs のメタファーは、かなり現実的な「未来の熟議の型」になり得ます。
より良い未来に必要そうなのは:
1. ベースドキュメント=baselineの公開版
政策側の仮説・前提を、人間が読める形で公開したもの
2. コメントスレッド=snippets の可視化
どの文・段落に対して、どんな意見がどれだけ来ているか
AIがオーバーラップするコメントをまとめて、ホットスポットを示す
3. レベル2コメント=質問のやり取り
受け取り側が「ここはもう少し教えて」と投げる
それを元発言者 or 新規参加者に返し、対話のログが積み上がる
これを、単体ツールではなく、政策プロセスの標準的ステップにできると強い。

2-4. 「AIの役割」をはっきり分解しておく
ここまでの実験を見ると、AIの役割は大きく4つに分かれているように見えます:
1. 抽出(extraction)
term, snippet, proposal を漏らさず拾う
2. 構造化(structuring)
baselineとの関係づけ、sharpnessスコア、ラベル付け
3. 選定(selection)
Top5、ドメインバランス、代表提案
4. 表現(presentation)
Level1/2/3 の文章化、見出しの生成
より良い未来では、この役割分担をもっと明示して、
抽出・構造化は「監査しやすいAI」
選定は「価値判断が強く入るので人+AIの対話」
表現は「読み手に合わせて何パターンも自動生成」
といったように、「どこにどれくらいAIを信用して良いのか」を設計として書いてしまう必要があると思います。

---
一番大事なポイント(ここが“発明”)
通常の「市民の声分析」は、インタビュー/アンケートなど市民からのデータだけを見る。
このプロジェクトでは、これに加えてbaseline(政策チームの「現時点の仮説・前提」を書いたテキスト)を別の入力として明示的に与えている。

---
実験006完了!
政策差分グラフ (Policy Delta Graph) の生成に成功しました。

実験006完了: 政策差分グラフ構造の確立とbaseline一級データ化
GPT-5 Proとの議論で明らかになったプロジェクトの本質的価値「baselineを明示的入力として扱う」を実装。
グラフ構造をMarkdownレポートに代わる一次成果物とし、baseline/proposal/snippet/termを結ぶ構造化データを生成。

-----
nishio
いろいろ実験した結果を5分のスライドに着地させることを考える
5回の実験
直接Markdownを吐くのではなく中間状態のグラフをJSONで出力する
MarkdownはGPT5.1が出力すれば良い
JSONを直接渡すか、5.1のコンテキスト幅を想定して分割した元データ用のMarkdownを生成するか
Claude Codeでそのグラフに対する掘り下げ質問をしても良い
よく行われる分析が明確になってくればツール化すればいい



今回の実験条件の面白い点
人々の意見Xだけでなく
ベースラインYがある
振り返ってみればしゃべれるマニフェストも同じ構造だったと言える
YをよりよくアップデートするためにXを使う

構造
しゃべれるマニフェストの問題設定
N人からN件のdiff→diffのコンフリクト解消が難しすぎて破綻
1つのマークダウンレポートを作る
今回の問題設定


もくもく会
スライドは一応作り終わった
提出用のレポートを作ったが出典リンクが壊れてるので直してる

専門用語の出現をフィルター条件にしたが「用語という感じではないが重要なキーワード」がある
「韓国」とか「NTT」とか
こういう単語の出現は具体的な詳細に言及してるシグナル
一方で専門用語として扱われる「ブロックチェーン」を含む提案の大部分はフワフワしている
専門性を持って書いてる人はいるのだが、「とりあえずそれっぽいキーワードを書いてるだけ」の中身のない提案の出現頻度が他のキーワードに比べてやたら多い


"Engineer's way of creating knowledge" the English version of my book is now available on [Engineer's way of creating knowledge]

(C)NISHIO Hirokazu / Converted from [Scrapbox] at [Edit]