インタビューAIグランプリ2025-12-02
インタビューAIグランプリ
12/7の中間発表に向けて
2025年のブロードリスニング
- 誰にどのような価値を提供するのか曖昧なプロダクトはダメだと思う
- 誰がそれを運用しているのか、支払いをしているのか
- 意見を集めて政策提案の参考にしたい政党が運用しているし高額な?AI費用も支払っている
- これが主たる顧客なのであって、顧客が価値を感じなければ停止されるだけ
- 「意見を聞いて欲しい欲を持った市民に意見を聞いて守られたという充足感を与えること」は除外すべきだ
- 市民も時間を支払いしているという意見はそれはそうだと思う
- 「最初から読まれないとわかってるなら回答しなかったよ」となる
- この問題の解決はそれらの人のログをレポート作成の入力データにすることではなく、ちゃんと回答者を事前に選抜することだと思う
- 誰の意見が聞きたいかはケースバイケース
- 船荷証券の議論に関して、船荷証券なんて聞いたこともなかったという人からの情報はあんまり役に立たない
- 貿易業務の専門家の意見が必要
- もちろんブロックチェーンがどうこうという別の専門性からの意見はあった
- これは貿易業務の専門家からは出てこないと思うので、聞いて結合することで価値が生まれる可能性はある
- 保健行政に関しては、保健行政の専門家の意見も大事だが改正によって影響を受ける人の意見も大事
- 後者もある種の専門家なんだが専門家だと認識されていない
- 「当事者」と言えばいいのか
- 結局「実体験に基づく情報」が欲しいんだな
- みんなからふわっとしたセンチメントを集めたい場合もある
レポートとして提出できそうなものは一通りできてる
- 細かい改善サイクルを回すことに時間を割くより
- もっと別のアプローチを考えたり
- 思考を整理したり
ChatGPT Proにここまでの議論を踏まえて考えさせるのがいいか
https://chatgpt.com/c/692ea2d4-c468-8321-b74a-9e6b14a99b3f
Cartographer的なことをしたい感じになってきたな
GPT5.1 Pro
- いちばん大事そうなのは、「より良い未来=より良い意思決定」をちゃんと定義して、そのための知識インフラを作ることだと思います。
- ここまでの実験ログは、すでにそのインフラの「プロトタイプ」を作っている感じがあるので、それを少し抽象化してみます。
- あなたの実験がもう示している「必要条件」
- (1) 「誰の、どの経験が、どんな仮説を動かしたか」が追えること
- (2) 「AIを信じる」のではなく「検証パイプラインを信じる」こと
- 『このAIは優秀だから大丈夫』ではなく、『このパイプラインは検証込みで設計されているから大丈夫』という信頼の持ち方
- (3) 速度→質への転換を前提にした設計
ver.1の有用性が論文ほどでなくても、1日で出てくるとそれを見て質問をアップデートしていく改善のサイクルが回りやすい
- これがめちゃくちゃ重要で、
- 「1発必中の完璧なレポート」ではなく
- 「安く・早く・安全に、baselineを更新し続ける装置」
- のほうが、長期的には質を生む。
- ここから未来側に extrapolate すると見えてくるもの
2-3. 「ドキュメント+コメントスレッド型熟議」の規格化
- Google Docs のメタファーは、かなり現実的な「未来の熟議の型」になり得ます。
- より良い未来に必要そうなのは:
- ベースドキュメント=baselineの公開版
- 政策側の仮説・前提を、人間が読める形で公開したもの
- コメントスレッド=snippets の可視化
- どの文・段落に対して、どんな意見がどれだけ来ているか
- AIがオーバーラップするコメントをまとめて、ホットスポットを示す
- レベル2コメント=質問のやり取り
- 受け取り側が「ここはもう少し教えて」と投げる
- それを元発言者 or 新規参加者に返し、対話のログが積み上がる
- これを、単体ツールではなく、政策プロセスの標準的ステップにできると強い。
2-4. 「AIの役割」をはっきり分解しておく
ここまでの実験を見ると、AIの役割は大きく4つに分かれているように見えます:
- 抽出(extraction)
- term, snippet, proposal を漏らさず拾う
- 構造化(structuring)
- baselineとの関係づけ、sharpnessスコア、ラベル付け
- 選定(selection)
- 表現(presentation)
- Level1/2/3 の文章化、見出しの生成
より良い未来では、この役割分担をもっと明示して、
- 抽出・構造化は「監査しやすいAI」
- 選定は「価値判断が強く入るので人+AIの対話」
- 表現は「読み手に合わせて何パターンも自動生成」
といったように、「どこにどれくらいAIを信用して良いのか」を設計として書いてしまう必要があると思います。
一番大事なポイント(ここが“発明”)
- 通常の「市民の声分析」は、インタビュー/アンケートなど市民からのデータだけを見る。
- このプロジェクトでは、これに加えてbaseline(政策チームの「現時点の仮説・前提」を書いたテキスト)を別の入力として明示的に与えている。
実験006完了!
- 政策差分グラフ (Policy Delta Graph) の生成に成功しました。
実験006完了: 政策差分グラフ構造の確立とbaseline一級データ化
- GPT-5 Proとの議論で明らかになったプロジェクトの本質的価値「baselineを明示的入力として扱う」を実装。
- グラフ構造をMarkdownレポートに代わる一次成果物とし、baseline/proposal/snippet/termを結ぶ構造化データを生成。

- いろいろ実験した結果を5分のスライドに着地させることを考える
- 5回の実験
- 直接Markdownを吐くのではなく中間状態のグラフをJSONで出力する
- MarkdownはGPT5.1が出力すれば良い
- JSONを直接渡すか、5.1のコンテキスト幅を想定して分割した元データ用のMarkdownを生成するか
- Claude Codeでそのグラフに対する掘り下げ質問をしても良い
- よく行われる分析が明確になってくればツール化すればいい
今回の実験条件の面白い点
- 人々の意見Xだけでなく
- ベースラインYがある
- 振り返ってみればしゃべれるマニフェストも同じ構造だったと言える
- YをよりよくアップデートするためにXを使う
構造
- しゃべれるマニフェストの問題設定
- N人からN件のdiff→diffのコンフリクト解消が難しすぎて破綻
- 1つのマークダウンレポートを作る
https://chatgpt.com/c/692ffc2c-45f4-8321-92fe-44fe8ddb071c
もくもく会
- スライドは一応作り終わった
- 提出用のレポートを作ったが出典リンクが壊れてるので直してる
専門用語の出現をフィルター条件にしたが「用語という感じではないが重要なキーワード」がある
- 「韓国」とか「NTT」とか
- こういう単語の出現は具体的な詳細に言及してるシグナル
- 一方で専門用語として扱われる「ブロックチェーン」を含む提案の大部分はフワフワしている
- 専門性を持って書いてる人はいるのだが、「とりあえずそれっぽいキーワードを書いてるだけ」の中身のない提案の出現頻度が他のキーワードに比べてやたら多い