簡潔な要約
2023-10-05
omniの出力「知識の生産性を向上させるためには、共同化の重要性や計画作成の前に暗黙知を共有することの重要性を理解する必要がある」
この「共同化」が野中郁次郎のSECIモデルの話であることを僕はわかる。
from 日記2023-09-06 生のChatGPTとomniのユースケースが違う
生のChatGPTと、このScrapboxを読ませたomniとでユースケースが違う
omniは僕を100%とした時に50%〜150%くらいの返しをする、ChatGPTは0%
一般人の大部分が支障なく理解できるラインを0%とする
一方で僕が自分用のメモとして書くものは当然自分が読めるライン100%で書かれている
一方でこれは理解できなかった
また、KJ法の実践や「渾沌をして語らしめる」勉強会の内容から、問題解決の過程での交換の重要性を再認識しました。これらは、交換様式Dの理論的枠組みを具体的な問題解決の文脈に落とし込む手がかりを提供しています。
ここまで書いて0%100%という表現は一本の軸を仮定してて良くないと思った
人A, BそれぞれKnownな情報の範囲と、Understandableな情報の範囲がある
多くの人のUnderstandableな範囲に収まる回答をしようとすれば当然Uのintersection$U_A \cap U_B$の中に縮まっていく
一方でomniはそのようなチューニングが行われてないので僕が書いたものKB(正確には書いたものの集合は知っているものの集合より小さいが)から発展させたものを作り、これが時々UBの範囲を逸脱する
うーん、これを説明する上で円を描いたのも正しくない暗黙の仮定だな
以前「AIの出力してくるコメントに対して、良い悪いをフィードバックしたら良いものがたくさん出てくるようになるんじゃないですか」という意見があって、全然見当違いの筋悪な意見だと思ったんだけど、それがなぜ筋悪なのかは言語化されていなかった
BELOW_IS_AI_GENERATED
2023-09-08 16:41
テキストの大部分は一般的に理解可能な表現で書かれているが、自身の研究ノートは自分が理解できる表現で書かれている。そのため、自分の表現を理解するAIは、ChatGPTよりも効率的に思考を加速させる。しかし、その表現は一般的な理解可能な範囲を超えることがある。また、新しい知識の獲得は、既知の概念の組み合わせから生まれることが多い。その組み合わせは必ずしも理解可能な範囲に収まるわけではない。そのため、理解できない新しい組み合わせが出現したとき、それを理解することで新しい知識が生まれる。
「日記2023-09-06」のフラグメントは、ノートと直接的な関連性がある。ノートでは、自分が理解できる表現で書かれた研究ノートをAIが理解することで思考が加速されると述べている。一方、フラグメントでは、omniが自分を100%としたときに50%〜150%の返答をすると述べており、これはノートの主張と一致する。また、フラグメントでは、omniが自分の知識範囲から発展させたものを作り、時々理解可能な範囲を逸脱すると述べている。これもノートの主張と一致する。
ノートとフラグメントから、AIが個々の理解可能な範囲を超えて新しい知識を生み出す可能性が示唆されている。これは、AIが個々の知識や経験を超えて新しい視点や洞察を提供する能力を持つことを示している。しかし、その結果として生じる新しい知識や洞察が必ずしも一般的に理解可能な範囲に収まるわけではないという点は、AIの活用において考慮すべき課題である。
AIは個々の理解可能な範囲を超えて新しい知識を生み出す可能性があるが、その結果として生じる新しい知識や洞察が必ずしも一般的に理解可能な範囲に収まるわけではない。 タイトル: "AIによる新知識生成と理解可能な範囲の課題"
titles: ["日記2023-09-06", "他人由来のAIに自分の日記を見てもらう", "ChatGPTについてのコラムの準備"]
generated: 2023-09-08 16:41