NISHIO Hirokazu
[Translate]
次元削減注意
2018-10-22〜2019-11-10まで「
記憶と抽象化
」というタイトルだったが、各所から言及する際にこのタイトルを思い出せないので適切な名付けではないと判断してリネームした。
注意機構
に
次元削減
を入れる話なので次元削減注意。
#記憶
#抽象化
注意機構
で
記憶
から引き出す際に、queryとkeyの両方に同一の
Dropout
を掛ける
これは実質的に両者を
次元削減
してから比較することに相当する
概念の類似度は距離ではない
で説明した「
次元を落として比較
」「色々な軸で潰した後での距離を類似度にする」が実現できる
記憶
からの
想起
の際にクエリーとキーの単純な類似性ではなく抽象化した上での類似性での想起が可能
つまりこれ
アナロジー
とか
連想
に相当する機能では
Tweet
Related Pages
概念の類似度は距離ではない
アナロジー
読書を支援するボット
主観と感情
CybozuHackathon2019
講演スライド作成プロセス
思考の結節点2019-10-31
注意機構
連想
→
連想
→
同世界連想と異世界連想
→
ai時代
×
ゾス力
×
disagree_and_commit
×
メタ認知
×
抽象化
×
グリット
×
ネガティブ・ケイパビリティ
×
尖り
×
何を問うか
×
仮説への執着
×
目的起点
×
自発性
×
再現性
→
ゾス力の概念とAI時代の知的労働における意義
→
アナロジー
→
順序非可換=新規性
→
シラー
×
普遍のために特殊を求める
×
ゲーテ
×
特殊のなかに普遍を見る
×
寓意
×
特殊
×
普遍
×
象徴
×
シンボリックモデリング
×
シンボル
×
抽象概念
×
具体例
×
心象風景
×
経験
×
事後的
×
普遍を獲得
×
アナロジー
×
根なし草の知識
×
無数的特徴
×
ストーリーの交差点がアトムになる
×
交差点
→
寓意と象徴
→
主観的な関係
×
連想
→
主観的な関連
→
サイボウズラボ勉強会
×
世論地図勉強会
×
2024衆院選
×
世論地図
×
世論地図のumap
×
濃い塊の抽出
×
カール・ピアソン
×
karl_pearson
×
多次元尺度構成法
×
主座標分析
×
自己組織化マップ
×
som
×
self-organizing_maps
×
カーネル法
×
再生核ヒルベルト空間
×
サポートベクターマシン
×
isomap
×
isometric_mapping
×
lle
×
locally_linear_embedding
×
対立次元
×
PCA
×
UMAP
×
2022年参院選のumap可視化
×
polisクラスタ2つになる問題
×
東京大学谷口研究室・朝日新聞社共同調査
×
2022年参院選のpolis的可視化
×
convex_hull
×
code_for_japan_summit_2024
×
世論地図3970人umap
×
dbscan
×
高次元泥団子
×
集団極性化
×
匿名の市民の意見ベクトルはそんなに明瞭に別れてない
×
umapの結果をクラスタリングするべきか
×
tsneの結果のクラスタリングは慎重に
×
賛成反対データのumap
×
シン東京2050ブロードリスニング
×
テキスト埋め込みベクトルの分布
×
text-embedding-3-large
×
小さな粒のある一つの塊
×
クラスタリングとパーティショニング
×
k平均法
×
クラスタリング
×
spectralclusteringとhdbscanの違い
×
日テレnews×2024衆院選×ブロードリスニング
×
aiによるクラスタ解説
×
濃いクラスタ抽出
×
ptttc2024-11-12
×
外れ値
×
まずは大雑把に
×
全体像を把握したい
×
talk_to_the_city_turbo
×
tttc:_aiと著作権に関するパブリックコメント
×
talk_to_the_city勉強会
×
kj法
×
発想法
×
川喜田二郎
×
凝集型階層的クラスタリング
×
離れザル
×
側面
×
word2vecによる自然言語処理
×
概念の類似度は距離ではない
×
50枚のkj法は10時間の想定
×
5年間で129枚しかkj法をしていない
→
高次元データ分析勉強会
→
developing_innovations_based_on_analogies
×
デザインプロセス
×
アナロジー
×
概念的距離
×
遠いアナロジー
×
論文入れ
×
遠いアナロジーは知的生産に有用
→
アナロジーとイノベーション
→
アナロジー
×
アナロジーとイノベーション
×
遠い概念の接続
×
離れた概念のアナロジー
×
異なる分野に適用する
×
異なる分野
×
異なる分野の知識
×
異なる領域からのアイデア
×
異なる領域
×
異なるドメイン
→
遠いものの接続
→
西尾泰和
×
外部脳
×
思考は脳の中だけで行われるものではない
×
川喜田二郎
×
知的生産術
×
kj法
×
考える花火
×
紙切れ
×
書き出し
×
空間的に配置
×
脳の外で思考する
×
方法論
×
生身の脳
×
短期記憶
×
梅棹_忠夫
×
知的生産の技術
×
情報カード
×
ツェッテルカステン
×
断片的書き物
×
公開しない理由がない限り情報は公開されるべきである
×
scrapbox
×
リンクを使って情報を構造化
×
知識のネットワーク
×
予期せずリンクがつながる
×
scrapboxのリンクサジェストが便利
×
2-hop_link
×
似たものを比較することで新たな学びがある
×
思考の解像度を高める
×
連想
×
脱線
×
連想のストック
×
nota
×
helpfeel
×
cosense
×
西尾泰和の外部脳
×
道具を使用する技能の向上によって世界の認識が詳細になる
×
読者向けlinks
×
for_visiter_of_/nishio-en
×
公表されたものは引用できる
→
これは何?
→
社会を人間による計算として考える
×
テクノ・コミュニタリアニズム
×
江戸文化
×
江戸文化が「あたらしい専制とaiが支配する社会」を救う?
×
江戸、編集工学とplurality多様性に開かれた社会に向かうために
×
つながりの発見
×
connection_as_first-class_objects
×
連想のストック
×
連想
×
第一級の対象
×
ハイパーグラフ
×
intersecting_group
×
cosenseではリンクが第一級のオブジェクトである
×
端的な説明は万人にわかりやすくない
×
cosenseはplurality的
×
日記2025-07-31
×
日記2025-08-02
×
日記2025-04-23
×
日記2024-08-01
→
日記2025-08-01
→
抽象化
×
なんでもできる
×
前提知識
×
なんにもできない
→
なんでもできるがなんにもできない
→
連想
×
リンク
×
過去の連想の再利用
×
リンクサジェスト
×
あいまい検索
×
原始的連想
×
オーガニック連想
×
手繰る
×
xy問題
×
メタノート
×
赤リンク
×
有用な概念の当たり判定を拡大する
×
長いタイトルを刻む
×
長いタイトルを刻むページ
→
連想した順にリンクする
→
論理
×
意見の食い違い
×
公理
×
作業仮説
×
哲学
×
真理論
×
正しさの相対化
×
エミュレート
×
エミュレーション
×
思惟
×
抽象化
×
思惟経済説
×
不可知
×
近似
×
均質
×
ステレオタイプ
×
ステレオタイプによる近似
×
プラグマティズム
×
ダブルスタンダード
×
勝つための議論
×
不毛な議論
×
掘り下げ
×
循環論法
×
掘り下げて底に到達
×
未来予知
×
力は悪である
×
奴隷道徳
×
ルールを作って欲しがる人
→
公理系の違い
→
抽象化
×
つながる
×
上が抽象で下が具体の図
×
共通の側面が見つかる
×
抽象を軸足にした変換
→
抽象化でつながる
→
問題解決能力
×
抽象化した問題解決方法
×
解き方
×
モデル
×
未知の具体的問題を解決できる能力
×
未知の問題
×
答えのない問題
×
抽象化
×
問題解決方法
→
知識を覚えることが勉強と思っている人
→
書籍
×
抽象化産物
×
具体的な経験
×
抽象化
×
raw画像
×
リンクが張れないメディア
×
同じことを何度も説明する
×
毎回記憶がリセットされるメディア
×
書籍というレガシーフォーマット
×
ホモサピエンスに抽象化させない
→
書籍は既に抽象化産物
→
エンジニアの知的生産術
×
トニー・ブザン
×
人生に奇跡を起こすノート術
×
中央イメージ
×
関連づけ
×
連想
→
マインドマップ
→
エアリプ
×
一般論
×
長期的に価値のある知識
×
具体的側面
×
削ぎ落とし
×
抽象化
×
共通点を見出し
×
「最速のコースは最速ではない」誕生プロセス
×
抽象度の高い概念は応用範囲が広い
×
エアリプだと思う自意識過剰のバグ
×
人に対して話す
×
虚空に向かって文章を書く
×
希少なリソース感の食い違い
→
エアリプではなく一般論
→
hunter×hunter
×
比喩
×
コミュニケーションコスト
×
アナロジー
×
仮想的に共通の経験をする
×
共通の語彙ができる
→
一人を除いて全員HUNTER×HUNTERを読んでいる
→
integrityと水面モデル
×
アナロジー
×
見やすい
→
ビジュアルシンキングの事例
→
連想
×
マシンガントーク
×
無能で十分説明されることに悪意を見出すな
×
フロー状態
→
連想雪崩
→
書いて安心する
×
消えない
×
安心
×
脳の外
×
scrapboxが連想のストックであることについて
×
連想
×
脳の外に出す
×
連想のストック
→
安心する
→
自転車の補助輪
×
補助輪
×
自転車の乗り方
×
アナロジー
×
たとえ
×
守破離
→
自転車の補助輪のたとえ
→
変わりやすいもの
×
変わりにくいもの
×
変わりにくいものを学べ
×
エンジニアの知的生産術
×
変化しにくい知識
×
個別具体的な事例
×
個別ケース依存
×
抽象化
×
個別具体的情報
×
土台から順に積む必要がある
×
箱を上に積む
×
具体的情報
×
汎用性の高い
×
抽象化された知識
×
ピラミッドの頂上を取ってきても期待と違う
×
根無し草の知識
×
浮き草と樹木のたとえ
×
PDCAと誤差逆伝搬
×
mitoujr-mentoring-tips
→
「変わりにくい」ものを直接学ぶことはできない
→
抽象化
×
キャリア論
×
抽象モデル
×
広く応用可能
×
フレームワーク
×
制約
×
スキル
×
価値観
×
熱意
×
無難
×
挑戦
×
土台
→
抽象化されたキャリア論
→
連想
×
客観的
×
明示的
×
過度の一般化
→
連想させる
→
日記2024-12-18
×
overlap
×
類似度
×
非類似度
×
距離
×
三角不等式
×
内積
×
2-hop_link
×
概念の類似度は距離ではない
×
非計量類似度
×
tverskyのコントラストモデル
×
prism:_mapping_interpretable_concepts_and_features_in_a_latent_space_of_language
×
側面
×
連想的雰囲気
×
連想接続
×
トピック抽出
×
トピックは細かすぎる
×
長いタイトルを刻むページ
×
有用な概念の当たり判定を拡大する
×
大きすぎるリンクの問題
×
掛け合わせリンク
×
当たり判定拡大
×
意味的に納得のいく接続
×
トピックモデル
×
lda
×
特徴集合
×
概念ラティス
×
階層構造化
×
formal_concept_analysis
×
コミュニティ検出
×
高頻度語
×
ストップワード
×
低頻度語
×
上から見るか中から見るかの違い
×
dwell-think
→
非計量類似度2024-12-18
→
抽象化
×
低レイヤー
×
複雑さ
×
隠蔽
×
漏れ出してくる
×
漏れる抽象化の法則
×
"抽象化には漏れがある"法則
×
抽象化は作業時間を減らすが学習時間を減らさない
×
抽象レイヤー
×
抽象化レイヤー
→
リーキーアブストラクションの法則
→
2022年参院選のumap可視化
×
PCA
×
世論地図
×
東京大学谷口研究室・朝日新聞社共同調査
×
次元削減
×
talk_to_the_city
×
t-sne
×
bertopic:_neural_topic_modeling_with_a_class-based_tf-idf
×
bertopic
→
UMAP
→
主成分分析
×
相関
×
主成分
×
多変量解析
×
次元削減
×
直交基底
×
共分散行列
×
固有ベクトル
×
分散最大化
×
寄与率
×
固有値
×
カール・ピアソン
×
ピアソン
→
PCA
→
抽象化
×
正しくない抽象化
×
共通の抽象化
×
法律の相談を抽象化しない
×
早すぎる抽象化
×
データをして語らしめる
×
解釈はいくつもある
×
二人が違うことを言う絵のシリーズ
→
抽象化は一通りではない
→
具体的/抽象的は誤った二項対立
×
抽象化は次元削減
×
概念の類似度は距離ではない
×
解釈
×
抽象化
×
側面
×
経験の側面
×
ツリーを描くと片側が単一と勘違いする
→
解釈はいくつもある
→
思考の結節点
×
タユピンコ人
×
何か生まれそうな予感
×
新しい抽象化が起きそうな気配
×
辞書を読む
×
辞書
×
実りのあるメタファー
×
実り
×
メタファー
×
メタファー空間
×
概念間のネットワーク
×
ワープポータル
×
遠いものの結合を促進
×
アナロジー
×
遅い読み方
×
図と紐付いてる概念
×
共同注意
×
指差し
×
積み上げる作業
×
人間の経験にはパーマリンクがない
×
忘却
×
曖昧化
×
分解
×
腐敗
×
発酵
×
重要でない
×
抽象化
×
連想は類似検索ではない
×
metric
×
10年かかる学習プロセス
×
写経
×
翻訳はゆっくり読む手段の一つ
×
翻訳
×
書きながら考える
×
違うシンボル空間ではシンボルの分布が異なる
×
抽象化フェーズ
×
抽象化を促す情報
×
クリーンな質問
×
重要な部分を抽出
×
ハンドル
×
他の情報へのリンク
×
人間の増強
×
芋づる検索
×
人間+コンピュータ=増強された人間
×
連想接続
×
メタファー空間へのリンク
→
思考の結節点2019-01-21
→
思考の結節点2019-01-21
×
概念間のネットワーク
×
概念のネットワーク
×
概念ネットワーク
×
知識ネットワーク
×
知識
×
客観的
×
主観的
×
世界認識
×
世界観
×
世界記述
×
ユクスキュルの環世界論
×
連想のネットワーク
×
連想
×
世界
×
思い出し
×
仮想的に見る
×
状況が接続してる
×
未来予知能力としての理解
→
概念間のネットワーク
→
答え
×
無益
×
解き方
×
新しい問題
×
抽象化
×
鶏と卵
×
パラレルワーク
×
mba
×
mot
×
ケーススタディ
×
知識交換
×
nda
×
営業秘密
×
解法
×
知識移転
×
抽象化能力
×
抽象化能力が高まるとndaを回避できる
×
抽象化して流通させる
×
法的思考
×
具体と抽象の行き来
×
法的三段論法
→
答えをコピーしても無益
→
仕事してる最中に得た知識
×
書くことの三つのメリット
×
再利用
×
抽象化
×
文脈
×
「最速のコースは最速ではない」誕生プロセス
×
抽象化能力が高まるとndaを回避できる
×
答えをコピーしても無益
→
抽象化すると公開できる
→
なめら会議
×
semantic_knowledge_base
×
napier_protocol
×
pixelaw
×
algocracy
×
ブロックチェーントリレンマ
×
敵と味方をなめらかにする
×
なめらかな社会とその敵
×
見慣れないものをちゃんと見ずに攻撃する
×
技術は人々の相互作用の方法を変えるので民主主義もそれに合わせて変わる必要がある
×
picsy
×
qv
×
自由エネルギー最小化
×
記号創発
×
谷口忠大
×
作られるシェマの量と身体能力の関係
×
ノートクローゼット
×
Memex
×
複数の視点に支えられた判断
×
概念の類似度は距離ではない
×
hnsw
×
curveファイナンス
×
金利スワップ
×
crvトークンが分配の意思決定の投票権になる
×
crvトークン
×
バブル
×
curve_war
×
オーストリア学派
×
触ってみることでしか得られない知識
×
yield_tokenization
×
キャズム
×
ポンジ
×
axie
×
stepn
×
dark_forest
×
opcraft
×
zksnarks
×
結城_東輝
×
正当性
×
正統性
×
justness
×
legitimacy
×
一階の公共性
×
二階の公共性
×
納得感
×
翻訳困難
×
words_as_public_goods
×
聞く人がボトルネック
×
ブロードリスニング
×
ai独裁制
×
アルゴクラシー
×
aiへの服従を公約とする人間
×
ハイエク
×
経済計算論争
×
ebgm
×
後継者をaiにする
×
不老不死
×
独裁者のai化
×
ニューロマーケティング
×
クオリア構造学
×
正統性が最も希少な資源
×
パフォーマンスによる正統性
×
正統性が最も重要で希少なリソース
×
贖宥状
×
技術者が贖宥状を売って儲ける
×
ホモルーデンス
×
セルフィッシュマイニング
×
ダブルスペンディング
×
チャリティーとフィランソロピーの区別
×
林_篤志
×
山古志村
×
水道哲学
×
視座
×
エミュレータ
×
得度
×
チベット
×
エストニア
×
台湾
×
dex
×
cbdc
×
最適輸送
×
両界曼荼羅
×
なめ敵会
→
なめら会議3
→
抽象化
→
抽象化して外す
→
書き出し法
×
kj法
×
ボトムアップ
×
グループ編成
×
関係
×
物理的な近さ
×
scrapbox
×
連想
×
リンク
×
検索
×
連想接続
×
リンクを使って情報を構造化
×
連想雪崩
×
情報片のつながり
×
過去のこの日
×
アウトプットしたものにはit技術が適用できる
×
連想をストック
×
連想の軌跡
→
連想のストック
→
自動化
×
プロセス代替化
×
業務変革
×
抽象化
×
実装抽象化
×
業務モデリング
×
思考抽象化
→
自動化と抽象化
→
軸足のある変換
×
軸足
×
抽象
×
登って降りるメタファー
×
新しいもの
×
既存のもの
×
別物
×
創造
×
同じものは新しくない
×
経験
×
抽象化
×
モデル
→
抽象を軸足にした変換
→
Transformer
×
注意機構
×
metaformer
×
poolformer
×
注意機構の計算量削減
→
MetaFormer Is Actually What You Need for Vision
→
伝達
×
抽象化
×
シンボル
×
抽象概念
×
解釈
×
共同観察
×
具体的
×
現象
×
言語化前
×
言語化以前
×
未言語化
×
まだ言葉になっていないもの
×
抽象的でわからないのは具体的経験不足
×
アインシュタインの経験公理検証モデル
→
2018-05-02
→
読書猿
×
バグリスト
×
フォーカシング
×
tae
×
マイセンテンスシート
×
エジソン・ノート
×
ノンストップ・ライティング
×
ランダム刺激
×
エクスカーション
×
セレンディピティ・カード
×
フィンケの曖昧な部品
×
ケプナー・トリゴーの状況把握
×
空間と時間のグリッド
×
事例-コード・マトリクス
×
p.k.ディックの質問
×
なぜなぜ分析
×
キプリング・メソッド
×
コンセプト・ファン
×
ケプナー・トリゴーの問題分析
×
仮定破壊
×
問題逆転
×
ルビッチならどうする?
×
ディズニーの3つの部屋
×
ヴァーチャル賢人会議
×
オズボーン・チェックリスト
×
関係アルゴリズム
×
デペイズマン
×
さくらんぼ分割法
×
属性列挙法
×
形態分析法
×
モールスのライバル学習
×
弁証法的発想法
×
対立解消図
×
バイオニクス法
×
ゴードンの4つの類比
×
アナロジー
×
等価変換法
×
nm法
×
源内の呪術的コピーライティング
×
カイヨワの〈対角線の科学〉
×
カイヨワ
×
シソーラス・パラフレーズ
×
タルムードの弁証法
×
赤毛の猟犬
×
ポアンカレのインキュベーション
×
夢見
→
アイデア大全
→
BMOT第4回の文字起こし
×
claude_3_opusにまとめさせる
×
レール
×
連想の広がり
×
面白い話題
×
次々と生まれ
×
散歩
×
ハイキング
×
アナロジー
×
類推
×
異なる領域からのアイデア
×
タイムマシン
×
バックアップシステム
×
考えをまとめる
×
頭の中
×
付箋に書き出し
×
人と対話したり
×
手を動かす
×
過去の自分との対話
×
結婚相談所
×
人の感情
×
コミュニケーション
×
知的生産
×
発想の広がり
×
収束
×
他者との対話
×
脱線
×
講義の筋書き
×
新しい発想
×
寄り道
×
思わぬ学び
×
異なるもの同士の類推
×
一見関係のないもの
×
付箋
×
書き出し
×
自分の思考を客観視する
×
授業モード
×
盛り上がり
×
mot
×
知の創造
→
BMOT第4回AIまとめ
→
構成的思惟
×
主客合一
×
直観の世界
×
意志の対象界
×
超意識的
×
無限なるもの
×
時
×
想起
×
直観
×
超感覚的
×
すべてが現在
×
純粋経験
×
意志
×
認識論
×
意識現象
×
超時間的
×
直接に与えられるもの
→
種々の世界
→
BMOT第4回の文字起こし
×
エンジニアの知的生産術
×
サイボウズ
×
授業は体育
×
なぜ知的生産術に投資するのか
×
レールがない
×
アナロジー
×
通知は指差し
×
タイムマシン
×
暗算と筆算の関係
×
情報カード
×
梅棹_忠夫
×
こざね
×
付箋に何を書くか
×
facebookの「過去のこの日」
×
話題がつながる関係
×
連想接続
×
bmot特別授業第3回「知的生産」
×
ブレインストーミング
×
脱線
×
ライブ感
→
BMOT特別授業第4回「知的生産」
→
BMOT特別授業第4回「知的生産」
×
脱線
×
ハイキング
×
登山型の本とハイキング型の本
×
アナロジー
×
アナロジーとイノベーション
×
連想のネットワーク
×
なぜ知的生産術に投資するのか
×
喃語
×
指差し
×
生身の人間
×
情報カード
×
暗算と筆算どちらが楽か
×
事後
→
BMOT第4回の文字起こし
→
縦に長い概念と横に広い概念
×
縦に深い概念
×
深い理解
×
概念のトリクルダウン
×
アナロジー
×
知識のネットワーク
×
描きやすい絵のバイアス
×
他人の情報処理を期待して書く
×
他人に期待しない
×
共用のscrapbox
×
未知の発展
×
確率で価値が出る
×
一歩手前の質問
×
距離は主観的
×
距離は一種類ではない
×
概念間の主観的な距離
×
暗黙に共通の距離空間であることを仮定
×
知識のベン図記法
×
知識のネットワーク記法
×
最適解は無条件で定まらない
×
知識のピラミッド記法
×
高速道路
×
適切な切り出し方は、ニーズが明らかになった後に決まる
×
graph_of_thoughts:_solving_elaborate_problems_with_large_language_models
×
scrapboxはアイデアの精製器
×
情報カード
×
ツェッテルカステン
×
なぜカードに書くのか
×
自分由来llmの思考加速効果
×
過去の自分の和との対話
×
日記2023-12-16
×
日記2023-12-18
×
日記2023-09-08
×
日記2022-12-17
→
日記2023-12-17
→
信用を盗む
×
混同惹起行為
×
バズワードは解像度が低い
×
ソーカル事件
×
アナロジー
×
幼児が父親の銃をおもちゃに使う
×
風呂敷を広げすぎて有象無象が群がりバズワードとして消費された
→
抽象化した概念による混同惹起行為
→
連想
×
接続
×
つながりそう
×
無意識の連想
×
周辺探索
×
斥候
×
つながり
×
話題がつながる関係
×
弱いつながり
×
絶縁破壊
×
間を埋める
→
連想接続
→
連想
×
association
×
connection
×
連
×
to_connect
×
to_link
×
to_join_together
×
continuity
×
chain
×
series
×
想
×
thought
×
idea
×
imagination
×
linking_thoughts
→
Rensō
→
メタファー
×
アナロジー
×
概念のトリクルダウン
×
連想
×
話が飛躍する人=ベクトル検索エンジンか?
×
たまたま表記の文字列が共通であるだけ
×
たまたま良いものを生み出す可能性は否定できない
×
考えたい人は考えさせておけば良い
×
実りの多い思考をした人がより多くの価値を生み出す
→
理解が浅い人と浅く使ってる深い人は浅い人には区別できない
→
同じ
×
似ている
×
違い
×
kj法のw型問題解決モデルとu理論、それぞれの問題意識
×
アナロジー
×
メタファー
×
たとえ
×
似ているものの違いに注目
×
似ているが同一ではない
→
「同じ」と「似ている」の違い
→
抽象化
×
過度の抽象化
×
中庸
×
バブル型理解
×
善悪
×
善
×
悪
×
誤った二分法
×
誤った二項対立
→
抽象化は善ではない
→
複数の選択肢
×
選択
×
深堀り
×
選択した結果だけ書くとやったことの難しさや凄さが伝わらない
×
連想
×
寄り道しすぎ
×
省略しすぎ
×
選択肢
×
複数のストーリーを重ねた時の共通部分を見る
×
ストーリーの交差点がアトムになる
×
文章が作られるプロセス
×
レポートの書き方
→
論文の導入部分の書き方
→
木の壁の神託
×
メタファー
×
アナロジー
×
神託
×
タロット占い
×
易占
×
モヤモヤ
×
視点
×
気づく
×
私の恋人は赤いバラのように土から生える
→
神託を解釈するのは人間
→
aiの支援で新しい結合ができた事例
×
抽象化
×
側面
×
経験の側面
×
フェルトセンス
×
無数的
×
シンボルと意味の対応の図
→
片方を抽象化することによって側面を見出す
→
考える
×
立川_智也
×
語の意味は語の使用
×
取っ手
×
思考
×
engelbart
×
概念
×
シンボル
×
操作
×
読書について
×
ショーペンハウアー
×
読書とは他人にものを考えてもらうこと
×
多読
×
アウトプットを焦ると劣化コピーになる
×
人間を考える
×
演題を考える
×
書いて考える
×
塩澤_一洋
×
書考
×
客体化
×
双対を考える
×
盲点カード
×
盲点
×
神託を解釈するのは人間
×
タロット
×
連想接続
×
絶縁破壊
×
プラセボ
×
アナロジー
×
メタファーの空間
×
考える=情報を別の情報と結合すること
×
気づいた
×
連想
×
2-hopリンク
→
「考える」とは何かを考えるプロセス
→
抽象化
×
llmに解かせて
×
引き戻す
×
指導要領
×
モデリングシミュレーション
×
数学的活動のサイクル図
×
アナロジー
×
メタファー空間でgpt4に発散と抽象化をさせてから具体化する
×
chatgpt攻略
×
xが優秀なのは、友人もまた優秀だから
→
抽象化してLLMに解かせてから引き戻す
→
信用システムと多様性のバランス
×
生産の呪い
×
利用と探索のトレード・オフ
×
利用
×
ダシにする
×
抽象化
×
抽象化して応用
→
🤖2023-08-11-6
→
概念地図
×
モデル
×
立ち上げ
×
更新
×
次元削減
×
同じように見えても違う場合がある
×
螺旋階段
×
PDCAと誤差逆伝搬
×
常に影がある
×
井戸端に置いて供養
×
影
→
概念地図を描くことでモデルを立ち上げ更新する
→
灘校土曜講座2014
×
経験を抽象化
×
理解を育てる
×
経験
×
抽象化
×
理解
×
育てる
×
産婆術
×
本質的な知識は各人が生み出さねばならない
×
与えられてもそれは使えるものにならない
×
哲学は生むのを助けるだけ
×
知識創造の方法論
→
経験を抽象化して理解を育てる
→
飲酒効果の是認的発言
×
酒は飲むべし
×
意味のエッセンス
×
概念のハンドル
×
kj法
×
エッセンス
×
抽象化
×
柔かい言葉
×
もとの発言の肌ざわり
×
土の香り
×
発想法
×
抽象化しすぎるな
→
柔かいエッセンス作り
→
愚問
×
法律
×
ルール
×
具体的な事実
×
抽象化
×
自分勝手な事実認定
×
前提が異なっていれば結論が異なるのは当たり前
×
前提が食い違ったまま議論をしても何も積み上がらない
×
承認欲求に飢えた人が飢えた人同士で奪い合いをする
×
snsでは断言をする人が目立つ
→
法律の相談を抽象化しない
→
締め切りがないと、到達しないすごく遠いゴールに向かって走ってしまう
×
締め切り
×
ストレスフリー
×
gtd
×
気になることをすべて書き出せ
×
心に浮かんだことをすべて書き出せ
×
事前にフィルタリングしない
×
kj法
×
進んでいる実感
×
ボトムアップ
×
人生の目的
×
失敗体験
×
抽象化
×
認知的負荷
×
結晶化
×
エンジニアの知的生産術
×
(2.2.4.2)_価値観はボトムアップに言語化する
→
GTDとKJ法のアナロジーの言語化
→
概念の類似度は距離ではない
×
抽象化は次元削減
×
アナロジーと次元削減
×
次元削減
×
次元圧縮
×
抽象化
→
次元削減は抽象化
→
焦点
×
無視
×
意識
×
限られたリソース
×
重要
×
情報過多
×
注意
×
注意機構
×
加算注意
×
内積注意
×
ソースターゲット注意
×
自己注意
→
アテンション
→
抽象から学ぶ
×
hatena2014-08-03
×
エンジニアの学び方
×
広い視野
×
深い理解
×
応用
×
抽象化
×
ラベリングによる再現
×
作って学ぶ
→
「抽象から学ぶ」に具体例を追加
→
エンジニアの知的生産術
×
箱を上に積む
×
抽象化
×
モデル
×
モデル化
×
パターンの発見
×
体験に対するラベリング
×
発想の累積効果
×
集めて並べる
×
試行錯誤
×
試行錯誤は見えにくい
×
自分の経験
×
知識を提供するサービスの登場
×
既に書かれた知識
×
見えにくい試行錯誤
×
まだ書かれていないことの森を切り拓いていく仕事
×
上位の概念ほど陳腐化しにくい
×
PDCAと誤差逆伝搬
→
上に積む
→
網羅感の担保
×
抽象化
×
軸出し
×
幅広い情報リストアップのブレスト
×
幅広い情報リストアップ
×
網羅
×
ブレンストーミング
×
ぬけもれなく
→
GPT4がブレストにいる
→
アーリーアダプターと限られたリソース
×
自分の頭で考える人は事実や情報の羅列が欲しい
×
理解
×
想起
×
日記2023-03-19
×
日記2023-03-21
×
日記2022-12-10
×
日記2022-03-20
→
日記2023-03-20
→
期待と現実のギャップ
×
誤差
×
逆伝搬
×
抽象度の高い知識は修正が少ない
×
応用
×
do
×
具体化
×
出力
×
check
×
現実
×
ギャップ
×
抽象化
×
pdca
×
パーセプトロン
×
2014
×
2014-11
×
誤差逆伝搬
×
変わりにくいもの
×
陳腐化しにくい知識
×
降りて登るメタファー
×
登って降りるメタファー
→
PDCAと誤差逆伝搬
→
テスト
×
バグの存在
×
バグの不在
×
ダイクストラ
×
抽象化
→
謙虚なるプログラマ
→
因果関係
×
経験
×
帰納
×
正当化
×
自然の斉一性の原理
×
根拠
×
自然の斉一性原理
×
斉一性原理
×
科学哲学
×
david_hume
×
newton
×
それはあなたの感想ですよね?
×
アナロジー
×
ヒューム
×
懐疑主義
→
ヒューム的懐疑
→
ドラッカー
×
個別具体的
×
事実
×
抽象化
×
システム
×
観察
×
パターン
×
変化
×
延長線
×
常識
×
臆さず書き残
×
事後的
×
予知能力
×
すでに起こった未来
×
システム思考
×
時間遅れ
→
ドラッカーの予知能力
→
バッドパターン
×
消化とは何か
×
消化とは抽象化だ
×
抽象化
×
過度の抽象化
×
壺に入れて混ぜてしまう
→
抽象的なことを言ってわかった気になる病
→
表札
×
連想的雰囲気
×
抽象化しすぎるな
×
土の香りを残せ
×
概念化過程
×
フック
×
文脈
×
抽象概念
×
連想
×
連想接続
×
抽象化は善ではない
×
抽象化
×
概念化
×
概念
×
言葉の連想的意味でつながる
×
アンケート調査からのkj法が一番難しい
×
浮き草と樹木のたとえ
→
抽象化しすぎるな
→
連想
×
階層的分類
×
分類してはいけない
×
既存の構造
×
既存の分類
×
連想のネットワーク
→
階層的なタクソノミよりも連想的なオントロジーを優先する
→
個別
×
n=1
×
科学
×
思考法
×
繰り返し実験
×
事例が少なくて何も言えない
×
ゼロからイチ
×
掘り下げる
×
抽象化
×
瑣末
×
枝葉
×
本質
×
解釈
×
事実と解釈
×
アインシュタインの経験公理検証モデル
×
目の前の事実
×
関連する情報
×
周辺情報
×
生成システム
→
個別の案件
→
空中に箱を置くことはできない
×
土台から順に積む必要がある
×
モデル化・抽象化の絵
×
モデル化
×
抽象化
×
(1.1.2)_モデル化・抽象化
→
土台から順に積む必要がある
→
類推
×
抽象化
×
アスペルガー
×
アスペルガーの人はなぜ生きづらいのか?_大人の発達障害を考える
→
類推で動く人と抽象化で動く人
→
拡散モデル
×
denoising_diffusion_probabilistic_models
×
ddpm
×
high-resolution_image_synthesis_with_latent_diffusion_models
×
latent_diffusion_model
×
vae
×
stable_diffusion_latent_space_visualization
×
denoising_diffusion_implicit_models
×
ddim
×
stable_diffusionのpromptは77×768次元のテンソルになる
×
positional_encoding
×
clip
×
clip-vit-l-14
×
注意機構
×
u-net
×
オートエンコーダ
×
stable_diffusionのシードとプロンプトの関係
×
stable_diffusion埋め込みテンソル編集
×
stable_diffusion_inpaintの仕組み
×
mask_again_after_inpaint
×
img2prompt
×
clip_interrogator
×
blip
×
画家の発見
×
高次元においてコサイン類似度0.2は激レア
×
textual_inversionを試してみる
×
dreambooth
×
stablediffusion
×
バタフライ効果
×
word2vec
→
Stable Diffusion勉強会
→
検索
×
リンク
×
生身の人間
×
連想
×
連想のストック
×
リンク作成支援
→
検索からリンクへ
→
抽象化
×
連想
×
土の香り
×
発想法
×
過度の抽象化
×
言の葉の影
×
浮き草と樹木のたとえ
×
kj法_渾沌をして語らしめる
→
川喜田二郎は抽象化せよとは言っていない
→
記憶
×
語り部
×
テキスト形式
×
書かなければ忘れてしまう
→
語り続けると記憶が改竄される
→
情報の蓄積
×
連想の蓄積
×
見つけられない存在は、存在してないのと同じ
×
連想
×
連想のストック
×
(1.1.1)_information_gathering
×
(1.1.2)_modeling_and_abstraction
→
情報の蓄積ではなく連想の蓄積が有用
→
多スキーム的
×
容器と道
×
連想
×
位相と近さ
×
人間の経験は根本的に明確な境界を持たない
×
non-numerical
→
多スキームの容器と道
→
hypertext
×
vannevar_bush
×
as_we_may_think
×
memory
×
human_enhancement
×
associative_trajectories
×
stock_of_associations
×
記憶拡張機
×
ヴァネヴァー・ブッシュ
×
ハイパーテキスト
×
記憶
×
記憶拡張
×
人間増強
×
連想の軌跡
×
連想のストック
→
Memex
→
知識創造企業
×
知識創造
×
メタファー
×
アナロジー
×
(6.2.4)_たとえ話・メタファ・アナロジー
×
曖昧性
×
冗長性
→
知識創造の三つの特徴
→
エンジニアの知的生産術
×
(1.1)_学びのサイクル
×
学び
×
情報収集
×
モデル化
×
検証
×
具体
×
体験
×
抽象化
×
モデル
×
パターン
×
パターンの発見
×
パターンを発見する
×
理解
×
モデルを獲得
×
仮説
×
理解は仮説
×
応用
×
実践
×
実験
×
学びのサイクル(旧)
×
学びのサイクルの最初の一歩は?
→
学びのサイクル
→
盲点カード候補
×
三角不等式
×
概念の類似度は距離ではない
×
コミュニケーション距離
→
距離ではない
→
散歩
×
創造性
×
発散思考
×
guilford’s_alternate_uses
×
収束思考
×
compound_remote_associates
×
アナロジー
→
散歩の効果
→
craik
×
tulving
×
記憶
×
craik&tulving_1975
→
頭を使った方が記憶に残る
→
記憶
×
記憶の外部化
×
人間というタンパク質でできたコンピュータ
→
過去の自分と戦う
→
名言
×
aico
×
マインドピクセルプロジェクト
×
常識的知識
×
価値
×
常識は無価値
×
時の試練
×
時は金なり
×
アナロジー
×
メタファー
×
語られつつある言葉
×
明らかに真である情報に人は価値を見出さない
×
知識の創造は主観的
×
知識のjtb定式化
→
名言の機械的生成
→
哲学
×
目的
×
記憶
×
寄せ集める
×
ヴィトゲンシュタイン
×
哲学探究
→
哲学者の仕事は、一定の目的に向って、諸々の記憶を寄せ集めること
→
regroup
×
整理
×
ストーリー
×
整理された分類棚
×
整理されたストーリー
×
連想
×
無味乾燥な事実の列挙
×
連想のリンク
×
文脈
×
周囲の単語との繋がりで意味が絞られる
→
整理されたストーリー
→
脱線
×
連想
×
新結合
→
脱線=連想=新結合発見
→
情報のネットワーク
×
ネットワーク
×
事後的
×
書いてから事後的に関係に気づく
×
マインドマップ
×
連想
×
枝を伸ばす
×
書き出し
×
知識の表現形式
×
盲点カード
→
情報のネットワークは最初は木
→
思考の結節点2019-10-14
×
知識の保存形式
×
知識の表現形式がアップデートされなければならない
×
知識の表現形式のアップデート
×
連想のストック
×
連想装置
×
レコメンド
×
検索
×
2-hop_link
×
連想
×
知識を編むプログラム
×
リンクサジェスト
×
過去の自分の書き物と今の思考の結合支援
×
類似文書検索
×
word2vec
×
gyazz
×
転置インデックスと指差し
×
文書は場所
×
指差し
×
文書が階層的
×
長さをパラメータにしたdf
×
接尾辞配列
×
scrapboxの良さ(その2)
×
抽象概念
×
メタファー
×
知性を高めるシステム
×
アイデアの干渉効果
×
類似度ベースではないレコメンド
×
レコメンドとscrapbox
×
明示的なブラケティング
→
sample1
→
注意機構
→
分割困難な集計
加法注意
→
成果物
×
変換
×
弱い紐帯の強み
×
グラノベッター
×
新規性
×
弱いつながり
×
知識の均質化
×
新しいつながり
×
コモディティ化
×
乱読のセレンディピティ
×
アナロジー
×
エンジニアの知的生産術
×
たとえ話・メタファ・アナロジー
→
弱いつながりと希少性
→
シンボル
×
意味
×
ベクトル
×
集合
×
意味の演算
×
k平均法
×
ベクトルの集合
×
抽象化
×
射影
×
軸を潰す
×
階層的クラスタリング
→
シンボルの意味がベクトルの集合→意味の演算は?
→
注意機構
×
要約生成
×
要約
×
深層学習による自然言語処理
→
注意機構を用いた要約生成
→
Transformer
×
BERTとTransformer
×
rnn
×
cnn
×
注意機構
×
BERT
×
curriculum_learning
×
masklm
→
BERT
→
脱線
×
予期せぬ
×
予期せぬ成功
×
減点法
×
講義
×
反転授業
×
体育型授業
×
脱線は連想
×
連想
×
運
→
脱線授業+一方的授業=反転授業
→
アナロジー
×
認知の解像度
→
アナロジーと認知の解像度
→
年齢
×
抽象度
×
経験
×
圧縮
×
抽象化
×
認知の解像度
×
似た物が昔にもあった型思考
→
年齢とともに抽象度が上がる
→
似ている
×
事実
×
主観的
×
解釈
×
違い
×
認知の解像度
×
連想
×
関連
×
解像度
×
似た物が昔にもあった型思考
→
「似ている」は事実ではない
→
自然言語処理
×
深層学習
×
rnn
×
lstm
×
gru
×
recursive_neural_networks
×
tree-rnn
×
cnn
×
分散表現
×
lbl_model
×
対数双線形モデル
×
word2vec
×
skip-gram
×
cbow
×
seq2seq
×
注意機構
×
memory_network
→
深層学習による自然言語処理
→
metaphor
×
learning cycle
×
the_three_elements_correspond_to_three_dimensions
×
具体
×
concrete
×
体験
×
experience
×
情報収集
×
information_gathering
×
抽象
×
abstract
×
抽象化
×
abstraction
×
モデル化
×
modeling
×
パターンの発見
×
pattern_discovery
×
応用
×
application
×
実践
×
practice
×
検証
×
verification
×
(1.1.1)_information_gathering
×
(1.1.2)_modeling_and_abstraction
×
(1.1.3)_practice_and_verification
→
(1.1) The learning cycle
→
注意機構
×
キーワードと質問の選択は内積注意
→
キーワードと質問の選択は注意機構
→
motivation
×
記憶
×
memory
×
外部の情報
×
external_information
×
input
×
情報収集
×
information_collection
×
information_gathering
×
断片的情報
×
fragmentary_information
×
積み上げる
×
stack
×
抽象化
×
abstraction
×
モデル化
×
modeling
×
パターンの発見
×
pattern_discovery
×
噛み砕く
×
chew
×
具体化
×
concretion
×
言語化
×
verbalization
×
文章化
×
to_create_sentences
×
output
×
実践
×
practice
×
応用
×
application
×
reaction
×
検証
×
verification
×
自分以外(世界・他人)の反応
×
reactions_other_than_yourself
→
(0.3) Structure of this book
→
information_gathering
×
modeling
×
verification
×
具体
×
concrete
×
情報収集
×
体験
×
experience
×
抽象
×
abstract
×
抽象化
×
abstraction
×
モデル化
×
パターンの発見
×
pattern_discovery
×
応用
×
application
×
実践
×
practice
×
検証
×
(0.2.1)_collect_information_concretely
×
(0.2.2)_compare_and_find_patterns
×
(0.2.3)_practice_and_verification
×
learning cycle
→
(0.2) How to learn programming
→
素朴理論
×
建設的相互作用
×
教育心理学概論
×
カイゼンジャーニー
×
知識
×
理解
×
社会的構成
×
バブル型理解
×
対話
×
抽象化
×
抽象的な知識をどうやって獲得するのか
×
対話の場を作る
→
建設的相互作用
→
答えをコピーしても無益
×
抽象化
×
カイゼンジャーニー
×
学びの移転
×
スモールスタート
×
試行錯誤
→
小さい試行錯誤が必要
→
方法論
×
抽象化
×
長期投資
×
問題解決大全
×
洞察
→
方法論の抽象化に努めることは賢明な長期投資である
→
抽象化
×
抽象
×
abstract
×
-化
×
to_make_or_become
→
CHUSHOKA
→
連想
×
属人的
×
弱いリンク
×
強いリンク
×
正当化されたリンク
→
連想をこじつける必要はない
→
予期せぬリンク
×
予期しないつながり
×
連想
×
検索で予期せず発見する事例
×
書籍間リンク
→
書籍間リンク発見システム
→
(0.2) How to learn programming
×
(1.1) The learning cycle
×
information_gathering
×
modeling
×
verification
×
具体
×
concrete
×
情報収集
×
体験
×
experience
×
抽象
×
abstract_2
×
抽象化
×
abstraction
×
モデル化
×
パターンの発見
×
pattern_discovery
×
応用
×
application
×
実践
×
practice
×
検証
×
cycle_of_learning
→
learning cycle
→
シチュエーションによって好む入力手法は異なる
×
ipadでは手書き入力したい
×
ipad
×
手書き
×
一人でも共同編集は必要
×
グループ開閉が必須
×
隠す機能
×
抽象化
×
空間的に書くことは良い
×
マインドマップ
×
kj法
×
手書きストロークが最小単位
×
芋づる検索
→
20190303
→
思考の結節点2019-02-18
×
レコメンド
×
検索
×
2-hop_link
×
連想のストック
×
連想
×
距離
×
知識を編むプログラム
→
連想装置
→
scrapbox
×
関係
×
scrapbox文中からのリンク
×
目次
×
見出し
×
節見出し
×
前後関係
×
連想は類似ではない
×
連想は双方向である必要はない
×
類似関係
×
対称性
×
連想は類似検索ではない
×
関係接続
×
連想接続
×
接続関係
×
連想
×
連想関係
→
断片の間の関係接続
→
kj法
×
付箋
×
書き出し法
×
定量的
×
目標設定
×
氷山モデル
×
水面
×
まだ言語化されていないもの
×
釣り上げる
×
フック
×
引きずり出す
×
パターン発見
×
抽象化
×
言語化
×
帰納的
×
たとえ
→
付箋は本体ではない
→
bmotワンナイト人狼第1回
×
ワンナイト人狼
×
仮説
×
後知恵バイアス
×
mece
×
不確実性
×
枠組み
×
認知のバイアス
×
ロジックモンスター
×
サイドチャンネル
×
飽和攻撃
×
無意識の戦略
×
議論のリード
×
ヒエラルキー
×
非対称
×
アヴァロン
×
アナロジー
×
世論
×
大局の確実性
×
局所の確実性
×
不確実性の勾配
→
ワンナイト人狼文字起こし1-考察
→
概念
×
メタファー
×
メタファーによる理解
×
アナロジー
×
類推
×
連想
×
個人的経験
×
経験
×
たとえ話
×
経験を共有
×
情報伝達
×
共同化
×
制度化した言葉
×
数学
×
論理
×
定義
→
概念とメタファー
→
scrapbox
×
思考の結節点2019-01-21
×
指差し
×
抽象化
×
ブラケティング
→
抽象化を促す情報
→
老害
×
過剰に抽象化
×
抽象化
×
同一視
×
似た物が昔にもあった型思考
→
老害と過剰な抽象化
→
アナロジー
×
たとえ
×
究極の5個の帽子掛け
×
pmbok
×
イノベーションの7つの機会
×
市場の境界を引き直す6つのパス
×
情報収集の3つの方法
×
7つの習慣
×
成果を上げるための8つの習慣
×
ゲリラ戦争7つの黄金律
×
5つの能力
×
5つのp
×
管理には3つの意味がある
→
N個のX
→
hook_model
×
トリガー
×
アクション
×
リワード
×
価値
×
インベストメント
×
社会的トリガー
×
ブラケティング
×
サジェスト
×
辻ブラケティング
×
連想
×
抽象化は個性
×
言及ページ
×
リンク多め
×
再浮上
×
ループ
×
受動的社会トリガー
×
エモーション
→
社会トリガーインベストメント
→
複数のベクトル
×
まとめかた
×
平均
×
rnn
×
lstm
×
注意機構
→
複数のベクトルのまとめかた
→
分散表現
×
PCA
×
次元削減
×
word2vec
×
回転無視は適切か?
×
自発的対称性の破れ
→
分散表現のマージ
→
文字の分散表現
×
単語の分散表現
×
文章の分散表現
×
分散表現
×
章の分散表現
×
ページの分散表現
×
本タイトルの分散表現
×
本内容の分散表現
×
注意機構
×
kj法
×
クリーンスペース+kj法実験
×
分散表現のマージ
×
回転無視は適切か?
→
本の分散表現
→
具体
×
抽象
×
細谷_功
×
エンジニアの知的生産術
×
抽象化
→
具体と抽象
→
BERT
×
Transformer
×
注意機構
→
BERTとTransformer
→
cnn
×
注意機構
×
Transformer
×
positional_encoding
→
CNNと自己注意
→
rnn
×
cnn
×
注意機構
×
łukasz_kaiser_et_al.,_arxiv,_2017/06
×
注意機構は辞書オブジェクト
×
加法注意
×
内積注意
×
ソースターゲット注意
×
自己注意
×
縮小付き内積注意
→
Transformer
→
注意機構
×
Transformer
×
cnn
→
自己注意
→
注意機構
×
辞書オブジェクト
×
内積注意
×
次元の呪い
×
soft-argmax
×
key-value_memory_networks_for_directly_reading_documents
→
注意機構は辞書オブジェクト
→
小町_守
×
自然言語処理
×
gan
×
feature_matching_for_text_generation
×
soft-argmax
×
teacher-forcing
×
dropout
→
言語処理におけるGANの展開
→
知的創造
×
外山_滋比古
×
啐啄の機
×
忘却
×
アナロジー
×
着想は奇襲する
×
比喩
×
雑談
×
あえて読みさす
×
読書
×
脱線のすすめ
×
脱線
×
煉瓦と豆腐
→
知的創造のヒント
→
直接引用モデル
×
注意機構
×
隠れマルコフモデル
×
ビタビアルゴリズム
×
文章の粒度
×
発話
×
ppoi
→
注目部分を切り出す
→
抽象クラス
×
抽象化
×
継承
×
逆継承
→
逆継承
→
アナロジー
×
次元削減
×
次元削減は抽象化
×
バンディット問題
→
アナロジーと次元削減
→
タスク
×
ふせん
×
川喜田二郎
×
フェーズ
×
知識
×
あなた
×
サイクル
×
読み方
×
メタファ
×
本章
×
優先順位付け
×
kj法
×
全体像
×
しくみ
×
抽象化
×
プログラミング
×
やる気
×
ピラミッド
×
ソフトウェア
×
注
×
プログラム
×
whole_mind_system
×
パターン
×
プログラミング言語
×
ボトムアップ
×
たとえ話
×
価値
×
プロセス
×
知的生産術
×
分野
×
概念
×
アウトプット
×
グループ
×
学び
×
目的
×
他人
×
言語化
×
海馬
×
情報
×
考え方
×
誰か
×
視点
×
創造性
×
書き出し法
×
速度
×
盲点
×
教科書
×
原動力
×
方法
×
アナロジー
×
表札
×
発想法
×
方法論
×
それ自体
×
抜き書き
×
incremental_reading
×
単語
×
抽象概念
×
情報収集
×
見積り
×
一覧性
×
著者
×
文章
×
意思決定
×
シナプス
×
脳内
×
インプット
×
記憶
×
ルール
×
暗黙知
×
ゴール
×
写経
×
ソースコード
×
モデル
×
仮説
×
顧客
×
コンピュータ
×
実験
×
エンジニア
×
グラデーション
×
モデル化
×
アジャイル
×
supermemo
×
速読術
×
言葉
×
自分
×
複数
×
ボトルネック
×
ラット
×
複数人
×
フィードバック
×
具体例
×
symbolic_modelling
×
書籍
×
何回か
×
コーディング
×
岩波書店
×
メリット
×
レポート
→
エンジニアの知的生産術 機械的キーワード抽出実験
→
nm法
×
葛藤
×
アナロジー
×
エンジニアの知的生産術
×
盲点カード
→
別の世界で解決する
→
エンジニアの知的生産術_目次ダイジェスト
×
言語化を促す方法
×
質問によるトリガ
×
フレームワークのメリットとデメリット
×
フレームワーク
×
創造は主観的
×
身体感覚
×
絵に描いてみる
×
たとえ話・メタファ・アナロジー
×
たとえ話
×
メタファ
×
アナロジー
×
nm法とアナロジー
×
nm法
×
clean_languageとsymbolic_modelling
×
clean_language
×
symbolic_modelling
×
暗黙知
×
解決に近付いている感覚
×
二種類の暗黙知
×
違和感
×
thinking_at_the_edge
×
辞書との照合
×
公共の言葉
×
私的な言葉
→
言語化を促す方法
→
文脈
×
断片的メモ
×
忘れる
×
不安
×
長文のメモ
×
知の探検学
×
点メモと思いだし
×
点メモ
×
思い出し
×
連合
×
記憶
×
空間的に再配置
×
構造化
×
点よりも線が強く、線よりも面が強い
×
一次元の文章
×
空間的に再構築
×
川喜田_二郎
×
記憶の想起
×
craik&tulving_1975
→
メモの詳細を忘れる恐怖
→
scrapbox
×
知的生産
×
連想
×
精緻化
×
結合
×
エンジニアの知的生産術
×
作る過程で理解が深まる
×
craik&tulving_1975
→
他媒体のデータをScrapboxに移す過程で知的生産が行われる事例
→
想起
×
リンク
×
思い出されなければ意味が無い
×
乱読のセレンディピティ
×
乱読するプログラム
→
外部記憶
→
フロー体験_喜びの現象学
×
利用と探索のトレード・オフ
×
ワーク・シフト
×
思い出されなければ意味が無い
×
結合
×
想起
×
速読
×
速読による書籍間リンク発見の事例
×
修辞的残像
×
乱読のセレンディピティ
→
想起のトリガー
→
次元削減
×
次元削減は抽象化
×
抽象化は主観的
×
強化学習
×
多腕バンディット
→
強化学習と次元削減
→
エンジニアの知的生産術
×
グループ編成は主観的
×
抽象化
×
重要だと思う
×
抜き出す
×
重要
×
思う
×
主観
×
抽象化は主観的
→
抽象化は個性
→
海馬
×
大脳皮質
×
記憶
×
海馬歯状回
×
忘却を促進
×
幼児期健忘
×
アセチルコリン
→
海馬と記憶
→
抽象化
×
俯瞰
×
視座
×
包括
×
kj法
×
表札
×
表札付け
×
時間的に分散したkj法
×
段階的な情報構造化の事例
×
事後
×
なぜ個人用wikiを持つことは有用なのか
→
包括した情報を書けることが価値
→
階層構造
×
情報構造化
×
階層化
×
連想
×
マインドマップ
→
リンクを使って情報を構造化
→
人生の目的
×
徐々に明確化
×
抽象化
×
エンジニアの知的生産術
×
価値観はボトムアップに言語化される
×
目的の明確化
→
人生の目的は日常タスクの抽象化で作る
→
乱読のセレンディピティ
×
修辞的残像
×
記憶
×
残像
×
理解
×
速読
→
ゆっくり読み過ぎると理解が妨げられる
→
正解
×
サイクル
×
学びのサイクル
×
やる気
×
タスク管理
×
記憶
×
間隔反復法
×
本を読む
×
速読
×
知識ネットワーク
×
まとめる
×
川喜田_二郎
×
kj法
×
アイデア
×
アイデアを思い付く
×
理解を深める
×
パターンを発見する
×
新結合
×
エンジニアの知的生産術_著者公式ページ
→
エンジニアの知的生産術 この本の流れ
→
抽象化
×
累進
×
飽和
×
s字
×
具体抽象図
×
知識の成長曲線
×
学習曲線
×
s字曲線
→
学習曲線がS字曲線になる原理
→
劣化コピー
×
抽象化
×
言葉が熟す
×
不慣れな分野
×
咀嚼
×
答えをコピーしても無益
→
アウトプットを焦ると劣化コピーになる
→
論文
×
長期記憶
×
間隔反復法
×
記憶
×
勉強法
×
間隔反復法の効果
→
長期記憶を作るには1ヶ月の間隔が良い
"
Engineer's way of creating knowledge
" the English version of my book is now available on
[Engineer's way of creating knowledge]
(C)NISHIO Hirokazu / Converted from
[Scrapbox]
at
11/23/2025, 4:52:22 PM
[Edit]