NISHIO Hirokazu
[Translate]
液状化とword2vec
シンボル
を周囲のシンボルとの関係に基づいてベクトル化する
word2vec
は
知識の液状化
なのではないか
分節化
は
k-means
なのではないか
Tweet
Related Pages
分節化
知識の液状化
k-means
→
根
×
浮き草と樹木のたとえ
×
行方不明の図2
×
bad(basic_abstract_data)
×
生のデータと意味の塊
×
イベント記事は瀕死
×
テキスト
×
根差した
×
関係抽出
×
grounded
×
着地
×
関係は意味であり逆もまた真
×
pconceptmap2025-09-08
×
pconceptmap
×
点メモ
×
体験過程
×
分節化
×
入力されたテキストから興味深い部分を抽出する
×
ai要約
×
根拠と接続したまま壊すことが創造
×
根拠と接続
→
テキストに根差した関係抽出
→
シラー
×
普遍のために特殊を求める
×
ゲーテ
×
特殊のなかに普遍を見る
×
寓意
×
特殊
×
普遍
×
象徴
×
シンボリックモデリング
×
シンボル
×
抽象概念
×
具体例
×
心象風景
×
経験
×
事後的
×
普遍を獲得
×
アナロジー
×
根なし草の知識
×
無数的特徴
×
ストーリーの交差点がアトムになる
×
交差点
→
寓意と象徴
→
scrapboxの良さ
×
名詞形へのとらわれ
×
wikiは辞書ではない
×
ページタイトルは必要か
×
文章の形でアウトプットするというとらわれ
×
wiki
×
ブラケティング
×
scrapboxのリンクサジェストが便利
×
リンクの概念
×
リンク
×
タグ
×
ページタイトル
×
階層的分類
×
整理
×
周囲の文脈
×
ハッシュタグは単語の意味を知っている人しか読むことができない
×
愚者は経験に学び、賢者は歴史に学ぶ
×
腐らせる
×
知識の液状化
×
抽象概念
×
メタファー
×
発想法
×
酒は飲むべし
×
動詞を積極的にブラケティング
×
芋づる検索
×
scrapboxでの表記ゆれ発見事例
×
scrapbox情報整理術
×
倉下_忠憲
×
情報整理3.0
×
よく使う場所に置く
×
関連
×
近くに置く
×
主観的な関連
×
レコメンドエンジン
×
ホワイトリスト
×
ストップワード
×
未来へのリンク
×
有益
×
どこにも繋がっていないリンク
×
検索
×
何か見つかる
×
2018-11-29
×
未来の自分視点
×
scrapboxでのタグ付け
×
塩澤_一洋
×
死んだテキストを置く倉庫にしない
×
最終的に見つかれば良い
×
エンジニアの知的生産術
×
鶏と卵
×
scrapboxはノート
×
わからない単語
×
知的生産性の向上
×
scrapboxで抽象化が進む事例
→
Scrapboxの良さ(その2)
→
ソシュール
×
言語単位
×
関係の網の目
×
word2vec
×
分節化
→
差異にもとづく価値
→
言語モデルにできないこと
×
分節化
×
認知の解像度
×
ベクトルと複素数のたとえ
×
まだ書かれていないことの森を切り拓いていく仕事
×
llm以降の世界観
→
日本語言語モデルについて考えたこと
→
繰り返されたパターン
×
過去の経験とのオーバーラップ
×
分節化
×
思考の部品
×
ストーリーの交差点がアトムになる
×
aiが生成した手順書
×
チュートリアル
×
aiが手順書を生成
×
aiがtodoを生成
→
Azure素人がAzureを理解するプロセス
→
coordinating_perceptually_grounded_categories_through_language:_a_case_study_for_colour
×
赤カテゴリ
×
波長分布
×
除去イベント構文
×
luc_steels
×
シンボルグラウンディング問題
×
記号接地問題
×
シンボル
×
表象
×
representation
×
身体性
×
embodiment
×
意味の動的生成
×
社会的相互作用を活用した知識創発
×
環境への適応的なカテゴリー形成
→
The Symbol Grounding Problem has been solved. So what’s next?
→
pconceptmap2025-09-08
×
関係
×
離散的
×
シンボル
×
llm以前
×
離散的シンボル
×
古い制約条件へのとらわれ
→
関係をシンボル化しない
→
pol.is
×
意見分布の可視化
×
fisherの正確検定
×
polis:_scaling_deliberation_by_mapping_high_dimensional_opinion_spaces
×
polis勉強会
×
polis体験レポート:テロの原因究明をするか
×
polis体験レポート:同性婚を合法化すべきか
×
感情収集プラットフォーム
×
sentiment_gathering
×
sentiment_gathering_platform
×
理解されたいという欲求
×
西尾の体験_on_plurality_tokyo
×
pca
×
umap
×
k-means
×
leiden_graph_based_community_detection
×
hierarchical_clustering
×
短文
×
polisをもっとやりたい
→
Polis
→
世界を理解
×
思考を進め
×
新たな知見を生み出す
×
視点
×
問いの立て方
×
世界を「分ける」ことで「わかる」道具
×
分ける
×
解像度を高める切り口
×
「わかる」と「分ける」
×
多数派の人が少数派になる
×
boethiusの28の論点指針
×
認知の解像度
×
新しい発見と構造化を促す触媒
×
固定観念
×
新しい発見を促す触媒
×
カラーバス効果
×
トップダウン
×
既存の分類
×
「グループ編成には発想の転換が必要」加筆案
×
未知のパターン
×
未知の構造
×
事後的に見出される切り口
×
洞察
×
有用な切り口
×
造語は知的生産ではない
×
新規性
×
切り口に基づいた思考や実践の「蓄積」
×
誰よりも多くの蓄積を積み上げた
×
掘り下げ
×
積み上げ
×
360度の視角から
×
aiとの対話
×
異なる視点
×
異なる切り口
×
forkwell_library#55質疑
×
分節化
×
理解の解像度
×
問い
×
既存の枠組み
×
触媒
×
知的生産
×
結果として見出され
×
問題解決
×
有用な道具
×
単一ではなく複数
×
多様な視点
×
対話
×
豊かになる
→
切り口
→
体験過程と意味の創造
×
focusing
×
thinking_at_the_edge
×
カール・ロジャーズ
×
carl_rogers
×
マズロー
×
フェルトセンス
×
thinking_at_the_edgeのエッジ
×
経験の分節化
×
デューイ
×
思い付き
×
分節
×
ソシュール
×
サピア=ウォーフの仮説
×
認知療法
×
第三者的
×
他人事
×
距離を置いて
×
ディソシエイト
×
クライエント中心療法
×
感じられた意味
×
直接照合
×
direct_reference
×
recognition
×
explication
×
3つの平行的関係
×
分節化
×
metaphor
×
ユージン・ジェンドリンのメタファー概念
×
comprehension
×
理解(comprehension)に関する誤解
×
伝統とは火を守ることであり、灰を崇拝することではない
×
グスタフ・マーラー
×
バッチリ言葉にできたら、より豊か
×
表現するとは自覚すること
×
メルロ=ポンティ
×
隠喩と理解の関係(脳内モデル修正の記録)
×
relevance
×
文脈
×
意味が関係を決めるか関係が意味を決めるか
×
意味が関係を決めるか関係が意味を決めるか(v1)
×
relevance(v1)
×
circumlocution
×
創造的な機能的関係まとめ(修正の記録)
×
創造的な機能的関係まとめ(ver.2)
×
クリーンランゲージ
×
シンボルの解釈を保留する
×
非論理的段階としての現象学
×
制度化した言葉
×
「体験過程と意味の創造」勉強会2
→
「体験過程と意味の創造」勉強会1
→
シンボル空間
×
シンボル
×
分布が異なる
×
シンボルの分布
×
シンボルの密度
×
認知の解像度
×
か/が/가/카
→
違うシンボル空間ではシンボルの分布が異なる
→
伝達
×
抽象化
×
シンボル
×
抽象概念
×
解釈
×
共同観察
×
具体的
×
現象
×
言語化前
×
言語化以前
×
未言語化
×
まだ言葉になっていないもの
×
抽象的でわからないのは具体的経験不足
×
アインシュタインの経験公理検証モデル
→
2018-05-02
→
知識の密度
×
分節化
×
興味がある
×
認知の解像度
×
すべての発言は自己紹介
→
知識の密度が低いと遠いものが近く見える
→
ソシュール
×
言語相対論
×
分節化
×
二重分節
×
差異
×
ベクトル量子化
×
分節
×
自分が区別しているところにだけ注目してしまう
→
分節
→
概念
×
ハンドル
×
概念のハンドル
×
douglas_carl_engelbart
×
日本語と英語のハンドルの違い
×
取っ手
×
思考
×
言葉
×
エンジニアの知的生産術
×
思考の道具
×
(4.5.3.3)_思考の道具を手に入れる
×
操作
×
言語化
×
(6.2.6)_言語化のまとめ
×
engelbart
×
シンボル
×
考える
×
パターン
×
(column)_パターンに名前を付けること
×
名前
×
名前をつける
×
容器
×
入れ物
×
augmenting_human_intellect:_a_conceptual_framework
×
液体が容器に入っているメタファー
×
コップ
×
鍋
→
取っ手
→
未来を予測する最善の方法は、自らそれを創りだすことである
×
「まとまった時間がないと知的生産ができない」は呪い
×
定量的指標はハックされる
×
内輪コミュニティの力:_小さな繋がりから大きな成果へ
×
いいモノを作るよりもまず売る
×
nft販売とコミュニティの反応
×
最後に生き残るのは圧倒的なギバー
×
賢さは変動する
×
何かにあやつられた_人生なんて夢も希望もないし_今の_your_life_満足なの?
×
そろそろエンジンかけよう_錆びついてる常識_全部脱ぎ捨てて
×
思い出はいつも甘い逃げ場所_だけど断ち切れ_明日を生きるため
×
怒涛の日々は続く_どこまでも_天国と地獄行きつ戻りつ_何度でも甦る花を咲かせよう
×
選んだこの道_たとえ荒れ果てていても_さらにその先はめざしていた瞬間
×
マニュアルどおりの_未来なんていらない
×
力が強さじゃない
×
信じている_信じられる_これから歩くこの道を
×
生まれた意味探すよりも_今生きてること感じて_答えよりも大事なもの_1つ1つ見つけていく
×
いつも何かうまくいかないと_置いていかれるとあせっていた_でも違うね_毎日何かが_少しずつ変われるんだ
×
求めている_求められる_幸せはそこにあるはず
×
錆ついたネジを_捨て去る勇気
×
盲点カード候補
×
盲点の発見
×
✅polisの解説動画を作る
×
🌀「ハッカーの遺言状」ai化
×
バーベル戦略
×
pdfをgyazoに送ってscrapboxに貼る
×
pdfからscrapboxへ
×
「ハッカーの遺言状」ai化きっかけ
×
幸せの形それぞれ違う
×
他人の言葉に惑わされない
×
蔦の織りなす知の結びつき
×
aiと24時間会話ができる時代になぜ人間と会話したいのか
×
古い情報の取捨選択と新規ページの価値
×
市場ニーズと個人ニーズ
×
aiとの知的生産とその整理の難しさ
×
価値観と目的は違う
×
分節化
×
妖怪
×
polisとは何?(失敗例)
×
polisとは何?(イマイチ)
×
🌀他人が気づく前に価値を見出す
×
雲の向こうの答え
×
静寂の中の真実探求
×
心の波紋:_会話の魔法とその影響
×
文脈と結合して意味を生む
×
曲の歌詞は本質的に詩文なので神託的性質がある
→
AI生成ログ2023-09-10~16
→
行動
×
シンボル
×
非言語的シンボル
→
ジェスチャー
→
考える
×
立川_智也
×
語の意味は語の使用
×
取っ手
×
思考
×
engelbart
×
概念
×
シンボル
×
操作
×
読書について
×
ショーペンハウアー
×
読書とは他人にものを考えてもらうこと
×
多読
×
アウトプットを焦ると劣化コピーになる
×
人間を考える
×
演題を考える
×
書いて考える
×
塩澤_一洋
×
書考
×
客体化
×
双対を考える
×
盲点カード
×
盲点
×
神託を解釈するのは人間
×
タロット
×
連想接続
×
絶縁破壊
×
プラセボ
×
アナロジー
×
メタファーの空間
×
考える=情報を別の情報と結合すること
×
気づいた
×
連想
×
2-hopリンク
→
「考える」とは何かを考えるプロセス
→
共同化
×
体験
×
表出化
×
シンボル
×
連結化
×
内面化
×
実践
×
seciスパイラル
×
言語化
×
暗黙知
×
野中_郁次郎
×
知識創造企業
×
氷山モデル
→
SECIモデル
→
思考空間
×
分節化された情報群
×
暗黙的な情報群
×
knowledge_nebula
×
知識の液状化
×
知識の結晶化
→
Knowledge Nebula Crystallizer
→
知識の液状化と結晶化
×
Knowledge Nebula Crystallizer
×
知識創造
×
知の共有から協創へ
×
網谷_重紀
×
堀_浩一
×
知識の液状化
×
知識の結晶化
→
知識創造過程を支援するための方法とシステムの研究
→
シンボル
×
分割
×
意味の分割
→
シンボルの分割
→
「体験過程と意味の創造」勉強会1
×
直接照合
×
一部にマッチ
×
分節化
×
シンボルと意味の対応の図
×
意味の分割
→
直接照合→一部にマッチ→分節化
→
単語ベクトル
×
類似文書検索
×
scrapbox
×
wiki
×
温故知新
×
近藤_秀樹
×
山下_達雄
×
word2vec
×
増井_俊之
×
gyazz
×
大久保_康平
→
過去の自分の書き物と今の思考の結合支援
→
「渾沌をして語らしめる」勉強会
×
発想法
×
知の探検学
×
kj法_渾沌をして語らしめる
×
仕事
×
おのれを空しくしてデータをして語らしめてまとめる
×
360度の視角から
×
すべてのデータはうそである
×
事実とデータとはちがう
×
折にふれて採集
×
心の中のメーターのたとえ
×
馴化
×
言の葉の影
×
改善した/してない
×
抽象概念、身体感覚、メタファ
×
根無し草の知識
×
ピラミッドの頂上を取ってきても期待と違う
×
連想のネットワーク
×
脱線
×
分節化
×
概念のハンドル
×
エンジニアの知的生産術
×
(column)_パターンに名前を付けること
×
海馬
×
マインドパレス
×
地図を作る
×
点よりも線が強く、線よりも面が強い
×
(5.3)_社会人向けチューニング
×
文章化しないのはもったいない
×
原初のkj法
×
「データをして語らしめる」は「事実をして〜」ではない
×
花火とは何か?
×
ブレインストーミング
×
パルス討論
×
タッチネッティング
×
点より線が強く、線より面が強い
×
統合型花火
×
探検型花火
×
考える花火
×
考える花火誕生の流れ
×
kj法がほんとうにわかるには100枚以上必要
×
考える花火のラベルは30〜60枚
×
50枚のkj法は10時間の想定
×
花火日報
×
kj法だけ習得しても花火日報を身につけていないと毎日の実践が困難
×
w型問題解決モデル
×
考える花火を試してみる
×
花火の解説について考える花火する
×
考える花火の解説を考える花火
×
川喜田二郎による情報粒度の実例
×
探検ネット勉強会kozaneba1
×
探検ネット勉強会kozaneba2
×
探検ネット勉強会kozaneba3
×
探検ネット勉強会kozaneba4
×
探検ネット勉強会kozaneba5
→
探検ネット(花火)勉強会
→
word2vecによる自然言語処理
×
距離
×
三角不等式
×
ベクトルの類似度
×
軸を潰す
×
潰す
×
無視
×
次元削減は抽象化
×
抽象化
×
特徴量の無視
×
違いを無視
×
word2vec
×
deep_learning
×
dropout
×
ニューロン
×
汎化性能
×
概念
×
類似度
×
単語の意味
×
意味の類似度
×
話が飛躍する人=ベクトル検索エンジンか?
×
連想
×
次元削減してから類似度検索
→
概念の類似度は距離ではない
→
言葉
×
抽象的
×
シンボル
×
具体的
×
感覚
×
リンク
×
意識的に切ったりつないだり
×
活版印刷
×
複製コスト
×
文字の複製コスト
×
主に文字によって伝達する
×
表現形式
×
デファクト化
×
文字によって思考する癖
×
非言語的思考の例
→
文字によって思考する癖
→
分節化
→
ぼんやりとしていた世界が切り分けられた
→
ゴチャゴチャ
×
一次元化
×
ストーリー
×
関係
×
消えない
×
ディソシエイト
×
俯瞰
×
客体化
×
主客分離
×
keichobot
×
モヤモヤ
×
シンボル
×
kozaneba
×
kj法
×
表札
×
関係ありそう
×
体験過程と意味の創造
×
relevance
×
フェルトセンス
×
線を引く
×
既存の構造
×
なぜ線が必要不可欠か
×
ごちゃごちゃ
×
待ち状態のタスク
→
Keichobotは言語化しKozanebaは一次元化する
→
拡散モデル
×
denoising_diffusion_probabilistic_models
×
ddpm
×
high-resolution_image_synthesis_with_latent_diffusion_models
×
latent_diffusion_model
×
vae
×
stable_diffusion_latent_space_visualization
×
denoising_diffusion_implicit_models
×
ddim
×
stable_diffusionのpromptは77×768次元のテンソルになる
×
positional_encoding
×
clip
×
clip-vit-l-14
×
注意機構
×
u-net
×
オートエンコーダ
×
stable_diffusionのシードとプロンプトの関係
×
stable_diffusion埋め込みテンソル編集
×
stable_diffusion_inpaintの仕組み
×
mask_again_after_inpaint
×
img2prompt
×
clip_interrogator
×
blip
×
画家の発見
×
高次元においてコサイン類似度0.2は激レア
×
textual_inversionを試してみる
×
dreambooth
×
stablediffusion
×
バタフライ効果
×
word2vec
→
Stable Diffusion勉強会
→
sf設定
×
生身の人間
×
認知の解像度
×
ベクトル量子化
×
ノイズ
×
シンボル
×
ノイジーチャンネル
→
ノイズとシンボル
→
主観的
×
体験
×
抽象概念、身体感覚、メタファ
×
sensory
×
conceptual
×
symbolic
×
身体感覚
×
抽象概念
×
シンボル
×
メタファー
×
clean_approaches_for_coaches
×
metaphoric
×
nonverbal
×
まだ言語になってないもの
→
Sensory, conceptual, symbolic
→
体験過程
×
意味の創造
×
「体験過程と意味の創造」勉強会1
×
「体験過程と意味の創造」勉強会2
×
「体験過程と意味の創造」勉強会3
×
「体験過程と意味の創造」勉強会4
×
経験の分節化
×
感じられた意味
×
分節化
×
直接照合
×
ユージン・ジェンドリンのメタファー概念
×
意味は類似であり逆も真
×
iofi
×
フッサール
×
サルトル
×
メルロ・ポンティ
×
i.a.リチャーズ
→
体験過程と意味の創造
→
word2vec
×
ユージン・ジェンドリン
×
circumlocution
→
関係が意味を決める数理モデル
→
体験過程と意味の創造
×
経験
×
分節化
→
経験の分節化
→
価値
×
リソース
×
シンボル
→
リソースシンボル
→
ユージン・ジェンドリン
×
体験過程と意味の創造
×
メタファー
×
感じられた意味
×
直接照合
×
再認
×
解明
×
隠喩
×
理解
×
関連
×
言い回し
×
フェルトセンス
×
シンボル
×
シンボル化
→
ユージン・ジェンドリンのメタファー概念
→
eugene_t._gendlin
×
体験過程
×
experiencing
×
フォーカシング
×
focusing
×
象徴化における体験過程の機能
×
象徴化
×
シンボル化
×
体験
×
シンボル
×
メタファー
×
概念のハンドル
×
体験過程と意味の創造
→
ユージン・ジェンドリン
→
速読について考える
×
べき→why?
×
未知のものに出会うことを目標にしてはいけない
×
フロー理論
×
ストレッチゴールの設定
×
強化学習
×
k-means
×
次元削減注意
×
時系列の入力からのパターン発見
×
状態の分散表現
×
状態のベクトル化
×
q関数
×
海馬の時間圧縮
×
トンプソンサンプリング
×
確信度
×
知性体
→
読書を支援するボット
→
word2vec
×
意味のベクトル
→
意味はベクトル
→
リンクサジェスト
×
曖昧検索
×
キーフレーズ抽出
×
word2vec
→
リンクサジェスト/横断曖昧検索の仕組み
→
思考の結節点2019-10-14
×
知識の保存形式
×
知識の表現形式がアップデートされなければならない
×
知識の表現形式のアップデート
×
連想のストック
×
連想装置
×
レコメンド
×
検索
×
2-hop_link
×
連想
×
知識を編むプログラム
×
リンクサジェスト
×
過去の自分の書き物と今の思考の結合支援
×
類似文書検索
×
word2vec
×
gyazz
×
転置インデックスと指差し
×
文書は場所
×
指差し
×
文書が階層的
×
長さをパラメータにしたdf
×
接尾辞配列
×
Scrapboxの良さ(その2)
×
抽象概念
×
メタファー
×
知性を高めるシステム
×
アイデアの干渉効果
×
類似度ベースではないレコメンド
×
レコメンドとscrapbox
×
明示的なブラケティング
→
sample1
→
シンボル
×
意味
×
ベクトル
×
集合
×
意味の演算
×
k平均法
×
ベクトルの集合
×
抽象化
×
射影
×
軸を潰す
×
階層的クラスタリング
→
シンボルの意味がベクトルの集合→意味の演算は?
→
pkeicho
×
関係の質問
×
包含関係
×
クリーンランゲージ
×
シンボル
×
ユースケース:グループ化の重要性
→
XとYの間には何がありますか?
→
bert
×
分節化
×
知識の液状化
×
コピー機構
→
BERTによる分節化
→
フレームワークは固定化した思考の枠
×
情報の粒度階層
×
付箋の粒度
×
情報の粒度
×
知識の液状化
×
名言は文脈依存
×
抜き書きの罠
×
20191122思考の結節点
→
情報収集の形
→
知識の液状化
×
20191122思考の結節点
→
1概念1ページ
→
知性が高まる
×
知性を高める
×
学ぶ
×
考える
×
没落
×
アイデアの干渉効果
×
集合の平均をとってはいけない
×
プーリング戦略
×
多読は考える力を失わせる
×
読書について
×
人間の知性を強化したい
×
知性の拡張
×
知性
×
類似度ベースではないレコメンド
×
広い類似から狭い類似を引く
×
独立欲求装置
×
知識の液状化
→
知性を高めるシステム
→
知識の液状化
→
パスリコメンデーション
→
自然言語処理
×
深層学習
×
rnn
×
lstm
×
gru
×
recursive_neural_networks
×
tree-rnn
×
cnn
×
分散表現
×
lbl_model
×
対数双線形モデル
×
word2vec
×
skip-gram
×
cbow
×
seq2seq
×
注意機構
×
memory_network
→
深層学習による自然言語処理
→
状態
×
離散
×
シンボル
×
ベクトル空間
×
ボロノイ分割
×
k-means
×
強化学習
→
状態のベクトル化
→
relationship_likelihood
×
self-organizing_map
×
teuvo_kohonen
×
word2vec
×
mikolov_et_al.
×
kj_method
→
Footnote 23 for (5.2.3.1) Flow of KJ method
→
単語ベクトル
×
文字ベクトル
×
埋め込み
×
単語
×
文字
×
シンボル
×
ベクトル空間
×
写像
×
ニューラルネット
×
自然言語処理
→
埋め込みベクトル
→
埋め込みベクトル
×
類義語
×
対義語
×
word2vec
×
分散表現の良し悪し
×
分散表現
→
埋め込みベクトルの良し悪し
→
分散表現
×
未知語
×
word2vec
×
文字
×
特徴量
→
文字の特徴量
→
word2vec
×
類義語
×
対義語
×
順接
×
siamese_network
→
類義語・対義語
→
分散表現
×
pca
×
次元削減
×
word2vec
×
回転無視は適切か?
×
自発的対称性の破れ
→
分散表現のマージ
→
word2vecによる自然言語処理
×
word2vec
×
ネガティブサンプリング
×
ロジスティック回帰
→
ネガティブサンプリングとロジスティック回帰
→
ブラケティング
×
文脈情報
×
word2vec
×
関係の連続化
×
連続化
×
知識
×
表現形式
×
知識表現
×
意味ネットワーク
×
セマンティックウェブ
→
知識の表現形式
→
連続化
×
単語分散表現
×
分散表現
×
svd
×
word2vec
×
charcnn
×
kim+_2016
→
単語の連続ベクトル化
→
シンボル
×
切断
×
圧縮
×
シンボル化
×
再構成
×
知の探検学
→
ひとくぎり
→
生のデータと意味の塊
×
scrapboxはアイデアの精製器
×
知識の液状化
×
創造活動支援の理論と応用
→
エンジニアの知的生産術をScrapbox化したい
→
word2vec
×
kj法
×
位置
×
2014-04
×
2014
×
意味
×
シンボル
×
記号内容
×
シニフィエ
×
シニフィアンとシニフィエ
→
word2vecとKJ法
"
Engineer's way of creating knowledge
" the English version of my book is now available on
[Engineer's way of creating knowledge]
(C)NISHIO Hirokazu / Converted from
[Scrapbox]
at
11/23/2025, 4:38:44 PM
[Edit]