NISHIO Hirokazu
[Translate]
ネガティブサンプリングとロジスティック回帰
word2vecによる自然言語処理
p.49
word2vec
ネガティブサンプリング
と
ロジスティック回帰
Tweet
Related Pages
→
qr
×
エンジニアの知的生産術_著者公式ページ
×
エンジニアの知的生産術第5刷の増刷が決定!
×
一般社団法人未踏の理事に就任しました
×
一般社団法人未踏の理事を退任しました
×
灘2021講演準備
×
未踏と僕の関わり
×
pluralitybook
×
mashbean
×
創造一個充滿團隊合作的社會
×
face
×
コーディングを支える技術
×
word2vecによる自然言語処理
×
視点を変えてみよう
×
3d-nws
×
パーフェクトシャッフル
×
世界一わかりやすいプログラミングのしくみ
→
自己紹介
→
埋め込みベクトル
×
ロジスティック回帰
→
埋め込みベクトルにロジスティック回帰
→
選挙は4年に一度5bit送信する遅い通信だ
×
デジタルネイティブは4年に1度のアップロード帯域で十分とは思わない
×
if文から機械学習への道
×
どんどん複雑な条件分岐になっていく
×
教師あり学習
×
ロジスティック回帰
×
決定木
×
家族的類似性
×
東洋人はロジスティック回帰で西洋人は決定木
×
ルールベースパラダイムが重み付き和パラダイムに負けたエポック
×
vibe_coding
×
一部が消えて一部残り新しく生まれる
×
captcha
×
人間でないユーザ
×
認知戦
×
輿論戦
×
法は社会のos
×
九電玄海原発、ドローン侵入か
×
ウクライナ向け「ストライクキット」3.3万台供給
×
共有地の悲劇
×
ossで共有地の悲劇が起こることにどう対処するか
×
大きな政府と小さな政府
×
「大きな政府/小さな政府」は誤った二項対立
×
オストロム
×
公共財
×
共有資源
×
cpr
×
common-pool_resource
×
connections_between_indivisuals_as_first-class_objects
×
intersecting_group
×
新しいものは登場前にその価値を見積もることができない
×
ブロードリスニング
×
ai_objectives_institute
×
talk_to_the_city
×
デジタル民主主義2030
×
広聴ai
×
ブロードリスニングが国会で野党が総理大臣に質問するために使われた事例
×
日本維新の会のブロードリスニング事例
×
polis
×
既存のsnsは個人に注目させるが、polisは個人ではなく集団に注目させる
×
citizens_foundation
×
your_priorities
×
リプライさせない仕組み
×
別席調停
×
左派がよい主張をしているなら、右派がやるべきことは同じくらいよい主張であり、戦うことではありません
×
いどばたシステム
×
bitcoinはお金、ethereumはコンピュータ
×
中央集権の3つの軸
×
polymarket
×
1人1票
×
quadratic_voting
×
quadratic_funding
×
vitalik_buterin
×
gitcoin_grants
×
retroactive_public_goods_funding
×
futarchy
×
an_introduction_to_futarchy
×
幅がある
→
社会を人間による計算として考える
→
ソシュール
×
言語単位
×
関係の網の目
×
word2vec
×
分節化
→
差異にもとづく価値
→
サイボウズラボ勉強会
×
世論地図勉強会
×
2024衆院選
×
世論地図
×
世論地図のumap
×
濃い塊の抽出
×
カール・ピアソン
×
karl_pearson
×
多次元尺度構成法
×
主座標分析
×
自己組織化マップ
×
som
×
self-organizing_maps
×
カーネル法
×
再生核ヒルベルト空間
×
サポートベクターマシン
×
isomap
×
isometric_mapping
×
lle
×
locally_linear_embedding
×
対立次元
×
pca
×
umap
×
2022年参院選のumap可視化
×
polisクラスタ2つになる問題
×
東京大学谷口研究室・朝日新聞社共同調査
×
2022年参院選のpolis的可視化
×
convex_hull
×
code_for_japan_summit_2024
×
世論地図3970人umap
×
dbscan
×
高次元泥団子
×
集団極性化
×
匿名の市民の意見ベクトルはそんなに明瞭に別れてない
×
umapの結果をクラスタリングするべきか
×
tsneの結果のクラスタリングは慎重に
×
賛成反対データのumap
×
シン東京2050ブロードリスニング
×
テキスト埋め込みベクトルの分布
×
text-embedding-3-large
×
小さな粒のある一つの塊
×
クラスタリングとパーティショニング
×
k平均法
×
クラスタリング
×
spectralclusteringとhdbscanの違い
×
日テレnews×2024衆院選×ブロードリスニング
×
aiによるクラスタ解説
×
濃いクラスタ抽出
×
ptttc2024-11-12
×
外れ値
×
まずは大雑把に
×
全体像を把握したい
×
talk_to_the_city_turbo
×
tttc:_aiと著作権に関するパブリックコメント
×
talk_to_the_city勉強会
×
kj法
×
発想法
×
川喜田二郎
×
凝集型階層的クラスタリング
×
離れザル
×
側面
×
word2vecによる自然言語処理
×
概念の類似度は距離ではない
×
50枚のkj法は10時間の想定
×
5年間で129枚しかkj法をしていない
→
高次元データ分析勉強会
→
木を見る西洋人_森を見る東洋人
×
家族的類似性
×
ベクトルの類似度
×
教師あり学習
×
ロジスティック回帰
×
決定木
×
plurality
→
東洋人はロジスティック回帰で西洋人は決定木
→
ルートヴィヒ・ウィトゲンシュタイン
×
哲学探究
×
family_resemblance
×
木を見る西洋人_森を見る東洋人
×
決定木
×
ロジスティック回帰
×
東洋人はロジスティック回帰で西洋人は決定木
×
対立は一つだけではない
×
パンダ、サル、バナナ、仲間はどれ?
→
家族的類似性
→
gyazo_pro
×
pdfからpngへの変換
×
google_cloud_vision
×
ja_pdf_to_text
×
pdfminer
×
word2vecによる自然言語処理
×
cmapの再生成
×
poppler
×
pdftotext
×
cid問題
×
pdfminerの座標系解析
→
PDFからのテキスト抽出
→
機械学習
×
真偽値を数値にする
×
重み
×
ロジスティック回帰
×
アカデミア
×
顧客価値
×
新規性
×
ビジネス要件
×
顧客が何を求めているか
×
制約条件
×
minimum_viable_product
×
コンシェルジュ型mvp
×
人がやる方法
×
リーン・スタートアップ
×
具体的不満
×
教師データ
×
pdcaサイクル
×
科学的方法論
×
改善
×
能動学習
×
chatgpt_outperforms_crowd-workers_for_text-annotation_tasks
×
ナイーブベイズ
×
確率モデル
×
判断の自信
→
if文から機械学習への道
→
mitou_foundation
×
コーディングを支える技術
×
word2vecによる自然言語処理
×
世界一わかりやすいプログラミングのしくみ
×
エンジニアの知的生産術_著者公式ページ
×
自己紹介
→
Self introduction in east Asian context
→
単語ベクトル
×
類似文書検索
×
scrapbox
×
wiki
×
温故知新
×
近藤_秀樹
×
山下_達雄
×
word2vec
×
増井_俊之
×
gyazz
×
大久保_康平
→
過去の自分の書き物と今の思考の結合支援
→
自己紹介
×
エンジニアの知的生産術
×
コーディングを支える技術
×
word2vecによる自然言語処理
×
自分のscrapboxをchatgptにつないだ
×
scrapbox_chatgpt_connector
×
中高生のためのchatgpt
×
新しい自然
×
誰も正解を知らない
×
みずからの目で見なければならない
×
chatgpt_plugins実験
×
1
×
chatgpt
×
2023-04-10 LLM Meetup
→
2023-04-10 LLM Meetup
→
word2vecによる自然言語処理
×
距離
×
三角不等式
×
ベクトルの類似度
×
軸を潰す
×
潰す
×
無視
×
次元削減は抽象化
×
抽象化
×
特徴量の無視
×
違いを無視
×
word2vec
×
deep_learning
×
dropout
×
ニューロン
×
汎化性能
×
概念
×
類似度
×
単語の意味
×
意味の類似度
×
話が飛躍する人=ベクトル検索エンジンか?
×
連想
×
次元削減してから類似度検索
→
概念の類似度は距離ではない
→
共通化
×
共通のインターフェイス
×
習得するコスト
×
長所
×
共通部分
×
強みを失う
×
機械学習
×
共通インターフェイス
×
ロジスティック回帰
×
SVMで確率推定
×
罠
×
ソフトウェア設計
×
設計
→
共通インターフェイスの罠
→
拡散モデル
×
denoising_diffusion_probabilistic_models
×
ddpm
×
high-resolution_image_synthesis_with_latent_diffusion_models
×
latent_diffusion_model
×
vae
×
stable_diffusion_latent_space_visualization
×
denoising_diffusion_implicit_models
×
ddim
×
stable_diffusionのpromptは77×768次元のテンソルになる
×
positional_encoding
×
clip
×
clip-vit-l-14
×
注意機構
×
u-net
×
オートエンコーダ
×
stable_diffusionのシードとプロンプトの関係
×
stable_diffusion埋め込みテンソル編集
×
stable_diffusion_inpaintの仕組み
×
mask_again_after_inpaint
×
img2prompt
×
clip_interrogator
×
blip
×
画家の発見
×
高次元においてコサイン類似度0.2は激レア
×
textual_inversionを試してみる
×
dreambooth
×
stablediffusion
×
バタフライ効果
×
word2vec
→
Stable Diffusion勉強会
→
word2vec
×
ユージン・ジェンドリン
×
circumlocution
→
関係が意味を決める数理モデル
→
word2vec
×
意味のベクトル
→
意味はベクトル
→
リンクサジェスト
×
曖昧検索
×
キーフレーズ抽出
×
word2vec
→
リンクサジェスト/横断曖昧検索の仕組み
→
思考の結節点2019-10-14
×
知識の保存形式
×
知識の表現形式がアップデートされなければならない
×
知識の表現形式のアップデート
×
連想のストック
×
連想装置
×
レコメンド
×
検索
×
2-hop_link
×
連想
×
知識を編むプログラム
×
リンクサジェスト
×
過去の自分の書き物と今の思考の結合支援
×
類似文書検索
×
word2vec
×
gyazz
×
転置インデックスと指差し
×
文書は場所
×
指差し
×
文書が階層的
×
長さをパラメータにしたdf
×
接尾辞配列
×
scrapboxの良さ(その2)
×
抽象概念
×
メタファー
×
知性を高めるシステム
×
アイデアの干渉効果
×
類似度ベースではないレコメンド
×
レコメンドとscrapbox
×
明示的なブラケティング
→
sample1
→
ロジスティック
×
シグモイド
×
累積分布関数
×
ロジスティック回帰
×
シグモイドとソフトマックスの関係
→
x/(x+1)
→
自然言語処理
×
深層学習
×
rnn
×
lstm
×
gru
×
recursive_neural_networks
×
tree-rnn
×
cnn
×
分散表現
×
lbl_model
×
対数双線形モデル
×
word2vec
×
skip-gram
×
CBOW
×
seq2seq
×
注意機構
×
memory_network
→
深層学習による自然言語処理
→
説明しやすさ
×
思考停止
×
家族的類似性
×
ロジスティック回帰
×
描きやすい絵のバイアス
→
説明しやすさと思考停止
→
relationship_likelihood
×
self-organizing_map
×
teuvo_kohonen
×
word2vec
×
mikolov_et_al.
×
kj_method
→
Footnote 23 for (5.2.3.1) Flow of KJ method
→
埋め込みベクトル
×
類義語
×
対義語
×
word2vec
×
分散表現の良し悪し
×
分散表現
→
埋め込みベクトルの良し悪し
→
分散表現
×
未知語
×
word2vec
×
文字
×
特徴量
→
文字の特徴量
→
word2vec
×
類義語
×
対義語
×
順接
×
siamese_network
→
類義語・対義語
→
分散表現
×
pca
×
次元削減
×
word2vec
×
回転無視は適切か?
×
自発的対称性の破れ
→
分散表現のマージ
→
word2vecによる自然言語処理
→
CBOW
→
ブラケティング
×
文脈情報
×
word2vec
×
関係の連続化
×
連続化
×
知識
×
表現形式
×
知識表現
×
意味ネットワーク
×
セマンティックウェブ
→
知識の表現形式
→
連続化
×
単語分散表現
×
分散表現
×
svd
×
word2vec
×
charcnn
×
kim+_2016
→
単語の連続ベクトル化
→
svm
×
二値分類
×
確率モデル
×
libsvm
×
sklearn
×
ロジスティック回帰
×
機械学習
→
SVMで確率推定
→
バンディット問題
×
機械学習プロフェッショナルシリーズ
×
本多_淳也
×
中村_篤祥
×
ロジスティック回帰
×
トンプソンサンプリング
→
バンディット問題の理論とアルゴリズム
→
シンボル
×
word2vec
×
知識の液状化
×
分節化
×
k-means
→
液状化とword2vec
→
機械学習
×
ロジスティック回帰
×
世界のデータサイエンティストが使う技術
→
なぜロジスティック回帰を使ったか
→
ロジスティック回帰
×
誤った二者択一
×
回帰と分類
×
機械学習
→
ロジスティック回帰は回帰か分類か
→
word2vec
×
kj法
×
位置
×
2014-04
×
2014
×
意味
×
シンボル
×
記号内容
×
シニフィエ
×
シニフィアンとシニフィエ
→
word2vecとKJ法
→
ロジスティック回帰
×
python
→
世界のデータサイエンティストが使う技術
→
ロジスティック回帰
×
ナイーブベイズ
→
ロジスティック回帰とナイーブベイズ
"
Engineer's way of creating knowledge
" the English version of my book is now available on
[Engineer's way of creating knowledge]
(C)NISHIO Hirokazu / Converted from
[Scrapbox]
at
11/23/2025, 6:07:55 PM
[Edit]