NISHIO Hirokazu
[Translate]
蒸留によるモデル圧縮
現時点でのハードウェア制約ではデプロイできない
とはいえ、ハードウェア性能はどんどん上がるんだから、近い将来単なる
アンサンブル
で動くようになるのでは
教師モデルの出力で生徒モデルを学習
one-hotではなくSoftmaxの出力をそのまま使うケース
ソフトターゲットロス
ラベルスムージング
に相当
1503.02531 Distilling the Knowledge in a Neural Network
Paying More Attention to Attention: Improving the Performance of Convolutional Neural Networks via Attention Transfer
生徒モデルが教師モデルの
注意
を学ぶ
Born Again Neural Networks
教師と生徒で同じモデルを使った場合に生徒の方が性能が良くなる
Deep Mutual Learning
生徒同士で教え合う
Tweet
Related Pages
Deep Mutual Learning
→
締め切り
×
注意
×
集中
×
アテンション
×
締め切り前ブースト
×
近すぎる締切
×
締切
→
締め切り前ブーストが近すぎる締切でぶつかる
→
日記2025-04-28
×
デジタル民主主義2030
×
browser-use
×
llm_e2eテスト
×
生成テスト
×
確率的テスト
×
確率的識別器
×
アンサンブル
×
if文から機械学習への道
×
automated_unit_test_improvement_using_large_language_models_at_meta
→
AIエージェント時代のテストドリブン
→
アテンションの移動式投票
×
differential_transformer
×
注意
→
注意の差分
→
書評:_『自閉症児エリーの記録』
×
隠喩としての数学
×
注意を引こうとしない
×
注意
×
一人で面白がる
×
自閉症
×
ユークリッド
×
剥き出しの美
×
注意を引く
×
関心を引く
×
関心
×
注目されたい
×
注目
→
他人の注意を引こうとしない
→
焦点
×
無視
×
意識
×
限られたリソース
×
重要
×
情報過多
×
注意
×
注意機構
×
加算注意
×
内積注意
×
ソースターゲット注意
×
自己注意
→
アテンション
→
注意
×
attention
×
ハード注意機構
×
加法注意
×
内積注意
×
双線形
×
ソースターゲット注意
×
自己注意
×
cnn
×
注意機構
×
cnnと自己注意
×
rnn
×
隠れ状態
→
注意機構
→
知識の表現形式
×
cbow
×
機械が自由にscrapboxに書き込みができるとしたら本を読んで何を書くのか
×
ソフトターゲットロス
→
2018-10-09
"
Engineer's way of creating knowledge
" the English version of my book is now available on
[Engineer's way of creating knowledge]
(C)NISHIO Hirokazu / Converted from
[Scrapbox]
at
11/23/2025, 5:49:04 PM
[Edit]