知識蒸留とは? わかりやすく解説

Weblio 辞書 > 辞書・百科事典 > 百科事典 > 知識蒸留の意味・解説 

知識蒸留

(Knowledge distillation から転送)

出典: フリー百科事典『ウィキペディア(Wikipedia)』 (2023/05/24 08:03 UTC 版)

知識蒸留 (: knowledge distillation) とは、機械学習の技術の一つ。大規模なモデル(教師モデル)が持つ豊富な知識を、より小さなモデル(生徒モデル)に伝達する手法[1]

概要

深層学習の分野では、2015年にGeoffrey Hintonらによって導入された[2]。一般に大規模なモデルが持つ知識容量が全て利用されているとは限らず、推論の際に単に計算資源を無駄にしていることもある。教師モデルの出力や内部表現を生徒モデルに教えることで、推論の妥当性を大きく損なうことなく、生徒モデルがより効率よく推論速度を向上させるために用いられる[1]

脚注

  1. ^ a b 知識蒸留:巨大なモデルの知識を抽出する”. 日経Robotics(日経ロボティクス). 2023年5月24日閲覧。
  2. ^ Geoffrey Hinton, Oriol Vinyals, Jeff Dean (2015-03-09). Distilling the Knowledge in a Neural Network. arXiv:1503.02531. doi:10.48550/arXiv.1503.02531. 



英和和英テキスト翻訳>> Weblio翻訳
英語⇒日本語日本語⇒英語
  
  •  知識蒸留のページへのリンク

辞書ショートカット

すべての辞書の索引

「知識蒸留」の関連用語

1
GPT-2 百科事典
2% |||||

知識蒸留のお隣キーワード
検索ランキング

   

英語⇒日本語
日本語⇒英語
   



知識蒸留のページの著作権
Weblio 辞書 情報提供元は 参加元一覧 にて確認できます。

   
ウィキペディアウィキペディア
All text is available under the terms of the GNU Free Documentation License.
この記事は、ウィキペディアの知識蒸留 (改訂履歴)の記事を複製、再配布したものにあたり、GNU Free Documentation Licenseというライセンスの下で提供されています。 Weblio辞書に掲載されているウィキペディアの記事も、全てGNU Free Documentation Licenseの元に提供されております。

©2024 GRAS Group, Inc.RSS