表現学習
出典: フリー百科事典『ウィキペディア(Wikipedia)』 (2021/12/04 14:44 UTC 版)
表現学習(英語版)(英: representation learning, feature learning)は機械学習による特徴抽出である。 表現学習には様々な手法がある。以下はその例である。 主成分分析(PCA) 線形判別分析(LDA) BERT 変換手法の分類基準には線形/非線形、教師あり/自己教師あり/教師なし、シャロー/ディープなどがある。利用方式とも関係がある。 タスク学習の前に表現学習をおこなう場合、表現学習は事前学習(英: pretraining)であると言える。事前学習はタスク学習と分離可能なため、表現学習では大量のデータを用いた教師なし事前学習(英: unsupervised pretraining)をおこない、タスク学習でラベル付きの教師あり学習をおこなうこともできる。また距離学習はデータを可測空間へ埋め込む学習であるため、表現学習として利用できる。 特定の特徴量セットから有用なもののみを選択することを特徴選択という。
※この「表現学習」の解説は、「特徴量」の解説の一部です。
「表現学習」を含む「特徴量」の記事については、「特徴量」の概要を参照ください。
表現学習(英語版)
出典: フリー百科事典『ウィキペディア(Wikipedia)』 (2022/04/15 15:33 UTC 版)
教師なし学習アルゴリズムの一部は、訓練中に提供された入力のよりよい表現を発見しようとする。古典的な例として主成分分析やクラスタ分析がある。入力の持つ情報は保持したまま、分類や予測の前に入力をより便利な表現に変換するアルゴリズムもある。その際に入力データが従っている未知の確率分布から入力を再建できるようにするが、その確率分布においては信じがたい例も忠実に再現する必要はない。例えば多様体学習(英語版)アルゴリズムは、何らかの制約下で入力の次元を低く変換して表現する。スパースコーディング(英語版)アルゴリズムでは、入力が疎ら(ゼロが多い)という制約下で同様の表現の変換を行う。ニューラルネットワークの深層学習は複数レベルの表現または特徴の階層を発見するもので、低いレベルで抽出した特徴から高いレベルの抽象化した特徴までを求める。知的機械は、観測されたデータを説明する偏差の潜在的要因を解きほぐす表現を学習するものだという主張もある。
※この「表現学習(英語版)」の解説は、「機械学習」の解説の一部です。
「表現学習(英語版)」を含む「機械学習」の記事については、「機械学習」の概要を参照ください。
- 表現学習のページへのリンク