回帰;とは? わかりやすく解説

かい‐き〔クワイ‐〕【回帰】

読み方:かいき

[名](スル)ひとまわりして、もとの所に帰ること。「伝統への—」


回帰

作者三ツ野豊

収載図書銀河
出版社鳥影社
刊行年月2005.3
シリーズ名浦島タロウ未来編


回帰

作者重鎬

収載図書在日文学全集 第12巻 李起昇重鎬・元秀
出版社勉誠出版
刊行年月2006.6


回帰

作者奥田美智子

収載図書月の花日本人心と
出版社文芸社
刊行年月2008.9


回帰(かいき) remigration

動物特定の住み場所繁殖場所から遠く離れても、それらの位置知って戻ってくること。ウミガメ場合複数産卵シーズンわたって、雌が同じ海岸産卵するために回遊してくることに対して使うことが多い。これまで生まれた砂浜産卵に戻る性質(母浜回帰)に対しても回帰という用語を用いることが多かったが、区別して使うのが望ましい。→母浜回帰説 

回帰

出典: フリー百科事典『ウィキペディア(Wikipedia)』 (2024/08/06 15:10 UTC 版)

回帰(かいき)とは一般にはもとの位置または状態に戻ること、あるいはそれを繰り返すこと。これに関係する概念として次のものがある。




「回帰」の続きの解説一覧

回帰

出典: フリー百科事典『ウィキペディア(Wikipedia)』 (2022/04/15 15:33 UTC 版)

機械学習」の記事における「回帰」の解説

回帰の目標入力xが与えられたとき、 p ( y ∣ x ) {\displaystyle p(\mathbf {y} \mid \mathbf {x} )} に関する情報予想する事である。典型的にy = F ( x ) + ε {\displaystyle \mathbf {y} =F(\mathbf {x} )+\mathbf {\varepsilon } } のようにyが未知関数Fの像F(x)ランダムなノイズεを加えたデータであるケースにおいて、入力xからyの可能な限り正確な予想値 y ^ {\displaystyle {\hat {\mathbf {y} }}} を出力する事が求められる。なお回帰で扱う目的変数yは連続量であり、典型的に実数複数並べた数値ベクトルである。 他の教師あり機械学習アルゴリズムと同様、回帰アルゴリズムは p ( x , y ) {\displaystyle p(\mathbf {x} ,\mathbf {y} )} に従って選ばれ訓練データ集合 D = { ( x 1 , y 1 ) , … , ( x n , y n ) } {\displaystyle D=\{(\mathbf {x} _{1},\mathbf {y} _{1}),\ldots ,(\mathbf {x} _{n},\mathbf {y} _{n})\}} をとして受け取る事ができ、これらの訓練データヒントにして入力xに対応するyの予想値 y ^ = F ^ D ( x ) {\displaystyle {\hat {\mathbf {y} }}={\hat {F}}_{D}(\mathbf {x} )} を出力する予想正確さ損失関数 L ( y ^ , y ) {\displaystyle L({\hat {\mathbf {y} }},\mathbf {y} )} によって測られる。回帰では損失関数 L ( y ^ , y ) {\displaystyle L({\hat {\mathbf {y} }},\mathbf {y} )} としては自乗誤差損失 L ( y ^ , y ) = | | y ^ − y | | 2 {\displaystyle L({\hat {\mathbf {y} }},\mathbf {y} )=||{\hat {\mathbf {y} }}-\mathbf {y} ||^{2}} を用いる事が多い。 回帰の目標は、汎化誤差予測誤差予測損失とも) E [ L ( y ^ ( x ) , y ) ] = ∬ L ( y ^ ( x ) , y ) p ( x , y ) d x d y {\displaystyle E[L({\hat {\mathbf {y} }}(\mathbf {x} ),\mathbf {y} )]=\iint L({\hat {\mathbf {y} }}(\mathbf {x} ),\mathbf {y} )p(\mathbf {x} ,\mathbf {y} )\mathrm {d} \mathbf {x} \mathrm {d} \mathbf {y} } を小さく抑える事である。ここで y ^ ( x ) = M ( x , θ ) {\displaystyle {\hat {\mathbf {y} }}(\mathbf {x} )=M(\mathbf {x} ,\theta )} は汎化アルゴリズム出力であり、E[・]は期待値を表す。

※この「回帰」の解説は、「機械学習」の解説の一部です。
「回帰」を含む「機械学習」の記事については、「機械学習」の概要を参照ください。


回帰

出典: フリー百科事典『ウィキペディア(Wikipedia)』 (2022/04/15 15:33 UTC 版)

機械学習」の記事における「回帰」の解説

自乗損失損失関数として選んだ場合次の定理成り立つ: 定理 (自乗損失に関する回帰のベイズ規則) ― p(x,y)を R ℓ × R k {\displaystyle \mathbb {R} ^{\ell }\times \mathbb {R} ^{k}} 上の確率分布とし、 L ( y ^ , y ) = | | y ^ − y | | 2 {\displaystyle L({\hat {\mathbf {y} }},\mathbf {y} )=||{\hat {\mathbf {y} }}-\mathbf {y} ||^{2}} とする。このとき、汎化誤差 R L ( F ) = E ( x , y ) ∼ p [ L ( F ( x ) , y ) ] {\displaystyle R_{L}(F)=E_{(x,y)\sim p}[L(F(x),y)]} を最小にする F ( x ) {\displaystyle F(\mathbf {x} )} は、 F ( x ) = E [ y | x ] {\displaystyle F(\mathbf {x} )=E[\mathbf {y} |\mathbf {x} ]} である。ここでEはp(x,y)から定まる条件付き確率分布 p ( y ∣ x ) {\displaystyle p(\mathbf {y} \mid \mathbf {x} )} からランダムにyを選んだときの期待値である。 証明 E [ L ( F ( x ) , y ) ] = ∬ | | F ( x ) − y | | 2 p ( x , y ) d x d y {\displaystyle E[L(F(\mathbf {x} ),\mathbf {y} )]=\iint ||F(\mathbf {x} )-\mathbf {y} ||^{2}p(\mathbf {x} ,\mathbf {y} )\mathrm {d} \mathbf {x} \mathrm {d} \mathbf {y} } = ∫ ( ∫ | | F ( x ) − y | | 2 p ( y ∣ x ) d y ) p ( x ) d x {\displaystyle =\int \left(\int ||F(\mathbf {x} )-\mathbf {y} ||^{2}p(\mathbf {y} \mid \mathbf {x} )\mathrm {d} \mathbf {y} \right)p(\mathbf {x} )\mathrm {d} \mathbf {x} } を最小にするには、各xに対し、 S = ∫ | | F ( x ) − y | | 2 p ( y ∣ x ) d y {\displaystyle S=\int ||F(\mathbf {x} )-\mathbf {y} ||^{2}p(\mathbf {y} \mid \mathbf {x} )\mathrm {d} \mathbf {y} } を最小にすればよい。 S = | | F ( x ) | | 2 ∫ p ( y ∣ x ) d y2 F ( x ) ⋅ ∫ y p ( y ∣ x ) d y + ∫ | | y | | 2 p ( y ∣ x ) d y = | | F ( x ) | | 2 − 2 F ( x ) ⋅ E [ y ∣ x ] + ∫ | | y | | 2 p ( y ∣ x ) d y = | | F ( x ) − E [ y ∣ x ] | | 2 − | | E [ y ∣ x ] | | 2 + ∫ | | y | | 2 p ( y ∣ x ) d y {\displaystyle {\begin{aligned}S&=||F(\mathbf {x} )||^{2}\int p(\mathbf {y} \mid \mathbf {x} )\mathrm {d} \mathbf {y} -2F(\mathbf {x} )\cdot \int \mathbf {y} p(\mathbf {y} \mid \mathbf {x} )\mathrm {d} \mathbf {y} +\int ||\mathbf {y} ||^{2}p(\mathbf {y} \mid \mathbf {x} )\mathrm {d} \mathbf {y} \\&=||F(\mathbf {x} )||^{2}-2F(\mathbf {x} )\cdot E[\mathbf {y} \mid \mathbf {x} ]+\int ||\mathbf {y} ||^{2}p(\mathbf {y} \mid \mathbf {x} )\mathrm {d} \mathbf {y} \\&=||F(\mathbf {x} )-E[\mathbf {y} \mid \mathbf {x} ]||^{2}-||E[\mathbf {y} \mid \mathbf {x} ]||^{2}+\int ||\mathbf {y} ||^{2}p(\mathbf {y} \mid \mathbf {x} )\mathrm {d} \mathbf {y} \end{aligned}}} よりSが最小になるのは、 F ( x ) = E [ y ∣ x ] {\displaystyle F(\mathbf {x} )=E[\mathbf {y} \mid \mathbf {x} ]} の場合である。 関数 f ( x ) = E [ y | x ] {\displaystyle f(\mathbf {x} )=E[\mathbf {y} |\mathbf {x} ]} を回帰関数と呼ぶ事もある。

※この「回帰」の解説は、「機械学習」の解説の一部です。
「回帰」を含む「機械学習」の記事については、「機械学習」の概要を参照ください。


回帰

出典: フリー百科事典『ウィキペディア(Wikipedia)』 (2022/03/05 09:27 UTC 版)

串田彗星」の記事における「回帰」の解説

1993年出現近日点通過後発見のため、近日点通過前の観測はない。好条件であったため、1994年1月から3月頃にかけて光度10 - 12等級大きく広がったコマ観測された。 初回帰となる2001年の回帰は、前年2000年7月25日ヨーロッパ南天天文台の3.6m鏡で検出され2000 O2の彗星符号と、144Pの周期彗星番号割り当てられた。この回帰は近日点太陽向こう側迎えたため、条件悪く観測はほとんど得られなかった。 2009年好条件の回帰となり、この彗星としては初め近日点前の詳しい観測が行われた。初観測2007年6月マウナケア行われたが、本格的な観測2008年8月入ってら行われた。近日点通過2か月前の同年11月入って光度14等級とどまっていたが、11月中旬に突然12等級まで急増光した。近日点前後には8等級達し大きく広がったコマ観測された。 4回目の回帰となる2016年は、太陽向こう側近日点通過するため、観測条件良くなかった[要出典]。その後2019年9月木星に0.92auまで接近したため、5回目2024年1月の回帰は近日点距離が1.43 auから1.40 au小さくなる予測されている。

※この「回帰」の解説は、「串田彗星」の解説の一部です。
「回帰」を含む「串田彗星」の記事については、「串田彗星」の概要を参照ください。


回帰

出典: フリー百科事典『ウィキペディア(Wikipedia)』 (2022/03/14 07:45 UTC 版)

高見澤彗星」の記事における「回帰」の解説

1984年の回帰は近日点通過発見前5月24日で、その頃観測はない。同年8月初頭には9等で観測され10月始めには18等まで減光した。 1991年の回帰では、2月17日キットピーク国立天文台スペースウォッチJames V. Scotti(英語版)により19.9等級検出された。検出後に、高知県関勉撮影した写真上から2月12日22日イメージ見つかった近日点通過8月17日で、6月から8月にかけて13等で眼視観測された[要出典]。 1998年は回帰条件悪く18 - 20等で観測されたのみであった2006年の回帰では3月6日近日点通過以降観測が行われ、最大15等で観測された。 2013年3月20等級で初観測された。8月5日近日点通過し最大15.1等で観測された。 2021年観測状況悪く1月4日近日点通過したのち、18 - 21等で観測されたのみであった

※この「回帰」の解説は、「高見澤彗星」の解説の一部です。
「回帰」を含む「高見澤彗星」の記事については、「高見澤彗星」の概要を参照ください。

ウィキペディア小見出し辞書の「回帰;」の項目はプログラムで機械的に意味や本文を生成しているため、不適切な項目が含まれていることもあります。ご了承くださいませ。 お問い合わせ

回帰

出典:『Wiktionary』 (2021/09/18 02:24 UTC 版)

この単語漢字
かい
第二学年

第二学年
音読み 音読み

発音(?)

か↘いき

名詞

(かいき)

  1. ある状態場所から、別の状態場所経て、元の状態や場所に戻ること。
  2. (統計学) ある統計データ別の統計データ関係調べるために、ある量の期待値別の量の関数として表すこと。組を成している変数 xyデータ与えられたときに、x一定みなしたときの y期待値を、x関数として表すこと。

類義語

複合語・派生語

関連語

翻訳

語義1)

語義2)

動詞

回帰 する(かいき する

  1. 自動詞)ある状態場所から、別の状態場所経て、元の状態や場所に戻る
  2. 他動詞)(統計学)ある統計データ別の統計データ関係調べるために、ある量の期待値別の量の関数として表す。

「 回帰」の例文・使い方・用例・文例

Weblio日本語例文用例辞書はプログラムで機械的に例文を生成しているため、不適切な項目が含まれていることもあります。ご了承くださいませ。


英和和英テキスト翻訳>> Weblio翻訳
英語⇒日本語日本語⇒英語
  

「回帰;」に関係したコラム

  • FXやCFDの線形回帰とは

    FXやCFDの線形回帰とは、価格の散らばりを1つの線にまとめて表したテクニカル指標のことです。線形回帰は統計学などで用いられます。線形回帰の求め方はいくつかありますが、一般的にはある期間の価格と線との...

  • FXやCFDの相場のトレンドを知るには

    FXやCFDの相場のトレンドは、さまざまなテクニカル指標により知ることができます。その中でよく用いられる線形回帰トレンドを例に、相場のトレンドを見てみることにします。上の図は、大豆先物の1時間足に線形...

  • FXやCFDの線形回帰リバースとは

    FXやCFDの線形回帰リバースとは、価格が下降すれば-1、上昇すれば+1の値になり、直前の価格よりも安くなるか高くなると数値が反転するテクニカル指標のことです。上の図はAUD/JPYの分足に線形回帰リ...

  • FXやCFDの線形回帰スロープとは

    FXやCFDの線形回帰スロープとは、線形回帰の傾きを1本の線で表したテクニカル指標のことです。線形回帰スロープは、Linear Regression Slopeともいいます。線形回帰スロープの描く線は...

  • FXやCFDの線形回帰トレンドとは

    FXやCFDの線形回帰トレンドとは、2つの期間におけるトレンドのラインを描画するテクニカル指標のことです。線形回帰トレンドは指定した期間の価格の中心ラインを通ります。上の図は日経平均株価(日経225)...

  • FXやCFDの線形回帰チャネルとは

    線形回帰チャネルとは、線形回帰分析の1つで線形回帰線の上部と下部に線を引いたものです。一般的にFXやCFDなどで取引される銘柄の価格は、線形回帰チャネル内に収まりながら推移します。線形回帰チャネルは、...

辞書ショートカット

すべての辞書の索引

「回帰;」の関連用語

回帰;のお隣キーワード
検索ランキング

   

英語⇒日本語
日本語⇒英語
   



回帰;のページの著作権
Weblio 辞書 情報提供元は 参加元一覧 にて確認できます。

   
デジタル大辞泉デジタル大辞泉
(C)Shogakukan Inc.
株式会社 小学館
日外アソシエーツ株式会社日外アソシエーツ株式会社
Copyright (C) 1994- Nichigai Associates, Inc., All rights reserved.
日本ウミガメ協議会日本ウミガメ協議会
(C) 特定非営利活動法人日本ウミガメ協議会,2024,Japan
ウィキペディアウィキペディア
All text is available under the terms of the GNU Free Documentation License.
この記事は、ウィキペディアの回帰 (改訂履歴)の記事を複製、再配布したものにあたり、GNU Free Documentation Licenseというライセンスの下で提供されています。 Weblio辞書に掲載されているウィキペディアの記事も、全てGNU Free Documentation Licenseの元に提供されております。
ウィキペディアウィキペディア
Text is available under GNU Free Documentation License (GFDL).
Weblio辞書に掲載されている「ウィキペディア小見出し辞書」の記事は、Wikipediaの機械学習 (改訂履歴)、串田彗星 (改訂履歴)、高見澤彗星 (改訂履歴)の記事を複製、再配布したものにあたり、GNU Free Documentation Licenseというライセンスの下で提供されています。
Text is available under Creative Commons Attribution-ShareAlike (CC-BY-SA) and/or GNU Free Documentation License (GFDL).
Weblioに掲載されている「Wiktionary日本語版(日本語カテゴリ)」の記事は、Wiktionaryの回帰 (改訂履歴)の記事を複製、再配布したものにあたり、Creative Commons Attribution-ShareAlike (CC-BY-SA)もしくはGNU Free Documentation Licenseというライセンスの下で提供されています。
Tanaka Corpusのコンテンツは、特に明示されている場合を除いて、次のライセンスに従います:
 Creative Commons Attribution (CC-BY) 2.0 France.
この対訳データはCreative Commons Attribution 3.0 Unportedでライセンスされています。
浜島書店 Catch a Wave
Copyright © 1995-2024 Hamajima Shoten, Publishers. All rights reserved.
株式会社ベネッセコーポレーション株式会社ベネッセコーポレーション
Copyright © Benesse Holdings, Inc. All rights reserved.
研究社研究社
Copyright (c) 1995-2024 Kenkyusha Co., Ltd. All rights reserved.
日本語WordNet日本語WordNet
日本語ワードネット1.1版 (C) 情報通信研究機構, 2009-2010 License All rights reserved.
WordNet 3.0 Copyright 2006 by Princeton University. All rights reserved. License
日外アソシエーツ株式会社日外アソシエーツ株式会社
Copyright (C) 1994- Nichigai Associates, Inc., All rights reserved.
「斎藤和英大辞典」斎藤秀三郎著、日外アソシエーツ辞書編集部編
EDRDGEDRDG
This page uses the JMdict dictionary files. These files are the property of the Electronic Dictionary Research and Development Group, and are used in conformance with the Group's licence.

©2024 GRAS Group, Inc.RSS