回帰
回帰
回帰
回帰(かいき) remigration
回帰
回帰
出典: フリー百科事典『ウィキペディア(Wikipedia)』 (2022/04/15 15:33 UTC 版)
回帰の目標は入力xが与えられたとき、 p ( y ∣ x ) {\displaystyle p(\mathbf {y} \mid \mathbf {x} )} に関する情報を予想する事である。典型的には y = F ( x ) + ε {\displaystyle \mathbf {y} =F(\mathbf {x} )+\mathbf {\varepsilon } } のようにyが未知の関数Fの像F(x)にランダムなノイズεを加えたデータであるケースにおいて、入力xからyの可能な限り正確な予想値 y ^ {\displaystyle {\hat {\mathbf {y} }}} を出力する事が求められる。なお回帰で扱う目的変数yは連続量であり、典型的には実数を複数並べた数値ベクトルである。 他の教師あり機械学習アルゴリズムと同様、回帰アルゴリズムは p ( x , y ) {\displaystyle p(\mathbf {x} ,\mathbf {y} )} に従って選ばれた訓練データの集合 D = { ( x 1 , y 1 ) , … , ( x n , y n ) } {\displaystyle D=\{(\mathbf {x} _{1},\mathbf {y} _{1}),\ldots ,(\mathbf {x} _{n},\mathbf {y} _{n})\}} をとして受け取る事ができ、これらの訓練データをヒントにして入力xに対応するyの予想値 y ^ = F ^ D ( x ) {\displaystyle {\hat {\mathbf {y} }}={\hat {F}}_{D}(\mathbf {x} )} を出力する。予想の正確さは損失関数 L ( y ^ , y ) {\displaystyle L({\hat {\mathbf {y} }},\mathbf {y} )} によって測られる。回帰では損失関数 L ( y ^ , y ) {\displaystyle L({\hat {\mathbf {y} }},\mathbf {y} )} としては自乗誤差損失 L ( y ^ , y ) = | | y ^ − y | | 2 {\displaystyle L({\hat {\mathbf {y} }},\mathbf {y} )=||{\hat {\mathbf {y} }}-\mathbf {y} ||^{2}} を用いる事が多い。 回帰の目標は、汎化誤差(予測誤差、予測損失とも) E [ L ( y ^ ( x ) , y ) ] = ∬ L ( y ^ ( x ) , y ) p ( x , y ) d x d y {\displaystyle E[L({\hat {\mathbf {y} }}(\mathbf {x} ),\mathbf {y} )]=\iint L({\hat {\mathbf {y} }}(\mathbf {x} ),\mathbf {y} )p(\mathbf {x} ,\mathbf {y} )\mathrm {d} \mathbf {x} \mathrm {d} \mathbf {y} } を小さく抑える事である。ここで y ^ ( x ) = M ( x , θ ) {\displaystyle {\hat {\mathbf {y} }}(\mathbf {x} )=M(\mathbf {x} ,\theta )} は汎化アルゴリズムの出力であり、E[・]は期待値を表す。
※この「回帰」の解説は、「機械学習」の解説の一部です。
「回帰」を含む「機械学習」の記事については、「機械学習」の概要を参照ください。
回帰
出典: フリー百科事典『ウィキペディア(Wikipedia)』 (2022/04/15 15:33 UTC 版)
自乗損失を損失関数として選んだ場合、次の定理が成り立つ: 定理 (自乗損失に関する回帰のベイズ規則) ― p(x,y)を R ℓ × R k {\displaystyle \mathbb {R} ^{\ell }\times \mathbb {R} ^{k}} 上の確率分布とし、 L ( y ^ , y ) = | | y ^ − y | | 2 {\displaystyle L({\hat {\mathbf {y} }},\mathbf {y} )=||{\hat {\mathbf {y} }}-\mathbf {y} ||^{2}} とする。このとき、汎化誤差 R L ( F ) = E ( x , y ) ∼ p [ L ( F ( x ) , y ) ] {\displaystyle R_{L}(F)=E_{(x,y)\sim p}[L(F(x),y)]} を最小にする F ( x ) {\displaystyle F(\mathbf {x} )} は、 F ( x ) = E [ y | x ] {\displaystyle F(\mathbf {x} )=E[\mathbf {y} |\mathbf {x} ]} である。ここでEはp(x,y)から定まる条件付き確率分布 p ( y ∣ x ) {\displaystyle p(\mathbf {y} \mid \mathbf {x} )} からランダムにyを選んだときの期待値である。 証明 E [ L ( F ( x ) , y ) ] = ∬ | | F ( x ) − y | | 2 p ( x , y ) d x d y {\displaystyle E[L(F(\mathbf {x} ),\mathbf {y} )]=\iint ||F(\mathbf {x} )-\mathbf {y} ||^{2}p(\mathbf {x} ,\mathbf {y} )\mathrm {d} \mathbf {x} \mathrm {d} \mathbf {y} } = ∫ ( ∫ | | F ( x ) − y | | 2 p ( y ∣ x ) d y ) p ( x ) d x {\displaystyle =\int \left(\int ||F(\mathbf {x} )-\mathbf {y} ||^{2}p(\mathbf {y} \mid \mathbf {x} )\mathrm {d} \mathbf {y} \right)p(\mathbf {x} )\mathrm {d} \mathbf {x} } を最小にするには、各xに対し、 S = ∫ | | F ( x ) − y | | 2 p ( y ∣ x ) d y {\displaystyle S=\int ||F(\mathbf {x} )-\mathbf {y} ||^{2}p(\mathbf {y} \mid \mathbf {x} )\mathrm {d} \mathbf {y} } を最小にすればよい。 S = | | F ( x ) | | 2 ∫ p ( y ∣ x ) d y − 2 F ( x ) ⋅ ∫ y p ( y ∣ x ) d y + ∫ | | y | | 2 p ( y ∣ x ) d y = | | F ( x ) | | 2 − 2 F ( x ) ⋅ E [ y ∣ x ] + ∫ | | y | | 2 p ( y ∣ x ) d y = | | F ( x ) − E [ y ∣ x ] | | 2 − | | E [ y ∣ x ] | | 2 + ∫ | | y | | 2 p ( y ∣ x ) d y {\displaystyle {\begin{aligned}S&=||F(\mathbf {x} )||^{2}\int p(\mathbf {y} \mid \mathbf {x} )\mathrm {d} \mathbf {y} -2F(\mathbf {x} )\cdot \int \mathbf {y} p(\mathbf {y} \mid \mathbf {x} )\mathrm {d} \mathbf {y} +\int ||\mathbf {y} ||^{2}p(\mathbf {y} \mid \mathbf {x} )\mathrm {d} \mathbf {y} \\&=||F(\mathbf {x} )||^{2}-2F(\mathbf {x} )\cdot E[\mathbf {y} \mid \mathbf {x} ]+\int ||\mathbf {y} ||^{2}p(\mathbf {y} \mid \mathbf {x} )\mathrm {d} \mathbf {y} \\&=||F(\mathbf {x} )-E[\mathbf {y} \mid \mathbf {x} ]||^{2}-||E[\mathbf {y} \mid \mathbf {x} ]||^{2}+\int ||\mathbf {y} ||^{2}p(\mathbf {y} \mid \mathbf {x} )\mathrm {d} \mathbf {y} \end{aligned}}} よりSが最小になるのは、 F ( x ) = E [ y ∣ x ] {\displaystyle F(\mathbf {x} )=E[\mathbf {y} \mid \mathbf {x} ]} の場合である。 関数 f ( x ) = E [ y | x ] {\displaystyle f(\mathbf {x} )=E[\mathbf {y} |\mathbf {x} ]} を回帰関数と呼ぶ事もある。
※この「回帰」の解説は、「機械学習」の解説の一部です。
「回帰」を含む「機械学習」の記事については、「機械学習」の概要を参照ください。
回帰
出典: フリー百科事典『ウィキペディア(Wikipedia)』 (2022/03/05 09:27 UTC 版)
1993年の出現は近日点通過後の発見のため、近日点通過前の観測はない。好条件であったため、1994年の1月から3月頃にかけて光度10 - 12等級で大きく広がったコマが観測された。 初回帰となる2001年の回帰は、前年の2000年7月25日にヨーロッパ南天天文台の3.6m鏡で検出され、2000 O2の彗星符号と、144Pの周期彗星番号が割り当てられた。この回帰は近日点を太陽の向こう側で迎えたため、条件が悪く観測はほとんど得られなかった。 2009年は好条件の回帰となり、この彗星としては初めて近日点前の詳しい観測が行われた。初観測は2007年6月にマウナケアで行われたが、本格的な観測は2008年8月に入ってから行われた。近日点通過2か月前の同年11月に入っても光度は14等級にとどまっていたが、11月中旬に突然12等級まで急増光した。近日点前後には8等級に達し、大きく広がったコマが観測された。 4回目の回帰となる2016年は、太陽の向こう側で近日点を通過するため、観測条件は良くなかった[要出典]。その後、2019年9月に木星に0.92auまで接近したため、5回目の2024年1月の回帰は近日点距離が1.43 auから1.40 auに小さくなると予測されている。
※この「回帰」の解説は、「串田彗星」の解説の一部です。
「回帰」を含む「串田彗星」の記事については、「串田彗星」の概要を参照ください。
回帰
出典: フリー百科事典『ウィキペディア(Wikipedia)』 (2022/03/14 07:45 UTC 版)
1984年の回帰は近日点通過が発見前の5月24日で、その頃の観測はない。同年8月初頭には9等で観測され、10月始めには18等まで減光した。 1991年の回帰では、2月17日にキットピーク国立天文台のスペースウォッチでJames V. Scotti(英語版)により19.9等級で検出された。検出後に、高知県の関勉が撮影した写真上から2月12日と22日のイメージも見つかった。近日点通過は8月17日で、6月から8月にかけて13等で眼視観測された[要出典]。 1998年は回帰条件が悪く、18 - 20等で観測されたのみであった。2006年の回帰では3月6日の近日点通過以降に観測が行われ、最大15等で観測された。 2013年は3月に20等級で初観測された。8月5日に近日点を通過し、最大15.1等で観測された。 2021年は観測の状況が悪く、1月4日に近日点を通過したのち、18 - 21等で観測されたのみであった。
※この「回帰」の解説は、「高見澤彗星」の解説の一部です。
「回帰」を含む「高見澤彗星」の記事については、「高見澤彗星」の概要を参照ください。
回帰
出典:『Wiktionary』 (2021/09/18 02:24 UTC 版)
この単語の漢字 | |
---|---|
回 | 帰 |
かい 第二学年 | き 第二学年 |
音読み | 音読み |
発音(?)
- か↘いき
名詞
- ある状態や場所から、別の状態や場所を経て、元の状態や場所に戻ること。
- (統計学) ある統計データと別の統計データの関係を調べるために、ある量の期待値を別の量の関数として表すこと。組を成している変数 x と y のデータが与えられたときに、x を一定とみなしたときの y の期待値を、x の関数として表すこと。
類義語
複合語・派生語
関連語
翻訳
(語義1)
- 英語: recurrence, return
(語義2)
- 英語: regression
動詞
「回帰」の例文・使い方・用例・文例
- 自然への回帰
- 売り上げに影響を与えている要因について重回帰分析に基づき検討した。
- 私は実家がある三重に三回帰りました。
- 帰巣[回帰]本能.
- 回帰熱.
- 地球は三百六十五日にして太陽を回帰する
- 北回帰線、南回帰線
- 回帰帯
- 回帰無風帯
- 回帰年
- 北回帰線
- 南回帰線
- 例えば、ヨーロッパとアフリカ回帰熱の原因
- 新世界回帰線の燕雀類
- 系統的な継承の順に回帰する
- 両回帰線またはどちらかの回帰線の、あるいは、両回帰線またはどちらかの回帰線に関する
- 予測変数が非常に関連する重回帰に関するケース
- 別の価値から1つの変数の量的予測をする回帰の使用
- 回帰線が線形(y = ax + b)であるなら、回帰係数は定数(a)で、変数(y)の比率を他の変数(x)の変化の関数として表す
品詞の分類
「回帰」に関係したコラム
-
FXやCFDの線形回帰とは、価格の散らばりを1つの線にまとめて表したテクニカル指標のことです。線形回帰は統計学などで用いられます。線形回帰の求め方はいくつかありますが、一般的にはある期間の価格と線との...
-
FXやCFDの相場のトレンドは、さまざまなテクニカル指標により知ることができます。その中でよく用いられる線形回帰トレンドを例に、相場のトレンドを見てみることにします。上の図は、大豆先物の1時間足に線形...
-
FXやCFDの線形回帰リバースとは、価格が下降すれば-1、上昇すれば+1の値になり、直前の価格よりも安くなるか高くなると数値が反転するテクニカル指標のことです。上の図はAUD/JPYの分足に線形回帰リ...
-
FXやCFDの線形回帰スロープとは、線形回帰の傾きを1本の線で表したテクニカル指標のことです。線形回帰スロープは、Linear Regression Slopeともいいます。線形回帰スロープの描く線は...
-
FXやCFDの線形回帰トレンドとは、2つの期間におけるトレンドのラインを描画するテクニカル指標のことです。線形回帰トレンドは指定した期間の価格の中心ラインを通ります。上の図は日経平均株価(日経225)...
-
線形回帰チャネルとは、線形回帰分析の1つで線形回帰線の上部と下部に線を引いたものです。一般的にFXやCFDなどで取引される銘柄の価格は、線形回帰チャネル内に収まりながら推移します。線形回帰チャネルは、...
- >> 「回帰」を含む用語の索引
- 回帰のページへのリンク