パラメータ選択
出典: フリー百科事典『ウィキペディア(Wikipedia)』 (2021/08/07 04:20 UTC 版)
k をどのように決定するかは、データに依存する。一般に k が大きければ、分類にあたってのノイズの影響を低減できるが、クラス間の境界が明確にならない傾向がある。k の選択には様々なヒューリスティックスが用いられる(例えば、交差検証)。k = 1 のときの k近傍法を、最近傍法と呼び、最も近傍にある訓練例のクラスを採用する。 k近傍法の正確さは、ノイズ的な特徴や不適切な特徴によって著しく損なわれることがある。あるいは、特徴尺度がその重要性と対応していない場合も、同様である。このあたりに関しては、特徴選択(feature selection)として研究されている。特徴尺度を最適化するための特によく使われる手法として、進化的アルゴリズムの利用がある。また、訓練データと訓練クラスとの相互情報量によって特徴の尺度を決定する方法もよく使われる。
※この「パラメータ選択」の解説は、「k近傍法」の解説の一部です。
「パラメータ選択」を含む「k近傍法」の記事については、「k近傍法」の概要を参照ください。
パラメータ選択
出典: フリー百科事典『ウィキペディア(Wikipedia)』 (2021/06/17 03:40 UTC 版)
Performance landscape showing how the basic DE performs in aggregate on the Sphere and Rosenbrock benchmark problems when varying the two DE parameters NP {\displaystyle {\text{NP}}} and F {\displaystyle {\text{F}}} , and keeping fixed CR {\displaystyle {\text{CR}}} =0.9. DEアルゴリズムのパラメータである F , CR {\displaystyle F,{\text{CR}}} および NP {\displaystyle {\text{NP}}} は最適化性能に大きな影響を与えうる。良い性能を引き出すようにDEパラメータを選ぶことが、多くの研究活動における主題となる。パラメータ選択として、正確ではないが大雑把な方法がStornら、LiuおよびLampienによって考案された。パラメータ選択に関する収束判定はZaharieによって行われている。DEパラメータのメタ最適化はPedersenおよびZhangらによって行われている。
※この「パラメータ選択」の解説は、「差分進化」の解説の一部です。
「パラメータ選択」を含む「差分進化」の記事については、「差分進化」の概要を参照ください。
パラメータ選択
出典: フリー百科事典『ウィキペディア(Wikipedia)』 (2020/12/10 07:49 UTC 版)
焼きなまし法を特定の問題に適用するために、状態空間、近傍選択方法(次の状態 s' の候補の列挙方法)、遷移確率関数、焼きなましスケジュールなどを指定しなければならない。これらの選択はこの方法の有効性に大きく影響する。あいにく、すべての問題に最善の選択というものは無い。このことは、ノーフリーランチ定理としてしられている。また、与えられた問題に最善の選択を見つける一般的方法も存在しない。焼きなまし法を適用することは、科学というよりも技能と言えるものであることが観察されている。
※この「パラメータ選択」の解説は、「焼きなまし法」の解説の一部です。
「パラメータ選択」を含む「焼きなまし法」の記事については、「焼きなまし法」の概要を参照ください。
- パラメータ選択のページへのリンク