シグモイド‐かんすう〔‐クワンスウ〕【シグモイド関数】
シグモイド関数
出典: フリー百科事典『ウィキペディア(Wikipedia)』 (2024/06/03 04:05 UTC 版)
![]() | この記事は検証可能な参考文献や出典が全く示されていないか、不十分です。(2017年5月) |

シグモイド関数(シグモイドかんすう、英: sigmoid function)は、次の式
標準シグモイド関数 シグモイド(英: sigmoid)とは、シグモイド曲線(英: sigmoid curve)ともいい、ギリシャ文字のシグマ(語中では σ だがここでは語末形の ς のこと)に似た形と言う意味である。ただし、単にシグモイドまたはシグモイド曲線と言った場合は、シグモイド関数と似た性質を持つς型の関数(累積正規分布関数、ゴンペルツ関数、グーデルマン関数など)を総称するのが普通である。
標準シグモイド関数はロジット (logit) の逆関数であり、これになぞらえて統計処理の数値計算ライブラリでは標準シグモイド関数を expit 関数と呼んでいるものもある。
性質
ς型の関数の比較 シグモイド関数は、双曲線正接関数
この項目は、数学に関連した書きかけの項目です。この項目を加筆・訂正などしてくださる協力者を求めています(プロジェクト:数学/Portal:数学)。
シグモイド関数
出典: フリー百科事典『ウィキペディア(Wikipedia)』 (2022/03/15 10:23 UTC 版)
φ ( x ) = ς 1 ( x ) = 1 1 + e − x = tanh ( x / 2 ) + 1 2 {\displaystyle \varphi (x)=\varsigma _{1}(x)={\frac {1}{1+e^{-x}}}={\frac {\tanh(x/2)+1}{2}}} 比較的単純な非線形関数であるシグモイド関数は、微分の計算も容易であることから1986年に発表されたバックプロパゲーションを伴うニューラルネットワークで使われる。ネットワークを数学的に扱うことが容易になるため、シミュレーションの計算負荷を減らしたいと思っていた初期の研究者がシグモイド関数をこぞって採用した。 1990年代になり、活性化関数は原点を通すべきと言う考えから、標準シグモイド関数よりもそれを線形変換した tanh の方が良いと提案された。 φ ( x ) = tanh ( x ) {\displaystyle \varphi (x)=\tanh(x)}
※この「シグモイド関数」の解説は、「活性化関数」の解説の一部です。
「シグモイド関数」を含む「活性化関数」の記事については、「活性化関数」の概要を参照ください。
- シグモイド関数のページへのリンク