「ReLU関数」を解説文に含む見出し語の検索結果(1~10/18件中)
読み方:らんぷかんすう《ramp function》区分線形関数の一。x<0では0、x≧0ではxと定義される。ニューラルネットワークの分野ではReLU関数(正規化線形関数)とよばれる。
読み方:らんぷかんすう《ramp function》区分線形関数の一。x<0では0、x≧0ではxと定義される。ニューラルネットワークの分野ではReLU関数(正規化線形関数)とよばれる。
読み方:らんぷかんすう《ramp function》区分線形関数の一。x<0では0、x≧0ではxと定義される。ニューラルネットワークの分野ではReLU関数(正規化線形関数)とよばれる。
読み方:らんぷかんすう《ramp function》区分線形関数の一。x<0では0、x≧0ではxと定義される。ニューラルネットワークの分野ではReLU関数(正規化線形関数)とよばれる。
読み方:かっせいかかんすうニューラルネットワークにおいて、入力信号の総和を出力信号に変換する関数。ニューロンの活性化をモデル化したもので、あるニューロンが閾値(いきち)を超えて発火し、次の層のニューロ...
読み方:かっせいかかんすうニューラルネットワークにおいて、入力信号の総和を出力信号に変換する関数。ニューロンの活性化をモデル化したもので、あるニューロンが閾値(いきち)を超えて発火し、次の層のニューロ...
読み方:かっせいかかんすうニューラルネットワークにおいて、入力信号の総和を出力信号に変換する関数。ニューロンの活性化をモデル化したもので、あるニューロンが閾値(いきち)を超えて発火し、次の層のニューロ...
読み方:こうばいしょうしつもんだい機械学習の多層化したニューラルネットワークにおいて、ある段階を越えると学習が進まなくなること。学習は予測値と実際の値の誤差を最小化する過程で進むが、活性化関数の勾配が...
読み方:こうばいしょうしつもんだい機械学習の多層化したニューラルネットワークにおいて、ある段階を越えると学習が進まなくなること。学習は予測値と実際の値の誤差を最小化する過程で進むが、活性化関数の勾配が...
読み方:こうばいしょうしつもんだい機械学習の多層化したニューラルネットワークにおいて、ある段階を越えると学習が進まなくなること。学習は予測値と実際の値の誤差を最小化する過程で進むが、活性化関数の勾配が...
< 前の結果 | 次の結果 >