pointwise convolution
出典: フリー百科事典『ウィキペディア(Wikipedia)』 (2021/12/01 07:53 UTC 版)
「畳み込みニューラルネットワーク」の記事における「pointwise convolution」の解説
w e i g h t ( C o u t j , k ) {\displaystyle \mathrm {weight} (C_{\mathrm {out} _{j}},k)} がスカラーの畳み込みは pointwise convolution と呼称される。例えば2DConvにおける1x1カーネルがある。出力チャネル C o u t j {\displaystyle C_{\mathrm {out} _{j}}} に着目するとこの畳み込みは入力チャネルの加重平均とみなせる。あるいは各点(pointwise)での入力チャネルを跨いだ全結合とみなせる。処理全体では出力チャネルごとに異なる加重を用いて入力チャネル平均を取ることと同義である。利用目的には位置情報を保った(pointwiseな)変換、出力次元数 C o u t {\textstyle C_{\mathrm {out} }} 調整などが挙げられる。実装上は最小カーネルによる畳み込みで表現される(例: 2DConvにおける 1 × 1 × C i n {\textstyle 1\times 1\times C_{\mathrm {in} }} weightテンソル)。全結合層(Linear)を用いても容易に表現できる。
※この「pointwise convolution」の解説は、「畳み込みニューラルネットワーク」の解説の一部です。
「pointwise convolution」を含む「畳み込みニューラルネットワーク」の記事については、「畳み込みニューラルネットワーク」の概要を参照ください。
- pointwise convolutionのページへのリンク