畳み込みニューラルネットワーク
出典: フリー百科事典『ウィキペディア(Wikipedia)』 (2023/07/16 04:32 UTC 版)
機械学習および データマイニング |
---|
CNNは、その重み(行列の)共有構造と並進不変特性に基づいて、シフト不変(shift invariant)あるいは位置不変(space invariant)人工ニューラルネットワーク(SIANN)とも呼ばれている[1][2]。
一般的な畳み込み処理は以下のように定式化される[3]。はj番目の出力チャネルを、は相互相関関数を意味する。
すなわち各出力チャネル ごとに入力チャネル 枚分の畳み込みカーネル が用意され、カーネルを用いた各入力チャネルの畳み込みの総和へバイアス項 が付与され各チャネル出力となっている。式からわかるように、入力チャネル間は畳み込み処理ではなく和で計算され、また入力チャネル と畳みこまれるカーネルは出力チャネルごとに異なる。
カーネルはしばしばフィルタと呼ばれる[4]。これは位置関係をもつ重みづけ和のスライド演算(畳み込み)がフィルタ適用と等価なことに由来する。
畳み込み処理自体は単純な線形変換である。出力のある1点を見ると局所以外の重みが全て0の全結合と等価であることからこれはわかる。多くのCNNでは畳み込み処理に引き続いてシグモイド関数やReLUなどの活性化関数による非線形変換をおこなう。[要出典]
単純なCNNは順伝播型 (FFN)、すなわち浅い層から深い層へのみ結合をもつ。ただしCNNは2層間の結合様式を規定するクラスでありFFNと限らない[要出典]。非FFN型CNNの一例として大局的に回帰結合をもち層間では畳み込みをおこなうRecurrent CNNが提唱されている[5]。
CNNは画像・動画認識やレコメンダシステム[6]、自然言語処理[7]に応用されている。
- ^ Zhang, Wei (1988). “Shift-invariant pattern recognition neural network and its optical architecture”. Proceedings of annual conference of the Japan Society of Applied Physics .
- ^ Zhang, Wei (1990). “Parallel distributed processing model with local space-invariant interconnections and its optical architecture”. Applied Optics 29 (32) .
- ^ “Conv2d — PyTorch 1.6.0 documentation”. pytorch.org. 2020年10月3日閲覧。
- ^ "convolved with its own set of filters" PyTorch 1.10 Conv1D
- ^ "we propose a recurrent CNN (RCNN) for object recognition by incorporating recurrent connections into each convolutional layer" p.3367 and "This work shows that it is possible to boost the performance of CNN by incorporating more facts of the brain. " p.3374 of Liang, et al. (2015). Recurrent Convolutional Neural Network for Object Recognition.
- ^ van den Oord, Aaron; Dieleman, Sander; Schrauwen, Benjamin (2013-01-01). Burges, C. J. C.. ed. Deep content-based music recommendation. Curran Associates, Inc.. pp. 2643–2651
- ^ Collobert, Ronan; Weston, Jason (2008-01-01). “A Unified Architecture for Natural Language Processing: Deep Neural Networks with Multitask Learning”. Proceedings of the 25th International Conference on Machine Learning. ICML '08 (New York, NY, USA: ACM): 160–167. doi:10.1145/1390156.1390177. ISBN 978-1-60558-205-4 .
- ^ "a 1×1 convolution called a pointwise convolution." Andrew (2017) MobileNets Arxiv
- ^ "In a group conv layer ..., input and output channels are divided into C groups, and convolutions are separately performed within each group." Saining (2017). Aggregated Residual Transformations for Deep Neural Networks. Arxiv
- ^ "
groups
controls the connections between inputs and outputs. ... At groups=1, all inputs are convolved to all outputs ... At groups=in_channels
, each input channel is convolved with its own set of filters" PyTorch nn.Conv2d - ^ "Depthwise convolution with one filter per input channel (input depth)" Andrew G. Howard. (2017). MobileNets: Efficient Convolutional Neural Networks for Mobile Vision Applications. Arxiv
- ^ "depthwise separable convolutions which is a form of factorized convolutions which factorize a standard convolution into a depthwise convolution and a 1×1 convolution called a pointwise convolution." Howard, et al. (2017). MobileNets: Efficient Convolutional Neural Networks for Mobile Vision Applications.
- ^ "we propose a recurrent CNN (RCNN) for object recognition by incorporating recurrent connections into each convolutional layer" Liang, et al. (2015). Recurrent Convolutional Neural Network for Object Recognition.
- ^ "予測の際に使用する有限長の過去のデータ点数 R は受容野 (receptive field) の大きさを表す." 松本. (2019). WaveNetによる言語情報を含まない感情音声合成方式の検討. 情報処理学会研究報告.
- ^ "Effective Receptive Field (ERF): is the area of the original image that can possibly influence the activation of a neuron. ... ERF and RF are sometimes used interchangeably" Le. (2017). What are the Receptive, Effective Receptive, and Projective Fields of Neurons in Convolutional Neural Networks?. Arxiv.
- ^ "layer k ... Rk be the ERF ... fk represent the filter size ... the final top-down equation: "
- ^ Matusugu, Masakazu; Katsuhiko Mori; Yusuke Mitari; Yuji Kaneda (2003). “Subject independent facial expression recognition with robust face detection using a convolutional neural network”. Neural Networks 16 (5): 555–559. doi:10.1016/S0893-6080(03)00115-1 2013年11月17日閲覧。.
- ^ Fukushima, K. (2007). “Neocognitron”. Scholarpedia 2 (1): 1717. doi:10.4249/scholarpedia.1717.
- ^ Fukushima, Kunihiko (1980). “Neocognitron: A Self-organizing Neural Network Model for a Mechanism of Pattern Recognition Unaffected by Shift in Position”. Biological Cybernetics 36 (4): 193–202. doi:10.1007/BF00344251. PMID 7370364 2013年11月16日閲覧。.
- ^ LeCun, Yann. “LeNet-5, convolutional neural networks”. 2013年11月16日閲覧。
- ^ 藤吉 2019, p. 293-294.
- ^ Dosovitskiy, et al. (2021). An Image is Worth 16x16 Words: Transformers for Image Recognition at Scale. ICLR 2021.
- ^ Liu, et al. (2021). Pay Attention to MLPs. NeurIPS 2021.
- 1 畳み込みニューラルネットワークとは
- 2 畳み込みニューラルネットワークの概要
- 3 convolution変種
- 4 ネットワーク変種
- 5 脚注
- 畳み込みニューラルネットワークのページへのリンク