ニューラルネットワークとは? わかりやすく解説

Weblio 辞書 > 同じ種類の言葉 > 情報 > コンピュータ > 情報処理システム > ニューラルネットワークの意味・解説 

ニューラル‐ネットワーク【neural network】

読み方:にゅーらるねっとわーく

人間の脳神経系抽象化し情報分散処理システムとしてとらえたモデル。ニューロネットワーク。神経回路網


ニューラルネットワーク(NRN)


ニューラルネットワーク

【英】neural network

ニューラルネットワークとは、情報処理計算モデルのうち、人間の脳働き模倣して構築され計算モデルのことである。

ニューラルネットワークのシステムは、比較単純な処理単位ニューロン神経細胞)と定義し多数ニューロン情報入出力伝達網で接続した脳の仕組み似せて構築されている。

ニューラルネットワークは、ニューロコンピュータ呼ばれるコンピュータシステム計算モデルとなっている。ニューロコンピュータ自己学習実現することができる新世代人口知能として、盛んに研究・開発が行われている。

産業・技術のほかの用語一覧
情報処理:  五心  交差比率  文字セット  ニューラルネットワーク  ニューロコンピュータ  ラップアラウンド  例示字形

ニューラルネットワーク

読み方にゅーらるねっとわーく
【英】:neural network

概要

(1) 生物体神経回路網のこと.

(2) 神経回路構造ニューロン(neuron)の作用部分的に模倣した, コンピュータ電子回路用いた人工的な神経回路網」で, 記憶, 認識, 連想などの機能実現する工学的システムのこと. ノイズに対する頑健性(robustness), 類似入力に対する汎化性(generalization), 学習容易な高い適応性(adaptability), 並列処理への潜在的可能性をもつ.

詳説

 ニューラルネットワーク (neural network) は神経回路網のことであり, その機能コンピュータ専用ハードウェア模倣したものを人工ニューラルネットワーク (artificial neural network) という. ORなどの分野で単にニューラルネットワークという場合は, 多く人工ニューラルネットワークのことを指し, 具体的に比較単純な非線形信号処理ユニット結合することで構成されるネットワークのことと考えることが多い. ニューラルネットワークは本質的に並列分散処理的であり, 自己組織的であるといった特徴内包している.

 ニューラルネットワークの歴史概観すると以下のうになる. 1943年マッカロックW. McCulloch)とピッツW. Pitts) [1] によるしきい値素子モデル提案された. 1949年心理学者D. Hebbの "The Organization of Behavior" [2] において示されたシナプス強化則とも言われる学習方法に関する考え方は, その後提案され多くのニューラルネット学習方法の基礎となっている. 1962年, ローゼンブラットF. Rosenblatt)によるパーセプトロン [3] (perceptron) が提案されたが, 1969年, ミンスキー(M. Minsky)とパパートS. Papert)によるパーセプトロン限界呈示, 何人か研究者による初期バージョンの後, 1986年ラメルハートD. Rumelhart), ヒントンG. Hinton), ウイリアムスR. Williams)によりまとめられ階層型ニューラルネットワークの誤差逆伝播法 (back propagation) の定式化 [4] などを経て, 近年は, 脳の機能実現強く意識した研究盛んに行われている.

 ニューラルネットワークは2つ側面から最適化関係が深い. まず1つは, ニューラルネットワークの機能としての最適化, もう1つは, 何らかの機能実現するためのニューラルネットワークの学習における最適化である.

 ホップフィールドネットワーク [5] (Hopfield network) は, 連想記憶行ったり巡回セールスマン問題などの最適化問題を解くために考え出されたニューラルネットワークで, 1982年, ホップフィールド (J. J. Hopfield) により提案された. 記憶したパターン情報は定係数T_{ij}\, 中に埋めこまれる. このモデル1984年, 連続モデル拡張された. 離散および連続モデル合わせてホップフィールドネットワーク呼ばれる. ホップフィールドタンク(T. W. Tank)は1985年に, ホップフィールドネットワーク巡回セールスマン問題解法用い方法示し [6] , ニューラルネットワークの最適化への応用の道を開いた.

 ニューラルネットワークによる学習は, 教師あり学習, 教師なし学習大別される. 教師あり学習とは, サンプルデータにおいて, 入力に対して出力値が与えられ, 多数入出力組の関係を同時に実現するようにモデルの中のパラメータ調整するモデルであり, その用途としては, 分類及び非線形回帰がある. この2つ本質的な違い教師出力信号として2値信号用いるか実数値を用いるかという点である. パーセプトロン, 階層型ネットワーク, RBF (radial basis function) ネットワークなどがあり, データクラス判定非線形関数近似を行うモデルを, 例 (examples) としてのデータから構築する. しきい値関数使ったモデルでは, パーセプトロンどのように, 誤り訂正学習用いられる. また, ロジスティック (logistic) 関数などの微分可能関数用いたモデルでは, 二乗誤差最小化するような評価関数学習用いられる. 階層型ニューラルネット二乗誤差最小化取り入れると, 誤差逆伝播法導かれる. 教師なし学習とは, 入力ベクトルけがあるもので, 入力ベクトルに関する分布情報学習するものであり, 情報圧縮, 確率密度関数モデル用いた推論などに応用される. コホネン(T. Kohonen)の自己組織化マップ (self organizing map), ガウス混合モデル (Gaussian mixture model), k-meansクラスタリングなどが代表的な例である.

 人工知能においては, 記号論理ベースにしたシンボリストモデル (symbolist model) に対し, ニューラルネットワークの相互結合をもじったコネクショニストモデル (connectionist model) は, 相互に対極にあるものとして対比されてきた. シンボリストモデルは論理的な説明適しており, コネクショニストモデル学習容易であるという特長を持つ反面, 一般にシンボリストモデルは学習困難であり, コネクショニストモデル説明能力に欠けるということがいえる. コネクショニストモデル説明能力に欠けるいうのは, 入力空間自在に切り分けることができるがゆえにその複雑な切り口言語的に説明することが困難なめであり, 欠点というよりもそのモデルの持つ特質からくる特徴であって, 特に言語的な説明要しない制御などの分野では明らかに優れた能力発揮する. また, 日々の売上データから顧客特徴抽出したり, クレジットカード入会審査行ったりするデータマイニングdata mining)の分野おいても有力な手法として注目されている.



参考文献

[1] W. W. McCulloch and W. Pitts, "A Logical Calculus of the Ideas Immanent in Nervous Activity," Bull. Math. Biophysics, 5 (1943), 115-133.

[2] A. O. Hebb, The Organization of Behavior, Wiley, 1949. 白井 訳, 『行動機構』, 岩波書店, 1957.

[3] F. Rosenblatt, Principles of Neurodynamics, Spartan, 1962.

[4] D. E. Rumelhart, G. E. Hinton and R. J. Williams, "Learning Internal Representation by Error Propagation", in D. E. Rumelhart, J. L. McClelland and the PDP Research Group, Parallel Distributed Processing: Explorations in the Microstructure of Cognition, 1, Foundations, MIT Press, 1986. 甘利監訳), 『PDPモデル-認知科学ニューロン回路網探索-』, 産業図書, 1989.

[5] J. J. Hopfield, "Neural Networks and Physical Systems with Emergent Collective Computational Abilities," in Proceedings of the National Academy of Sciences U.S.A., 79, 2554-2558, 1982.

[6] J. J. Hopfield and T. W. Tank, "Neural Computation of Decisions in Optimization Problems," Biological Cybernetics, 52 (1985), 141-152.


ニューラルネットワーク

出典: フリー百科事典『ウィキペディア(Wikipedia)』 (2023/03/02 21:31 UTC 版)

ニューラルネットワーク神経網: neural network; NN)は「入力を線形変換する処理単位」がネットワーク状に結合した人工知能の数理モデルである。人工ニューラルネットワーク (: artificial neural network) とも。


注釈

  1. ^ 2020年現在のところ、「小脳パーセプトロン説」が支持されるなど、「全く無関係」ではない、とされている。
  2. ^ RNNの場合、巨大バッチを用いて1stepの計算量を巨大にすればGPUを使いきれるが、実践的にはメモリ上限等の制約が厳しい。
  3. ^ 複素逆誤差伝播学習アルゴリズム(複素BP)を使用した場合。

出典

  1. ^ Homma, Toshiteru; Les Atlas; Robert Marks II (1988). “An Artificial Neural Network for Spatio-Temporal Bipolar Patters: Application to Phoneme Classification”. Advances in Neural Information Processing Systems 1: 31–40. http://papers.nips.cc/paper/20-an-artificial-neural-network-for-spatio-temporal-bipolar-patterns-application-to-phoneme-classification.pdf. 
  2. ^ Yann Le Cun (June 1989). Generalization and Network Design Strategies. http://yann.lecun.com/exdb/publis/pdf/lecun-89.pdf. 
  3. ^ Y. LeCun; B. Boser; J. S. Denker; D. Henderson; R. E. Howard; W. Hubbard; L. D. Jackel (1989). “Backpropagation applied to handwritten zip code recognition”. Neural Computation 1 (4): 541-551. 
  4. ^ Reducing the Dimensionality of Data with Neural Networks
  5. ^ A fast learning algorithm for deep belief nets
  6. ^ "A nonrecurrent network has no cycles. Nonrecurrent networks can be thought of as computing an input-output function." Jordan, M.I. (1986). Serial order: A parallel distributed processing approach. (Tech. Rep. No. 8604). San Diego: University of California, Institute for Cognitive Science.
  7. ^ a b c Vaswani et al. 2017, p. 6001.
  8. ^ Yu, Yong; Si, Xiaosheng; Hu, Changhua; Zhang, Jianxun (2019-07-01). “A Review of Recurrent Neural Networks: LSTM Cells and Network Architectures”. Neural Computation 31 (7): 1235–1270. doi:10.1162/neco_a_01199. ISSN 0899-7667. https://doi.org/10.1162/neco_a_01199. 
  9. ^ Vaswani, Ashish; Shazeer, Noam; Parmar, Niki; Uszkoreit, Jakob; Jones, Llion; Gomez, Aidan N.; Kaiser, Lukasz; Polosukhin, Illia (2017-12-05). “Attention Is All You Need”. arXiv:1706.03762 [cs]. http://arxiv.org/abs/1706.03762. 
  10. ^ Neuromorphic Processing : A New Frontier in Scaling Computer Architecture Qualcomm 2014年
  11. ^ Qualcomm’s cognitive compute processors are coming to Snapdragon 820 ExtremeTech 2015年3月2日
  12. ^ a b c 複素ニューラルネットワーク
  13. ^ Akira Hirose, Shotaro Yoshida (2012). “Generalization Characteristics of Complex-valued Feedforward Neural Networks in Relation to Signal Coherence”. IEEE TNNLS 23 (4): 541-551. 
  14. ^ The proposed U-Net based architecture allows to provide detailed per-pixel feedback to the generator while maintaining the global coherence of synthesized images
  15. ^ starting from a low resolution, we add new layers that model increasingly fine details as training progresses. This both speeds the training up and greatly stabilizes it PGGAN paper
  16. ^ "making normalization a part of the model architecture and performing the normalization for each training mini-batch." Sergey Ioffe, et. al.. (2015)
  17. ^ "ニューラルネットワークの演算の基本は、多入力の積和演算である。" 百瀬 (2016). 第2章:ディープ・ニューラルネットワークのニューロチップへの実装~その勘所は!!. semiconportal.
  18. ^ "深層学習の…フレームワーク中では, 計算時間の多くが畳み込み計算などの密行列積に費やされており … 計算時間の約90%が畳み込み層での計算時間であることが知られている" p.1 of 関谷, et al. (2017). 低ランク近似を用いた深層学習の行列積の高速化. 情報処理学会研究報告. Vol2017-HPC-158, No.24.
  19. ^ Optimize and Accelerate Machine Learning Inferencing and Training. ONNX Runtime.
  20. ^ "Direct Machine Learning (DirectML) is a low-level API for machine learning." Direct Machine Learning (DirectML). Microsoft.
  21. ^ "TensorRT can optimize and deploy applications to the data center, as well as embedded and automotive environments. It powers key NVIDIA solutions" NVIDIA TensorRT. NVIDIA.
  22. ^ "Quantization works by reducing the precision of the numbers used to represent a model's parameters, which by default are 32-bit floating point numbers." Model optimization. TensorFlow.
  23. ^ "Quantizing a network means converting it to use a reduced precision integer representation for the weights and/or activations." DYNAMIC QUANTIZATION. PyTorch.
  24. ^ "Quantization performance gain comes in 2 part: instruction and cache." Quantize ONNX Models. ONNX Runtime.
  25. ^ "Less memory usage: Smaller models use less RAM when they are run, which frees up memory for other parts of your application to use, and can translate to better performance and stability." Model optimization. TensorFlow.
  26. ^ "Old hardware doesn’t have or has few instruction support for byte computation. And quantization has overhead (quantize and dequantize), so it is not rare to get worse performance on old devices." Quantize ONNX Models. ONNX Runtime.
  27. ^ "Performance improvement depends on your model and hardware." Quantize ONNX Models. ONNX Runtime.
  28. ^ "Static quantization quantizes the weights and activations of the model. ... It requires calibration with a representative dataset to determine optimal quantization parameters for activations." QUANTIZATION. PyTorch.
  29. ^ "with dynamic quantization ... determine the scale factor for activations dynamically based on the data range observed at runtime." DYNAMIC QUANTIZATION. PyTorch.
  30. ^ "The model parameters ... are converted ahead of time and stored in INT8 form." DYNAMIC QUANTIZATION. PyTorch.
  31. ^ "Simulate the quantize and dequantize operations in training time." FAKEQUANTIZE. PyTorch. 2022-03-15閲覧.
  32. ^ "There are 2 ways to represent quantized ONNX models: ... Tensor Oriented, aka Quantize and DeQuantize (QDQ)." Quantize ONNX Models. ONNX RUNTIME. 2022-03-15閲覧.



ニューラルネットワーク

出典: フリー百科事典『ウィキペディア(Wikipedia)』 (2022/06/04 00:57 UTC 版)

人工知能」の記事における「ニューラルネットワーク」の解説

パターン認識特化したアルゴリズムである。コネクショニズムとほぼ同義

※この「ニューラルネットワーク」の解説は、「人工知能」の解説の一部です。
「ニューラルネットワーク」を含む「人工知能」の記事については、「人工知能」の概要を参照ください。


ニューラルネットワーク

出典: フリー百科事典『ウィキペディア(Wikipedia)』 (2022/04/15 15:33 UTC 版)

機械学習」の記事における「ニューラルネットワーク」の解説

階層的な非線形変換からなるネットワーク一般に誤差逆伝播法学習される非線形性による高い表現能力をもち、分類回帰生成な様々なタスク用いられる

※この「ニューラルネットワーク」の解説は、「機械学習」の解説の一部です。
「ニューラルネットワーク」を含む「機械学習」の記事については、「機械学習」の概要を参照ください。


ニューラルネットワーク

出典: フリー百科事典『ウィキペディア(Wikipedia)』 (2022/03/02 08:51 UTC 版)

人工神経」の記事における「ニューラルネットワーク」の解説

以上のような人工神経によって構成されるネットワークについては、ニューラルネットワークの記事を参照のこと。

※この「ニューラルネットワーク」の解説は、「人工神経」の解説の一部です。
「ニューラルネットワーク」を含む「人工神経」の記事については、「人工神経」の概要を参照ください。

ウィキペディア小見出し辞書の「ニューラルネットワーク」の項目はプログラムで機械的に意味や本文を生成しているため、不適切な項目が含まれていることもあります。ご了承くださいませ。 お問い合わせ



ニューラルネットワークと同じ種類の言葉


英和和英テキスト翻訳>> Weblio翻訳
英語⇒日本語日本語⇒英語
  

辞書ショートカット

すべての辞書の索引

「ニューラルネットワーク」の関連用語

ニューラルネットワークのお隣キーワード
検索ランキング

   

英語⇒日本語
日本語⇒英語
   



ニューラルネットワークのページの著作権
Weblio 辞書 情報提供元は 参加元一覧 にて確認できます。

   
デジタル大辞泉デジタル大辞泉
(C)Shogakukan Inc.
株式会社 小学館
気象庁気象庁
©2023 Japan Meteorological Agency. All rights reserved.
なお、「気象庁 予報用語」には、気象庁の「気象庁が天気予報等で用いる予報用語」に掲載されている2009年11月現在の情報から引用しております。
IT用語辞典バイナリIT用語辞典バイナリ
Copyright © 2005-2023 Weblio 辞書 IT用語辞典バイナリさくいん。 この記事は、IT用語辞典バイナリニューラルネットワークの記事を利用しております。
三栄書房三栄書房
Copyright c San-eishobo Publishing Co.,Ltd.All Rights Reserved.
日本オペレーションズ・リサーチ学会日本オペレーションズ・リサーチ学会
Copyright (C) 2023 (社)日本オペレーションズ・リサーチ学会 All rights reserved.
ウィキペディアウィキペディア
All text is available under the terms of the GNU Free Documentation License.
この記事は、ウィキペディアのニューラルネットワーク (改訂履歴)の記事を複製、再配布したものにあたり、GNU Free Documentation Licenseというライセンスの下で提供されています。 Weblio辞書に掲載されているウィキペディアの記事も、全てGNU Free Documentation Licenseの元に提供されております。
ウィキペディアウィキペディア
Text is available under GNU Free Documentation License (GFDL).
Weblio辞書に掲載されている「ウィキペディア小見出し辞書」の記事は、Wikipediaの人工知能 (改訂履歴)、機械学習 (改訂履歴)、人工神経 (改訂履歴)の記事を複製、再配布したものにあたり、GNU Free Documentation Licenseというライセンスの下で提供されています。

©2023 GRAS Group, Inc.RSS