人工知能 歴史

人工知能

出典: フリー百科事典『ウィキペディア(Wikipedia)』 (2023/03/17 18:06 UTC 版)

歴史

AIの構築が長い間試みられてきているが、シンボルグラウンディング問題とフレーム問題の解決が大きな壁となってきた。

初期

17世紀初め、ルネ・デカルトは、動物の身体がただの複雑な機械であると提唱した(機械論)。ブレーズ・パスカルは1642年、最初の機械式計算機を製作した。チャールズ・バベッジエイダ・ラブレスはプログラム可能な機械式計算機の開発を行った。

バートランド・ラッセルアルフレッド・ノース・ホワイトヘッドは『数学原理』を出版し、形式論理に革命をもたらした。ウォーレン・マカロックウォルター・ピッツは「神経活動に内在するアイデアの論理計算」と題する論文を1943年に発表し、ニューラルネットワークの基礎を築いた。

1900年代後半

1950年代になるとAIに関して活発な成果が出始めた。1956年夏、ダートマス大学が入居している建物の最上階を引き継いだ数学と計算機科学者のグループの一人である若き教授ジョン・マッカーシーはワークショップでのプロポーザルで "Artificial Intelligence" という言葉を作り出している[181]。ワークショップの参加者は、オリバー・セルフリッジレイ・ソロモノフ、マービン・ミンスキー、クロード・シャノンハーバート・サイモンアレン・ニューウェルなどであった[182]。ジョン・マッカーシーはAIに関する最初の会議で「人工知能[注釈 2]」という用語を作り出した。彼はまたプログラミング言語LISPを開発した。知的ふるまいに関するテストを可能にする方法として、アラン・チューリングは「チューリングテスト」を導入した。ジョセフ・ワイゼンバウムELIZAを構築した。これは来談者中心療法を行うおしゃべりロボット[注釈 3]である。

1956年に行われた、ダートマス会議開催の提案書において、人類史上、用語として初めて使用され、新たな分野として創立された。

1960年代と1970年代の間に、ジョエル・モーゼスMacsymaマクシマプログラム[注釈 4]中で積分問題での記号的推論のパワーを示した。マービン・ミンスキーシーモア・パパートは『パーセプトロン』を出版して単純なニューラルネットの限界を示し、アラン・カルメラウアー英語版はプログラミング言語 Prolog を開発した。テッド・ショートリッフェ英語版は医学的診断と療法におけるルールベースシステムを構築し、知識表現と推論のパワーを示した。これは、最初のエキスパートシステムと呼ばれることもある。ハンス・モラベックは、障害物があるコースを自律的に走行する最初のコンピューター制御の乗り物を開発した。

1980年代に、ニューラルネットワークはバックプロパゲーションアルゴリズムによって広く使われるようになった。

また、この時代にロドニー・ブルックスが、知能には身体が必須との学説(身体性)を提唱した。

1990年代はAIの多くの分野で様々なアプリケーションが成果を上げた。特に、ボードゲームでは目覚ましく、1992年にIBMは世界チャンピオンに匹敵するバックギャモン専用コンピュータ・TDギャモンを開発し、IBMのチェス専用コンピュータ・ディープ・ブルーは、1997年5月にガルリ・カスパロフを打ち負かし、同年8月にはオセロで日本電気のオセロ専用コンピュータ・ロジステロに世界チャンピオンの村上健が敗れた[183]国防高等研究計画局は、最初の湾岸戦争においてユニットをスケジューリングするのにAIを使い、これによって省かれたコストが1950年代以来のAI研究への政府の投資全額を上回ったことを明らかにした。日本では甘利俊一らが精力的に啓蒙し、優秀な成果も発生したが、論理のブラックボックス性が指摘された。

1998年には非構造化データ形式の国際規格であるXMLが提唱されたが、ここからWeb上の非構造化データに対して、アプリケーション別に適した意味付けを適用し、処理を行わせる試みが開始された。同年に、W3Cティム・バーナーズ=リーにより、Webに知的処理を行わせるセマンティック・ウェブが提唱された。この技術はWeb上のデータに意味を付加して、コンピュータに知的処理を行わせる方法を国際的に規格化するものである。この規格には知識工学におけるオントロジーを表現するデータ形式のOWLも含まれていることから、かつて流行したエキスパートシステムの亜種であることが分かる。2000年代前半に規格化が完了しているが、Web開発者にとっては開発工数に見合うだけのメリットが見出せなかったことから、現在も普及はしていない。

日本における第二次AIブーム

日本においてはエキスパートシステムの流行の後にニューロファジィが流行した。しかし、研究が進むにつれて計算リソースやデータ量の不足,シンボルグラウンディング問題,フレーム問題に直面し、産業の在り方を激変させるようなAIに至ることは無く、ブームは終焉した。

エキスパートシステム(知識工学の応用)

1980年代に入って、大企業の研究所を中心に、知識工学に基づくエキスパートシステムが多数提案されるようになり、エキスパートシステムを専門とするAIベンチャーも次々と立ち上がった。その流行から生まれた究極のプロジェクトとして第五世代コンピュータが挙げられる。

第五世代コンピュータ(高性能なProlog推論マシン)

1982年から1992年まで日本は国家プロジェクトとして570億円を費やして第五世代コンピュータの研究を進めるも、採用した知識工学的手法では膨大なルールの手入力が必要で、専門家間で専門知識の解釈が異なる場合には統一したルール化が行えない等の問題もあり、実用的なエキスパートシステムの実現には至らなかった。実現した成果物はPrologの命令を直接CPUのハードウェアの機構で解釈して高速に実行する、並列型のProlog専用機であるが、商業的な意味で応用先が全く見つからなかった。

ニューロファジィ[184]

1980年代後半から1990年代中頃にかけて、従来から電子制御の手法として用いられてきたON/OFF制御,PID制御,現代制御の問題を克服するため、知的制御が盛んに研究され、知識工学的なルールを用いるファジィ制御,データの特徴を学習して分類するニューラルネットワーク,その2つを融合したニューロファジィという手法が日本を中心にブームを迎えた。1987年には仙台市において開業した地下鉄ATOに採用[185]され、バブル期の高級路線に合わせて、白物家電製品でもセンサの個数と種類を大幅に増やし、多様なデータを元に運転を最適化するモデルが多数発売され始めた。

ファジィについては、2018年までに日本が世界の1/5の特許を取得している事から、日本で特に大きなブームとなっていたことが分かっている[186]。現在の白物家電ではこの当時より更に発展した制御技術が用いられているが、既に当たり前のものになり、利用者には意識されなくなっている。ニューロファジィがブームになった1990年代には未だビッグデータという概念は無く(ブロードバンド接続普及後の2010年に初めて提唱された)、データマイニングとしての産業応用は行われなかった。しかし、ニューラルネットワークが一般人も巻き込んで流行した事例としては初めての事例であり、2010年代のディープラーニングブームの前史とも言える社会現象と言える。

ブームの経緯

松下電器が1985年頃から人間が持つような曖昧さを制御に活かすファジィ制御についての研究を開始し、1990年2月1日にファジィ洗濯機第1号である「愛妻号Dayファジィ」の発売に漕ぎ着けた。「愛妻号Dayファジィ」は従来よりも多数のセンサーで収集したデータに基づいて、柔軟に運転を最適化する洗濯機で、同種の洗濯機としては世界初であった。ファジィ制御という当時最先端の技術の導入がバブル期の高級路線にもマッチしたことから、ファジィは裏方の制御技術であるにもかかわらず世間の大きな注目を集めた[186]。その流行の度合いは、1990年の新語・流行語大賞における新語部門の金賞で「ファジィ」が選ばれる程であった。その後に、松下電器はファジィルールの煩雑なチューニングを自動化したニューロファジィ制御を開発し、従来のファジィ理論の限界を突破して学会で評価されるだけでなく、白物家電への応用にも成功して更なるブームを巻き起こした。松下電器の試みの成功を受けて、他社も同様の知的制御を用いる製品を多数発売した。1990年代中頃までは、メーカー各社による一般向けの白物家電の売り文句として知的制御技術の名称が大々的に用いられており、洗濯機の製品名では「愛妻号DAYファジィ」,掃除機の分類としては「ニューロ・ファジィ掃除機」,エアコンの運転モードでは「ニューロ自動」などの名称が付与されていた[187][188][189][190][191][192]

ニューロ,ファジィ,ニューロファジィという手法は、従来の単純なオン・オフ制御や、対象を数式で客観的にモデル化する(この作業は対象が複雑な機構を持つ場合は極めて難しくなる)必要があるPID制御や現代制御等と比較して、人間の主観的な経験則や計測したデータの特徴が利用可能となるファジィ、ニューロ、ニューロファジィは開発工数を抑えながら、環境適応時の柔軟性を高くできるという利点があった[184]。しかし、開発者らの努力にもかかわらず、計算能力や収集可能なデータ量の少なさから、既存の工作機械や家電製品の制御を多少改善する程度で限界を迎えた。理論的にもファジィ集合と深層学習が不可能なニューラルネットワークの組み合わせであり、計算リソースやデータが潤沢に与えられたとしても、認識精度の向上には限界があった。

以降、計算機の能力限界から理論の改善は遅々として進まず、目立った進展は無くなり、1990年代末には知的制御を搭載する白物家電が大多数になったことで、売り文句としてのブームは去った[193]。ブーム後は一般には意識されなくなったが、現在では裏方の技術として、家電製品のみならず、雨水の排水,駐車場,ビルの管理システムなどの社会インフラにも使われ、十分に性能と安定性が実証されている。2003年頃には、人間が設計したオントロジー(ファジィルールとして表現する)を利活用するネットワーク・インテリジェンスという分野に発展した[194]

2000年代

2002年、進化的計算の一種である遺伝的アルゴリズムを利用し、人工ニューラルネットワーク内部の結合重みやトポロジ(各層間の接続関係)の自動最適化を行う手法がテキサス大学によって開発された。

2005年、レイ・カーツワイルは著作で、「圧倒的な人工知能が知識・知能の点で人間を超越し、科学技術の進歩を担い世界を変革する技術的特異点(シンギュラリティ)が2045年にも訪れる」とする説を発表した。

2006年に、ジェフリー・ヒントンらの研究チームによりオートエンコーダによるニューラルネットワークの深層化手法が提案された(現在のディープラーニングの直接的な起源)。

2010年代前半

2010年代に入り、膨大なデータを扱う研究開発のための環境が整備されたことで、AI関連の研究が再び大きく前進し始めた。

2010年に英国エコノミスト誌で「ビッグデータ」という用語が提唱された。同年に質問応答システムワトソンが、クイズ番組「ジェパディ!」の練習戦で人間に勝利し、大きなニュースとなった[195]2012年に画像処理コンテストでジェフリー・ヒントン氏のチームが従来手法からの大幅な精度改善を果たした上で優勝したことで、第三次AIブームが始まった。コンピュータ将棋では将棋電王戦が始まり、次々とプロを破った。

2013年には国立情報学研究所[注釈 5]富士通研究所の研究チームが開発した「東ロボくん」で東京大学入試の模擬試験に挑んだと発表した。数式の計算や単語の解析にあたる専用プログラムを使い、実際に受験生が臨んだ大学入試センター試験と東大の2次試験の問題を解読した。代々木ゼミナールの判定では「東大の合格は難しいが、私立大学には合格できる水準」だった[196]

2014年には、日本の人工知能学者である齊藤元章により、特異点に先立ち、オートメーション化とコンピューター技術の進歩により衣食住の生産コストがゼロに限りなく近づくというプレ・シンギュラリティという概念も提唱された。

ジェフ・ホーキンスが、実現に向けて研究を続けているが、著書『考える脳 考えるコンピューター』の中で自己連想記憶理論という独自の理論を展開している。

世界各国において、軍事・民間共に実用化に向け研究開発が進んでいるが、とくに無人戦闘機UCAVや無人自動車ロボットカーの開発が進行しているものの、2010年代にはまだ完全な自動化は試験的なものに留まった(UCAVは利用されているが、一部操作は地上から行っているものが多い)。

ロボット向けとしては、CSAILのロドニー・ブルックスが提唱した包摂アーキテクチャという理論が登場している。これは従来型の「我思う、故に我あり」の知が先行するものではなく、体の神経ネットワークのみを用いて環境から学習する行動型システムを用いている。これに基づいたゲンギスと呼ばれる六本足のロボットは、いわゆる「脳」を持たないにもかかわらず、まるで生きているかのように行動する。

2010年代後半

2015年10月にDeepMind社が作成した「AlphaGo」が人間のプロ囲碁棋士に勝利して以降はディープラーニング(深層学習)と呼ばれる手法が注目され、人工知能自体の研究の他にも、人工知能が雇用などに与える影響についても研究が進められている[197]

2016年10月、DeepMindが、入力された情報の関連性を導き出し仮説に近いものを導き出す人工知能技術「ディファレンシャブル・ニューラル・コンピューター」を発表[198]し、同年11月、大量のデータが不要の「ワンショット学習」を可能にする深層学習システムを[199]、翌2017年6月、関係推論のような人間並みの認識能力を持つシステムを開発[200]。2017年8月には、記号接地問題(シンボルグラウンディング問題)を解決した[201]

従来、AIには不向きとされてきた不完全情報ゲームであるポーカーでもAIが人間に勝利するようになった[202]

Googleの関係者はさらに野心的な取り組みとして、単一のソフトウェアで100万種類以上のタスクを実行可能なAIを開発していると明らかにした[203]

人工知能の第三次ブーム:AGI(汎用人工知能)と技術的特異点

2006年のディープラーニングの発明と、2010年以降のビッグデータ収集環境の整備、計算資源となるGPUの高性能化により、2012年にディープラーニングが画像処理コンテストで他の手法に圧倒的大差を付けて優勝したことで、技術的特異点という概念は急速に世界中の識者の注目を集め、現実味を持って受け止められるようになった。ディープラーニングの発明と急速な普及を受けて、研究開発の現場においては、デミス・ハサビス率いるDeepMindを筆頭に、Vicarious、IBM Cortical Learning Center、全脳アーキテクチャ、PEZY Computing、OpenCog、GoodAI、nnaisense、IBM SyNAPSE等、汎用人工知能AGI)を開発するプロジェクトが数多く立ち上げられている。これらの研究開発の現場では、脳をリバースエンジニアリングして構築された神経科学と機械学習を組み合わせるアプローチが有望とされている[204]。結果として、Hierarchical Temporal Memory (HTM) 理論、Complementary Learning Systems (CLS) 理論の更新版等、単一のタスクのみを扱うディープラーニングから更に一歩進んだ、複数のタスクを同時に扱う理論が提唱され始めている。

3Dゲームのような仮想空間でモデルを動かし現実世界のことを高速に学ばせるといったことも大きな成果を上げている(シミュレーションによる学習)。

また、数は少ないがAGIだけでは知能の再現は不可能と考えて、身体知を再現するために、全人体シミュレーションが必要だとする研究者やより生物に近い振る舞いを見せるAL(人工生命)の作成に挑む研究者、知能と密接な関係にあると思われる意識のデジタル的再現(人工意識)に挑戦する研究者もいる。

リーズナブルなコストで大量の計算リソースが手に入るようになったことで、ビッグデータが出現し、企業が膨大なデータの活用に極めて強い関心を寄せており、全世界的に民間企業主導で莫大な投資を行って人工知能に関する研究開発競争が展開されている。また、2011年のD-Wave Systemsによる量子アニーリング方式の製品化を嚆矢として、量子コンピュータという超々並列処理が可能な次世代のITインフラが急速に実用化され始めた事で、人工知能の高速化にも深く関わる組み合わせ最適化問題をリアルタイムに解決できる環境が整備され始めている。(量子機械学習を参照)この動向を受ける形で、2016年頃から、一般向けのニュース番組でも人工知能の研究開発や新しいサービス展開や量子コンピュータに関する報道が目立つようになった。

2017年にはイーロン・マスクが、急速に進化し続ける人工知能に対して人間が遅れを取らないようにするために、ブレイン・マシン・インターフェースを研究開発するニューラリンクを立ち上げていたことを公表した。

2017年10月にはジェフリー・ヒントンにより要素間の相対的な位置関係まで含めて学習できるカプセルネットワークが提唱された[205]

2017年、アテンションメカニズムを採用する「Transformer」と呼ばれる新しい自然言語処理技術がGoogleによって発案された。

2018年3月16日の国際大学GLOCOMの提言によると、課題解決型のAIを活用する事で社会変革に寄与できると分析されている[206]

2018年8月、OpenAIが好奇心を実装しノーゲームスコア、ノーゴール、無報酬で目的なき探索を行うAIを公表。これまでのAIで最も人間らしいという[207]

2018年9月、MITリンカーン研究所は従来ブラックボックスであったニューラルネットワークの推論をどのような段階を経て識別したのかが明確に分かるアーキテクチャを開発した[208]

2018年、ハーバード大学は畳み込みニューラルネットの構造をそのままに、そこに量子ゲートとくりこみを適用した「量子畳み込みニューラルネット(QCNN)」を提案した。

2019年、BERTなどの言語モデルにより、深層学習では困難とされてきた言語処理において大きな進展があり、Wikipediaなどを使用した読解テストで人間を上回るに至った[209]

2020年代前半

2020年にはOpenAIにより1750億パラメータを持つ自然言語処理プログラムGPT-3が開発され、アメリカの掲示板サイトRedditで1週間誰にも気付かれず人間と投稿・対話を続けた。プログラムと気付かれた理由は文章の不自然さではなく、その投稿数が異常というものだった[210]

DeepMindが開発したタンパク質の構造予測を行うAlphaFold2CASPグローバル距離テスト (GDT) で90点以上を獲得し、計算生物学における重要な成果であり、数十年前からの生物学の壮大な挑戦に向けた大きな進歩と称された[211]

OpenAIはTransformer (言語モデル) の性能がパラメータ数N・データセットサイズD・計算予算Cの単純なべき乗になっているとの論文を発表した(スケーリングの法則)。

最先端のAI研究では2年で1000倍サイズのモデルが出現し、1000倍の演算能力を持つコンピュータが必要になって来ている[212]

2021年4月、NVIDIAの幹部、パレシュ・カーリャは「数年内に100兆パラメータを持つAIモデルが出てくるだろう」と予想した[213]

2021年5月、マイクロソフトが32兆パラメーターのAIを試験[214]

2021年6月、中国政府の支援を受けている北京智源人工知能研究院がパラメーター数1兆7500億のAI「悟道2.0」を発表[215]

2021年6月、グーグルの研究者達がグラフ畳み込みニューラルネットと強化学習(方策勾配法最適化)を用いて配線とチップの配置を自動設計させたところ、消費電力、性能など全ての主要な指数で人間が設計したもの以上の行列演算専用チップのフロアプランを生成した。そして、設計にかかる時間は人間の1/1000であった[216]

2021年8月、グーグルの量子人工知能研究部門を率いるハルトムート・ネベンは量子コンピュータの発達の影響がもっとも大きい分野として機械学習分野などAIを挙げた[217]

2021年8月、DeepMindはさまざまな種類の入力と出力を処理できる汎用の深層学習モデル「Perceiver」を開発した。

2021年10月、GoogleBrainは視覚、聴覚、言語理解力を統合し同時に処理するマルチモーダルAIモデル「Pathways」を開発中であると発表した。

2022年02月、DeepMindは自動でプログラムのコーディングが可能なAI「AlphaCode」を発表した。自然言語で入力した単純なプロンプトからコードを生成できる。その能力は、競技プログラミングコンテスト「Codeforces」で過去に出題されたプログラミング課題を解くタスクで、平均ランキング上位54.3%に入る実力である。

2022年4月、Googleは予告どおりPathwaysを使い、万能言語モデルPaLMを完成させた。とんち話の解説を行えるほか、9-12歳レベルの算数の文章問題を解き、数学計算の論理的な説明が可能であった。デジタルコンピュータは誕生から80年弱にして初めて数学計算の内容を文章で説明できるようになった[218]。その後、自然言語処理としてPathwaysをベースにした数学の問題を解けるモデル「Minerva」を開発した。また、Pathwaysをベースにした自然言語処理とDiffusion Modelを連携し、画像生成モデルPartiを発表した。

2022年5月12日、DeepMindは様々なタスクを一つのモデルで実行することができる統合モデル「Gato」を発表した。チャット、画像の生成と説明、四則演算、物体を掴むロボットの動作、ゲームの攻略等々、600にも及ぶ数々のタスクをこの一つのモデルで実行することができるという。

DeepMindのNando de Freitasは「今は規模が全てです。(AGIに至る道を探す)ゲームは終わった」と主張したが[219]人工知能の歴史の中で繰り返されてきた誇大広告だという批判も存在する[220]

2022年5月、GoogleのチャットボットLaMDAの試験が行われた。それに参加していたエンジニアであるブレイク・ルモワンはLaMDAに意識があると確信、会話全文を公開したがGoogleから守秘義務違反だとして休職処分を受けた。この主張には様々な批判意見がある[221]

2022年8月、画像生成AI・Midjourneyの作品が米国コロラド州で開催された美術品評会で優勝した[222]。ただし細かい部分は人間の手が加えられている[222]

2022年9月、Googleはテキストから3Dモデルを生成できる「DreamFusion」を開発した。複数の静止画から3Dモデルを生成するNeRFや、Diffusion Modelを使用している。

2022年10月、DeepMindは行列の積を効率的に計算するための未発見のアルゴリズムを導き出す「AlphaTensor」を開発した。[223]。「4×5の行列」と「5×5の行列」の積を求める際に、通常の計算方法で100回の乗算が必要なところを、76回に減らすことができた。またこれを受けて数学者もさらに高速な行列乗算プログラムを公表した[224]

2023年1月11日、DeepMindは、画像から世界モデルを学習し、それを使用して長期視点から考えて最適な行動を学習する事が出来る「DreamerV3」を発表した。

Googleロボティクス部門は、ロボットの入力と出力行動(カメラ画像、タスク指示、モータ命令など)をトークン化して学習し、実行時にリアルタイム推論を可能にする「Robotics Transformer 1(RT-1)」を開発した。

2022年、研究者の間では大規模ニューラルネットワークに意識が存在するか議論が起こっている。深層学習の第一人者Ilya Sutskeverは「(大規模ニューラルネットワークは)少し意識的かもしれない」と見解を示した[225]

2022年12月、Googleは、「Flan-PaLM」と呼ばれる巨大言語モデルを開発した。米国医師免許試験(USMLE)形式のタスク「MedQA」で正答率67.6%を記録し、PubMedQAで79.0%を達成した。57ジャンルの選択問題タスク「MMLU」の医療トピックでもFlan-PaLMの成績は他の巨大モデルを凌駕した。臨床知識で80.4%、専門医学で83.8%、大学生物学で88.9%、遺伝医療学で75.0%の正答率である。

質問応答意思決定支援、需要予測、音声認識音声合成機械翻訳、科学技術計算、文章要約など、各分野に特化したシステムやこれらを組み合わせたフレームワークが実用化された[226][227][13][228]

従来、AIは肉体労働や単純作業を置き換え、芸術的・創造的仕事が「人間の領域」となると予想されてきたが、実際には2020年代前半から芸術的な分野へ急速に進出している[229][144]。またAIの実用化後も残るとされた翻訳、意思決定、法律相談など高度なスキルを必要とする分野への応用も進んでいる[226][161]。一方で2023年時点では肉体労働や単純作業への利用は自動倉庫の制御[230]など限定的な利用にとどまっている。テスラ社は開発を進める二足歩行ロボットTesla Botに汎用人工知能を搭載し、単純労働を担当させると表明している。


  1. ^ 電子情報通信学会で工学博士の仙石正和が述べた定義では、「工学(Engineering)」とは「数学自然科学の知識を用いて,健康と安全を守り,文化的,社会的及び環境的な考慮を行い,人類のために(for the benefit of humanity),設計開発イノベーションまたは解決を行う活動」だとされている[9]
  2. ^ : artificial intelligence
  3. ^ : chatterbot
  4. ^ 数学における最初の成功した知識ベースプログラム。
  5. ^ 新井紀子がリーダー。





英和和英テキスト翻訳>> Weblio翻訳
英語⇒日本語日本語⇒英語
  

辞書ショートカット

すべての辞書の索引

「人工知能」の関連用語

人工知能のお隣キーワード
検索ランキング

   

英語⇒日本語
日本語⇒英語
   



人工知能のページの著作権
Weblio 辞書 情報提供元は 参加元一覧 にて確認できます。

   
ウィキペディアウィキペディア
All text is available under the terms of the GNU Free Documentation License.
この記事は、ウィキペディアの人工知能 (改訂履歴)の記事を複製、再配布したものにあたり、GNU Free Documentation Licenseというライセンスの下で提供されています。 Weblio辞書に掲載されているウィキペディアの記事も、全てGNU Free Documentation Licenseの元に提供されております。

©2023 GRAS Group, Inc.RSS