1960年代以降: 第三世代とその後
出典: フリー百科事典『ウィキペディア(Wikipedia)』 (2022/08/01 10:11 UTC 版)
「計算機の歴史」の記事における「1960年代以降: 第三世代とその後」の解説
詳細は「計算機の歴史 (1960年代以降)」を参照 「CPU年表」および「パーソナルコンピュータ史」も参照 ジャック・キルビーとロバート・ノイスがそれぞれ独自に集積回路を発明し、さらに爆発的に多数のコンピュータが使われるようになっていった。1970年代には、MOS集積回路により、インテルのテッド・ホフやフェデリコ・ファジンらによってマイクロプロセッサが発明されることになる。右の集積回路の写真は Intel 8742 という8ビットマイクロコントローラで、12MHzで動作するCPU、128バイトのRAM、2048バイトのEPROM、入出力部などを1つのチップに集積している。 利用する素子のテクノロジによるコンピュータの世代分けでは、集積回路を主として使ったコンピュータを第三世代とする。しかしIBM System/360があれこれと画期的であったために、SLTという高度なモジュール技術ではあったがモノリシックな集積回路ではない点には目をつぶって初の第三世代機とされることもあり、はっきりと分類するのは難しい。主記憶がコアから半導体になったのはIBMではSystem/370であった。 1960年代は第二世代と第三世代の技術が混在していた。IBMは IBM Solid Logic Technology によるモジュールを1964年のSystem/360で開発、採用した。UNIVACでは、UNIVAC 494 のように1975年ごろまで第二世代の技術を採用した機種が製造され続けた。バロースの大型機(バロース B5000、1961年設計開始)ではスタックマシンアーキテクチャを採用し、プログラミングを単純化しようとした。スタックマシンはプッシュダウン・オートマトンを実装したもので、後にミニコンピュータやマイクロプロセッサでも採用されたことがある。B5000の設計はプログラミング言語に影響されているが、逆にスタックマシンの考え方はプログラミング言語の設計や処理系の実装に影響を及ぼしもしている。1960年代にはミニコンピュータも生まれ発展している。ミニコンピュータは安価な計算センター用コンピュータとして産業界や大学で使われた。 1971年、ミニコンピュータ上でアナログ回路をシミュレーションできるSPICE (simulation program with integrated circuit emphasis) が登場。電子回路設計の自動化(EDA)が始まった。マイクロプロセッサの登場によってマイクロコンピュータと呼ばれる小型で低価格なコンピュータが登場し、コンピュータを個人で所有できる時代が到来。1970年代に登場したマイクロコンピュータは、1980年代にはパーソナルコンピュータと呼ばれるようになり、広く普及することになる。 1975年4月に開催されたハノーバー・フェアで、オリベッティがパーソナルコンピュータP6060を出展。フロッピーディスク装置とサーマルプリンターと小さなプラズマディスプレイを内蔵したオールインワン型だが、CPUはマイクロプロセッサではなく2枚の基板で構成されていた。48kバイトのRAMを搭載し、BASIC言語が利用可能、重量は40kgだった。発売は1977年で、そのころには既にマイクロプロセッサを採用したパーソナルコンピュータ(ホームコンピュータ)がいくつも登場していた。 Apple Computerの創業者の1人スティーブ・ウォズニアックは世界初の大量生産されたホームコンピュータの開発者とされることがある。細かいところを言うと、Apple Iより前にモステクノロジーのKIM-1やAltair 8800があり、また、グラフィックスやサウンド機能という面でもApple IIより、PET 2001の方がわずかに先行している(がPETはモノクロ)。 一般的に、従来の大型なマシンの機能と性能が、より小型のマシンで実現される、ということが、コンピュータの歴史では繰り返された。それによって、メインフレームの大半はやがてミニコンピュータに置き換えられ、ミニコンピュータの大半はやがてワークステーションに置き換えられ、ワークステーションの大半はやがてパーソナルコンピュータに置き換えられた。そして、パーソナルコンピュータの役割も相当な部分がタブレットやスマートフォンに奪われつつある。ただし、この歴史は必ずしも一本道ではない。置き換えられなかったメインフレーム、あるいはワークステーション、に相当するコンピュータは残っているし、ワークステーションとパーソナルコンピュータの歴史が並列していた時期は20年程度には及ぶ。 コンピュータのような複雑なシステムには高い信頼性が求められる。ENIACは1947年から1955年まで連続稼働し、退役となるまで8年間動作し続けた。真空管は故障するものだが、システムダウンを引き起こす前に交換されていた。電源を切ったり入れたりするのはトラブルの元であるが、ENIACは電源を切らないという単純な戦略で、障害を劇的に低減していた(真空管のせいでよく壊れていたなどと言われるのは、実際にはこのことを理解しない運用機関が電源を入れっぱなしにするのを許さなかった時期の話である)。SAGEでは真空管そのものも選別によって高信頼なものだけを使ったが、2台のコンピュータをホットスタンバイ構成とし、診断機能によって故障しそうな真空管を識別することでさらに信頼性と可用性を高めていた。半導体メモリは一般にほとんど故障しないが、UNIXなどは電源投入時にメモリをテストしてハードウェア故障を検出するようになっていた。今日ではサーバファーム上で電子商取引が行われているため、信頼性を求める声は強くなっている。Googleはサーバファームの管理にフォールトトレラントソフトウェアを使ってハードウェア故障に対処しており、サーバファーム全体をサービスを停止せずに切り替えるという概念にも挑戦している。 21世紀に入ると、マルチコアCPUが一般に流通するようになった。連想メモリ (CAM) はネットワークにも使われるなど低価格化しているが、ハードウェアのCAMをプログラミング言語から使うという動きはまだない。半導体メモリは非常に規則的な構造であり、製造業者は最新プロセスを採用している。そのためメモリは急激に価格が低下していった。1980年代、CMOS論理回路が実用化され、他の回路と性能面でも遜色ないものになっていった。それによって電力消費が劇的に低減された。他の回路構成では電流が常に流れ続けるが、CMOSでは状態遷移のときだけ電流が流れる(リーク電流を除く)。 そういった技術革新によってコンピュータはどこにでもある商品となり、グリーティングカードから衛星電話まで様々な形で組み込まれている。コンピュータのハードウェアとソフトウェアは、宇宙の運行を表す隠喩にもなっている。DNAコンピュータや量子コンピュータが実現するのはまだ先だが、既にDNA折り紙のような基盤技術が登場している。ナノスケール超伝導体の発見によりジョセフソン素子や単一磁束量子といった技術を使った高速デジタル回路が先に実現すると予測されている。 光ファイバーや関連する素子は既に長距離のデータ伝送に使われているが、CPUとメモリの接続にそれを使う研究がなされている。 コンピュータの急激な発展は、主要な論文の歴史からも推定できる。誰かが何かを書き終わったとき、既に時代遅れになっているという勢いである。フォン・ノイマンの First Draft of a Report on the EDVAC を多くの研究者が読んだ1945年、それぞれのシステム実装がすぐさま始まった。この開発のペースが今も世界的に続いている。
※この「1960年代以降: 第三世代とその後」の解説は、「計算機の歴史」の解説の一部です。
「1960年代以降: 第三世代とその後」を含む「計算機の歴史」の記事については、「計算機の歴史」の概要を参照ください。
- 1960年代以降: 第三世代とその後のページへのリンク