科学的事故
出典: フリー百科事典『ウィキペディア(Wikipedia)』 (2022/06/19 03:37 UTC 版)
規制なく野放図に科学の発展を続けていくと、人間の制御できない新技術が生まれてしまい、結果として人間を滅ぼすことになる恐れがあると言われている。 人間を超える超知能が開発された場合、これが人間の殲滅を目的に動き始める危険性がある。 自己増殖能力を持つナノマシン(グレイ・グー)が生まれると、やがてこれが際限なく増殖して地球の生態系を崩壊させ得る(エコファジー)。 地球上でマイクロブラックホールを発生させたり、素粒子物理学研究上で偽の真空やストレンジレット理論で提唱されているような「たまたま世界が存在できているバランス」を科学者が誤って崩してしまったりすることで、世界の崩壊を引き起こす事故が発生する危険性が指摘されている。実際に欧州原子核研究機構の大型ハドロン衝突型加速器が稼働して、素粒子を光速に近い速度で衝突させたときに、マイクロブラックホールが生成されることが危惧されている。なお、大気中ではこの実験を上回る高エネルギー衝突現象が日常的に発生している。
※この「科学的事故」の解説は、「人類の絶滅」の解説の一部です。
「科学的事故」を含む「人類の絶滅」の記事については、「人類の絶滅」の概要を参照ください。
- 科学的事故のページへのリンク