実存的リスク
出典: フリー百科事典『ウィキペディア(Wikipedia)』 (2022/05/11 16:41 UTC 版)
「トランスヒューマニズム」の記事における「実存的リスク」の解説
「Existential risk from artificial general intelligence」も参照 英国の王室天文官であるマーティン・リースは、著書『Our Final Hour』(2003年)にて、高度な科学と技術は進歩への機会と同量の災害リスクを齎すと主張している。しかしリースは科学的活動の停止を主張している訳ではなく、その代わりに彼はより厳しいセキュリティと恐らくは伝統的な科学的開放性の終了を求めている。環境運動で多く見られるような予防原則の擁護者はまた、潜在的に危険な領域でのゆっくりとした注意深い進歩または停止を支持している。一部の予防主義者は、人工知能とロボット工学が人間の生命を脅かす可能性のある別形態の認知の可能性を示すだろうと信じている。 トランスヒューマニストは、実存的リスクの可能性を減らすために、新興技術に対する特定の制限を必ずしも除外する訳ではない。しかし一般的に彼らは、予防原則に基づく提案は現実的で生産的であると主張するテクノガイアニズム(英語版)のトランスヒューマニズムの流れとは対照的に、しばしば非現実的であり時には非生産的であると反論している。科学史学者のJames Burkeは、彼のテレビシリーズ『Connections』にて、予防主義や公的調査の制限などの技術変化に関するいくつかの見解について詳細に分析した。Burkeは、これらの見解のいくつかの実用性に疑問を投げかけているが、探求と開発の現状を維持することは、変化の方向性を見失う割合や地球資源の枯渇など、それ自体の危険を齎すと結論付けている。一般的なトランスヒューマニストの立場は、反科学(英語版)的見解やテクノフォビアを助長するのではなく、社会が安全でクリーンな代替技術(英語版)の利益の早期到達を確保するために意図的な行動を取る実用的な立場である。 ニック・ボストロムは、異常な地球規模の壊滅的出来事が発生せずとも、技術的進歩によって促進される基本的なマルサスと進化の力は、人間社会の前向きな側面を排除する恐れがあると主張している。 実存的リスクに対抗するためにボストロムが提案したトランスヒューマニストの解決策の一つは、技術開発の順序に影響を与える一連の試みである差別的技術開発の制御である。このアプローチでは、計画者は有害となる可能性のある技術の開発とその応用を遅らせ、有益な可能性のある技術、特に他者の有害な影響に対する保護を提供する技術開発を加速させる。
※この「実存的リスク」の解説は、「トランスヒューマニズム」の解説の一部です。
「実存的リスク」を含む「トランスヒューマニズム」の記事については、「トランスヒューマニズム」の概要を参照ください。
- 実存的リスクのページへのリンク