人間の絶滅可能性
出典: フリー百科事典『ウィキペディア(Wikipedia)』 (2022/02/16 15:02 UTC 版)
詳細は「Existential risk from artificial general intelligence」を参照 AIは実存的リスクをもたらし、このリスクには現在よりもはるかに注意が必要であるという説は、多くの著名人によって支持されています。 おそらく最も有名なのは、イーロンマスク、ビルゲイツ、スティーブンホーキングです。 論文を支持する最も著名なAI研究者は、スチュアートJ.ラッセルです。 論文の支持者は懐疑論者に困惑を表明することがあります:ゲイツ氏は「なぜ一部の人々が心配していないのか理解していない」と述べています, ホーキングは2014年の社説で、広範な無関心を批判しました。 「 「それで、計り知れない利益とリスクの可能な未来に直面して、専門家は確かに最良の結果を確実にするために可能なすべてをしているでしょう? 違う。 優れたエイリアン文明が私たちに「私たちは数十年で到着します」というメッセージを送った場合、私たちはただ答えます、「OK、あなたがここに着いたら私たちに電話してください – 明かりをつけたままにしますか?」 おそらくそうではない – しかし、これは多かれ少なかれAIで起こっていることです。[97] 」 存在リスクを懸念している学者の多くは、難しい「制御問題」を解決するための(おそらく大規模な)研究を実施して、プログラマーが実装できるセーフガード、アルゴリズム、またはアーキテクチャの種類を質問に答えることが最善の方法であると考えています。 再帰的に改善するAIが、超知能に達した後も破壊的ではなく友好的に動作し続ける可能性を最大化するには? AIが実存的リスクをもたらす可能性があるという説にも、多くの強力な批判者がいます。 懐疑論者は、論文が暗号宗教的であり、全能の神への非合理的な信念を超知性が置き換える可能性についての不合理な信念を持っていると非難することがあります。 極端な場合、Jaron Lanierは、現在のマシンが何らかの形でインテリジェントであるという概念全体は、裕福な人々による「幻想」と「途方もない詐欺」であると主張しています。 既存の批判の多くは、AGIが短期的にはありそうもないと主張しています。 コンピューター科学者のゴードン・ベルは、人類は技術的特異点に達する前にすでに自分自身を破壊していると主張しています。 ムーアの法則の最初の支持者であるゴードン・ムーアは、「私は懐疑的です。少なくとも長い間、[技術的特異点]が発生する可能性はないと思います。なぜそう感じるのかわかりません。 仕方。" 元Baiduの副社長兼チーフサイエンティストのAndrewNgは、AIの存在リスクは、「まだ地球に足を踏み入れていないのに、火星の人口過多を心配するようなものだ」と述べています。 AIを活用した機関は、AIが推進するビジネス機能(金融、AIにおける不正予測や信用リスク評価など)を実行する際に統合されたAI人間の知識、スキル、能力を活用する機能横断的な戦略を開発することで、人的資源に対するこれらの潜在的な脅威を克服できます。 -生産およびサプライチェーン管理における予測と問題解決、マーケティングにおける消費者の購買行動の自動予測、および戦略的意思決定を可能にしました。
※この「人間の絶滅可能性」の解説は、「汎用人工知能」の解説の一部です。
「人間の絶滅可能性」を含む「汎用人工知能」の記事については、「汎用人工知能」の概要を参照ください。
- 人間の絶滅可能性のページへのリンク