人間の絶滅可能性とは? わかりやすく解説

Weblio 辞書 > 辞書・百科事典 > ウィキペディア小見出し辞書 > 人間の絶滅可能性の意味・解説 

人間の絶滅可能性

出典: フリー百科事典『ウィキペディア(Wikipedia)』 (2022/02/16 15:02 UTC 版)

汎用人工知能」の記事における「人間の絶滅可能性」の解説

詳細は「Existential risk from artificial general intelligence」を参照 AI実存的リスクもたらし、このリスクには現在よりもはるかに注意が必要であるという説は、多く著名人によって支持されています。 おそらく最も有名なのは、イーロンマスクビルゲイツスティーブンホーキングです。 論文支持する最も著名なAI研究者は、スチュアートJ.ラッセルです。 論文支持者懐疑論者困惑表明することがありますゲイツ氏は「なぜ一部人々が心配していないのか理解していない」と述べています, ホーキング2014年社説で、広範な関心批判しました。 「 「それで、計り知れない利益リスク可能な未来直面して専門家確かに最良結果確実にするために可能なすべてをしているでしょう? 違う。 優れたエイリアン文明私たちに「私たち数十年で到着します」というメッセージ送った場合私たちはただ答えます、「OK、あなたがここに着いた私たち電話してください明かりをつけたままにしますか?」 おそらくそうではない – しかし、これは多かれ少なかれAI起こっていることです。[97] 」 存在リスク懸念している学者多くは、難しい「制御問題」を解決するための(おそらく大規模な研究実施してプログラマー実装できるセーフガードアルゴリズム、またはアーキテクチャの種類質問答えることが最善方法であると考えてます。 再帰的改善するAIが、超知能達した後も破壊的ではなく友好的に動作し続け可能性最大化するには? AI実存的リスクもたらす可能性があるという説にも、多く強力な批判者がいます。 懐疑論者は、論文暗号宗教的であり、全能の神への非合理的信念を超知性置き換える可能性についての不合理な信念持っている非難することがあります極端な場合、Jaron Lanierは、現在のマシン何らかの形でインテリジェントであるという概念全体は、裕福な人々による「幻想」と「途方もない詐欺」であると主張してます。 既存批判多くは、AGI短期的にはありそうもない主張してます。 コンピューター科学者ゴードン・ベルは、人類技術的特異点達す前にすでに自分自身破壊していると主張してます。 ムーアの法則最初支持者であるゴードン・ムーアは、「私は懐疑的です。少なくとも長い間、[技術的特異点]が発生する可能性ないと思います。なぜそう感じるのかわかりません仕方。" 元Baidu副社長兼チーフサイエンティストのAndrewNgは、AI存在リスクは、「まだ地球足を踏み入れていないのに、火星の人過多を心配するようなものだ」と述べてます。 AI活用した機関は、AI推進するビジネス機能(金融AIにおける不正予測信用リスク評価など)を実行する際に統合されAI人間知識スキル能力活用する機能横断的戦略開発することで、人的資源対するこれらの潜在的な脅威克服できます。 -生産およびサプライチェーン管理における予測問題解決マーケティングにおける消費者購買行動自動予測、および戦略的意思決定可能にしました

※この「人間の絶滅可能性」の解説は、「汎用人工知能」の解説の一部です。
「人間の絶滅可能性」を含む「汎用人工知能」の記事については、「汎用人工知能」の概要を参照ください。

ウィキペディア小見出し辞書の「人間の絶滅可能性」の項目はプログラムで機械的に意味や本文を生成しているため、不適切な項目が含まれていることもあります。ご了承くださいませ。 お問い合わせ



英和和英テキスト翻訳>> Weblio翻訳
英語⇒日本語日本語⇒英語
  

辞書ショートカット

すべての辞書の索引

人間の絶滅可能性のお隣キーワード
検索ランキング

   

英語⇒日本語
日本語⇒英語
   



人間の絶滅可能性のページの著作権
Weblio 辞書 情報提供元は 参加元一覧 にて確認できます。

   
ウィキペディアウィキペディア
Text is available under GNU Free Documentation License (GFDL).
Weblio辞書に掲載されている「ウィキペディア小見出し辞書」の記事は、Wikipediaの汎用人工知能 (改訂履歴)の記事を複製、再配布したものにあたり、GNU Free Documentation Licenseというライセンスの下で提供されています。

©2025 GRAS Group, Inc.RSS