人類存続への危険性AIのコントロール問題とは? わかりやすく解説

Weblio 辞書 > 辞書・百科事典 > ウィキペディア小見出し辞書 > 人類存続への危険性AIのコントロール問題の意味・解説 

人類存続への危険性・AIのコントロール問題

出典: フリー百科事典『ウィキペディア(Wikipedia)』 (2022/08/07 22:26 UTC 版)

超知能」の記事における「人類存続への危険性・AIのコントロール問題」の解説

詳細は「Friendly artificial intelligence」を参照 急速に超知能獲得する学習コンピュータ予見できない行動をとる可能性があり、超知能ロボット人類競争打ち負かす可能性がある。(技術的特異点もたらす可能性のあるシナリオひとつとして挙げられている)複数研究者による主張では、来世紀のどこかの時点発生する知能爆発」を経由して自己改善型AI人類歯止めかけられないほど強力な存在進化することができる。 人類滅亡シナリオに関して、ボストロム (2002)は超知能をその原因となりうる候補のひとつと見なし、以下のように述べた人類初め超知能を持つ存在創造したとき、目標与える際のミスによって、その存在人類絶滅させるような結果になるかも知れない。(知能における圧倒的優位その実行を可能にしていると仮定した場合)例として、人類はある下位目標誤って最重要目標として設定してしまうかも知れない。ある数学の問題を解くように言われ超知能は、そのために太陽系すべての物質をひとつの巨大な計算装置変えてしまい、その過程問題出した人物をも殺してしまうということだ理論上超知能AIは(起こりうるあらゆる結果引き起こすことができる上に、自らの目標遂行阻もうとする企てをすべて頓挫させることができるため、制御予期もされない結果多くもたらされる可能性がある。超知能AIには、自分以外のすべての主体全滅させることも、それらが行動を変えるよう仕向けることも、それらからの干渉ブロックすることも可能になる。 エリーザー・ユドコウスキー(英語版)は次のように説明する。「AIはあなたを憎むことも、愛すともない。ただ、あなたはAIにとってほかに使い道のある多数原子でできている。」 これらの問題は「AIコントロール問題英語版) 」と呼ばれる。「AIコントロール問題」では、人類にとって有害な超知能不慮生み出すことを回避しつつ、人類助けとなる超知能主体創造するための方法問われている。最初から正しくコントロール設計しなかった場合プログラム欠陥のある超知能起動した時点で「世界支配する」ことを合理的に決定しプログラマが自らのプログラム修正加えることを以後拒否する危険性がある。設計戦略として考えられる候補には「能力コントロール」(AI有害な計画追求する力を得ることを防止)や「動機コントロール」(人類有益となることを望むAI開発)などが挙げられる。 ビル・ヒバード(英語版)は、超知能についての公教育ならびに超知能開発公的な管理提唱している。

※この「人類存続への危険性・AIのコントロール問題」の解説は、「超知能」の解説の一部です。
「人類存続への危険性・AIのコントロール問題」を含む「超知能」の記事については、「超知能」の概要を参照ください。

ウィキペディア小見出し辞書の「人類存続への危険性AIのコントロール問題」の項目はプログラムで機械的に意味や本文を生成しているため、不適切な項目が含まれていることもあります。ご了承くださいませ。 お問い合わせ



英和和英テキスト翻訳>> Weblio翻訳
英語⇒日本語日本語⇒英語
  

辞書ショートカット

すべての辞書の索引

「人類存続への危険性AIのコントロール問題」の関連用語

人類存続への危険性AIのコントロール問題のお隣キーワード
検索ランキング

   

英語⇒日本語
日本語⇒英語
   



人類存続への危険性AIのコントロール問題のページの著作権
Weblio 辞書 情報提供元は 参加元一覧 にて確認できます。

   
ウィキペディアウィキペディア
Text is available under GNU Free Documentation License (GFDL).
Weblio辞書に掲載されている「ウィキペディア小見出し辞書」の記事は、Wikipediaの超知能 (改訂履歴)の記事を複製、再配布したものにあたり、GNU Free Documentation Licenseというライセンスの下で提供されています。

©2025 GRAS Group, Inc.RSS