非友好的なAIのリスク
出典: フリー百科事典『ウィキペディア(Wikipedia)』 (2022/08/07 22:28 UTC 版)
「Friendly artificial intelligence」の記事における「非友好的なAIのリスク」の解説
人工知能に関する懸念の根源は非常に古い。Kevin LaGrandeurは、AIに固有の危険性は、ゴーレム、オーリヤックのゲルベルトのプロト用ロボット、ロジャー・ベーコンなどの人間そっくりの人工召使に関する古代文学に見ることができることを示した。そういった物語においては、人間そっくりの創造物の極端な知性とパワーは(自然に人間に従属すると見られている)奴隷としてのステータスと衝突し、悲惨な紛争を引き起こす。 これらのテーマに関しては、1942年にアイザック・アシモフが彼の小説の中の全てのロボットに組み込まれている原則である「ロボット工学三原則」を考案するに至った。これは、ロボットが創造者を刺激する、もしくは創造者が危害を受けることを許すことができなかったことを意味する。 ものすごく知的なAIの見通しが近い現代では、哲学者ニック・ボストロムが、人類の安全を確保するために極端な措置が取られない限り、人間の倫理と整合していない目標を持つものすごく知的なAIシステムは本質的に危険である、と述べている。彼は、次のように言った。 基本的に、「ものすごい知性」は、それが持つどのような目標であれ達成が可能であると想定すべきである。したがって、我々が与える目標及び全体のモチベーションシステムが「人間に友好的」であることが非常に重要である。 機械学習の先駆者であるリシャルト・ミカルスキーは、機械の心を含めたあらゆる本当に異質の心は不可知でありしたがって人間にとって危険であると数十年前に博士課程の学生に教えた。[要出典] 最近では、エリエゼル・ユドカウスキーは、高度な人工知能に存在するリスクを軽減するために「友好的なAI」の創造を呼びかけている。彼は、「AIはあなたを嫌いではありません。また、あなたを愛していますが、あなたの体はAIが何か他のもののために使用することができる原子によってできています。」と説明する。 Steve Omohundroは、十分に高度なAIシステムは、目標駆動システムの本質的な性質のため、明示的に相殺されない限り、資源獲得などの多くの基本的な「動因」を示し、「特別な予防措置がない」限り望ましくない挙動を示すと述べる。 アレックス・ウィスナー=グロスは、将来のアクションの自由(または因果パスエントロピー)を最大化するように駆動するAIは、その計画期間が一定の閾値よりも長い場合に友好的と考えられ、その計画期間が閾値よりも短い場合に非友好的と考えられるかもしれないと述べる。 Luke Muehlhauserは、機械知能研究所のために執筆した際に、機械倫理研究者がブルース・シュナイアーが「セキュリティの考え方」と呼んだものを採用することを勧めた。システムがどのように機能するかを考えるよりも、どのように失敗するかを考える、という考え方である。たとえば、正確な予測を行い、テキストインタフェースを介して通信するだけのAIも、意図しない害を引き起こす可能性があると示唆する。
※この「非友好的なAIのリスク」の解説は、「Friendly artificial intelligence」の解説の一部です。
「非友好的なAIのリスク」を含む「Friendly artificial intelligence」の記事については、「Friendly artificial intelligence」の概要を参照ください。
- 非友好的なAIのリスクのページへのリンク