KADOKAWA Technology Review
×
ビル・ゲイツがAIをあまり恐れていない理由
Getty Images
Bill Gates isn't too scared about AI

ビル・ゲイツがAIをあまり恐れていない理由

近年急速な進歩を遂げたAIが人類に大きな害をもたらすと主張する声が高まっているが、ビル・ゲイツはあまり心配していないようだ。 by Will Douglas Heaven2023.08.03

ビル・ゲイツが、人工知能(AI)をめぐるリスクの問題について発言してきたテック業界の大物たちの大合唱に加わった。話が長くて読んでられない? では、要約しよう。ゲイツはあまり心配していない。以前にも同じようなことがあったからだ。

破滅論的な発言が何週間も続いた後だけに、楽観論は新鮮に映る。だが、そこに斬新な考え方はほとんどない。

巨万の富を持つビジネス界の大物であり、慈善家でもあるゲイツは7月11日、個人ブログ「ゲイツノーツ(GatesNotes)」への投稿で、順序立てて自分の意見を述べた。「私は、最も頻繁に耳にし、記事などで読むことが多い懸念について認識しており、そのような懸念について私がどう考えているのか説明したい」と、ゲイツは書いている。

ゲイツによれば、AIは「私たちが生きている間に目にすることになる、最も大きな変革と言えるテクノロジー」である。つまりゲイツはAIを、インターネットやスマートフォン、そしてゲイツ自身が世界中に普及させるために尽力したテクノロジーであるパーソナル・コンピューターを凌ぐ存在と考えている(また、今後数十年の間、AIに匹敵する発明は他に出てこないだろうとも示唆している)。

ゲイツは、数週間前にサンフランシスコを拠点とするAI安全センター(Center for AI Safety:CAIS)が公開した声明に署名した著名人数十人の1人である。声明には、次のように書かれている。「AIによる滅亡リスクの軽減は、パンデミックや核戦争などの他の社会規模のリスクについてと同じように世界的な優先事項であるべきです」。

しかし、ゲイツが投稿したブログ記事に、恐怖を煽るような記述はなく、実存的リスク(人類の存亡に関わるリスク)には見向きもしていない。その代わりに、ゲイツはこの議論を「長期的な」リスクと「差し迫った」リスクを対抗させるものとしてとらえ、「すでに存在する、あるいは間もなく生じるリスク」に焦点を当てることを選択している。

「ゲイツはかなり長い間、同じことを言い続けてきました」。英国アラン・チューリング研究所(Alan Turing Institute)のデイヴィッド・レスリー博士は言う。ゲイツは10年前、最初に深層学習が普及し始めた頃に、AIの実存的リスクについて公に語った人のうちの1人だった。「彼はかつて、超知能のことをもっと心配していました。その懸念は、少し薄まったように見えます」。

ゲイツは、実存的リスクを完全に否定しているわけではない。ゲイツは、「あらゆる題材や作業を学習できるAIが(仮定ではなく実際に)開発されたとき」、何が起こるのだろうかと思いを巡らす。いわゆる、汎用人工知能(AGI:Artificial General Intelligence)と呼ばれるAIのことだ。

ゲイツはこのように書いている。「その時を迎えるのが10年後であろうと100年後であろうと、社会は深遠な問題と向き合う必要があります。もしスーパーAIが独自の目標を設定したらどうなるのか? それが人類の目標と対立するものだったら? そもそも、私たちはスーパーAIを作るべきなのか? しかし、このような長期的なリスクについて考えることで、より差し迫ったリスクをないがしろにしてはなりません」。

ゲイツは、深層学習のパイオニアであるジェフリー・ヒントン(5月にグーグルを辞めて、AIに関する不安を公表している)や、メタAIのヤン・ルカンやジョエル・ピノー、そしてシグナル財団(Signal Foundation)のメレディス・ウィテカーなど、それぞれ異なる考えを持つ人々の間の、中間的な立場をとってきた(ルカンとピノーは実存的リスクを「非常に馬鹿げていて」「常軌を逸した」話であると思っており、ウィテカーはヒントンたちが抱く恐怖心を「怪談」のようなものであると考えている)。

今、ゲイツが議論に加わることでどのような形で貢献できるのかを問うことは興味深いと、レスリー博士は言う。「誰もがこのリスクの話をしており、飽和状態のようになっています」

ゲイツと同様、レスリー博士も人類破滅のシナリオを完全に否定することはない。「悪意のある者たちがAIを利用して、壊滅的な被害をもたらす可能性はあります」と、レスリー博士は言う。「その可能性を理解するために、超知能や黙示録的ロボット、汎用人工知能に関する憶測を信じる必要はありません」。

「しかし、差し迫った懸念は、生成AIの急速な商業化に起因する、今そこにあるリスクへの対処であるべきだということについては、同意します」と、レスリー博士は言う。「レンズをズームインして、『さて、差し迫った懸念は何だろう?』と確認することは有益です」。

ゲイツはブログ投稿の中で、AIはすでに、選挙や教育雇用など、多くの社会基盤において脅威になっていると指摘する。もちろん、そのような懸念は特別新しいものではない。ゲイツが伝えたいのは、そのような脅威は重大ではあるが、私たちはこのような脅威に対処できるということだ。「リスクを管理できると確信する最大の根拠は、私たちが過去にそうしてきたという事実です」。

1970年代から80年代にかけて、電卓が学生が数学を学ぶやり方を変え、基本的な計算方法そのものではなく、ゲイツが「計算方法の背後にある思考力」と呼ぶものに集中できるようにした。ゲイツは今、チャットGPT(ChatGPT)のようなサービスがほかの教科で同じ役割を果たしていると考えている。

1980年代から90年代にかけては、ワープロとスプレッドシートのアプリケーションが事務仕事を変えた。その変化を推進したのが、ゲイツ自身の会社、マイクロソフトである。

ゲイツは再度、人々がどのように適応したか振り返り、私たちはまた適応できると主張する。「ワープロ・ソフトは事務仕事をなくしたわけではありませんが、永遠に変えてしまいました」と、ゲイツは書いている。「AIが引き起こす変化は、人々にスムーズに受け入れられるというわけにはいかないでしょうが、人々の人生や暮らしで起こり得る混乱を減らせると考える十分な根拠があります」。

誤情報に関しても同様だ。私たちはスパムに対処する方法を学んだ。だから、ディープフェイクに対しても同じことができる。「最終的にほとんどの人が、そのようなメールを慎重に扱うことを学びました」とゲイツは言う。「詐欺がより巧妙になるにつれて、標的となる人々の多くも知恵を身に付けました。私たちはディープフェイクに対しても、同じような力を付ける必要があるでしょう」。

ゲイツは、自身が考えるすべての有害なことに対処するため、迅速かつ慎重に行動するよう促している。問題は、ゲイツが新しいことを何一つ提案していないことだ。ゲイツの提案の多くはありきたりで、安直なものもある。

ここ数週間に声を上げたほかのAI関係者たちと同様に、ゲイツも、AIを規制するために国際原子力機関(IAEA:International Atomic Energy Agency)のような世界的な機関を設立することを呼びかけている。ゲイツは、それがAIサイバー兵器を開発しようとする動きを管理する良い方法だと考えている。しかし、そのような規制で何を抑制するべきか、あるいはどのようにして規制に強制力を持たせるのかということついては触れていない。

政府や企業は、人々が雇用市場で取り残されないように、再訓練プログラムなどの支援を提供する必要があると、ゲイツは言う。教師もまた、チャットGPTのようなサービスが当たり前になる世界に対応できるように支援を受けるべきだという。しかしゲイツは、具体的な支援の内容については明言していない。

そしてゲイツは、私たちはディープフェイクを自分自身で見抜く力をもっと高める必要がある、あるいは、少なくともディープフェイクを検出するツールを使う必要があると言う。しかし、最新のツール群は、AIが生成した画像やテキストを、十分に有用と言えるほど上手く検出することはできない。生成AIの進歩に、検出ツールは付いていけるのだろうか?

ゲイツの言うとおり、「健全な公の議論をするには、全員がテクノロジーとそのメリット、そしてリスクについて、熟知している必要がある」。しかし、ゲイツはしばしば、AIの問題はAIが解決するという信念に頼ってしまう。誰もが同意できる信念ではない。

差し迫ったリスクは優先されるべき——。そのとおりだろう。そう、私たちはこれまでもテクノロジーの激変を乗り越えてきた(あるいは無理やり押し切ってきた)。そして、また克服できるかもしれない。しかし、どうやって?

「AIのリスクについてこれまでに書かれてきたすべて、そしてこれまでに書かれてきたその他多くのことから明らかなのは、すべての答えを持っている者は誰もいないということです」と、ゲイツは書いている。

それは今も変わらない。

人気の記事ランキング
  1. Why it’s so hard for China’s chip industry to become self-sufficient 中国テック事情:チップ国産化推進で、打倒「味の素」の動き
  2. How thermal batteries are heating up energy storage レンガにエネルギーを蓄える「熱電池」に熱視線が注がれる理由
  3. Three reasons robots are about to become more way useful  生成AI革命の次は「ロボット革命」 夢が近づく3つの理由
  4. Researchers taught robots to run. Now they’re teaching them to walk 走るから歩くへ、強化学習AIで地道に進化する人型ロボット
ウィル・ダグラス・ヘブン [Will Douglas Heaven]米国版 AI担当上級編集者
AI担当上級編集者として、新研究や新トレンド、その背後にいる人々を取材しています。前職では、テクノロジーと政治に関するBBCのWebサイト「フューチャー・ナウ(Future Now)」の創刊編集長、ニュー・サイエンティスト(New Scientist)誌のテクノロジー統括編集長を務めていました。インペリアル・カレッジ・ロンドンでコンピュータサイエンスの博士号を取得しており、ロボット制御についての知識があります。
10 Breakthrough Technologies 2024

MITテクノロジーレビューは毎年、世界に真のインパクトを与える有望なテクノロジーを探している。本誌がいま最も重要だと考える進歩を紹介しよう。

記事一覧を見る
人気の記事ランキング
  1. Why it’s so hard for China’s chip industry to become self-sufficient 中国テック事情:チップ国産化推進で、打倒「味の素」の動き
  2. How thermal batteries are heating up energy storage レンガにエネルギーを蓄える「熱電池」に熱視線が注がれる理由
  3. Three reasons robots are about to become more way useful  生成AI革命の次は「ロボット革命」 夢が近づく3つの理由
  4. Researchers taught robots to run. Now they’re teaching them to walk 走るから歩くへ、強化学習AIで地道に進化する人型ロボット
気候テック企業15 2023

MITテクノロジーレビューの「気候テック企業15」は、温室効果ガスの排出量を大幅に削減する、あるいは地球温暖化の脅威に対処できる可能性が高い有望な「気候テック企業」の年次リストである。

記事一覧を見る
フォローしてください重要なテクノロジーとイノベーションのニュースをSNSやメールで受け取る