AlphaGo Zero
(アルファ碁ゼロ から転送)
出典: フリー百科事典『ウィキペディア(Wikipedia)』 (2025/08/14 09:56 UTC 版)
人工知能 |
---|
![]() |
AlphaGo Zero(アルファ・ゴ・ゼロ)は、DeepMindの囲碁ソフトウェアAlphaGoのバージョンである。AlphaGoのチームは2017年10月19日に学術誌Natureの論文でAlphaGo Zeroを発表した。このバージョンは人間の対局からのデータを使わずに作られており、それ以前の全てのバージョンよりも強い[1]。自分自身との対局を行うことで、AlphaGo Zeroは3日でAlphaGo Leeの強さを超え(100勝0敗)、21日でAlphaGo Masterのレベルに達し、40日で全ての旧バージョンを超えた[2]。
人間の熟練者から得られたデータは「しばしば高価で、信頼性が低く、あるいは単に利用ができない[3]」ため、こういったデータセットなしでの人工知能(AI)の訓練は超人的な能力を持つAIの開発にとって重要な影響をもたらす。DeepMindの共同創立者でCEOのデミス・ハサビスは、AlphaGo Zeroはもはや「人間の知識の限界によって制約されなかった」ため非常に強力だ、と述べた[4]。AlphaGoに関してNatureで発表されたDeepMindの論文の筆頭著者の一人であるデビッド・シルバーは、人間からの学習の必要性を取り除くことによって、汎用AIアルゴリズムを得ることが可能である、と述べた[5]。
2017年12月、AlphaZeroと名付けられたAlphaGo Zeroの汎用バージョンが、AlphaGo Zero、トップチェスプログラム(Stockfish)、トップ将棋プログラム(elmo)を破った[6]。
訓練
AlphaGo Zeroのニューラルネットワークは、64個のGPUワーカーと19個のCPUパラメータサーバーを使ったTensorFlowを用いて訓練された。推論にはわずか4個のTPUが使われた。ニューラルネットワークは初めにルール以外は囲碁に関して何も教えられていなかった。ZeroはAlphaGoのそれ以前のバージョンと異なり、異常な盤上の石の位置を認識するために人間がプログラムした希なエッジケースを持たずに、盤上の石のみを知覚する。このAIは「教師なし学習」に取り組み、自分自身の手とそれらの手が試合の結果にどのように影響するかを予測できるまで自身との対戦を行なった[7]。最初の3日で、AlphaGo Zeroは自分自身と間断なく490万回対局した[8]。以前のAlphaGoが人間のトッププロを破るのに必要なスキルを身に付けるためには数カ月の訓練を要したが、AlphaGo Zeroはわずか数日で同じレベルに達した[9]。
比較のため、著者らは人間の棋譜を用いたAlphaGo Zeroの訓練も行い、学習はより迅速であるが、実際には長期的にはより劣った成績となることを明らかにした[10]。DeepMindは2017年4月にNatureに論文を投稿し、2017年10月に発表された[1]。
応用
ハサビスによれば、AlphaGoのアルゴリズムは、タンパク質の折り畳みや化学反応の正確なシミュレーションといった膨大な可能性空間全体にわたる知的探索を必要とする分野に対して最も有効そうである[11]。AlphaGoの技術は、自動車の運転の仕方の学習といったシミュレーションが困難な分野ではおそらく有用性が低い[12]。
受容
AlphaGo Zeroは、画期的な進歩を成し遂げた前バージョンのAlphaGoと比較した時でさえも、重大な進歩であると広く考えられた。アレン人工知能研究所のオーレン・エチオーニはAlphaGo Zeroを「獲得した能力と、4個のTPU上で40日でシステムを訓練する能力の両方」における「非常に見事な技術的成果」と評した[7]。ガーディアン誌は、シェフィールド大学のEleni Vasilakiとカーネギーメロン大学のTom Mitchellを引用して、AlphaGoを「人工知能に関する大躍進」と評した。AlphaGo Zeroについて、Vasilaskiは見事な離れ業、Mitchellは「傑出した工学的偉業」とそれぞれ評した[12]。シドニー大学のマーク・ペシーはAlphaGo Zeroについて、我々を「未知の領域」へと連れていく「大きな技術的進歩」と評した[13]。
ニューヨーク大学の心理学者ゲイリー・マーカスは、恐らくAlphaGoは「囲碁のような問題をプレーする機械をどのように構築するかに関してプログラマーが持っている暗黙の知識」を含み、その基礎アーキテクチャが囲碁を打つ以上のことに対して有効であると考える前に、他の分野において検証される必要がある、と戒めた。対照的に、DeepMindは「このアプローチが数多くの分野に汎化が可能であることを確信」している[8]。
DeepMindの論文に応えて、韓国の囲碁棋士李世乭は「AlphaGoの以前のバージョンは完璧ではなかった、それがAlphaGo Zeroが作られた理由だと考えます」と述べた。AlphaGoの発展の潜在性に関して李は、静観しなければならないだろうと述べたが、若い囲碁棋士にはインパクトがあるだろうとも述べた。囲碁の韓国代表チームを指揮する睦鎮碩は、囲碁の世界は既に以前のバージョンのAlphaGoの戦い方を模倣し、それらから新しいアイデアを生み出しており、新たなアイデアがAlphaGoZeroから出てくることに期待を寄せている、と述べた。睦は、囲碁界における一般的傾向は現在AlphaGoの戦い方に現在進行形で影響されているとも付け加えた。「最初は、理解するのが大変で、ほとんど異星人と対局してるように感じました。しかし、多くの経験を積むにつれ、慣れました」と睦は述べた。「私達は現在AlphaGoと人間の能力間の実力差について討論するところは過ぎてしまっています。今はコンピュータ間の差が問題になっています」。報道によれば睦は既に代表チームの選手らと共にAlphaGo Zeroの戦い方の分析を始めている。「わずか数局しか見ていませんが、AlphaGo Zeroは以前のバージョンよりも人間のように打つという印象を私達は受けています」と睦は述べた[14]。中国のプロ棋士柯潔は微博のアカウントで、「純粋な自己学習型AlphaGoは最強だ、人間はAlphaGoの自己改善の前では不必要なようだ」とコメントした[15]。
以前のバージョンとの比較
バージョン | ハードウェア | イロレーティング | 試合 |
---|---|---|---|
AlphaGo Fan | 176 GPUs,[2] 分散 | 3,144[1] | 5:0 対 樊麾 |
AlphaGo Lee | 48 TPUs,[2] 分散 | 3,739[1] | 4:1 対 李世乭 |
AlphaGo Master | 4 TPUs[2] v2, シングルマシン | 4,858[1] | 60:0 対プロ棋士 3:0 対 柯潔 |
AlphaGo Zero | 4 TPUs[2] v2, シングルマシン | 5,185[1] | 100:0 対 AlphaGo Lee 89:11 対 AlphaGo Master |
AlphaZero
2017年12月、DeepMindチームは汎化されたAlphaGo Zeroのアプローチを用いたプログラムであるAlphaZeroの論文をarXiv上で発表した。AlphaZeroは24時間以内にチェス、将棋、囲碁の世界チャンピオンプログラムであるStockfish、elmo、3日間学習させたAlphaGo Zeroを破る超人的レベルに達した[6]。
脚注
- ^ a b c d e f “Mastering the game of Go without human knowledge”. Nature (2017年10月19日). 2017年10月19日閲覧。
- ^ a b c d e “AlphaGo Zero: Learning from scratch”. DeepMind official website (2017年10月18日). 2017年10月19日閲覧。
- ^ “Google's New AlphaGo Breakthrough Could Take Algorithms Where No Humans Have Gone”. Yahoo! Finance (2017年10月19日). 2017年10月19日閲覧。
- ^ “AlphaGo Zero: Google DeepMind supercomputer learns 3,000 years of human knowledge in 40 days”. Telegraph.co.uk (2017年10月18日). 2017年10月19日閲覧。
- ^ “DeepMind AlphaGo Zero learns on its own without meatbag intervention”. ZDNet (2017年10月19日). 2017年10月20日閲覧。
- ^ a b David Silver; Thomas Hubert; Julian Schrittwieser; Ioannis Antonoglou; Matthew Lai; Arthur Guez; Marc Lanctot; Laurent Sifre; Dharshan Kumaran; Thore Graepel; Timothy Lillicrap; Karen Simonyan; Demis Hassabis (5 December 2017). “Mastering Chess and Shogi by Self-Play with a General Reinforcement Learning Algorithm”. arXiv:1712.01815 [cs.AI].
- ^ a b Greenemeier, Larry. “AI versus AI: Self-Taught AlphaGo Zero Vanquishes Its Predecessor” (英語). Scientific American 2017年10月20日閲覧。
- ^ a b “Computer Learns To Play Go At Superhuman Levels 'Without Human Knowledge'” (英語). NPR. (2017年10月18日) 2017年10月20日閲覧。
- ^ “Google's New AlphaGo Breakthrough Could Take Algorithms Where No Humans Have Gone” (英語). Fortune. (2017年10月19日) 2017年10月20日閲覧。
- ^ “This computer program can beat humans at Go—with no human instruction” (英語). Science | AAAS. (2017年10月18日) 2017年10月20日閲覧。
- ^ “The latest AI can work things out without being taught” (英語). The Economist 2017年10月20日閲覧。
- ^ a b Sample, Ian (2017年10月18日). “'It's able to create knowledge itself': Google unveils AI that learns on its own”. The Guardian 2017年10月20日閲覧。
- ^ “How Google's new AI can teach itself to beat you at the most complex games” (英語). Australian Broadcasting Corporation. (2017年10月19日) 2017年10月20日閲覧。
- ^ “Go Players Excited About ‘More Humanlike’ AlphaGo Zero” (英語). Korea Bizwire. (2017年10月19日) 2017年10月21日閲覧。
- ^ “New version of AlphaGo can master Weiqi without human help” (英語). China News Service. (2017年10月19日) 2017年10月21日閲覧。
- ^ “【柯洁战败解密】AlphaGo Master最新架构和算法,谷歌云与TPU拆解” (Chinese). Sohu (2017年5月24日). 2017年6月1日閲覧。
外部リンク
アルファ碁ゼロ
出典: フリー百科事典『ウィキペディア(Wikipedia)』 (2022/02/16 15:13 UTC 版)
詳細は「AlphaGo Zero」を参照 DeepMind社は「人間の棋譜を一切使わず、ルールだけを教えられた状態」からコンピュータ囲碁を強くする研究として「アルファ碁ゼロ(AlphaGo Zero)」を開発し、2017年10月19日発売の「ネイチャー」誌にその研究論文が掲載された。アルファ碁ゼロは完全な初心者の状態から自己対局を続けて学習を重ね、3日目でイ・セドルに勝利したバージョンに追いつき、21日目にはトッププロに60連勝し柯潔にも勝ったMasterの強さに追いついた。学習40日目では、対イ・セドル戦バージョンに100戦して全勝、対Masterでは100戦して89勝11敗の成績を上げるレベルに到達した。一切人間の棋譜を使っていないにもかかわらず、学習の過程では人間の序盤定石と同じ手順も発見し、そこからさらに全く未知の定石を操るようになった。
※この「アルファ碁ゼロ」の解説は、「コンピュータ囲碁」の解説の一部です。
「アルファ碁ゼロ」を含む「コンピュータ囲碁」の記事については、「コンピュータ囲碁」の概要を参照ください。
- アルファ碁ゼロのページへのリンク