'; html_body += '
'; html_body += '' + title + ''; html_body += '' + summary + ''; html_body += '
'; dom_floating.innerHTML = html_body; /**/ dom_floating.getElementsByClassName('floating_box')[0].style.bottom = f_bottom + '.px'; /**/ var thumb_elem = dom_floating.getElementsByClassName('thumb')[0]; thumb_elem.addEventListener('click', function(){ location.href = link_url; }); var content_elem = dom_floating.getElementsByClassName('content')[0]; content_elem.addEventListener('click', function(){ location.href = link_url; }); var close_btn_elem = dom_floating.getElementsByClassName('close_btn')[0]; close_btn_elem.addEventListener('click', function(){ dom_floating.classList.add('content_hidden'); }); /**/ dom_ad_float.appendChild(dom_floating); } /** * */ window.AI.unsetF = function(){ } }());

自己対局で成長する囲碁AI「AlphaGo Zero」が登場--実力すでに世界最強


提供:DeepMind

 Google傘下のDeepMindは米国時間10月18日、囲碁AI「AlphaGo」をさらに進化させた「AlphaGo Zero」を発表した。新たな学習方法により短時間で進化し、わずか3日間の学習で100対0という圧倒的な差で従来のAlphaGoを破るに至ったという。

 AlphaGoは2016年、トップ棋士の1人である李世ドル氏に勝利したことで話題となり、2017年5月には「世界最強」とされる中国の囲碁棋士、柯潔氏に3連勝した後、囲碁対局から引退していた。AlphaGoはその後も進化しており、さらに強力となった「Master」バージョンが存在しているが、AlphaGo Zeroは40日後にこのバージョンも追い抜いたという。

提供:DeepMind

 DeepMindによると、従来のAlphaGoは、まずアマチュアやプロの棋士による何千もの対局を基に訓練され、囲碁の打ち方を学習する。AlphaGo Zeroはこの手順を飛ばして、自分自身との対局のみで学習するという。最初の段階では完全に行き当たりばったりの対局となるが、この学習方法により、短時間で人間の棋士やAlphaGoを凌駕することが可能になった。

 自らが自らの教師になるという斬新な強化学習方法により、これを実現できたとDeepMindは述べている。同社によると、このシステムは、囲碁について何も知らないニューラルネットワークから始まり、その後、強力な検索アルゴリズムと組み合わせることで、自分自身と対局する。対局を通して調整やアップデートを重ね、相手の打つ手、さらに対局の最終的な勝者も予測できるようになるという。

 人間の知識の限界によって抑制されないという点で、この手法はAlphaGoの手法より強力だとDeepMindは述べている。

CNET Japanの記事を毎朝メールでまとめ読み(無料)

-PR-企画広告

企画広告一覧

このサイトでは、利用状況の把握や広告配信などのために、Cookieなどを使用してアクセスデータを取得・利用しています。 これ以降ページを遷移した場合、Cookieなどの設定や使用に同意したことになります。
Cookieなどの設定や使用の詳細、オプトアウトについては詳細をご覧ください。
[ 閉じる ]