'; html_body += '
'; html_body += '' + title + ''; html_body += '' + summary + ''; html_body += '
'; dom_floating.innerHTML = html_body; /**/ dom_floating.getElementsByClassName('floating_box')[0].style.bottom = f_bottom + '.px'; /**/ var thumb_elem = dom_floating.getElementsByClassName('thumb')[0]; thumb_elem.addEventListener('click', function(){ location.href = link_url; }); var content_elem = dom_floating.getElementsByClassName('content')[0]; content_elem.addEventListener('click', function(){ location.href = link_url; }); var close_btn_elem = dom_floating.getElementsByClassName('close_btn')[0]; close_btn_elem.addEventListener('click', function(){ dom_floating.classList.add('content_hidden'); }); /**/ dom_ad_float.appendChild(dom_floating); } /** * */ window.AI.unsetF = function(){ } }());

グーグルデータセンターの内側--明らかにされた独自性

文:Stephen Shankland(CNET News.com) 翻訳校正:ラテックス・インターナショナル、編集部2008年06月09日 10時40分

 サンフランシスコ発--先日、Googleの秘密が少しだけ明らかになった。

 Googleがデータセンター業務を公開することは滅多にないが、米国時間5月28日、GoogleフェローであるJeff Dean氏が業務の一部を話題に取り上げた。28日に当地で開催された「Google I/O」カンファレンスの超満員の聴衆に対して講演を行ったDean氏は、Googleのインフラがいかに独特かを説明しながら、Googleの秘密を少しだけ明らかにした。

 Googleはごく普通のサーバを使用している。プロセッサ、ハードドライブ、メモリも同様だ。

GoogleフェローJeff Dean氏 GoogleフェローJeff Dean氏
提供:Stephen Shankland-CNET News.com

 一方、Dean氏は、1800台のサーバで構成されるクラスタは、たいしたものではないというわけではないが、ごくありふれていると考えているようだ。しかし、Googleがそのようなハードウェアを使って、700〜1000台のサーバが使われる一般的な検索クエリに0.5秒以下で応答しているとなれば、話は別だ。

 Googleは所有しているサーバの正確な台数を公表していないが、優に数十万台はあると推測される。Dean氏いわく、各ラックには40台のサーバが収納されている。そして、ある推計によれば、Googleは世界中で36のデータセンターを所有している。各データセンターに150のラックが設置されているとすれば、Googleは20万台以上のサーバを所有していることになるが、わたしは、サーバ台数は20万をはるかに上回り、かつ日々増え続けていると推測している。

 実際の数字に関係なく、従来のコンピュータ業界をほとんど相手にせずにGoogleが成し遂げてきた成果は非常に興味深い。ニューヨーク証券取引所、航空座席予約システムといった大規模データセンターでさえ、大量のメインストリームサーバとソフトウェアが使われているにもかかわらず、Googleは独自のテクノロジを確立している。

 多くのサーバ会社は不快に思うだろうが、Googleが自社のテクノロジの行く末は自身にゆだねられるべきだと考えていることは明白だ。検索製品およびユーザーエクスペリエンス担当バイスプレジデントであるMarissa Mayer氏が29日の講演で語ったところによれば、共同創業者のLarry Page氏は、Googleでは「不可能なことは適度に無視すること」を奨励しているという。

 Googleのような規模でサーバを運営するには、マシンを消耗品として扱う必要がある。サーバメーカーはハイエンドマシンが故障に強いことを誇りにしているが、Googleはフォールトトレラントソフトウェアに資金を投入する方を選んでいる。

 「信頼性の高いハードウェアを1台持つよりも、信頼性はさほど高くないハードウェアを2台持った方がいいというのが、Googleの考えだ。その場合、信頼性をソフトウェアレベルで提供する必要がある。1万台のマシンを稼働していれば、毎日、何かが故障するだろう」とDean氏は述べている。

やっかいな慣らし運転

 新しいクラスタをネットワークに接続すれば、いかにハードウェアがあてにならないかがわかると、Dean氏は言う。

 各クラスタでは1年目に、1000件の個々のマシン故障が発生するのが一般的だ。ハードドライブ故障は数千件起こる。1台の電力配分装置が故障すれば、500〜1000台のマシンが約6時間停止する。20台のラックで異常が発生し、そのたびに40〜80台のマシンがネットワークから切断される。5台のラックが「不安定」になれば、ネットワークパケットの半数が紛失する。ひとたびクラスタの配線を変更すれば、2日間にわたってマシンの5%が影響を受けるとDean氏は言う。さらに、クラスタがオーバーヒートする可能性は約50%あり、ほとんどのサーバが5分以内にダウンし、復旧に1〜2日かかる。

 Googleがサーバに使っているのは普通のハードウェアコンポーネントだが、パッケージングは従来と異なる。GoogleはIntelにカスタム回路基板の作成を要請した。Dean氏によれば、Googleは現在、従来のケースを使う代わりに、40台のサーバを収納している各ラックを自社設計のケースで囲っている。

CNET Japanの記事を毎朝メールでまとめ読み(無料)

-PR-企画広告

企画広告一覧

このサイトでは、利用状況の把握や広告配信などのために、Cookieなどを使用してアクセスデータを取得・利用しています。 これ以降ページを遷移した場合、Cookieなどの設定や使用に同意したことになります。
Cookieなどの設定や使用の詳細、オプトアウトについては詳細をご覧ください。
[ 閉じる ]