'; html_body += '
'; html_body += '' + title + ''; html_body += '' + summary + ''; html_body += '
'; dom_floating.innerHTML = html_body; /**/ dom_floating.getElementsByClassName('floating_box')[0].style.bottom = f_bottom + '.px'; /**/ var thumb_elem = dom_floating.getElementsByClassName('thumb')[0]; thumb_elem.addEventListener('click', function(){ location.href = link_url; }); var content_elem = dom_floating.getElementsByClassName('content')[0]; content_elem.addEventListener('click', function(){ location.href = link_url; }); var close_btn_elem = dom_floating.getElementsByClassName('close_btn')[0]; close_btn_elem.addEventListener('click', function(){ dom_floating.classList.add('content_hidden'); }); /**/ dom_ad_float.appendChild(dom_floating); } /** * */ window.AI.unsetF = function(){ } }());

Facebook、自社サーバとデータセンターの仕様をオープンソースプロジェクトで公開

Erica Ogg (CNET News) 翻訳校正: 編集部2011年04月08日 07時45分

UPDATE カリフォルニア州パロアルト発--業界標準のサーバが自社のニーズに合っていないことに気が付いたFacebookは、1年前から独自のサーバとそれらを配置するデータセンターの設計に着手していた。そして同社は米国時間4月7日、Facebookのように独自のサーバを構築したいと考える他の組織向けに、その仕様を「Open Compute Project」という名のオープンソースプロジェクトの一環として公開した。

業界標準サーバがFacebookのニーズになぜマッチしなかったかを語る同社最高経営責任者(CEO)Mark Zuckerberg氏 業界標準サーバがFacebookのニーズになぜマッチしなかったかを語る同社最高経営責任者(CEO)Mark Zuckerberg氏
提供:James Martin/CNET

 Facebookの最高経営責任者(CEO)を務めるMark Zuckerberg氏は、「ガレージの中にオフィスを1つ構えた小さな新興企業から、それよりは少し大きな新興企業である現在の状態へと成長した過程でわれわれが学んだのは、データセンターとサーバの設計にはいくつかの方法があるということだ」と述べた。「それらを独自に構築してODMの協力を得るか、あるいは大手サーバメーカーが提供する何らかの製品を選択することができる。大手メーカーの製品はわれわれのニーズとソーシャルアプリケーションのニーズには合っていないことがわかった」(Zuckerberg氏)

 Facebookの技術的業務を統括するJonathan Heiliger氏は、オレゴン州プラインビルにある同社データセンターで3人の従業員が1年半をかけて、自社のデータセンターとサーバがより高い効率と費用対効果を得られるようにしたと述べた。Facebookは、革新を推進し、このようなデータセンターやサーバをさらに構築するためのコストを削減することを理由に、競合企業や同業他社と仕様を共有したいと考えたと述べている。

 Open Computeには、Facebookのスタイルでデータセンターとその中に置くサーバを構築するために必要なすべての仕様、図表、および基本説明が含まれている。Facebookは、5億人ものユーザーが写真、リンク、メッセージをリアルタイムで共有するため、多くのコンピューティング能力を必要としている。

 Facebookによると、同社のサーバとデータセンターの設計をまねる価値があるものにしているのは、その電力効率と削減可能なコストだという。

 Facebookのデータセンター設計の他とは一線を画す大きな特徴は、余分な電力を消費する空調がデータセンター内に存在しないことである。代わりに冷却のための霧状の水を噴射するシステムがあり、サーバから排出される熱風は、隣接する建物の暖房に再利用される。また、データセンター全体では、480ボルトの配電センターを利用する。

 サーバ筐体は、あらゆるものが取り除かれてほとんど何も残っていない状態だ。Facebook向けに新しいサーバを設計したAmir Michael氏によると、使用材料は22%少なくなっているという。サーバには、非業界標準のサイズが採用されており、1.5Uとやや高いことから、ヒートシンクの高さを高くしてファンを大きくすることができ、また、より効率的な電源が利用されていると同氏は述べた。

 全体として、Facebookは、同社が購入していたのに比べて効率が38%高いサーバを構築し、同時にコストも24%削減したと述べている。Facebookの設計図がより広い範囲の技術コミュニティーの手に渡ることによって、これらの数値がさらに改善されることを同社は期待している。

 プレゼンテーションの後に流されたマーケティングビデオの中でHeiliger氏は、業界向けに次のようなメッセージを送った。「これを利用し、改善し、変更してほしい。われわれの哲学を参考にして、独自のビジネスに取り入れてほしい。ソフトウェアの共有は何年も前から存在するが、ハードウェア業界ではまだ基盤が確立されていない」(Heiliger氏)

Facebookが独自開発したサーバラック。同社は、Open Compute Projectとして、自社のサーバとデータセンターの設計仕様をオープンソース化した。 Facebookが独自開発したサーバラック。同社は、Open Compute Projectとして、自社のサーバとデータセンターの設計仕様をオープンソース化した。 提供:James Martin/CNET

この記事は海外CBS Interactive発の記事を朝日インタラクティブが日本向けに編集したものです。

CNET Japanの記事を毎朝メールでまとめ読み(無料)

-PR-企画広告

企画広告一覧

このサイトでは、利用状況の把握や広告配信などのために、Cookieなどを使用してアクセスデータを取得・利用しています。 これ以降ページを遷移した場合、Cookieなどの設定や使用に同意したことになります。
Cookieなどの設定や使用の詳細、オプトアウトについては詳細をご覧ください。
[ 閉じる ]