日経BPは2025年の経済・技術・消費トレンドを総力を挙げて取材・予測します。編集長や研究員らが激論を交わすオンラインイベント「日経BP徹底予測フォーラム2025」(無料・事前登録制)を11月19日、12月11、12日に実施します。イベントの詳細情報と参加お申し込みについてはこちらのサイトをご覧ください。
AI(人工知能)データセンターの莫大な消費電力の抜本的削減に、国内のデータセンター事業者が動き出した。NTTグループなどが2025年から、液体を循環させてサーバーを冷やす「液冷」方式への転換を本格化させる。米OpenAI(オープンAI)や米Apple(アップル)など海外勢が先導し、GPU(画像処理半導体)を電力効率の高いAI処理専用プロセッサーに置き換える動きも始まりそうだ。
国内で稼働ラッシュ
生成AIの普及を背景に、国内でデータセンターの建設が相次いでいる。ここ1~2年でデータセンターを新たに稼働させるのは、ソフトバンクやKDDI、香港の不動産投資会社ESR、GPUクラウドサービスのRUTILEA(ルティリア、京都市)などである。
ソフトバンクとKDDIはそれぞれシャープ堺工場(堺市)の跡地にAIデータセンターを建設する。ソフトバンクは2025年中、KDDIは26年3月までの稼働開始を目指す。ESRは受電容量が25MW(メガワット)と大きいAIデータセンターを大阪市で25年5月に稼働させる。ルティリアは同年1月に福島県大熊町での稼働を予定する。
こうした稼働ラッシュで電力需要は急速に高まる見込みだ。大きな電力を消費する半導体工場の建設ラッシュも重なる。
国の認可法人の電力広域的運営推進機関(OCCTO)の予測によると、データセンターと半導体工場の新設や増設に伴う最大電力需要は、2025年度(2026年3月期)に前期比2.6倍の1260MWに達する。2030年度(2031年3月期)には4820MWに上る見込みで、データセンターの消費電力がその大半を占める。
消費電力の増加が続けば、電力確保が難しくなったり、二酸化炭素(CO2)排出量が大きく増えたりする恐れがある。データセンターが消費するエネルギーの多くは半導体やサーバーが消費する電力、それらの正常動作に必要な冷却によるものだ。消費電力の爆発的増加に備え、冷却方式の抜本的見直しやGPUに代わる新型プロセッサーの開発が急ピッチで進み始めた。
今後2~3年で採用拡大
データセンター事業者大手のさくらインターネット取締役の前田章博氏は「2~3年以内に液冷への転換の波が来る」との見通しを示す。
現在主流の冷却方式は空冷だ。サーバーを冷やすために外部から冷気を取り込み、熱を外部に排出する。
空冷の課題は送風機(ファン)に使う電力が大きいことや、サーバーを十分に冷やせない状況が想定されることだ。空冷ではサーバーの冷却にデータセンター全体の消費電力の約2割を費やす。サーバーの高密度化で発熱量が増えれば、空冷では冷却効率が低く十分に冷却できなくなる懸念もある。
そこで、空冷と比べて冷却効率が高く消費電力を抑えられる手法として期待されるのが液冷だ。データセンター事業者やサーバーメーカーなどがこぞって液冷への対応を急ぎ始めた。