ここ最近、「生成AI(人工知能)を軸にした“AIデータセンター”が急増し、それに伴って、日本や世界の消費電力量も爆発的に増える」といった内容の報道をしばしば目にする。これに対して、記者がこれまで半導体やAI技術、さらにはスーパーコンピューターを見てきた経験から強い違和感をいくつも感じている。
違和感の1つは、こうした報道の既視感だ。IT(情報通信技術)関連では、近い将来に消費電力が増えすぎて困ったことになる、という警告が過去に何度も出されてきた。例えば、2001年に米Intel(インテル)の当時の最高技術責任者(CTO)だったPat Gelsinger(パット・ゲルシンガー)氏は「Pentiumは既にホットプレート並みに熱い。このまま設計を大きく変えなければ、今後のマイクロプロセッサーの熱密度は、2005年ころに原子炉並み、2015年ごろには太陽表面並みに達してしまう」と警告した。ちなみに、原子炉の表面はセ氏数百度、太陽表面は同6000度である。
また、データセンターについても2010年ごろから「このままだと、データセンターでの消費電力が近い将来、日本の現在の消費電力と並び、超えてしまう」といった警告が、例えばNTTなどから何度も出された。
米IBMも2011年に、「(現時点で最大のスーパーコンピューターのさらに約1000倍となる)ゼッタスケール(100万P(ペタ)FLOPS(フロップス、浮動小数点演算回数/秒)のスーパーコンピューターやデータセンターは体積がエベレスト山並みになり、消費電力は世界全体の20TW(テラワット)を超える」と警告した。
もっとも、現時点ではこれらの警告は現実にならずに済んでいる。これらの警告が嘘や間違いだったというのではなく、警告を受けて技術的な回避策が立てられたからだ。それには各種の省エネルギー技術も含まれる。データセンターについては、ずっと対策が立てられ続けており、最近NTTが「IOWN」と呼ぶ、光電融合技術に基づく新しい通信・データ処理基盤を提唱しているのも、この流れである。
マイクロプロセッサーに関しては、いわゆるムーアの法則、正確にはその理論的な礎であるデナードのスケーリング則†が成り立つ限り、微細化を進めて演算性能を高めても単位面積当たりの消費電力は増えないはずだった。
ところが、このデナールのスケーリング法則は2000年前後に、いわゆるリーク電流†や放熱問題、クロック分配の問題などによって動作周波数や消費電力の面ではほぼ破綻した。結果として、熱密度が大幅に高まったり、動作周波数をそれまでのように高めていくことが難しくなったりした。それが2001年のゲルシンガー氏の警告につながった。
採られた回避策は、駆動周波数の大幅向上を諦めたり、コアを小さくする代わりに複数コアを用いたいわゆる並列処理化と、トランジスタの構造をそれまでの平面的な設計から「FinFET」といった3次元的な設計に変更したりしたことなどだ。この流れはやはり今も続いている。
警告の“中身”に全然驚けない
ここまで読んで、記者が過去の経験を振りかざして、過去の警告がなんとかなったように今度もなんとかなる、と根拠なく高をくくっているように感じるかもしれない。もちろん、警告内容が深刻であれば、やはり真剣に受け止めて、例えば発電源の増設などの対策を全力でする必要が出てくる。
ただ、記者の違和感は、単なる既視感だけではない。より根本的な違和感は、「今回予測されている消費電力量の増加がそもそも大きくない」という点だ。つまり、警告が警告になっていないのである。
いくつかの“警告”を出している研究機関や調査機関のリポートを見てみると、その多くが経済成長率や人口動態などのいろいろな仮定を組み合わせた“シナリオ”を考え、消費電力量が大きく増加する「高(high)」のケース、中程度の「中(mid)」のケース、そしてほぼ横ばいか、あるいはわずかに減少する「低(low)」のケースを想定した見積もりをしている(図1)。
ここで、「あ、減少するという予測もあるのか」と驚く読者もいるかもしれないが、ここで検証したいのは、むしろ消費電力が大きく増加するというシナリオだ。具体的には、電力中央研究所(電中研)が発表した報告では、2050年に日本の年間消費電力量は最大で約1270TWhになると試算した。これは、2021年の924TWhに比べて約345TWhの増、率にすると37%増である。
2050年に37%増は年平均増加率で1.0%増
同リポートを報道した多くのメディアは、これをもって「AIデータセンター、電力を爆食」といったような大見出しの記事を書いた。そして、AIデータセンターの普及を妨げないためには、原子力発電を含む発電源の大幅増設が必要だ、と結論付けた。
ところが、電中研の見積もりの内訳を見ると、データセンターによる増加分は200TWh弱、2021年比では約20%増にすぎない(図2)。水素の生産や「DAC」と呼ばれる大気中の二酸化炭素(CO2)の固定にも100TWhを使うなどの“げた”を履かせてもらって、ようやく37%増になるのである。
20%増でもインパクトは小さくないと考える読者がいるかもしれないが、いきなりこれだけ増えるわけではなく、29年後の数字である。年平均増加率(CAGR)では0.6%増となる。同様に、37%増はCAGRでは1.0%増。この数字を見て「うわ、多い」と驚く読者がいるだろうか。
ITやエレクトロニクス、そして新エネルギー関連の分野では、CAGRで20~30%といった伸び率の製品群や業界を日常茶判事のように目にする。そうした中では、CAGRが1%かそれ以下といった数字はむしろ「値が小さすぎるのではないか?」といぶかしく思うはずだ。しかもそれが、消費電力が最大に増加するシナリオでの値である。
もしCAGRが最大でも1%かそれ以下であれば、データセンター以外の経済成長率や省エネルギー技術、その他の様々な消費電力量の変動要因の中では、予測誤差の範囲でしかない。
記事の見出しでは、いかにも莫大な消費電力量の増加があるように示しながら、実際には最大ケースでも誤差の範囲にとどまる。これが、記者が感じた根本的な違和感の1つである。
公平を期すために書いておくと、たとえ2050年時点とはいえ、水素なども加えて約345TWh分の発電量を純増させるとなると太陽光発電だけでは約288GW分、原発の増設だけで賄おうとすると設備稼働率が70%と仮定して約57GW(57基)分を新たに稼働させる必要がある。これも一朝一夕にはできないことなので、たとえ確度が誤差並みでも、可能性がある限りは今から対処を考えなければならない、という主張は一理ある。