Narayan Maharjan/NurPhoto via Getty Images
- 人工知能(AI)の環境への影響はまだあまりよく知られていないが、その実態を伝えるレポートが出てきた。
- GPT-3は計算過程で熱くなるのを防ぐために水を必要とする。
- 20~50の質問をされるたびに、ChatGPTのサーバーは500ミリリットル入りのペットボトル1本分の水を「飲む」必要があるという。
ChatGPTといった生成AIツールの人気が高まる中、この新たな技術が環境に与える影響も明らかになってきた。
AIと持続可能性についてはまだほとんどデータがないものの、カリフォルニア大学リバーサイド校とテキサス大学アーリントン校の研究者らはOpenAIのGPT-3やGPT-4といったAIモデルのウォーター・フットポイントに関する研究をまとめた。
マイクロソフトはデータセンターでGPT-3を訓練するのに70万リットルの真水を使用したと見られている。Gizmodoによると、これは原子炉の冷却塔を満たすほどの量だ。そして今回の研究によると、これはBMWの自動車370台またはテスラの自動車320台を作るのに使われるのと同じ量だという。
これらの数字から、ChatGPTは20~50の質問をされるたびに500ミリリットル入りのペットボトル1本分の水を必要とすることが分かった。
「500ミリリットル入りのペットボトル1本というと大した量ではないように思えるかもしれないが、全てを合算したウォーター・フットプリントとしては極めて膨大だ」とレポートの筆者らは書いている。
マイクロソフトは「AIのエネルギー使用量と炭素影響を計測する研究に投資しつつ、訓練と応用の両方で大規模システムのさらなる効率化に取り組んでいる」と同社の広報担当はInsiderにコメントした。
その上で「2030年までにカーボンネガティブ(大気中に放出される二酸化炭素の量よりも大気から吸収する二酸化炭素の量の方が多い状態)、ウォーターポジティブ(事業で使用した量以上の水を地域に還元する)、廃棄物ゼロというわたしたちの持続可能性の目標を達成するために、再生可能エネルギーの購入といった投資も継続している」と付け加えた。
InsiderはOpenAIにコメントを求めたが、回答は得られなかった。
GPT-3やGPT-4といったAIモデルは、データセンター(大量のサーバーを保管する実在の倉庫)にある。こうしたサーバーは膨大なデータセットのパターンやつながりを特定する一方で、電気、石炭、原子力、天然ガスなどのエネルギーを利用する。
訓練の過程ではかなりのエネルギーが使用され、そのエネルギーは熱に変換される。そこでインフラ全体の温度を保つために、水が使われる。レポートによると、適切な湿度管理のためには真水が必要だという —— 塩水は「腐食、水道管の詰まり、細菌の増殖」につながるからだ。
「新たにリリースされたGPT-4はモデルサイズが大幅に大きくなっていて、(今後こうした数字は)何倍にも増える」可能性があると研究者らは指摘している。
研究チームではエネルギー使用量に加え、オンサイトとオフサイトの水使用効率性(WUE)を計算する独自の手法を用いて、グーグルの大規模言語モデル「LaMDA」のウォーター・フットプリントの推定値を算出した。
ただ、AIの訓練にかかる水の消費量をめぐる透明性の欠如が実際のフットプリントの特定を困難にしている。LaMDAの水の使用量について尋ねられると、グーグルはデータセンター全体の水の消費量に関する2021年のデータを明かした2022年11月のレポートをその回答とした。
「グーグルからの詳細な情報がない限り、実際のウォーター・フットプリントを知ることはできないものの、わたしたちの試算ではLaMDAの訓練にかかったウォーター・フットプリントの合計は100万リットルほどであることが分かった」と研究者らは記している。
生成AIに関わるカーボン・フットプリントは注目され始めているものの、研究者らは今回のレポートで「真に持続可能なAIを実現するには、カーボン・フットプリントとともにウォーター・フットプリントにも総合的に取り組む必要性を強調したい」としている。