生成AIの登場を受け、データ処理量が増え続ける中、データセンターの省電力化は避けて通れない課題になりつつある。環境負荷を最小限に抑えるグリーンデータセンターの具体的な取り組みを紹介する。
データセンター需要は伸び続ける
ここ数年、日本国内ではデータセンター建設ラッシュが続いている。その背景には、生成AIの登場等に伴うデータセンター需要の高まりがある。例えば、LLM(大規模言語モデル)がテキストを学習し、質問者の意図に沿った答えを返せるようになるまでには、膨大なデータ処理が必要だ。デジタル化によるデータ量自体の増加もあり、コンピューティングとストレージの双方でその需要は伸び続けている。国内データセンター新設ラッシュの背景には、それ以外にも地政学リスクや円安といった要因もあるが、AGI(汎用人工知能)を究極の目標に掲げるAI開発が続く限り、データセンター需要がこれからも伸び続けることは間違いない。
データセンターは、電力を大量消費する巨大コンピュータにたとえられる。現時点の国内ICTセクター(データセンターおよびネットワーク)の電力消費は総電力消費の数%を占めるとみられるが、今後、需要に比例して電力消費が増え続けるとその影響は極めて大きなものになる。最適なエネルギー効率を実現し、環境負荷を最小限に抑えるグリーンデータセンター実現は、脱炭素社会の観点からも重要だ。
その評価における重要指標が、PUE(Power Usage Effectiveness)である。PUEはIT機器や空調・照明などデータセンター全体の消費電力量(kWh)をIT機器の消費電力量で割った数値。PUEが1.0に近づくほど優れた省電力性能を備えることになる。従来型データセンターの場合、その数値は2.0前後になることが一般的だ。
PUE改善において大きな意味を持つのが、電源や照明などファシリティ側の電力消費の中で大きな割合を占める冷却設備の効率化である。そのキーワードとして注目されるのが液浸冷却と名付けられた、絶縁性のある液体にサーバ全体を浸す冷却方法だ。
液浸冷却は大きく、単相式と二相式の二つに分けられる。単相式はサーバに触れた冷却液が温度上昇に伴い上層に移動し、外部システムで冷やした液体と入れ替わることで熱循環が行われる。二相式はサーバに触れた冷却液が気化し、装置上部に設置された冷却装置に触れることで再液化することで熱循環が行われる。そのポイントになるのは、いずれの方法も循環装置が不要という点である。
従来の空冷やサーバの一部を液体に触れさせることによる水冷は、送風装置や液体の循環装置が不可欠だった。PUEの観点では、常にエネルギーを消費するこれら外部装置が不要になることの意義は大きい。液浸冷却の導入事例では、冷却用の電力を90%以上削減することでPUE値1.05を実現したデータセンターもすでに現れている。

データセンターの省電力化の取り組み
データセンター省電力化に向けた取り組みはそれだけではない。その一つが、光電融合技術である。これまでコンピュータによる情報処理は電気のオンとオフの切り替えによって行われてきたが、電気は回路を流れる際に熱を発し、それに伴うエネルギーロスは冷却の必要性にもつながっていた。一方、通信の領域ではエネルギーロスが少なく、遅延も起きにくい光通信による代替が進んでいる。光電融合技術は、これまで電気的なオンオフによって行われてきたコンピューティングを光によって代替するテクノロジーである。半導体チップ間への光通信採用というプロセスを経て、2030年をめどに、光で計算する光電融合チップの実用化が目指されている。
ディスアグリケーテッドコンピューティングもそのキーワードの一つだ。需要ピークを前提に構築されたデータセンターは、ピーク時以外もリソースをフル稼働することが一般的だ。それに対し、データセンターのリソースを必要に応じてオンオフすることで省電力化することがディスアグリケーテッドコンピューティングの基本的な考え方になる。将来的には、遠隔地のデータセンターをネットワーク化し、状況に応じてリソースをきめ細かく調整することで処理量に応じた最適な構成を常に構築する仕組みの実現が目指されている。
さらに言えば、半導体チップの高集積化、ロジック半導体の微細化もデータセンター省電力化の重要なキーワードの一つと言える。「微細化後のチップ面積が同じなら消費電力は変わらず、処理速度は速くなる」の言葉で有名なデナードのスケーリング則は、データセンターの省電力化においても有効だ。世界の半導体メーカーが微細化に挑み続ける理由の一つもそこにある。