Der unaufhaltsame Fortschritt von KI, maschinellem Lernen (ML), Kryptowährungen und Cloud Computing verändert die Anforderungen an Rechenzentren dramatisch. Rechenzentren müssen eine breite Palette von Diensten unterstützen, von hochauflösendem Video-Streaming bis hin zu komplexer KI-gesteuerter Datenverarbeitung, die intensive Rechenleistung erfordert, und werden daher schnell zu einem der größten Verbraucher globaler Energieressourcen. Die Internationale Energieagentur hat prognostiziert, dass diese Rechenzentren bei Fortsetzung der aktuellen Trends bis 2026 über 1.000 Terawattstunden verbrauchen könnten, ein deutlicher Anstieg gegenüber den 460 Terawattstunden im Jahr 2022.
Da Rechenzentren weiter wachsen und sich anpassen, um mit den Verarbeitungsanforderungen Schritt zu halten, stehen sie vor großen Herausforderungen. In einer Ära beispiellosen Datendurchsatzes entwickeln sich Stromverteilungsstrategien weiter, um Energieeffizienz, reduzierte Wärmeentwicklung, optimierte Raumnutzung und effektives Kostenmanagement sicherzustellen.
Traditionell, Daten Center wurden für eine Stromversorgung von 30-40 kW pro Schrank entwickelt. Das Aufkommen von Hochleistungs-CPUs und -GPUs, wie Nvidias H100 AI-Beschleuniger, der 80 Milliarden Transistoren enthält und eine thermische Verlustleistung (TDP) von 700 W hat, erfordert jedoch eine Neubewertung dieses Standards. Diese Komponenten, die sich durch ihre beträchtliche thermische Verlustleistung (TDP) auszeichnen, verschieben die Grenzen dessen, was herkömmliche Kühl- und Stromversorgungssysteme bewältigen können. Da die Verarbeitungsleistung weiter steigt, wird der Strombedarf für einen einzelnen Schrank 200 kW übersteigen.