Der Blätterkatalog benötigt Javascript.
Bitte aktivieren Sie Javascript in Ihren Browser-Einstellungen.
The Blätterkatalog requires Javascript.
Please activate Javascript in your browser settings.
Data Storage www markttechnik de 47 2025 32 Rechenzentrums-Infrastruktur »Speed Speed Speed« – warum Europa beim KI-Ausbau Zeit verliert Digitale Souveränität entsteht nicht im Frontend der Digitalisierung sondern tief unten im Maschinenraum in Energiearchitekturen Kühlketten elektrischen Verteilungen Vorfertigungshallen und Genehmigungsprozessen Erst dort entscheidet sich ob ein Land eigene KI betreiben kann oder auf Dauer zum Datenimporteur wird Genau dieses Fundament ist in Europa zunehmend unter Druck – technisch strukturell und zeitlich Wie hoch die Taktung inzwischen ist zeigte eine internationale Vertiv-Konferenz im italie nischen Tognana Dort wurde nicht darüber diskutiert ob KI die Rechenzentrumsinfrastruktur verändert – das gilt als gesetzt – sondern wie groß die Lücke zwischen den schnellen Innovations zyklen der Hardware und den langsamen Realitäten europäischer Planung und Bauaus führung geworden ist Carlo Ruiz Vice President Enterprise Solutions Operations EMEA bei NVIDIA machte klar wie fundamental sich die Architektur moderner Rechenzentren verschiebt Leistungsdichten die früher nur in Supercomputern vorkamen sind in großen HPCund KI-Clustern inzwischen Alltag Racks mit 80 bis 200 Kilowatt sind dort keine Seltenheit mehr wenngleich diese Werte nicht den Gesamtmarkt abbilden sondern vor allem jene Segmente die große Sprachmodelle trainieren oder komplexe Inferenzdienste bereitstellen Möglich werden solche Strukturen erst durch Ver bindungen wie NVLink oder InfiniBand die Bandbreiten bis zu 800 Gigabit pro Sekunde pro Port liefern und dafür sorgen dass mehrere Hundert GPUs wie ein einziges System arbeiten Carlo Ruiz Vice President Enterprise Solutions Operations EMEA bei NVIDIA machte in Tognana klar wie fundamental sich die Architektur moderner Rechenzentren verschiebt Quelle Vertiv Teilweise unvorhersehbare Leistungsspitzen Ruiz betonte außerdem wie unterschiedlich die Lastprofile ausfallen Während das Training eines Modells über Tage hinweg konstant hohe Leistung benötigt erzeugt die Inferenz – also das Ausliefern von Antworten – sehr kurze teilweise unvorhersehbare Leistungsspitzen In großen Cloud-Umgebungen lassen sich diese Peaks zwar durch Lastverteilung abfedern doch in kleineren Clustern und On-Premises-Installationen beeinflussen sie das Design von Energieversorgung und Kühlung erheblich Vertiv-CEO Giordano Albertazzi machte deutlich dass die klassische Luftkühlung bei Racks oberhalb von etwa 50 bis 70 Kilowatt an ihre Grenzen stößt Für GPUdichte KI-Systeme wird Flüssig kühlung damit zum zentralen Baustein Directto-Chip-Verfahren bei denen das Kühlmittel direkt an den heißesten Komponenten vorbeigeführt wird gelten derzeit als wahrscheinlichster Weg in leistungsstarken KI-Rechenzentren Immersionskühlung bei der ganze Server in ein nicht leitendes Fluid eintauchen ist technisch ebenfalls hoch effizient spielt aber aufgrund von Herstellerfreigaben Servicelogistik und Investitionskosten vorerst nur in speziellen Umgebungen eine Rolle Die technische Kompetenz ist in Europa vorhanden – der Engpass liegt vor der schnellen breitflächigen Umsetzung Auch die Energieinfrastruktur zeigt strukturelle Grenzen Ruiz und Albertazzi betonten dass