
Deutsche Telekom hat offiziell Europas größte dedizierte KI-Fabrik (AI factory) in München eingeweiht, eine wegweisende Einrichtung, die darauf ausgelegt ist, die digitale Souveränität (Digital Sovereignty) des Kontinents zu sichern. Das als „Industrial AI Cloud“ bezeichnete Rechenzentrum wird von etwa 10.000 NVIDIA Blackwell GPUs angetrieben und liefert eine beeindruckende Rechenleistung von 0,5 ExaFLOPS. Dieser Start markiert einen entscheidenden Schritt für Deutschland und die gesamte Europäische Union, um die Abhängigkeit von US-amerikanischen und chinesischen Hyperscalern bei kritischer Infrastruktur für künstliche Intelligenz (Artificial Intelligence) zu verringern.
Die Anlage im Münchner Tucherpark stellt eine gemeinsame Investition von 1 Milliarde Euro zwischen Deutsche Telekom und NVIDIA dar. Sie ist speziell auf den Industriesektor zugeschnitten und bietet das Hochleistungsrechnen (High-performance computing, HPC), das für das Training komplexer maschineller Lernmodelle (Machine Learning), die Durchführung fortschrittlicher Simulationen und den Antrieb autonomer Robotik erforderlich ist. Tim Höttges, Vorstandsvorsitzender der Deutschen Telekom, beschrieb den Start als einen „Sprint“ für die technologische Zukunft Europas und betonte, dass die Einrichtung das Konzept der souveränen KI von politischen Diskussionen in greifbares Silizium und Stahl verwandelt.
Das Herzstück der Industrial AI Cloud bildet die neueste Blackwell-Architektur von NVIDIA, ein Chip-Design, das für die Billionen-Parameter-Skala moderner generativer KI (Generative AI) optimiert ist. Die Einrichtung beherbergt eine Mischung aus NVIDIA DGX B200-Systemen und NVIDIA RTX PRO Server-GPUs. Bei dieser Konfiguration geht es nicht nur um reine Geschwindigkeit; sie ist auf „physische KI“ (Physical AI) zugeschnitten – die Integration von KI in Fertigung, Robotik und Logistik.
Die Infrastruktur wird durch ein robustes Konnektivitäts-Backbone unterstützt, das über vier 400-GB-Glasfaserverbindungen und 75 Kilometer interne Glasfaserverkabelung verfügt, um eine Datenübertragung mit geringer Latenz zu gewährleisten. Die Speicherarchitektur bietet eine Kapazität von 20 Petabyte, was ausreicht, um die massiven Datensätze zu verarbeiten, die durch industrielle digitale Zwillinge (Digital Twins) und das Training großer Sprachmodelle (Large Language Models, LLM) generiert werden.
Das zentrale Wertversprechen der Münchner KI-Fabrik ist „Souveränität“. Im Kontext der Industrial AI Cloud bezieht sich dies auf die Fähigkeit europäischer Unternehmen, KI-Modelle zu trainieren und einzusetzen, während ihre proprietären Daten strikt innerhalb der Gerichtsbarkeit der EU und Deutschlands verbleiben. Diese Compliance ist entscheidend für Branchen wie Automobil, Gesundheitswesen und Finanzen, die unter strengen DSGVO- (GDPR) und Geschäftsgeheimnisvorschriften operieren.
Um dies zu erleichtern, ist die Deutsche Telekom eine Partnerschaft mit SAP eingegangen, um den „Deutschland-Stack“ zu entwickeln. Diese Softwareschicht integriert die Business Technology Platform von SAP mit der zugrunde liegenden Hardware und bietet eine sichere, konforme Umgebung für Unternehmens-KI (Enterprise AI). Durch die Sicherstellung, dass Datenverarbeitung, Speicherung und Management auf deutschem Boden unter deutschem Recht erfolgen, adressiert die Einrichtung eine der Haupthürden für die KI-Adoption in Europa: die Angst vor dem Abfluss von Daten an ausländische Akteure.
Die Einrichtung ist bereits mit mehreren hochkarätigen Ankerkunden in Betrieb, die die Rechenleistung für Anwendungen der nächsten Generation nutzen.
Diese Partnerschaften unterstreichen den „industriellen“ Fokus der Cloud. Im Gegensatz zu universellen KI-Modellen für Verbraucher konzentrieren sich die Arbeitslasten hier auf die Lösung physischer technischer Herausforderungen, die Optimierung von Lieferketten und die Automatisierung von Fabrikhallen.
In Anerkennung des immensen Energiebedarfs von KI-Supercomputing wurde die Münchner Anlage mit fortschrittlichen Nachhaltigkeitsmaßnahmen nachgerüstet. Das Rechenzentrum nutzt ein Flusswasserkühlsystem, das die lokale Geografie nutzt, um optimale Betriebstemperaturen für die dichten GPU-Cluster aufrechtzuerhalten. Darüber hinaus ist der Standort in das Münchner Stadtenergienetz heute integriert, wobei geplant ist, die von den Servern erzeugte Abwärme zurück in das städtische Fernwärmenetz einzuspeisen. Dieser zirkuläre Energieansatz steht im Einklang mit den umfassenderen Netto-Null-Zielen der Deutschen Telekom und den EU-Umweltvorschriften für Rechenzentren.
Um die Größenordnung dieser Bereitstellung zu verstehen, ist es nützlich, die Spezifikationen der Industrial AI Cloud mit Standard-Unternehmensumgebungen zu vergleichen.
Tabelle 1: Technische & operative Spezifikationen
| Merkmal | Spezifikation | Strategische Auswirkung |
|---|---|---|
| GPU-Architektur | NVIDIA Blackwell (DGX B200 / RTX PRO) | Ermöglicht Training von Billionen-Parameter-Modellen |
| Spitzenleistung | 0,5 ExaFLOPS | Rangiert unter den Top-Supercomputern Europas |
| Datensouveränität | 100 % EU/deutsche Gerichtsbarkeit | DSGVO-Konformität für sensible Industriedaten |
| Konnektivität | 4x 400 GB Glasfaserverbindungen | Ultraniedrige Latenz für Echtzeit-Inferenz |
| Kühlsystem | Flusswasser & Abwärmerückgewinnung | Hohe Energieeffizienz (niedriger PUE-Wert) |
| Primäres Ökosystem | SAP „Deutschland-Stack“ | Native Integration für Unternehmens-ERP-Systeme |
Der Start der Münchner KI-Fabrik wird weithin als Gegenmaßnahme zur Dominanz von US-Hyperscalern wie AWS, Google Cloud und Microsoft Azure gesehen. Während die Hardware weiterhin aus US-Design stammt (NVIDIA), ist die operative Kontrolle eindeutig europäisch.
NVIDIA-CEO Jensen Huang, der beim Start anwesend war, stellte fest: „Jeder Hersteller benötigt zwei Fabriken: eine für die Herstellung von Dingen und eine für die Erzeugung der Intelligenz, die sie antreibt.“ Mit dieser Einrichtung verfügt Deutschland nun über die „Intelligenzfabrik“, die erforderlich ist, um seine „Produktionsfabriken“ aufrechtzuerhalten.
Mit Blick auf die Zukunft plant die Deutsche Telekom, dieses Modell zu erweitern und potenziell ähnliche souveräne KI-Hubs an anderen europäischen Standorten zu etablieren. Vorerst steht die Münchner Einrichtung als Zeugnis für den Entschluss Europas, ein wettbewerbsfähiger Akteur im globalen KI-Rennen zu bleiben, und bietet eine Blaupause dafür, wie traditionelle Industriemächte den Schwenk in das algorithmische Zeitalter vollziehen können.