700 Milliarden für KI-Rechenzentren, aber wo bleibt der Gewinn?

700 Milliarden für KI-Rechenzentren, aber wo bleibt der Gewinn?

Die Tech-Branche wettet 700 Milliarden auf KI

Die fünf größten Cloud-Anbieter werden 2026 voraussichtlich über 700 Milliarden Dollar (ca. 644 Mrd. Euro) in ihre Infrastruktur investieren. Das ist sechsmal so viel wie noch 2022, berichtet die Ratingagentur Moody's. Rund 75 Prozent dieser Summe fließt direkt in KI-Rechenzentren, GPU-Cluster und die dazugehörige Stromversorgung. Amazon allein plant Investitionen von über 125 Milliarden Dollar. Meta will bis zu 135 Milliarden ausgeben. Alphabet hat seine Prognose auf bis zu 185 Milliarden Dollar angehoben.

Die Zahlen sprengen jede historische Dimension. Laut Goldman Sachs übertreffen die aktuellen KI-Investitionen sogar den Telekom-Boom der späten 1990er Jahre. Trotzdem fragen sich immer mehr Investoren, ob dieses Geld jemals zurückkommt. Die Aktienkurse einiger Unternehmen, die am stärksten in KI investieren, sind in den vergangenen Monaten unter Druck geraten. Gleichzeitig finanzieren viele dieser Firmen ihren Ausbau nicht mehr aus dem laufenden Geschäft, sondern über Schulden. Morgan Stanley schätzt, dass die Hyperscaler 2026 über 400 Milliarden Dollar an Fremdkapital aufnehmen werden. Das wäre mehr als doppelt so viel wie 2025. Die Investitionsquote gemessen am operativen Cashflow liegt laut Bank of America bei 90 Prozent, nach 65 Prozent im Vorjahr.

OpenAI verbrennt Milliarden und braucht immer mehr

Im Zentrum der Debatte steht OpenAI. Das Unternehmen hinter ChatGPT hat 2025 rund 13,1 Milliarden Dollar umgesetzt und dabei etwa 8 Milliarden Dollar an Cash verbrannt. Für 2026 rechnet OpenAI intern mit Verlusten von 14 Milliarden Dollar bei Gesamtausgaben von rund 22 Milliarden. HSBC-Analysten gehen noch weiter und schätzen, dass OpenAI bis 2030 eine Finanzierungslücke von 207 Milliarden Dollar schließen muss. Profitabel will das Unternehmen frühestens 2029 oder 2030 werden. Kumuliert dürfte OpenAI bis dahin etwa 115 Milliarden Dollar verbrennen.

Die Wachstumszahlen sind dabei beeindruckend. ChatGPT hat mittlerweile über 900 Millionen wöchentliche Nutzer, der Umsatz hat sich gegenüber 2024 mehr als verdreifacht. Doch das Wachstum frisst sich selbst auf. Jede Anfrage an GPT-5 verbraucht Rechenleistung, Strom und Kühlung. Die Inferenzkosten, also die Kosten für den laufenden Betrieb der Modelle, lagen 2025 bei 8,4 Milliarden Dollar und sollen 2026 auf über 14 Milliarden steigen. Die Bruttomarge liegt bei mageren 33 Prozent. Etablierte Softwarefirmen arbeiten typischerweise mit 70 bis 80 Prozent.

Im Februar 2026 hat OpenAI die bislang größte private Finanzierungsrunde der Technologiegeschichte abgeschlossen. 110 Milliarden Dollar flossen von Amazon (50 Mrd.), Nvidia (30 Mrd.) und SoftBank (30 Mrd.), die Bewertung stieg auf 840 Milliarden Dollar. Allerdings ist ein Großteil an Bedingungen geknüpft. Amazon zahlt nur 15 Milliarden sofort, der Rest hängt von Meilensteinen ab. SoftBank überweist seine 30 Milliarden in drei Quartalsraten über das Jahr verteilt. Nvidias 30 Milliarden fließen größtenteils als GPU-Kapazitäten statt als Bargeld. Tatsächlich verfügbar waren Ende März 2026 also nur rund 25 Milliarden Dollar an frischem Kapital.

Parallel wächst die Konkurrenz. Anthropic, der Entwickler von Claude, hat seinen Umsatz laut Ramp Economics Lab massiv gesteigert und führt inzwischen den Markt für Unternehmens-APIs an. OpenAIs Marktanteil bei den Enterprise-APIs ist von 50 Prozent im Jahr 2023 auf 25 Prozent gefallen. ChatGPTs Anteil am weltweiten KI-Webtraffic sank laut Similarweb von 86,7 Prozent auf 64,5 Prozent innerhalb eines Jahres. Google Gemini legte im selben Zeitraum von 5,7 auf 21,5 Prozent zu.

Nvidia verdient prächtig am Kreislauf des Geldes

Nvidia hat OpenAI eine strategische Partnerschaft über bis zu 100 Milliarden Dollar zugesagt, verteilt auf den schrittweisen Aufbau von 10 Gigawatt KI-Infrastruktur. Das klingt nach einem gewaltigen Vertrauensbeweis. Doch OpenAIs Finanzchefin Sarah Friar hat selbst eingeräumt, dass dieses Geld letztlich wieder zu Nvidia zurückfließt, weil OpenAI damit GPU-Hardware kauft.

Dieses Muster zieht sich durch die gesamte KI-Branche. Nvidia investiert auch in CoreWeave, einen Cloud-Anbieter, der Rechenkapazität an OpenAI vermietet und dafür Milliarden an Nvidia-Chips einkauft. Microsoft hat 13 Milliarden Dollar in OpenAI gesteckt und kassiert gleichzeitig über Azure-Verträge einen erheblichen Teil wieder zurück. OpenAI zahlt Microsoft 20 Prozent seines Gesamtumsatzes als Lizenzgebühr bis 2032. Kritiker sprechen von zirkulärer Finanzierung, bei der Geld zwischen einer Handvoll Unternehmen hin und her fließt, ohne dass echte Wertschöpfung in der Realwirtschaft stattfindet.

Nvidia selbst verdient prächtig an diesem System. Der Jahresumsatz im Geschäftsjahr 2026 lag bei 215,9 Milliarden Dollar, ein Plus von 65 Prozent gegenüber dem Vorjahr. Allein das Rechenzentrumsgeschäft brachte 193,7 Milliarden ein. Die Lieferverpflichtungen haben sich innerhalb eines einzigen Quartals von 50 auf 95 Milliarden Dollar fast verdoppelt. CEO Jensen Huang spricht davon, jedes Jahr eine komplett neue KI-Infrastruktur zu bauen. Nvidia ist der klare Gewinner des Booms, unabhängig davon, ob die Wetten seiner Kunden jemals aufgehen.

Stargate zeigt die Schwächen der großen Pläne

Kein Projekt verkörpert die Dimension und die Risiken der KI-Wette besser als Stargate. Im Januar 2025 kündigten OpenAI, SoftBank, Oracle und der Staatsfonds MGX am Weißen Haus ein gemeinsames Infrastrukturprojekt über 500 Milliarden Dollar an. Präsident Trump nannte es das größte KI-Infrastrukturprojekt der Geschichte. Larry Ellison versprach KI-gestützte Krebsimpfstoffe innerhalb von 48 Stunden.

Seitdem hat die Realität mehrfach zugeschlagen. Bloomberg berichtete im August 2025, dass weder der Bau richtig begonnen hatte noch die Finanzierung gesichert war. SoftBank finanzierte seine Beiträge größtenteils über Kredite japanischer Banken. Von den versprochenen 500 Milliarden waren laut Financial Times nur 52 Milliarden tatsächlich als Eigenkapital zugesagt. Der Rest sollte über Projektfinanzierungen kommen, die zu diesem Zeitpunkt noch nicht standen.

Dann folgte der jüngste Rückschlag. Laut CNBC hat OpenAI die geplante Erweiterung des Abilene-Standorts mit Oracle aufgegeben. Altman will lieber neue Rechenzentren mit der neuesten Nvidia-Chipgeneration bauen, statt bestehende Standorte zu erweitern. Meta verhandelt jetzt über die frei gewordene Kapazität in Texas. Das offenbart ein grundsätzliches Problem der KI-Infrastruktur. GPU-Generationen veralten schneller, als Rechenzentren gebaut werden können. Wer heute für Milliarden baut, riskiert bei Fertigstellung schon überholte Hardware im Keller stehen zu haben.

Oracle hat für seine Rolle als Stargate-Partner rund 175 Milliarden Dollar an Schulden angehäuft. Die Verschuldungsquote liegt bei 500 Prozent, dem höchsten Wert unter den großen Tech-Konzernen. Der freie Cashflow ist ins Negative gerutscht. Barclays hat Oracles Anleihen auf "Untergewichten" herabgestuft und warnt, dass dem Unternehmen bis November 2026 das Bargeld ausgehen könnte. Eine Abstufung auf BBB-Minus, also nur noch eine Stufe über Ramschniveau, steht im Raum. Die Aktie hat seit ihrem Hoch im Herbst 2025 über 50 Prozent verloren. Anleiheinvestoren sichern sich bereits mit Kreditausfallversicherungen ab, die Risikoaufschläge liegen auf dem höchsten Niveau seit 2008.

KI-Aktien differenziert betrachten

Für Anleger lohnt es sich, innerhalb der KI-Nahrungskette genau hinzuschauen. Nvidia steht an der Spitze und verdient an jedem Teilnehmer des Booms. Solange die Hyperscaler weiter investieren, fließen die Umsätze. Die Bewertung ist hoch, aber das Geschäftsmodell funktioniert heute, nicht erst in fünf Jahren. Oracle dagegen ist ein hochverschuldeter Infrastrukturanbieter, dessen Wette auf wenigen Großkunden basiert. Falls OpenAI oder Meta ihre Workloads verlagern, könnte Oracle auf teurer, ungenutzter Kapazität sitzenbleiben.

Reine KI-Startups wie OpenAI lassen sich für Privatanleger nicht direkt kaufen. Trotzdem beeinflussen sie die Bewertungen des gesamten Sektors. Wer einen ETF auf den S&P 500 oder den Nasdaq hält, ist über den hohen Tech-Anteil automatisch mitexponiert. Die sogenannten Magnificent Seven, also Apple, Microsoft, Alphabet, Amazon, Nvidia, Meta und Tesla, machen rund 30 Prozent des S&P 500 aus. Mehrere dieser Unternehmen gehören zu den größten KI-Investoren überhaupt.

Unsere Einschätzung: Die Frage ist nicht, ob KI eine wichtige Technologie ist. Das steht außer Zweifel. Die Frage ist, ob die aktuelle Investitionswelle im richtigen Verhältnis zur tatsächlichen Nachfrage steht, oder ob zu viel Geld zu schnell in zu wenig ausgereifte Geschäftsmodelle fließt. Wer investiert ist, sollte die Quartalszahlen der Hyperscaler in den kommenden Monaten aufmerksam verfolgen. Nicht die Umsätze sind dabei entscheidend, sondern ob sich die gewaltigen Auftragsbestände tatsächlich in Cashflow verwandeln.

2026 wird zum Stresstest für die KI-Branche

Die nächsten zwölf bis achtzehn Monate werden darüber entscheiden, ob die KI-Investitionen aufgehen. Laut Moody's dauert es 12 bis 24 Monate, bis ein neu gebautes Rechenzentrum überhaupt Umsatz generiert. Die heute gebaute Infrastruktur muss also 2027 oder 2028 ausgelastet sein, damit sich die Rechnung für Investoren schließt.

Die Gegenargumente sind real. Amazon, Microsoft und Google verkaufen Kapazitäten vorab, bevor ein einziges Rechenzentrum steht. Die Nachfrage nach KI-Computing übersteigt laut mehreren Analysten das aktuelle Angebot. Effizienzgewinne bei der Inferenz könnten paradoxerweise die Gesamtnachfrage steigern statt sie zu senken, weil günstigere KI-Abfragen neue Anwendungsfälle erschließen.

Auf der anderen Seite warnen prominente Stimmen. Ilya Sutskever, einer der Mitgründer von OpenAI, erklärte auf der NeurIPS-Konferenz 2024, dass das klassische Vortraining an seine Grenzen stößt. Yann LeCun, KI-Chef bei Meta und Turing-Preisträger, gibt dem aktuellen Paradigma großer Sprachmodelle noch drei bis fünf Jahre Haltbarkeit. Falls sich die Technologie schneller verändert als erwartet, sitzen die Unternehmen auf Rechenzentren, die für ein überholtes Trainingsverfahren optimiert wurden. Sam Altman wettet darauf, dass die Nachfrage endlos wächst. Ob diese Wette aufgeht, wird sich bald zeigen.