Künstliche Intelligenz

Künstliche Intelligenz: Eine kritische Bewertung

Heute ist der Begriff „Künstliche Intelligenz“ in aller Munde, aber die Grundlagen dieser Technologie wurden bereits Ende der 50er Jahre entwickelt.

Klaus Meier

Die Idee dazu hatte erstaunlicherweise ein Psychologe am Cornell Aeronautical Laboratory in den USA, Frank Rosenblatt. Er ließ sich von den Strukturen des menschlichen Gehirns inspirieren und baute ein erstes künstliches neuronales Netz, das trainiert werden musste. Obwohl die Idee erst abseitig erschien und abgelehnt wurde, führte sie Jahrzehnte später zur heutigen KI-Technologie. Den Durchbruch schafften 2012 Wissenschaftler um Geoffrey Hinton, von der Universität Toronto. Sie entwickelten ein künstliches neuronales Netz namens AlexNet. Darin sind mehrere Neuronenschichten durch ein Netz gewichteter Verbindungen miteinander gekoppelt. Jede Schicht leitet ihre Ergebnisse an die nächste Schicht weiter. AlexNet war ein wirklicher GameChanger und seitdem wurden Milliarden in die Künstliche Intelligenz gesteckt. Der Internet-Riese Google warb Hinton und seine Kollegen LeCun und Yoshua Bengio für viel Geld ab und gelangte damit in den Besitz der Technologie. 2018 erhielten die drei Wissenschaftler für ihre Arbeit den Turing Prize, eine Art Nobelpreis für Computerwissenschaft.


ChatGPT und die Large Language Modelle


 

KI kann auch träumen

Fiktive Verhaftung von D. Trump (Foto: ChatGPT)

Die großen KI-Modelle, wie ChatGPT, Gemini oder Claude, die heute die Diskussion prägen, sind eine Weiterentwicklung der Arbeiten von Hinton und seinen Kollegen. Man spricht auch von Large Language Modellen (LLMs). Die LLMs sind eigentlich Textvervollständiger. Während des Trainings lernt die KI fehlende Wörter zur vervollständigen. In einem Text heißt es beispielsweise: „In der Mittagszeit gehen die Mitarbeiter der Abteilung gemeinsam …“ Die wahrscheinlichste Lösung für die fehlenden Wörter wäre „in die Kantine“. Und nicht „zur Toilette“. Die Lösung ergibt sich aus dem Kontext der menschlichen Sprache. Wenn die KI-Programme nur mit wenigen Text trainiert werden, machen sie noch viele Fehler. Aber ab einem Training mit mehreren hundert Milliarden Textparametern entsteht plötzlich ein Sprung und die KI beherrscht die menschliche Sprache. Die dafür erforderlichen Trainingsdaten wurden im Internet gefunden.

Neben den Large Language Modellen wird heute in der Wissenschaft viel über eine Physikalische KI geredet. Damit sollen zukünftig Roboter gesteuert werden. Sie sollen räumliche Zusammenhänge und Grenzen kennen lernen, Sensorinformationen interpretieren und aktiv mit ihrer Umgebung agieren können. Dazu werden Roboter, Hindernisse und Greifobjekte in einer Simulationsumgebung nachgebaut. Das wird als digitaler Zwilling bezeichnet. Der Roboter kann nun in dem simulierten Szenario lernen, ohne dass es zu Kollisionen und Schäden an der Anlage kommt. Das wird als Reinforcement Learning bezeichnet. Sobald der digitale Zwillingsroboter genug gelernt hat, werden die KI-Erkenntnisse auf den realen Roboter übertragen. Das Verfahren kann beispielsweise in Logistikzentren für das Verpacken von Gegenständen durch Roboter eingesetzt werden. Auch im Automobilbereich könnten so Fahrerassistenzsysteme entwickelt werden. Die Methode ist aber äußerst komplex und es wird noch dauern, bis mögliche Ergebnisse in der Industrie ankommen. Heute dreht sich noch immer alles um Large Language Modelle, wie ChatGPT.


Welche Folgen hat die KI für Arbeitsplätze?


Laut dem Future of Jobs Report des Weltwirtschaftsforums (WEF) werden die KI-Fortschritte den Arbeitsmarkt deutlich verändern. Als Zahlen wurden 133 Millionen neu geschaffene Arbeitsplätze gegenüber einem Job-Verlust von 75 Millionen genannt. Eine Analyse der Unternehmensberatung PwC kommt zu einer anderen Schlussfolgerung. Sie prognostiziert, dass bis Mitte der 2030er Jahre in einigen Ländern bis zu 30 % der Arbeitsplätze mit Hilfe der KI automatisiert werden könnten. Eine Studie von Goldman Sachs Research sieht es dagegen als unwahrscheinlich an, dass KI-Technologien zu einem großen Jobverlust führen. So hätte technologischen Wandel bisher immer auch neue Produkte geschaffen, die die Nachfrage nach Arbeitskräften angekurbelt hätten. Die Frage ist allerdings, ob man die vergangenen Entwicklungen, die mit einer massiven Zunahme des Rohstoff- und Energieverbrauchs verbunden waren, einfach in die Zukunft projizieren darf. Unser Planet ist begrenzt und kann definitiv keine massive Ausdehnung der Produktion und des Konsums ertragen.

Sicher ist, dass die heutige KI eine Sprunginnovation ist, die für die Zukunft ein enormes Rationalisierungspotenzial beinhaltet. So können KI-Systeme, wie ChatGPT, bereits Zeitungsartikel schreiben oder Geschäftsbriefe entwerfen, auch wenn vieles noch von Menschen nachgearbeitet werden muss. Bereits heute können KI-Systeme in Zusammenarbeit mit Kamerasystemen Qualitätskontrollen durchführen. In Büros kann ein KI-gestütztes Planungs-Tool Besprechungen organisieren oder Berichte analysieren. Selbst im Kundenservice können KI-Chatbots rund um die Uhr Anfragen beantworten und einfache Probleme lösen, oft bevor ein Mensch eingreifen muss.

Eine Studie von McKinsey schätzt, dass im Bürobereich etwa 60 % der Routineaufgaben wie Dateneingabe, Lohnabrechnung und Terminplanung durch KI automatisiert werden können, verglichen mit nur 12 % der technischen Aufgaben. Das bedeutet, dass Berufe wie Büroangestellte, Buchhalter und Verwaltungsassistenten fast fünfmal häufiger durch KI ersetzt werden können als Ingenieure oder Entwickler [1]. Berufe, die mit einer Dateneingabe verbunden sind, dürften recht schnell Gefahr laufen, automatisiert zu werden. Auch die Kassen in Einkaufszentren dürften betroffen sein, über die heutigen Selbstverbuchungssysteme hinaus. Eine KI mit Bilderkennungskompetenz könnte auf einem Förderband die Objekte erkennen und automatisch eine Abrechnung erstellen. Große Teile des Kassenpersonals in den Kaufhäusern aber auch in Kantinen könnten betroffen sein.

Zu den Opfern der KI gehören sicher auch Beschäftigte in Call-Centern und in der Kundenberatung. Der Grund ist die hohe Sprach- und Verständniskompetenz der KI. KI-gesteuerte Chatbots können Gespräche führen, Auskünfte geben und einfache Entscheidungen treffen. Allerdings gibt es auch Grenzen. So hatte die schwedische Klarna-Bank in Zusammenarbeit mit Open AI zunächst hunderte von Beschäftigten durch KI ersetzt [2]. Doch bald musste das Unternehmen wieder den Rückwärtsgang antreten. Es zeigten sich nämlich erhebliche Schwächen der KI bei der Kontextverarbeitung und der Dialogführung über mehrere Gesprächsphasen. Die KI-Bots wirkten unnatürlich oder sie konnten die Probleme der Kunden nicht lösen. Ein gravierendes Problem in Banken, die schließlich das Vertrauen ihrer Kunden brauchen. Klarna will den KI-Chatbot zwar nicht wieder komplett abschaffen, aber bei Bedarf müsse immer ein Mensch vorhanden sein, der die Gespräche führen kann.

Der Rationalisierungseffekt der Künstlichen Intelligenz dürfte in einigen Bereichen erheblich sein. So bei der Software-Entwicklung. Bisher war das Schreiben von Computercodes mit einer hohen Qualifikation verbunden. Aber mit Hilfe von KI-Programmen kann prinzipiell jeder Codes schreiben, entweder für technische Programmierungen oder auch für Webseiten. Noch ist es aber in den meisten Fällen erforderlich, dass erfahrene Programmentwickler den mit KI erstellten Code im Nachhinein überprüfen. Unter dem Strich bedeutet das, dass KI die Arbeitsabläufe effizienter macht statt sie vollkommen zu ersetzen. Der Chef der Deutschen Bank, Sewing, erklärte in einem Interview mit dem Handelsblatt, dass sein Unternehmen „mit KI die Kosten für Programmierungen um 20 Prozent senken“ könne. Seine Perspektiven reichen aber weiter: „Andere Institute versprechen sich davon 30 bis 40 Prozent Ersparnis“. Sewing sieht aber kein Stellenabbauprogramm bei der Deutschen Bank, denn in den nächsten Jahren käme es zur Pensionierung vieler Beschäftigter. Der Bank-Chef dazu: „Künstliche Intelligenz wird uns dabei helfen, diese Fachkräfte zu ersetzen. KI soll für also nicht zuletzt das demografische Problem lösen.“ [3]

Bei allen Betrachtungen muss man berücksichtigen, dass der Einsatz von KI-Verfahren für die Rationalisierung von Arbeitsplätzen zunächst ein mühseliger und arbeitsaufwändiger Prozess ist. Maßgebliche Effekte dürften daher erst in den 30er Jahren zu erwarten sein. Das gilt erst recht für die weiterreichenden Verfahren der Physikalischen KI.

Trotzdem sind bereits jetzt erste Folgen der KI-Rationalisierung sichtbar. Während in der Vergangenheit Anfänger die einfachen Arbeiten übernommen haben, ist dies heute vielfach nicht mehr erforderlich. Das bedeutet aber, dass weniger Anfängerjobs ausgeschrieben werden. So liegen heute die ausgeschriebenen Juniorstellen im IT-Sektor um 54 Prozent unter dem Wert von 2020 [4]. Ähnliche Berichte liegen auch vom US-amerikanischen Arbeitsmarkt vor. Selbst hoch qualifizierte Studienabsolventen berichten von Schwierigkeiten, einen Job zu finden, da viele Unternehmen erst einmal schauen wollen, wie Künstliche Intelligenz ihr Geschäft verändert. Von einem Great Freeze ist die Rede, einem großen Abwarten. Eine kritische Entwicklung, denn später werden diese Kräfte fehlen.


Verstärkt KI die Reichtums- und Machtkonzentration?


Die empirischen Untersuchungen zahlreicher Wissenschaftler haben gezeigt, dass der Kapitalismus in den letzten vier Jahrzehnten eine gewaltige Konzentration von Macht und Reichtum erlebt hat. Die Entwicklung des Internets und die monopolistische Kontrolle weniger großer Konzerne über diese Software-Infrastruktur hat diese Tendenz noch einmal verschärft. Überdeutlich wird das in den USA, wo die „Magnificent Seven“ (Nvidia, Microsoft, Apple, Amazon, Alphabet, Meta und die Firmen von Elon Musk um Tesla und SpaceX) ein unfassbar reiches kapitalistisches Imperium aufgebaut haben. Gemeinsam erreichen sie mittlerweile einen Marktwert von 18 Billionen Dollar. Das ist genauso groß wie das gesamte BIP der EU mit immerhin 450 Millionen Einwohnern.

Die US-Tech-Konzerne nutzen ihre Milliarden und ihre Macht systematisch dazu, sich auch die neue KI-Technologie anzueignen und für ihre Zwecke zu instrumentalisieren. Dies geschieht auf zwei Ebenen: Erstens indem sie das Know-How mit ihren Geldern aufkaufen. Zweitens, indem sie das Wissen der Welt in kolonialistischer Manier weitestgehend kostenlos in ihre Software einspeisen. Zusätzlich zum Internet bauen sie so an einem weiteren Monopol im Bereich der KI-Infrastruktur. Das wird ihren Reichtum und ihre Dominanz noch weiter vergrößern.

Ein Beispiel liefert der Microsoft-Konzern, der das Know-how des KI-Unternehmens Inflection AI regelrecht aufgesogen hat. Der Software-Riese aus Redmond hat 2024 für 650 Millionen Dollar den größten Teil der Belegschaft von Inflection übernommen, einschließlich zweier wichtiger Chefwissenschaftler und Mitbegründer des Unternehmens. Ab diesem Zeitpunkt waren sie bei Microsoft beschäftigt und entwickelten dort den „Copilot" [5]. Die Methoden von Google sind ähnlich.

Für das Training ihrer KI-Systeme haben Google, OpenAI oder Meta die Literatur der Welt, ganze Zeitungsarchive, die Musik, die Bilder und riesige wissenschaftliche Datenbestände rücksichtslos genutzt, egal ob sie urheberrechtlich geschützt sind oder nicht. Das ist mittlerweile etwas schwieriger geworden, weil gierige KI-Crawler [6] mit Sicherheitsmaßnahmen von vielen Homepages ferngehalten werden. Auch gibt es Gerichtsurteile, die die unautorisierte Datennutzung unter Strafe stellen. Erst jüngst hat die deutsche Musikverwertungsgesellschaft Gema gegen OpenAI geklagt, weil der Konzern unautorisiert Songtexte für die Trainingsdaten seines Chatbot ChatGPT genutzt hatte. Es handelte sich dabei u.a. um Helene Fischers „Atemlos durch die Nacht“, Herbert Grönemeyers „Bochum“ und Reinhard Meys „Über den Wolken“. Das Landgericht München entschied eindeutig: Die Verwendung der Songtexte in den Trainingsdaten sei geistiger Diebstahl. Im Wiederholungsfalle drohen 250 000 Euro Strafe. [7] Für den 500 Milliarden Dollar schweren US-Konzern OpenAI sind das aber eher Peanuts, der dann auch gleich in Berufung gegen das Urteil ging.

Die Aneignung der KI durch wenige Multimilliardäre dürfte die bürgerliche Demokratie weiter aushöhlen, über das bisher schon gewohnte Maß hinaus. Der Philosoph und Experte für Bewusstsein, Thomas Metzinger, sagte dazu: „Alle diese Leute wie Zuckerberg, Altman, Pichai, nicht nur Musk und Thiel, sind nicht vertrauenswürdig – das wird nicht die Trustworthy AI, die die EU seit 2019 im Auge hat. Die sind alle in Mar-a-Lago niedergekniet und haben den Ring geküsst.“ [8] Arthur Mensch, der Begründer der französischen KI-Software Mistral, war unter den Zuhörern, als J.D. Vance seine Vision für die Welt entwarf. Er beschrieb den Vortrag wie folgt: „Es ging um die Überlegenheit der US-KI, als das eine System, das jeder US-Alliierte nutzen soll. Die Haltung von Vance bei KI ist sehr aggressiv, Technologie ist für ihn und Trump ein Machtvektor. Die Präsidentendekrete zu KI haben ein Ziel: Die USA wollen alle ihre Partner in KI-Kolonien verwandeln.“ [9]


KI als gewaltiger Ressourcenfresser


Die großen KI-Systeme der Large Language Modelle sind auf sogenannten GPUs implementiert. Das sind Grafikprozessoren, die parallele Rechnerstrukturen besitzen und besser für das KI-Training geeignet sind als die üblichen Computer-CPUs. In der Praxis ist das Training der Large Language Modelle wie GPT-5 ein gewaltiges technisches, logistisches und finanzielles Unterfangen. Branchenbeobachter schätzen, dass das Vortraining von GPT-4 viele Monate gedauert hat und dass dafür zehntausende von A100-GPUs von Nvidia eingesetzt wurden. Ein einzelner derartiger Prozessor kostet je nach Größe zwischen 12 000 € bis 28 000 €. Die großen Internet-Konzerne (Meta, Microsoft, Google oder Amazon) liefern sich heute ein gigantisches Wettrennen, um immer intelligentere LLMs zu entwickeln und den Markt mit ihren Modellen zu durchdringen. Dafür werden unfassbar hohe Finanzmittel in den Aufbau ihrer Rechenzentren gesteckt. Im April 2025 veröffentlichte McKinsey eine Studie, die die weltweiten Investitionen in Rechenzentren allein bis 2030 auf 7 Billionen US-Dollar schätzt [10]. Allein für das nächste Jahr sollen in den USA 737 Milliarden US-Dollar für neue Rechenzentren ausgegeben werden [11]. Mit Superlativen wird dabei nicht gespart. So kündigte Meta-Chef Zuckerberg Anfang 2025 ein Rechenzentrum an, dessen Grundfläche halb so groß wie Manhattan ausfallen soll. Auch der Online-Riese Amazon will in allein 2025 rund 100 Milliarden Dollar in die KI-Infrastruktur investieren, hauptsächlich in Rechenzentren. Die EU möchte sich diesem Hype anschließen und will 20 Milliarden Euro in fünf sogenannte AI-Gigafactories investieren. Mit dabei ist die Deutsche Telekom, Ionos und die Schwarz-Gruppe (Lidl-Eigentümer). Aber auch das Land Bayern hat sich um einen von fünf Standorten in Europa für ein Mega-Rechenzentrum beworben. Ministerpräsident Söder erklärte, in Schweinfurt eine Gigafactory für Künstliche Intelligenz auf einem früheren Kasernengelände der US-Army in Schweinfurt ansiedeln zu wollen. Die Anlage mit dem Namen „Blue Swan“ könnte bis zu fünf Milliarden Euro kosten. Zwei Drittel der Summe sollen Investoren bereitstellen und ein Drittel soll aus öffentlichen Geldern kommen. In München soll ein weiteres Großrechenzentrum für eine Milliarde entstehen und mit bis zu 10 000 Spezialprozessoren von Nvidia ausgestattet werden. Beteiligt sind die Deutsche Telekom und der US-Chipentwickler Nvidia.

Die Gigantomanie beim Ausbau der Rechenzentren hat aber ökologische und soziale Folgen. Die Rechenzentren sind gigantische Stromfresser, die rund um die Uhr laufen und dabei ununterbrochen mit Energie versorgt werden müssen. Ein einzelnes auf KI getrimmtes Rechenzentrum kann gemäß einer Prognose der Internationalen Energieagentur (IEA) im Schnitt so viel Strom verbrauchen wie 100 000 Haushalte. Um beispielsweise ein KI-Modell wie ChatGPT zu trainieren, wird so viel Strom benötigt wie für eine Großstadt [12]. In der Folge kommt es bereits jetzt in manchen Regionen zu einer starken Belastung des Stromnetzes. So liegt die Stromverbrauchsquote für Rechenzentren im US-Bundesstaat Virginia bei 26 Prozent. Doch einige päische Städte übertreffen dies sogar. So liegt der Stromverbrauch der Rechenzentren in Frankfurt bei 40 Prozent und in Dublin sogar bei 80 Prozent. In Nordamerika drohen durch den ungebremsten Ausbau von Rechenzentren bereits Stromengpässe und in der Folge steigende Strompreise. Es wird zwar immer noch behauptet, dass KI dabei helfen würde, Energie zu sparen. Die zahlreichen Rechenzentren, die in den USA bisher 800 Milliarden US-Dollar gekostet haben und bei denen die Investoren mit den Energieversorgern extrem günstige Strompreise vereinbart haben, gehen aber zulasten der privaten Haushalte. Die Verbraucher:innen müssen mit ihren steigenden Strompreisen faktisch die profitablen Tech-Unternehmen der USA quersubventionieren. Der Nachrichtensender ntv berichtete, dass sich in US-Bundesstaaten mit vielen Rechenzentren die Strompreise im vergangenen Jahr fast bis zu 40 Prozent erhöht haben [13]. Das dürfte aber erst der Anfang sein.

Damit die Tech-Konzerne für ihre KI-Programmierung genug Rechenpower zur Verfügung haben setzen sie zunehmend auf Atomkraftwerke. So gab der Meta-Konzern in 2025 bekannt, dass er eine Vereinbarung mit einem AKW-Betreiber in Illinois zur gesicherten Abnahme der gesamten Strommenge des Reaktors über einen Zeitraum von 20 Jahren getroffen habe. Ähnliche Vereinbarungen hat Google getroffen, das seine Rechenzentren in Kalifornien mit Strom aus einem halben Dutzend neuer kleiner Nuklearreaktoren beliefern lassen will. An der US-Ostküste hat Microsoft einen Vertrag mit einem Stromversorger geschlossen, der die Wiederinbetriebnahme des Atomkraftwerks Three Mile Island in Harrisburg vorsieht. Es ist der Ort des bisher schwersten Atomunfalls in der Geschichte der USA. Amazon setzt für seine Rechenzentren auf die Entwicklung neuer kleiner modularer Nuklearreaktoren, sogenannte SMRs (Small Modular Reactors).

Ein weiteres ökologisches Problem ist der hohe Wasserverbrauch der KI. Der extreme Stromverbrauch der künstlichen Intelligenz führt zur Überhitzung der KI-Server in den Rechenzentren. Damit sie arbeitsfähig bleiben, müssen sie gekühlt werden. Zur Abführung der großen Wärmemengen lässt man Wasser verdunsten. So wird der Luft Wärme entzogen. Berechnungen kommen zu der Schlussfolgerung, dass die globale KI-Nachfrage im Jahr 2027 4,2 bis 6,6 Milliarden Kubikmeter Wasserentnahme erfordert [14]. Das ist deutlich mehr als der gesamte jährliche direkte Wasserverbrauch Deutschlands, der bei 3,8 Milliarden Kubikmeter liegt [15].


Auf dem Weg zu einer Superintelligenz?


Die aktuellen KI-Modelle bieten zwar enorme technische Möglichkeiten, an die früher nicht zu denken war. Trotzdem liegen ihre Fähigkeiten in weiten Bereichen deutlich unter der menschlichen Intelligenz. Silicon-Valley-Bosse, wie Altman und Zuckerberg, sind aber der festen Überzeugung, dass sich mit immer mehr Chips und immer größeren Modellen eine Superintelligenz schaffen lasse. So erklärte Zuckerberg in diesem Jahr: „KI verbessert sich langsam, aber unweigerlich. Die Entwicklung einer Superintelligenz kommt jetzt in Sicht.“ Allerdings zeigte sich bereits beim Übergang der KI-Modelle von GPT-4 auf GPT-5, dass keine wesentliche Intelligenzzunahme zu verzeichnen war. Und dies trotz der viel größeren Ressourcen, die in GPT 5 gesteckt wurden. Sam Altman hatte noch wenige Wochen vor der Veröffentlichung von GPT-5 großspurig behauptet, dass seine neue Software Intelligenz auf Doktoratsniveau besitzen würde. Der renommierte KI-Wissenschaftler LeCun bezweifelt schlicht diese Vorstellung. Er sagt: „Wir werden niemals menschliche Intelligenz erreichen, indem wir nur mit Text trainieren.“ [16] Und weiter: „LLMs in ihrer derzeitigen Form werden uns nicht zu einer KI auf menschlichem Niveau führen.“ [17] Auf der Entwicklerkonferenz von Nvidia im März 2025 führt er vier Bereiche auf, in denen sich Sprachmodelle, wie ChatGPT, weiterhin sehr schwertun: Sich selbständig in der physischen Welt bewegen, Erinnerungen langfristig behalten, über Probleme nachgrübeln und langfristige Pläne machen. Die Large Language Modelle sind für viele Bereiche einsetzbar, aber an die menschliche Entscheidungsintelligenz werden sie laut LeCun und anderen Wissenschaftlern nicht herankommen. Sam Altman oder Zuckerberg sind dagegen überzeugt, dass Sprachmodelle nur über genügend große Rechenkapazitäten verfügen müssen, um so intelligent zu sein wie Menschen. Und so werden immer größere Milliardensummen in die Infrastruktur neuer Rechenzentren gesteckt. Um den ganzen Wahnsinn der Entwicklung zu erfassen, sollte man den Energiebedarf des menschlichen Gehirns mit der geplanten elektrischen Leistung der US-Rechenzentren vergleichen. Das menschliche Gehirn braucht nur 20 Watt, aber der Stromkonsum für KI soll weltweit bis 2027 auf 320 Gigawatt steigen [18]. Eine gewaltige Ressourcenverschwendung: Nach Schätzungen des US-Energieministeriums reicht 1 Gigawatt aus, um 700 000 Haushalte oder 1,8 Millionen Menschen ein Jahr lang mit Strom zu versorgen.


Wann platzt die KI-Blase?


Ende 2022 präsentierte OpenAI seinen Chatbot ChatGPT erstmals einer breiten Öffentlichkeit. Danach entstand ein gewaltiger KI-Hype, was einen signifikanten Anstieg der US-Tech-Aktien auslöste. So bei Meta (Facebook): 396 %, Alphabet (Google): 208 %, Amazon: 174 %, Microsoft: 109 %, Apple: 109 %. Hervorzuheben ist die Nvidia-Aktie, die seit Oktober 2022 einen Anstieg von rund 1350 % verzeichnet hat. Zusammengerechnet liegt der gesamte Börsenwert der US-Aktien Anfang November 2025 bei etwa dem zweieinhalbfachen des amerikanischen Bruttoinlandsprodukts. Das klingt nach extremer Überbewertung. Der legendäre Börsenstar Warren Buffett hat in der Vergangenheit die Meinung geäußert, dass schon eine Überbewertung vorliege, wenn beide Zahlen, nämlich das BIP und der gesamte Börsenwert annähernd gleich sind. [19]

Es wundert nicht, dass es mittlerweile an den Börsen Sorgen über einen Aktien-Crash gibt. Beunruhigend ist, dass die US-Tech-Unternehmen hunderte Milliarden für den Aufbau von Rechenzentren samt teuren Nvidia-Chips ausgeben und alles mit Schulden und waghalsigen Geschäftsmodellen finanzieren. Die Gewinne und die Umsätze der M7 stehen dazu in keinem Verhältnis mehr. So greift OpenAI für die Entwicklung seines populären KI-Dienstes ChatGPT auf gewaltige Rechnerkapazitäten zurück. Dafür hat sich das Unternehmen zur Zahlung von riesigen Summen verpflichtet. Das Gesamtvolumen dieser Finanzverpflichtungen liegt mittlerweile bei 1,5 Billionen Dollar. Ein Beispiel für diese Geschäfte ist die vertraglich festgelegte Nutzung der Rechenzentren von Amazons Cloud-Sparte (AWS). Dafür allein muss OpenAI über die nächsten sieben Jahre 38 Milliarden Dollar an AWS zahlen. Das ist aber eher noch bescheiden. OpenAI hat parallel dazu auch ein Abkommen mit Oracle über die Bereitstellung von Rechnerkapazitäten abgeschlossen. Dafür sind ab 2027 300 Milliarden Dollar fällig. Um diesen Verpflichtungen nachkommen zu können, lassen AWS, Oracle und andere jetzt überall neue Rechenzentren für hunderte Milliarden Dollar aufbauen. Wenn man den Realismus dieser Geschäfte bewerten will, muss man einen Blick auf die aktuellen Geschäfte von OpenAI werfen. Das Unternehmen verdient bisher primär mit Abonnements seiner KI-Dienste, mit Lizenzverträgen für Unternehmen und mit der Cloud-Integration von Microsofts Dienst Azure. Es gibt zwar 800 Millionen wöchentliche ChatGPT-Nutzer, aber der größte Teil bezahlt dafür nichts. Sam Altman, der Chef von OpenAI, weigert sich, Zahlen über die Bilanzen seines Unternehmens zu nennen. Einem Bericht des Wall Street Journal zufolge ist aufgefallen, dass Microsoft in den aktuellen Geschäftszahlen des dritten Quartals einen Verlust von 4,1 Milliarden Dollar ausweist. Wenn man das auf den aktuellen Anteil von 32,5 Prozent am ChatGPT-Hersteller hochrechnet, kommt man auf einen Verlust im dritten Quartal 2025 von rund 12 Milliarden US-Dollar. Dazu passt, dass Analysten den aktuellen Jahresumsatz von ChatGPT gerade mal auf 13 Milliarden US-Dollar schätzen. In einem anderen aktuellen Interview an der Stanford-Universität ist Sam Altman recht deutlich geworden. Es sei ihm vollkommen egal, ob man pro Jahr 500 Millionen, fünf Milliarden oder 50 Milliarden Dollar verbrenne. Wichtig sei ihm nur das Ziel, nämlich die Schaffung einer Allgemeinen Künstlichen Intelligenz (AGI). Die würde dann "letztlich viel mehr Wert für die Gesellschaft schaffen" [20].

Der ganze kostspielige Aufbau von Rechenzentren setzt letztlich darauf, dass das Geschäft mit der KI in den nächsten Jahren regelrecht explodieren muss, damit die Finanzierung gesichert ist. Was die Situation verschärft, ist dabei der schnelle Wertverlust der teuren Nvidia-Chips in den Rechenzentren. Ihr Problem besteht darin, dass sie technologisch sehr schnell veralten. So gilt im Bereich der generativen KI eine GPU bereits als veraltet, wenn ein neuer Chip-Standard auf dem Markt ist. Das ist bereits nach nur 2 bis 3 Jahren der Fall. In dieser Zeit müssen die Chips durch die KI-Gewinne eigentlich abgeschrieben sein. Das ist angesichts der aktuell nicht vorhandenen Gewinne schlicht nicht möglich.


Fazit


      
Mehr dazu
Klaus Meier: Künstliche Intelligenz im Kapitalismus: Einige negative Folgen, die internationale Nr. 4/2024 (Juli/August 2024).
Klaus Meier: Wie können die Städte klimaneutral geheizt werden?, die internationale Nr. 4/2023 (Juli/August 2023). Auch bei intersoz.org.
Klaus Meier: Mit Wasserstoff zum grünen Kapitalismus?, die internationale Nr. 5/2020 (September/Oktober 2020). Auch bei intersoz.org.
 

Die heute verfügbaren KI-Systeme bieten in vielen Bereichen sinnvolle Möglichkeiten für die Menschheit. Das gilt beispielsweise für den Bereich der Medizin, für Wettervorhersagen oder eine angepasste Werkstoffentwicklung. Dagegen steht aber bereits heute ein massiver Missbrauch der KI: So bei der Überwachung der Gesellschaft, der Entwicklung monströser Waffensysteme und durch massenhafte Jobverluste. Dazu kommt, dass die großen Konzerne und die bürgerlichen Politiker:innen für ihre KI-Phantasien wahnwitzige Finanzsummen in den Aufbau von Rechenzentren umlenken, Gelder die für dem ökologischen Umbau und für das Sozialsystem fehlen werden. Und sie sind bereit, das Finanzsystem komplett gegen die Wand zu fahren – mit fürchterlichen Folgen für Millionen Lohnabhängige und die Armen dieser Welt. Fortschrittliche Kräfte sollten sich daher gegen den krankhaften Ausbau der Rechenzentren stellen. Jobs müssen durch massive Arbeitszeitverkürzungen gesichert werden. Damit die KI-Technologie der Menschheit nützlich sein kann, muss sie den großen Kapitaleignern entzogen werden. Stattdessen brauchen wir eine vergesellschaftete und demokratisch kontrollierte KI-Infrastruktur, die einer sozial und ökologisch umgebauten Gesellschaft zur Verfügung steht.

03.11.2025
Klaus Meier, Ingenieur und Hochschuldozent, ist aktives Mitglied des Ökosozialistischen Netzwerks.



Dieser Artikel erschien in die internationale Nr. 1/2026 (Januar/Februar 2026). | Startseite | Impressum | Datenschutz


[1] „Is AI Taking Over Jobs? 20 Surprising AI Job Replacement Statistics“, eLearning Industry, 07/2024

[2] „Mensch ersetzt Roboter – Klarna denkt um, Handelsblatt, 20.05.2025

[3] „Übernahmen rangieren an letzter Stelle“, Handelsblatt 20.11.2025

[4] „KI verdrängt Berufseinsteiger“, Handelsblatt 12.08.2025

[5] Jakob Steinschaden: „Der nächste Coup: Microsoft schnappt sich die Inflection AI-Gründer“, 19.03.2024

[6] Ein KI-Crawler ist ein automatisierter Bot, der das Internet durchsucht, um Inhalte für das Training von KI-Modellen zu sammeln.

[7] „Chat-GPT“ verletzt das Urheberrecht“, Süddeutsche Zeitung 12.11.2025

[8] Zitat nach: Roman Leipold: „Die Risiken der Künstlichen Intelligenz“, Chip Magazin, 10/2025

[9] „Der Fluch der generativen KI ist, dass sie wie Magie aussieht“, Süddeutsche Zeitung, 05.11.2025

[10] „The cost of compute: A $7 trillion race to scale data centers“, 28.04.2025, https://www.mckinsey.com/industries/technology-media-and-telecommunications/our-insights/the-cost-of-compute-a-7-trillion-dollar-race-to-scale-data-centers

[11] „Den USA fehlt Strom für neue Rechenzentren, in China ist er kostenlos“, www.n-tv.de 21.11.2025

[12] „Wie Rechenzentren unseren Energiebedarf antreiben“, Bundesministerium für Wirtschaft und Energie, 15.07.2025

[13] „Privathaushalte zahlen die amerikanische KI-Zeche“ www.n-tv.de, 19.10.2025

[14] Shaolei Ren: „How much water does AI consume?“ OECD.AI, 30.11.2023

[15] Berechnung nach: „Öffentliche Wasserversorgung“, Umweltbundesamt 10.09.2024

[16] Roman Leipold: „Die Risiken der Künstlichen Intelligenz“, Chip Magazin 10/2025

[17] KI-Vordenker plant offenbar eigenes Start-up“, Handelsblatt 12.11.2025

[18] Angaben laut dem Forschungsinstitut Rand Corporation: „Stromfresser KI: Google, Meta & Co. gehen radikalen Schritt“, Hamburger Abendblatt, 01.11.2025

[19] Frank Wiebke: „Lebt der Markt nur von heißer Luft?“, Handelsblatt, 5.11.2025

[20] Andreas Proschofsky: „OpenAI dürfte aktuell zwölf Milliarden Dollar Verlust im Quartal machen“, Der Standard, 03.11.2025