Das Ende ist nah! Warum der KI-Hype enden muss 

“Einen Hype zu verpassen ist schlimmer, als von einem Hype verarscht zu werden.” So spitzte KI-Forscher Gary Marcus unseren Umgang mit Hypes jüngst zu. Er sieht den KI-Hype bald zerbröseln. Und da ist er nicht der Einzige.
Unser Autor schreibt vom Ende des Medienhypes einer Technologie, die doch noch nicht so weit sein könnte, wie die Versprechungen ihrer Nutznießer uns weismachen wollen. (© Adobe Stock)

Ungewisse Bewertungen und uneindeutige Prognosen sind genau das Material, aus denen gute Hypes bestehen. So verhält es sich auch aktuell mit den Chancen und Gefahren generativer KI. Dieser Moment sei so wichtig wie der, als der Mensch lernte, das Feuer zu zähmen. Oder: Die Vernichtung der Menschheit steht kurz bevor.  

Während Stimmungsbarometer wie Google Trends noch keine Schwäche des KI-Hypes erkennen lassen – was wir aktuell sehen, sei ein Rückgang der Anfragen aufgrund der Ferienzeit – sehen Medien und Expert*innen das Ende nahen. So titelt das “Wall Street Journal”: „Die AI-Revolution verliert bereits an Fahrt“. Und im Guardian faste John Naughton, Professor der Open University, die ökonomische Lage so zusammen: „Vom Boom zum Platzen: Die KI-Blase kennt nur eine Richtung.“ 

Google, ein Fall für den Internetfriedhof? 

Beide Artikel stehen mittlerweile für eine Vielzahl an Artikeln, die den aufmerksamen Leser*innen nicht entgangen sein dürften. In ihnen werden unter anderem Vorhersagen, die zum Anfang der KI-Rallye getroffen wurden, widerlegt. Googles Suchmaschine geht es, obwohl es mittlerweile ChatGPT 4.o gibt, so prächtig wie noch nie zuvor. Das Googeln wurde zu Beginn des Hypes schon auf den Internetfriedhof gelegt. Zu Unrecht. Zur Keynote auf der hauseigenen Entwicklermesse benutzten die Google-Verantwortlichen das Wort „AI“ gleich 140 Mal. Nach der Vorstellung dessen, wie Google KI in seine Produkte integriert, ist der Aktienkurs des Unternehmens um 8 Prozentpunkte gestiegen.  

Microsoft hingegen, der mutmaßliche Nutznießer und größte Investor der ChatGPT-Firma OpenAI, hat zu knabbern. Ihre Suchmaschine Bing konnte keinen Boden gegenüber Google gutmachen. Zudem haben Microsofts KI-Produkte Probleme, sich durchzusetzen: Nach nur drei Monaten stellte das Unternehmen sein Tool GPT Builder ein. Und die neuen Surface-PCs, die mit dem Recall-Feature ausgeliefert werden sollten, erlebten ein PR-Desaster. Denn eben dieses Feature entpuppte sich als Datenschutz-Supergau: Screenshots, die das Programm während des Arbeitstages auf die Festplatte ablegt, um sie später analysieren zu können, sind frei für alle lesbar, sobald sich jemand Zugang zur Festplatte verschafft hat. Das passt zu den Aussagen des OpenAI-CEOs Sam Altman, der jüngst in einem Podcast behauptete, eine Allgemeine Künstliche Intelligenz zu entwickeln, sei ohne Datenschutzverletzungen nicht möglich. Es war nur das Sahnehäubchen rund um das Gebaren und Zanken im Aufsichtsrat von OpenAI. Da wünscht man sich schon fast das Ende des Hypes herbei. 

Während Microsoft-CEO Satya Nadella noch die Ruhe bewahrt, haben manche Senior AI Developer schon die Nase gestrichen voll. Wie der Wirtschaftspublizist Gunnar Sohn zusammengetragen hat, gebe es einen erheblichen Brain-Drain. Bekanntestes Beispiel: Johannes Brandstetter, der von Microsoft Research an die Universität Linz wechselte, um dort KI-basierte Simulationen zu lehren.  

Programmieren mit ChatGPT braucht immer noch Menschen 

Um zu verstehen, wie es um den KI-Hype steht, lohnt es sich, auf die „revolutionären“ Produkte zu schauen, die mithilfe von KI entwickelt wurden. Als eine der Stärken gilt dabei der Einsatz von ChatGPT beim Programmieren. Etwas, dass auch gerne Gegenstand wissenschaftlicher Untersuchungen ist. Der Berufsverband der Entwickler, eine Gruppe schwedischer Forscher*innen und die Purdue University haben unabhängig voneinander den Einsatz von Sprachassistenten für den Entwicklungsprozess untersucht. Als gemischte Ergebnisse könnte man die Schlüsse ihrer Arbeiten zusammenfassen. Vor allem aber meilenweit von der Revolution entfernt, die proklamiert wurde. Denn auch wenn der Einsatz von ChatGPT durchweg nützliche Ergebnisse lieferte, schwankte diese Leistung je nach Programmiersprache erheblich.

Die größte Schwäche: Es fehlt die Übersicht, was dazu führt, dass zwar schneller Code geschrieben werden kann. Das drückt sich allerdings später in technischen Schulden aus, für die die Entwickler*innen dann wieder mehr Zeit benötigen, um sie zu beseitigen. Am Ende also beinahe ein Nullsummenspiel. Der richtige Einsatz, so kommen die Forschenden zum Schluss, benötigt vor allem einen erfahrenen Programmierer. Der Beruf ist also weit davon entfernt, obsolet zu werden.  

Ein wenig begeisterter sieht es Susan Anderson, die trotz gemischter Ergebnisse hoffnungsvoll bleibt. Die Human-Ressources-Expertin aus dem Silicon Valley hat in einem Experiment versucht, menschliche Aufgaben im Recruiting komplett durch ChatGPT zu ersetzen. Ihre anfängliche Skepsis gegenüber der KI konnte sie damit zwar abbauen. Aber auch sie sieht den Menschen als essenzielle Arbeitskraft in der Personalabteilung erhalten.

Die Argumente der Kritiker von KI 

Ein anderer Ansatz, den KI-Hype zu verstehen, ist der, auf die Argumente jener zu schauen, die den Hype kritisieren. Da spricht der US-Tech-Journalist Brian in Anlehnung an den Scharlatan Georg Schröpfer von „Smoke and Mirrors“. Für den Professor der Neurowissenschaften und Psychologie Gary Marcus sei der aktuelle KI-Hype wie Alchemie vor der Entdeckung des Periodensystems. Man mixe die Elemente zusammen und verspreche, dass dabei Gold herauskommt.

Der Technologiestratege und ehemaliger Leiter des Mixed Reality Labs bei Microsoft Dirk Songür bescheinigt der KI-Industrie einen schwerwiegenden Mangel an Situationsbewusstsein und macht folgende Rechnung dafür auf: Um GPT-3 zu berechnen, brauche es etwa 1300 Megawattstunden, was in etwa dem Jahresverbrauch von 130 US-Haushalten entspricht. Um GPT-4 zu berechnen, benötigte OpenAI bereits 50-mal mehr, nämlich gute 55.000 Megawattstunden. Das Problem dabei: Die qualitative Verbesserung entspricht nicht dem Aufwand an Energie, Wasser und Grafikkarten, die dafür investiert werden müssen. Für die Entwicklung einer Allgemeinen Künstlichen Intelligenz (AGI), wie sie OpenAI zum Beispiel anstrebt, wäre eine unfassbare Menge an Energie nötig. Abgesehen davon führen einige KI-Experten an, dass eine AGI mit der aktuellen Technik der Large Language Models sowieso nicht möglich sei.  

Die KI-Industrie besorgt sich aufgrund des drastisch gestiegenen Energieverbrauchs den Strom mittlerweile direkt bei den Atomkraftwerken. Bill Gates geht sogar so weit, die Entwicklung eines Mini-AKWs zu finanzieren. Um seine KI weiter entwickeln zu können, kündigt Google sogar sein Versprechen auf, CO2-neutral zu arbeiten. Googles Energiehunger ist in den vergangenen Jahren um 48 Prozent gestiegen.  Microsofts Plan, bis 2030 CO2-negativ zu sein, wurde aufgrund seines gesteigerten Energiehungers um 30 Prozent ebenso fallengelassen. Zur Wiedergutmachung werden Umweltzertifikate gekauft, gerne auch von 1PointFive, das zum Öl- und Gaskonzern Occidental Petroleum gehört. 

Dieser gewaltige Energiehunger will finanziert werden. David Cahn, Analyst bei der Risikokapitalgesellschaft Sequoia Capital, berechnet die Einnahmen, die benötigt werden, auf 600 Milliarden US-Dollar. Goldman Sachs stellt die Wirtschaftlichkeit insgesamt infrage. Diese “Energie-Bulimie“, wie es der Physiker und Naturphilosoph Harald Lesch nennen würde, stößt also auch an seine Grenzen. Selbst wenn wir mehr Daten und mehr Energie hätten, käme keine Allgemeine Künstliche Intelligenz dabei heraus. Die Konsequenzen für die Umwelt wären indes drastisch.  

Immense wirtschaftliche und ökologische Kosten 

Technisch gesehen haben wir den Scheitelpunkt also bereits erreicht. Was heute Generative KI kann, verursacht bereits immense wirtschaftliche als auch ökologische Kosten, die noch nicht auf die Produkte umgelegt wurden, die wir heute nutzen.  

Was also bleibt vom KI-Hype, würde er heute enden? Eine gesteigerte Produktivität von 0,5 bis 1 Prozent, so schätzt es MIT-Professor Daron Acemoglu für die USA. Und Produkte, die einigermaßen hilfreich sind, wenn man sie einzusetzen weiß. Aber, und das wird gerne unterschätzt, die in Zukunft aufgrund der drastischen Kosten bedeutend teurer werden müssen, wenn sie sich für Google, Microsoft & Co. lohnen sollen. Und eigentlich müssten die ökologischen Kosten da noch mit drauf gerechnet werden.  

Eine bedeutende Aufgabe bleibt den Regulator*innen aus dem KI-Hype: Wie kann man den Raum für ökonomische und technologische Innovation öffnen, ohne dabei unendlich viel Energie zu benötigen? 

(tr, Jahrgang 1981) ist freier Journalist aus Köln. Als Kind der 90er wuchs er mit Ace of Base, Hero Quest und Game Boy auf und bastelte früh Webseiten für andere, nahm Podcasts auf und sagte das Smartphone-Zeitalter voraus, während er über WAP auf dem Accompli 007 E-Mails verschickte. Heute berichtet der Vater einer Teenager-Tochter über Tech- und New-Work-Trends in Text und Ton. Aktuelle Podcasts: "Future Future" und "Der Metaverse Podcast".