
Deutschland hat die Bedeutung von KI früh erkannt und sich dann wegen grüner Ideologie freiwillig aus dem globalen Rennen um die technologische Zukunft verabschiedet.
2018 war Künstliche Intelligenz noch kein so populäres Thema wie es das nach der Veröffentlichung von ChatGPT3.5 am 30. November 20222 werden sollte, aber die Technologie war bereits in viele Anwendungen integriert: KI wertete im medizinischen Bereich MRT-Bilder aus, steckte in der Google-Suche und übersetzte Texte. Damals wie heute lagen die USA und China bei der Entwicklung vorne und in Europa und Deutschland hatte man das zur Kenntnis genommen. Der Economist fragte in einem ausführlichen Beitrag „Kann die EU zu einer weiteren KI-Supermacht werden?“, denn das war sie offensichtlich nicht. Der Text ist bebildert mit einem Foto der damaligen Bundeskanzlerin Angela Merkel, die lächelnd einem kleinen Roboter namens NAO die Hand reicht, der sich allerdings nicht besonders für die damals wohl mächtigste Frau der Welt zu interessieren scheint. In Europa, schreibt das Wirtschaftsmagazin, habe sich die Erkenntnis durchgesetzt „Künstliche Intelligenz (KI) könnte für die Zukunft Europas ebenso wichtig sein wie andere grundlegende Technologien, etwa Elektrizität oder die Dampfmaschine.“ In Europa arbeitete man damals an KI-Strategien. Frankreich und Finnland hatten ihre bereist veröffentlicht. In den USA war man skeptisch: „Das wird alles vermasselt, genau wie beim Cloud Computing,“ sagte damals Jack Clark von einem Unternehmen, dessen Namen damals kaum jemand kannte und das wenige Jahre später die KI-Revolution mit ChatGPT auslösen sollte: OpenAI.
Und diese Revolution deutete sich bereits an, wenn auch in den Laboren der Hersteller: OpenAI hatte GPT-1 fertiggestellt, einen Textgenerator, während Google mit BERT ein Sprachmodell veröffentlichte, das Forschern weltweit offenstand, für die breite Öffentlichkeit jedoch unsichtbar blieb. Einige Experten ahnten die Richtung der Entwicklung, doch selbst viele Fachleute hatten seinerzeit keinen klaren Blick auf das, was kommen sollte.
Daran gemessen war die im selben Jahr veröffentlichte KI-Strategie der Bundesregierung bemerkenswert klar: Eine einheitliche, von allen Akteuren konsistent genutzte Definition von KI gebe es nicht, heißt es im Vorwort. Unterschieden würden zwei Arten von Künstlicher Intelligenz: die „starke KI“, heute würde man sie als „Artificial General Intelligence“ bezeichnen, die die gleichen intellektuellen Fähigkeiten wie der Mensch haben oder ihn sogar übertreffen könne, und die „schwache KI“, die konkrete technische Lösungen bietet.
Aufgezählt werden Systeme zur Modellierung und Erhebung von Wissen, Musteranalyse und -erkennung als induktive Verfahren – auch für maschinelles Lernen – sowie bereits die intelligente multimodale Mensch-Maschine-Interaktion: die „Analyse und das ‚Verstehen‘ von Sprache (in Verbindung mit Linguistik), Bildern, Gestik und anderen Formen menschlicher Interaktion“. Genau das leisten heute ChatGPT, Gemini und Claude. Damals lagen solche Ideen noch an der Grenze der Vorstellungskraft.
Dass die eigentliche Revolution ausgerechnet aus dem Text kommen würde, aus Systemen, die schreiben, argumentieren und diskutieren, hatte ebenso kaum jemand auf dem Schirm wie ihre heutigen Programmierfähigkeiten. Die großen Hoffnungen lagen 2018 auf der KI in der Medizin und dem autonomen Fahren.
Die in der Strategie formulierten Ziele waren ambitioniert: ein massiver Ausbau der Forschung, eine engere Zusammenarbeit zwischen Unternehmen und Wissenschaft. Gründer sollten unterstützt, die Weiterbildung verbessert, KI-Grundwissen als fester Bestandteil in die berufliche Aus- und Weiterbildung integriert und KI verstärkt in der Verwaltung genutzt werden.
Auch das Kernproblem der europäischen KI-Entwicklung wurde benannt, aber in seiner Tragweite noch nicht erkannt: „Für Methoden der KI und des maschinellen Lernens sind die Verfügbarkeit und Güte von Daten zentrale Voraussetzung und bestimmende Faktoren für die Qualität der Ergebnisse.“ Der Zugang zu Daten sei jedoch vielfach beschränkt: „Die Menge an nutzbaren, qualitativ hochwertigen Daten muss zur Verwirklichung der Ziele dieser Strategie deutlich erhöht werden.“
Man verwies auf die im Vergleich zu den USA bereits damals strengeren Datenschutzregeln, sah sie jedoch nicht als zentrales Hindernis. Man hatte die Bedeutung von KI erkannt und wollte aufholen – allerdings auf eine sehr deutsche Art: keine Konzentration auf wenige Spitzenunternehmen und Eliteuniversitäten wie in den USA, sondern auf den Mittelstand und die Breite der Forschungslandschaft. KI-Föderalismus. Ein Ansatz, der gut zur politischen Kultur Deutschlands passt, aber schlecht zu einer Technologie, die von Skalierung lebt.
Zwei Jahre später wurde ein Zwischenbericht veröffentlicht und die KI-Strategie fortgeschrieben. Man zeigte sich zufrieden: „Deutsche Forscher“, wurde stolz verkündet, „spielen in der Champions League der KI mit.“ Nach einer Auswertung des Wissenschaftsverlags Elsevier lag Deutschland bei der Zahl wissenschaftlicher Publikationen international auf Platz fünf – hinter China, den USA, Japan und Großbritannien. In Europa würden insgesamt sogar mehr Arbeiten zu KI veröffentlicht als in China und den USA.
Auch strukturell hatte sich etwas getan: 192 Professuren mit KI-Schwerpunkt waren über das Land verteilt, die Zahl der Start-ups war gestiegen. Ein Schwerpunkt lag auf dem automatisierten Fahren – 58 Prozent der Patentanmeldungen kamen aus Deutschland.
Parallel dazu legte 2019 die von der Bundesregierung eingesetzte Datenethikkommission ihr Gutachten vor. Es empfahl unter anderem einen risikobasierten Regulierungsansatz für algorithmische Systeme: Kontrollinstrumente, Transparenzvorgaben, Erklärbarkeit, Nachvollziehbarkeit sowie klare Regeln für Verantwortung und Haftung.
Offiziell hielt man am Leitbild eines „europäischen KI-Ökosystems für Innovationen“ fest, das die Wettbewerbsfähigkeit stärken sollte. Tatsächlich verschob sich der Fokus jedoch: Innovation, Wachstum und Skalierung traten in den Hintergrund. Stattdessen rückten Gemeinwohl, Nachhaltigkeit und Risikobegrenzung in den Mittelpunkt. Noch unter Bundeskanzlerin Angela Merkel hieß es: „Bei der Entwicklung und Nutzung von KI werden wir den Nutzen für den Menschen, das Gemeinwohl sowie die Umwelt und das Klima in den Mittelpunkt stellen.“ Heere Ansprüche, die schon damals nicht zu erfüllen waren, wenn man weder global bestimmend bei der Programmierung von KI-Systemen noch in der Chip-Herstellung war. Deutschland hatte sich entschieden, der besserwisserische Trockenschwimmen zu bleiben.
KI war damit – ganz im Sinne des Zeitgeists – zu einem politischen Projekt geworden, das vor allem eingehegt werden sollte. Und das ausgerechnet in dem Moment, in dem sich die Entwicklung anderswo beschleunigte: OpenAI veröffentlichte GPT-3, den direkten Vorläufer von ChatGPT, und Nvidia brachte mit dem A100 einen Grafikprozessor auf den Markt, der das Training großer KI-Modelle erst im industriellen Maßstab ermöglichte.
Der von Deutschland eingeschlagene Kurs lag nicht nur am Desinteresse der damaligen Bundeskanzlerin und ihres Wirtschaftsministers Peter Altmaier an Technik und Wirtschaft, sondern auch an den zum Teil obskuren Ansichten von Experten, die immer wieder zu Wort kamen. Natürlich wiesen Siemens oder die Telekom früh auf die notwendigen technischen Grundlagen und den sich beschleunigenden internationalen Wettbewerb hin, doch es gab auch andere Stimmen. So erklärte die Wiesbadener INVENSITY GmbH bereits 2018: „Unreguliertes Forschen an neuen Technologien, wie es bspw. in Amerika oder China weitestgehend der Fall ist, wird es hier nicht geben. Vielmehr sollte man sich auf die Expertise in den Bereichen der Normierung und Regulierung besinnen.“ Und die evangelische Kirche betonte, Technologie- und Geschäftsideen hätten insbesondere dann gute Chancen auf Umsetzung und Akzeptanz, wenn sie den Nachhaltigkeitszielen der UN dienten – und nicht kurzfristigen Partikularinteressen.
Der 2024 veröffentlichte OECD-Bericht zu Künstlicher Intelligenz in Deutschland fiel entsprechend ambivalent aus: Deutschland sorge nicht nur dafür, KI ethisch verantwortbar zu entwickeln, sondern sei auch gut positioniert, sie ökologisch nachhaltig zu gestalten und politische Initiativen auf diesem Feld voranzutreiben. Mag sein – aber ganz sicher nicht in den KI-Großmächten USA und China, die über die Zukunft dieser Technologie entscheiden. Als Schwächen nennt die OECD unter anderem den geringen Frauenanteil in der KI-Forschung und das Fehlen „einer kohärenten Strategie zur Nutzung von KI für ökologische Nachhaltigkeit“.
Doch 2024 war das Rennen längst gelaufen. Die großen KI-Modelle kommen aus den USA und China, die besten Produkte bei Softwareprogrammierung und KI-Agenten ebenso, und selbst herausragende europäische Entwickler wie die Österreicher Peter Steinberger (Open Claw) werden abgeworben. Europa – und besonders Deutschland – leidet weiterhin unter einem Mangel an leistungsfähigen Rechenzentren, und daran wird sich so schnell nichts ändern: NGOs und einflussreiche Geldgeber wie die Mercator-Stiftung mobilisieren gegen den Ausbau der KI-Infrastruktur. Der Datenschutz bremst die Softwareentwicklung, Kapital für Start-ups fehlt, und auf große Ankündigungen folgt oft wenig: Die EU wollte im Herbst die Standorte für ihre KI-Gigafabriken benennen – nun ist von frühestens Mai die Rede. Im globalen Maßstab sind diese Projekte ohnehin eher mittelgroß als „giga“.
Die Europäische Union scheint sich damit das Motto des Bären Balu aus Disneys Dschungelbuch zu eigen gemacht zu haben: „Probier’s mal mit Gemütlichkeit.“ Warum auch nicht? International spielt man ohnehin keine entscheidende Rolle mehr. Die vom Economist 2018 gestellte Frage „Kann die EU zu einer weiteren KI-Supermacht werden?“ lässt sich heute nur noch mit einem klaren „Nein“ beantworten.
Das hat Konsequenzen – und Digitalminister Karsten Wildberger deutet sie zumindest an. „Wenn wir in Deutschland die KI-Technologie führend anwenden, ist die Wahrscheinlichkeit, dass sie zu deutlich überproportionalem Wachstum führt, sehr hoch“, sagte er der Neuen Osnabrücker Zeitung. „Das wäre eine Grundvoraussetzung, um diesen Wandel überhaupt gestalten zu können. Denn wir brauchen deutlich höhere Steuereinnahmen, damit wir mit dem Geld den Jobmarkt umbauen können.“ Auch ein bedingungsloses Grundeinkommen könne Teil der Lösung sein, um die Umwälzungen aufzufangen. Doch auch das werde nicht ausreichen: „Wir Menschen brauchen eine sinnstiftende Tätigkeit. Kaum jemand kann doch nur zu Hause sitzen und Videos schauen, ohne verrückt zu werden.“
Was er nicht sagt: Was passiert, wenn dieses Wachstum ausbleibt. Dann verliert das Land nicht nur Arbeitsplätze – es verarmt. Die Voraussetzungen dafür sind längst geschaffen: teure und knappe Energie, ein weltweit einzigartiger Datenschutzfetisch, im internationalen Vergleich zu wenig Rechenzentren und eine Politik die seit Jahren lieber verwaltet als gestaltet. Und niemand scheint bereit, daran etwas zu ändern.
