
OpenAI-Chef Sam Altman ist nicht der Einzige, der davon überzeugt ist, dass die Entwicklung einer Artificial General Intelligence (AGI) bald erreicht sein wird. Die Superintelligenz wird die Welt verändern und Altman will, dass die Gesellschaft über ihre Folgen debattiert.
Es ist ein schillernder Begriff, dessen Bedeutung niemand genau beschreiben kann, denn er verweist auf eine Technologie jenseits der menschlichen Vorstellungskraft. Wenn KI-Systeme die Artificial General Intelligence (AGI) erreichen, sollen sie dem Menschen in nahezu jeder Hinsicht überlegen sein. Für Ray Kurzweil bezeichnet dieser Moment, ähnlich wie das Zentrum schwarzer Löcher, in denen die Naturgesetze nicht mehr gelten, die Singularität. Von da an würden KI-Systeme sich selbst in rasender Geschwindigkeit verbessern.
Andere gehen eher von einem schrittweisen AGI-Prozess aus, den wir bereits erleben, denn schon heute verbessert KI KI. Vieles ist ungewiss. Begriffe wie Bewusstsein, Leben, Gefühle oder Ziele werden in den kommenden Jahren neu oder erstmals definiert werden müssen – nicht zuletzt, weil schon heute unklar ist, was ein Bewusstsein überhaupt sein soll.
Doch solche Fragen stehen für Sam Altman, den Gründer und Chef von OpenAI, nicht im Mittelpunkt. Sein Unternehmen hat mit „Industrial Policy for the Intelligence Age“ ein Papier vorgelegt, das Altman später in einem Interview mit Mike Allen auf Axios erläuterte.
Altman geht davon aus, dass die Entwicklung einer AGI das Leben der Menschen und die Wirtschaft so radikal verändern wird, dass jetzt über diese Folgen debattiert werden muss.
Drei Punkte stehen für OpenAI und Altman dabei im Zentrum und werden in dem Papier benannt:
Wohlstand breit verteilen.
Das Versprechen fortgeschrittener KI bestehe nicht nur in technologischem Fortschritt, sondern in einer höheren Lebensqualität für alle. Jeder solle die Möglichkeit haben, an den neuen Chancen teilzuhaben. Steigende Lebensstandards, niedrigere Kosten, bessere Gesundheitsversorgung, bessere Bildung und mehr Sicherheit seien das Ziel. Sollte KI hingegen von wenigen kontrolliert werden und nur ihnen nutzen, während der Großteil der Menschen keinen Zugang zu den neuen Möglichkeiten hat, wäre dieses Versprechen gescheitert.Risiken begrenzen.
Der Übergang zur Superintelligenz werde mit erheblichen Gefahren verbunden sein – von wirtschaftlichen Verwerfungen über Missbrauchsmöglichkeiten etwa in der Cyber- oder Biotechnologie bis hin zum Verlust der Kontrolle über immer leistungsfähigere Systeme. Ohne wirksame Gegenmaßnahmen könnten Menschen zu Schaden kommen. Deshalb seien neue Institutionen, technische Sicherheitsmechanismen und klare Regeln notwendig, um die Systeme kontrollierbar und sicher zu halten. Mit steigender Leistungsfähigkeit müsse auch die Sicherheit mitwachsen.Zugang und Handlungsspielräume demokratisieren.
Auch wenn besonders leistungsfähige Systeme aus Sicherheitsgründen eingeschränkt werden müssten, dürfe die Teilhabe an der KI-Ökonomie nicht vom Zugang zu den stärksten Modellen abhängen. Entscheidend sei vielmehr, dass möglichst viele Menschen Zugang zu nützlicher, bezahlbarer und datenschutzfreundlicher KI erhalten. Nur so lasse sich verhindern, dass Macht und Wohlstand bei wenigen konzentriert werden. Ziel sei es, Menschen reale Einflussmöglichkeiten zu geben – im Beruf, in der Wirtschaft und in demokratischen Prozessen.
Im Gespräch mit Mike Allen auf Axios sagt Altman, dass die Unternehmen, die an einer AGI arbeiten, allesamt sehr verantwortungsbewusst seien. Das mag auf OpenAI (ChatGPT), Anthropic (Claude), Google (Gemini) zutreffen, bei Grok von Musks xAI, das in der Vergangenheit durch Deepfakes, Beschimpfungen und Antisemitismus aufgefallen ist, sind Zweifel angebracht. Doch Altman hat einen Punkt, wenn er darauf hinweist, dass nicht nur die großen Systeme im Bio-Bereich leistungsfähiger werden, sondern auch die Open-Weight-Modelle, die sich jeder kostenlos herunterladen, trainieren und nutzen könne. Die gesicherten, großen Systeme könnten zu großen medizinischen Fortschritten führen, die aber auch immer leistungsfähiger werdenden offenen Systeme, ein Bereich, in dem China sehr stark ist, zur Herstellung von Biowaffen genutzt werden.
Altman geht davon aus, dass künftige Systeme vielleicht noch nicht in der Lage wären, Forschung auf Nobelpreisniveau zu leisten, aber viele Wissenschaftler dabei unterstützen würden, Ergebnisse zu erzielen, wie man sie bislang nur einmal in einer Forscherkarriere erreichen würde. Und wenn sie heute schon im IT-Bereich, zum Beispiel bei der Programmierung, stark seien, würden sie bald große Teams von Ingenieuren und Informatikern ersetzen. Altman berichtet, von Allen darauf hingewiesen, dass die von OpenAI vorgestellte Agenda ja der Politik Trumps widersprechen würde, KI ohne Regeln weiter zu entwickeln, von einem Gespräch mit einem hochrangigen Republikaner: „Er sagte, er habe eigentlich keine Lust, solchen Ideen Aufmerksamkeit zu geben. Aber der Kapitalismus habe immer von einem Gleichgewicht zwischen Arbeit und Kapital gelebt.“ Wenn sich KI so entwickelt, wie viele erwarten, werde dieses Gleichgewicht kippen. „Dann liege zu viel Macht beim Kapital und zu wenig bei der Arbeit – zumindest im traditionellen Sinne. Zwar würden neue Jobs entstehen, aber man müsse trotzdem über neue Ansätze nachdenken, um den Kapitalismus funktionsfähig zu halten.“ Altman sagte, er habe aber auch mit Demokraten über die Vorschläge von OpenAI gesprochen. „Das Ziel ist zunächst einmal, überhaupt eine Debatte anzustoßen.“ Es habe ihn überrascht, wie offen die Reaktionen aus ganz unterschiedlichen politischen Richtungen darauf waren, dass wir neue Ansätze brauchen und dass wir möglichst früh damit beginnen sollten, darüber zu sprechen.“
Altman fordert nicht eine KI-Regulierung im Stil der Europäischen Union, die Entwicklung behindert, sondern eine Debatte, die es ermöglicht, den „verantwortungsbewussten Unternehmen“ ihre Arbeit fortzusetzen. Und nachdem Anthropic sich in den vergangenen Monaten in der Öffentlichkeit zunehmend als die offeneren und freundlicheren Entwickler von Frontier-KI, von Systemen, die mit ihren Technologien die Zukunft bestimmen werden, positioniert hat, ist es Altman auch sicher daran gelegen, OpenAI als sich seiner gesellschaftlichen Bedeutung bewusstes Unternehmen zu präsentieren. Aber klar ist auch: KI wird die Welt radikal verändern, Arbeitsplätze vernichten und neue Möglichkeiten für Hacker und Terroristen schaffen. Altman will, dass die KI-Branche im Dialog mit der Politik eigene Regulierungen entwickelt, um sicherzustellen, dass Regierungen nicht eines Tages in Panik Regeln aufstellen, die eine weitere Entwicklung von Künstlicher Intelligenz blockieren . Das ist strategisch geschickt. OpenAI fordert Regulierung, aber eine, die zur eigenen Entwicklung passt. Wer früh die Debatte prägt, legt die Spielregeln fest. Der Vorschlag eines „KI-Gesellschaftsvertrags“ ist damit nicht nur ein Beitrag zur Diskussion, sondern auch ein Versuch, sie in eine bestimmte Richtung zu lenken.
