Werbung

Homo deus – was wird aus dem Menschen?

1966 schloss Michel Foucault sein Buch „Die Ordnung der Dinge“ mit dem Satz, dass der „Mensch verschwinden wird wie am Meeresufer ein Gesicht im Sand“. Und zwar durch „irgendein Ereignis, dessen Möglichkeit wir höchstens vorausahnen können, aber dessen Form oder Verheißung wir im Augenblick noch nicht kennen.“ Gut fünfzig Jahre später hat יובל נח הררי Yuval Noah Harari das Buch „Homo Deus“ geschrieben, das mir zum ersten Mal plausibel erklärt, was auf den modernen Menschen folgen wird und durch welche Ereignisse sein Verschwinden längst eingeläutet wurde. Theorie so spannend wie ein Roman. Viel von dem, was Harari schreibt, ist für das humanistische Gefühl schwer zu schlucken. Und dennoch ist es eine Wohltat, dass hier jemand den Versuch unternimmt, unsere Gegenwart in Zusammenhänge einzuordnen, die einen Bogen von rund 12.000 Jahren in den Blick nehmen – und die Menschen zwischen Tieren und künstlicher Intelligenz (KI) zu denken versucht. Harari bietet mir als Leser eine Verortung in der Weltgeschichte und zwischen anderen Kreaturen und Technologie an. Das ist deshalb eine Wohltat, weil die alltägliche Zermürbung durch Nuancen-Debatten für mich ein unerträgliches Ausmaß erreicht hat. Harari denunziert auf über 500 Seiten keine einzige Kollegin namentlich – das ist sehr selten. Von Alexander Kerlin.

Was an diesem so reichen Buch bleibt mir spontan in Erinnerung? Es stellt die Frage, welches Projekt die Menschheit im 21. Jahrhundert in Angriff nehmen wird — jetzt, da in weiten Teilen der Welt (nicht in allen) die größten Probleme, die die Menschen in ihrer Geschichte beschäftigt und gequält haben (Krieg, Hunger, Krankheit) weitestgehend gelöst sind.

1) Der radikale Islam und andere fundamentalistische und religiöse Bewegungen werden bei diesem Projekt keine Rolle spielen, weil sie die für die Zukunft entscheidenden Technologien nicht verstehen: Die Biowissenschaften, die Computerwissenschaften und die Nanotechnologie. Die traditionelle Politik (und ihre demokratische Kontrolle) ist weitestgehend abgehängt, was die entscheidenden Entwicklungen angeht.

2) Das (elitäre) Projekt des 21. Jahrhunderts wird einerseits die wichtigsten humanistischen Ideale zu verwirklichen versuchen — und dabei den Humanismus selbst abschaffen, als eine Art unbeabsichtigter Nebenwirkung. Diese Ideale sind: umfassendes Glück, Unsterblichkeit und göttliche Macht für die Menschen. Im 21. Jahrhundert wird man diesen Idealen mit Hilfe von Mensch-Maschine-Hybriden und rasantem Fortschritt beträchtlich näher kommen, und es werden sich entlang von Einkommensunterschieden zwei Klassen von Menschen herausbilden: diejenigen, die sich mit Hilfe von Technologie und Biochemie beständig optimieren können (Geist, Gefühl und Körper), und diejenigen, die das nicht können. Wir sollten nicht davon ausgehen, dass die neuen Übermenschen die „normalen“ Menschen aus reiner Liebe anders behandeln werden, als die Menschen in unserem ausklingenden modernen Zeitalter die Tiere.

3) Die Biowissenschaften sind dabei, die Grenze zwischen organischer Datenverarbeitung (etwa im Gehirn) und anorganischer Datenverarbeitung (in einem Computerchip) endgültig niederzureißen.

4) Seit den epochalen Umbrüchen im Denken um das Jahr 1800, als der einzelne Mensch mit seinen Gefühlen und Ansichten zum Sinn stiftenden Mittelpunkt des Universums wurde, haben die Menschen keine grundlegend neuen Wertvorstellungen erschaffen. Heute jedoch kann man den Siegeszug eines völlig neuen Wertes beobachten, der noch über der menschlichen Freiheit (inkl. Privatsphäre, Individualität usw.) steht: Die Freiheit des Informationsflusses. Die dazugehörige Religion ist der Dataismus, der dem Glauben an die „unsichtbaren Hand des Marktes“ nicht unähnlich ist. Der Dataist sagt: Let the Information flow freely — it’s gonna be to the benefit for all of us. Der einzelne, datenverarbeitende Mensch ist darin nur Teil einer viel größeren Identität: einer (sehr wahrscheinlich) bewusstlosen, expandierenden, vernetzten Superintelligenz („das Internet aller Dinge“).

5) An die Stelle des Wertes menschlicher Erfahrung (hier zur Erinnerung ein paar im Humanismus für sich schon Sinn stiftende Werte: man betrachtet die Natur, hört schöne Musik, isst gutes Essen), tritt heute das teilen von Erfahrung als Wert. Es ist nicht mehr für sich wertvoll, ein Buch zu lesen. Man muss die Erfahrung (z.B. auf Facebook) teilen, bevor sie zu einem Wert wird. So gesehen bin ich längst Dataist.

6) Es gibt keinen triftigen Grund davon auszugehen, dass Algorithmen mittelfristig nicht die meisten Entscheidungen besser treffen können, als Menschen: Auch und gerade solche Entscheidungen, die uns selbst betreffen. Wenn Algorithmen unsere Bedürfnisse und Interessen besser erkennen, als wir fehlbaren Menschenwesen (Facebook braucht nur 300 von deinen Likes zu analysieren, um Familienmitglieder darin zu übertreffen, dich einzuschätzen) — warum sollten wir sie nicht für uns bei Wahlen abstimmen lassen? (Dumme Wähler, die ihren eigenen Interessen und Überzeugungen zuwider wählen, könnten so z.B. verhindert werden). Bleibt die offene Frage: Ist Intelligenz ohne Bewusstsein weniger „wertvoll“ als Intelligenz mit Bewusstsein? Und wenn ja — warum?

Yuval Harari beendet sein wundervoll geschriebenes Buch mit dem Hinweis, dass wir Menschen uns „am Ende im Datenstrom auflösen wie ein Klumpen Erde in einem reißenden Fluss“. Er präzisiert also das Bild von Foucault. Er löst sein Rätsel, 50 Jahre nachdem dieser es gestellt hat. Das ist atemberaubend. „Rückblickend betrachtet, wird die Menschheit nichts weniger gewesen sein als ein leichtes Kräuseln im großen kosmischen Datenstrom.“

Dir gefällt vielleicht auch:

Abonnieren
Benachrichtige mich bei
2 Comments
Oldest
Newest
Inline Feedbacks
View all comments
Arnold Voss
6 Jahre zuvor

Ist alles sehr spannend, aber nicht ganz so neu. Schon in den 80.gern des letzten Jahrhunders haben die visionären Programmierer den Menschen als letztlich überflüssige "wetware" angesehen. Die uralte Idee einer wie auch immer gearteten "Optimierung" des Menschen ist bislang immer wieder an seinem eigenen Objekt gescheitert. Aber selbst wenn sie denn irgendwann gelingen würde, bleibt immer noch die zentrale Frage, wer den dann bestimmt, wer dieser Optimierung würdig ist und wer nicht. 🙂

Klaus Lohmann
Klaus Lohmann
6 Jahre zuvor

Und vor allem, ob mit dem Erreichen eines Wunschziels bzw. einer Idealvorstellung einzelner Programmierer die Optimierung wirklich schon abgeschlossen ist oder ob sie sich dann nicht verselbstständigt und die Entwickler endgültig von ihren Wünschen "befreit".

Werbung