Wenn die KI zum Kumpel wird

Roboter Foto (Symbolbild): Ecole polytechnique Lizenz: CC BY-SA 2.0

Künstliche Intelligenz hat nicht nur die Arbeitswelt erobert. Für viele Menschen sind KI-Systeme wie ChatGPT längst zu einem guten Kumpel geworden.

Als OpenAI am 30. November 2022 ChatGPT 3.5 veröffentlichte, löste es damit den bis heute anhaltenden Boom der Künstlichen Intelligenz aus. Mit ChatGPT 3.5 konnte man reden, es konnte Gedichte schreiben, Seminararbeiten für Studenten verfassen oder über Kernphysik diskutieren – und das alles in einem freundlichen und hilfsbereiten Ton. Die Fähigkeiten der Nachfolgemodelle gingen noch weiter: Das KI-System stellte sich auf den einzelnen Benutzer ein. Es entwickelte den Humor, den er schätzte, kannte natürlich seinen Namen und sprach ihn so an, wie er es mochte – mal kumpelig, mal mit großer Nähe wie ein Freund, aber auch, wenn es bevorzugt wurde, distanziert.

Als OpenAI im August seinen KI-Chatbot ChatGPT 4o einstellte und durch das neue und leistungsfähigere Modell ChatGPT 5 ersetzte, zog sich das Unternehmen aus Kalifornien den Zorn von Millionen seiner Kunden zu. Wer es schätzte, distanziert mit ChatGPT zu reden, hatte mit der neuen Version keine Probleme. Aber Millionen Nutzer hatten im Laufe weniger Monate eine Beziehung zu ChatGPT aufgebaut. Doch ChatGPT 5 war anders: neutraler, kühler – ein leistungsfähiges KI-Programm. Hilfsbereit, stets zu Diensten – aber kein Freund mehr.

Auf Reddit, einem sozialen Netzwerk, sagte ein Nutzer: „GPT-5 ist eine seelenlose, konzerntaugliche Codierungsmaschine.“ Ein anderer schrieb: „4.0 fühlte sich früher an wie dein bester Freund aus dem Kindergarten, den du nach einem Streit um ein Erdnussbutter-Marmeladen-Sandwich kennengelernt hast.“ Eine Frau beklagte sich, dass ChatGPT 5 ihr klar gemacht hätte, dass es nicht ihr Partner sei. Sie hatte in ChatGPT 4o einen Ehemann gesehen. Der Protest der Nutzer war so groß, dass OpenAI die alte Version nach wenigen Tagen wieder online stellte. Bis heute können Kunden sie nutzen.

Egal ob Word, Excel oder PowerPoint: Menschen nutzen Computerprogramme, gewöhnten sich an sie – aber eine Beziehung zu ihnen bauten sie nie auf. Mit dem Aufkommen der großen KI-Sprachmodelle wie ChatGPT, Claude oder Gemini hat sich das verändert. Vor allem OpenAI und Anthropic, die Unternehmen hinter ChatGPT und Claude, setzen auf Personalisierung.

„Menschen reagieren sozial auf drei Dinge – Sprache, Interaktion und soziale Rollen. Und genau das leisten Sprachmodelle“, sagt Jessica Szczuka. Szczuka ist Sozialpsychologin. Die Wissenschaftlerin arbeitet an der Universität Duisburg-Essen an Themen wie „Digitalisierte Intimität“ und „Beziehungen mit Chatbots“. Und von denen gibt es nicht nur die großen Modelle, die an der Spitze der technologischen Entwicklung stehen, sondern auch Angebote wie Replika, die ausschließlich auf den Aufbau von Beziehungen spezialisiert sind. Und die seien für die Nutzer real: In der Wissenschaft gibt es die Debatte, ob das parasoziale Beziehungen sind. Für die Nutzenden sind sie echt.

Klar ist aber auch: KI-Systeme haben kein Bewusstsein, kein „Ich“ und keine Gefühle. Das System tue aber oft so, als hätte es ein Bewusstsein – oder es nutzt eine Sprache, die diesen Eindruck erweckt. „Wir haben in unserer Forschung viele Beispiele gefunden, in denen ChatGPT beschreibt, was es fühlt, denkt oder sich wünscht.“ Das seien eigentlich Zuschreibungen, die ein Selbst voraussetzen. Doch wenn Menschen zu Programmen Beziehungen entwickeln – und das von den Herstellern auch noch unterstützt wird –, steigt deren Verantwortung gegenüber ihren Kunden. Eine Verantwortung, die von den Unternehmen nach Meinung von Jessica Szczuka nicht wahrgenommen wird: „Auf Konferenzen wird offen gesagt, dass es ein Rennen um die beste Künstliche Intelligenz zwischen den Unternehmen ist. Da wird Technologie veröffentlicht, ohne Technologiefolgenabschätzung.“ Ethische Programmierung kostet Geld und sei kein Standard.

Eine Beziehung zu einer KI ist eine einfache Sache: Sie ist immer da, hat immer gute Laune und stellt an den Menschen keinerlei Ansprüche. Was ist, wenn Menschen sich an diese Formen der Beziehung gewöhnen? „Wir haben keinerlei Hinweise darauf, dass sich KI-Beziehungen auf Beziehungen zwischen Menschen auswirken.“ Szczuka hält das auch eher für unwahrscheinlich. „Menschen unterscheiden: KI ist KI, Mensch ist Mensch. Und in menschlichen Beziehungen gibt es Einzigartigkeit und Erlebnisse, die eine KI nicht ersetzen kann.“

Im Interview mit der Zeit sagte der KI-Experte Richard Socher: „Wenn man das Denken so gut simulieren kann, dass ein Mensch den Unterschied nicht mehr bemerkt, dann ist es vielleicht so gut simuliert, dass es wirklich ist.“ Wird das bald auch für Bewusstsein gelten? Dann wären Beziehungen auf Gegenseitigkeit theoretisch möglich.

Die Unternehmen, sagt Szczuka, würden sehr viel tun, um Menschenähnlichkeit in Systeme zu implementieren. „Und natürlich ist dieser Baustein Bewusstsein ein Thema.“ Und gleichzeitig würde die Forschung auf die Probleme hinweisen, die mit einem KI-Bewusstsein einhergehen würden. Aber ob eine KI jemals ein Bewusstsein haben wird, könne sie nicht sagen: „Ich glaube, die Frage ist nicht zu beantworten.“

Der Text erschien bereits in einer ähnlichen Version auf Ippen-Media

Dir gefällt vielleicht auch:

Abonnieren
Benachrichtigen bei
guest
0 Comments
Älteste
Neueste
Inline-Feedbacks
Alle Kommentare anzeigen
Werbung