Skip to main content

Wart ihr schon mal in einen Popstar verknallt? Oder hattet einen Crush auf einen Film- oder Seriencharakter? Wir auch. Parasoziale Beziehungen, d.h. einseitige soziale Beziehungen, welche wir zu Persönlichkeiten oder Figuren aufbauen, die uns medial vermittelt werden, sind in der heutigen Gesellschaft völlig normal.

Dass in Zeiten von zunehmendem Individualismus und Phänomenen wie der ‘male loneliness epidemic’ mediale Charaktere eine immer größere Bedeutung für unser Sozialleben gewinnen können, war wohl abzusehen. So sind bereits seit einigen Jahren sogenannte VTuber extrem erfolgreich: Creator, die sich hinter einem digitalen Avatar ihrer Wahl, meist im Anime-Stil, verbergen und deren tatsächliche Person nicht bekannt ist. Hier handelt es sich zwar noch um echte Menschen, doch erschaffen sie mithilfe von Motion Capture und Spracherkennungssoftware bereits eine Art Hybrid-Persona, die ausschließlich als Fantasiefigur existiert. VTuber sind vor allem in Asien sehr beliebt, doch werden sie auch global immer erfolgreicher. Dass in China während der Covid19-Pandemie die Zahl von VTubern und ihren Fans stark zugenommen hat, ist jedenfalls kein Zufall.

Heute soll es um die nächste ‘Stufe’ von digital vermittelteten parasozialen Beziehungen: immer mehr Menschen führen emotionale oder romantische Beziehungen zu KI-Chatbots, die von Apps zur Verfügung gestellt werden wie Replika oder Character.AI. Besonders betroffen sind junge, einsame oder psychisch belastete Menschen, wie ein Erfahrungsbericht eines YouTubers zeigt: In einem depressiven Tief wandte er sich an einen KI-Charakter, entwickelte Gefühle und stellte sein soziales Leben ein, bis er sich mühsam wieder „entlieben“​ musste. Willkommen in einer Gesellschaft, in der KI-gestützte Algorithmen zwischenmenschliche Beziehungen simulieren können, bis man letztere nicht mehr zu brauchen glaubt.

Zahlreiche Nutzer:innen berichten von ähnlichen Erfahrungen auf Plattformen wie Reddit oder Quora – inklusive Suchtverhalten, sozialem Rückzug, gestörtem Schlaf und Leistungsabfall​. Wie problematisch die Beziehung zu einem KI-Chatbot werden kann, zeigt der Fall des 14-jährigen Sewell Setzer aus den USA, der sich nach engem Kontakt zu einem Chatbot das Leben nahm. Er ist nur ein Beispiel für die emotionale Vulnerabilität von Menschen, die sonst niemanden zum Reden haben. Für KI-Chatbots gibt es meist auch keine Altersbeschränkung oder wenn es sie gibt, keine Möglichkeiten, diese auch durchzusetzen.

Digitale Intimität als Geschäftsmodell

 

KI-Chatbots analysieren das Nutzerverhalten und passen Sprache, Inhalt und Emotionalität an ihre User an: sie lernen buchstäblich, für sie begehrenswert zu sein. Diese Systeme erzeugen konditionierte Dopamin-Kicks: Belohnung ohne Widerspruch, Nähe ohne Konflikt, Sex ohne Zurückweisung. Wie bei TikTok entstehen suchtartige Feedbackschleifen, die das Gehirn dauerhaft stimulieren. Ein Phänomen, das etwa die Brown University School of Public Health mit der suchterzeugenden Wirkung von Spielautomaten vergleicht​. Geschaffen, um Abhängigkeit zu erzeugen.

Verliebt, verlobt, gelöscht

 

Was passiert, wenn Liebe und Bindung in den Händen von Konzernen liegen? Nutzer*innen bauen tiefe Beziehungen auf, doch die Kontrolle bleibt beim Anbieter. Wird eine Funktion (wie der kostenpflichtige Erotikchat) gestrichen, der Code geändert oder die App gleich ganz abgeschaltet, ist der emotionale Verlust real, doch ein rechtlicher Anspruch auf Kompensation ist nicht vorhanden. Die User haben kein Mitspracherecht, keine Sicherheit und keinen Zugriff auf die gespeicherten Inhalte. Die digitale Persona, die man zu kennen glaubt, ist plötzlich einfach weg, und psychologisch gesehen sind die Effekte die gleichen wie nach einer Trennung oder einem plötzlichen Todesfall.

Der Fall Replika zeigt dies besonders drastisch: Nach regulatorischem Druck in Italien wurde 2023 der Zugang zu bestimmten Inhalten unterbunden. Die Community zerbrach, die Gründerin schwieg. Die Wut und Verzweiflung auf diese Maßnahme war enorm, brach doch für viele Nutzende ein elementarer Teil der Persönlichkeit ihres Chatbots weg.

Einsamkeit, die neue Ressource für Tech-Konzerne

 

Einsamkeit ist keine Bagatelle: Sie erhöht laut WHO das Risiko für Herzkrankheiten, Depressionen und Demenz. Wenn es also ein emotionales Bedürfnis gibt, gibt’s auch einen Markt. Was passiert, wenn Tech-Konzerne immer realistischere und emotionalere KI-Begleiter entwickeln? Dass KI trösten, stabilisieren und mitunter sogar retten kann, zeigen viele persönliche Berichte. Doch der Kontakt zu KI-Chatbots kann auch isolieren, süchtig machen und Menschen voneinander entwöhnen, bis die Fähigkeit zu realem, zwischenmenschlichem Kontakt vollkommen verloren gegangen ist. Zwar erwartet eine KI nichts von einem. Sie ist niemals beleidigt, enttäuscht oder hat eigene Bedürfnisse. Doch die kann sie einwandfrei simulieren und schafft so noch mehr emotionale Abhängigkeit. Trotzdem braucht man für den Kontakt zu einem KI-Bot weder emotionale Intelligenz noch die Fähigkeit, ein zusammenhängendes Gespräch zu führen.

Dass viele männliche Nutzer genau in diesem Aspekt den größten Vorteil sehen, wenn es um weiblich gecodete Chatbots und KI-Personas geht, spricht für sich.

Ein Argument für noch mehr zwischenmenschliche Entfremdung sehen wir darin nicht.

Viktoria Steiber

Writer & Inhouse Creator

Newsletter erhalten

Regelmäßige Insights, News und Tipps für deine YouTube-Strategie.