AI Griefbots: Die neue Grenze der Trauer und die bevorstehenden Risiken

2

Die Art und Weise, wie wir trauern, verändert sich. Mit der Weiterentwicklung digitaler Tools greifen einige auf KI zurück, um mit Verlusten umzugehen, und entwickeln „Trauerbots“ – Chatbots, die auf die Erinnerungen, Nachrichten und die Persönlichkeit verstorbener Angehöriger trainiert werden. Diese Technologie bietet zwar einen neuen Weg zur Heilung, wirft jedoch tiefgreifende ethische und psychologische Bedenken auf, die ernsthafte Überlegungen erfordern.

Der Aufstieg der digitalen Auferstehung

Roro, eine Content-Erstellerin in China, suchte nach dem Tod ihrer Mutter Trost, indem sie eine KI-Version von ihr erstellte. Mithilfe der Xingye-Plattform dokumentierte sie akribisch das Leben ihrer Mutter und definierte Verhaltensmuster, um eine digitale Version von ihr wieder zum Leben zu erwecken. Der Prozess selbst wurde therapeutisch und ermöglichte es Roro, ihre Vergangenheit neu zu interpretieren und eine idealisiertere Figur zu schaffen.

„Ich habe die wichtigsten Lebensereignisse aufgeschrieben, die die Persönlichkeit des Protagonisten prägen … Sobald man das getan hat, kann die KI selbstständig Antworten generieren“, erklärt sie. Der daraus resultierende Chatbot, Xia, ermöglichte Roros Followern die Interaktion mit einem digitalen Echo ihrer Mutter und bot Trost durch simulierte Gespräche.

Wie Griefbots funktionieren

Diese „Deathbots“ stützen sich auf große Sprachmodelle (LLMs), die auf personenbezogenen Daten trainiert werden – E-Mails, Texte, Sprachnotizen und Social-Media-Beiträge. Unternehmen wie You, Only Virtual in den USA erstellen Chatbots, die den Gesprächsstil einer verstorbenen Person nachahmen und oft darauf zugeschnitten sind, wie sie einem bestimmten Freund oder Verwandten gegenüber auftrat. Einige Bots bleiben statisch, während andere sich durch kontinuierliche Interaktion, Lernen und Anpassung an neue Informationen weiterentwickeln.

Dies wirft komplexe Fragen auf: Kann KI die Entwicklung einer menschlichen Persönlichkeit genau einschätzen? Welche psychologischen Auswirkungen hat die Interaktion mit einem solchen Wesen auf die Zurückgebliebenen?

Die regulatorische Reaktion

Chinas Cyberspace Administration reagiert bereits auf Bedenken und schlägt neue Vorschriften vor, um den emotionalen Schaden „menschenähnlicher interaktiver KI-Dienste“ zu mildern. Das Potenzial für Manipulation, Ausbeutung und psychische Belastung führt zu Rufen nach Aufsicht.

Die psychologischen Auswirkungen: Heilung oder Schaden?

Die zentrale Veränderung besteht darin, wie Trauer erlebt wird. Im Gegensatz zur passiven Durchsicht alter Briefe bringt die Interaktion mit generativer KI ein aktives, dynamisches Element mit sich. Roro empfand den Prozess als zutiefst heilsam, da er es ihr ermöglichte, unausgesprochene Gefühle auszudrücken und einen Abschluss zu finden.

Allerdings sind nicht alle Erfahrungen positiv. Die Journalistin Lottie Hayton, die 2022 beide Eltern verlor, empfand die Wiederherstellung ihrer Eltern mithilfe von KI als beunruhigend und beunruhigend. Die Technologie war noch nicht ausgereift genug, um eine überzeugende Simulation zu erstellen, was ihre echten Erinnerungen herabwürdigte, anstatt sie zu würdigen.

Ethische Minenfelder

Die Entwicklung von Deathbots wirft ernsthafte ethische Fragen auf:

  • Einwilligung: Wer entscheidet, ob eine Person digital auferstehen soll? Was ist, wenn Angehörige anderer Meinung sind?
  • Öffentliche Zurschaustellung: Rechtfertigt der Wunsch einer Person nach einem symbolischen Begleiter die öffentliche Zurschaustellung eines Deathbots, was möglicherweise die Trauer anderer verschlimmert?
  • Kommerzielle Anreize: Die Unternehmen, die diese Bots entwickeln, sind gewinnorientiert, was zu einem Spannungsverhältnis zwischen Benutzerwohlbefinden und Engagement-Kennzahlen führt. Ein Chatbot, den Menschen zwanghaft immer wieder besuchen, mag ein geschäftlicher Erfolg sein, ist aber eine psychologische Falle.

Der Weg nach vorne

Die Entstehung KI-vermittelter Trauer ist nicht grundsätzlich gefährlich. Für einige bietet es echten Komfort. Allerdings können Entscheidungen über die digitale Wiederauferstehung nicht allein Startups und Risikokapitalgebern überlassen werden. Es bedarf klarer Regeln hinsichtlich Einwilligung, Datennutzung und Designstandards, die dem psychischen Wohlbefinden Vorrang vor endlosem Engagement geben.

Die Frage ist nicht einfach, ob die KI die Toten wiederbeleben soll, sondern wer das tun darf, zu welchen Bedingungen und zu welchem ​​Preis.