Kurzantwort: Digitale Reinkarnation nutzt KI, um Verstorbene anhand ihrer digitalen Daten – Texte, E-Mails, Sprachaufzeichnungen – zu simulieren. Während sie manchen bei der Trauerbewältigung hilft, wirft sie tiefgreifende ethische Fragen zu Zustimmung, psychischem Schaden, Identitätsrechten und der Kommerzialisierung des Todes auf. Der Umgang damit erfordert klare rechtliche Rahmenbedingungen, psychologische Beratung und persönliche Grenzen.
Die Toten sprechen wieder – und diesmal durch Chatbots.
Im Jahr 2021 sorgte Joshua Barbeau weltweit für Schlagzeilen, als er die GPT-3-gestützte Plattform Project December nutzte, um Gespräche mit einer Simulation seiner verstorbenen Verlobten Jessica Pereira zu führen, die an einer seltenen neurologischen Erkrankung gestorben war. Er fütterte das System mit ihren alten Textnachrichten, Social-Media-Posts und schriftlichen Erinnerungen. Das Ergebnis war ein Bot, der in ihrer Stimme antwortete, ihre gemeinsame Geschichte erwähnte und sogar ihre typischen Witze machte. Barbeau beschrieb die Erfahrung als gleichzeitig heilend und herzzerreißend.
Das war keine Science-Fiction. Es war ein Dienstagmorgen im Jahr 2021 – und es signalisiert etwas fundamental Neues darüber, wie die Menschheit der Trauer im digitalen Zeitalter begegnet.
Was ist digitale Reinkarnation?
Digitale Reinkarnation bezeichnet die Rekonstruktion der Persönlichkeit, Stimme oder Konversationsmuster einer verstorbenen Person mithilfe künstlicher Intelligenz, die auf deren digitalen Fußabdruck trainiert wurde. Dies umfasst:
- Textbasierte Avatare: Chatbots, die auf E-Mails, Social-Media-Archiven und Nachrichtenverläufen trainiert wurden
- Stimmenklone: KI-generierte Audioaufnahmen, die die stimmlichen Merkmale des Verstorbenen nachbilden
- Visuelle Deepfakes: Video-Avatare, die das Aussehen und die Manierismen einer Person nachbilden
- Komposite Entitäten: Vollständige multimodale Avatare, die Stimme, Video und konversationelle KI kombinieren
Unternehmen wie HereAfter AI, StoryFile, Eternos und Soul Machines haben kommerzielle Versionen dieser Technologie auf den Markt gebracht. Der südkoreanische Sender MBC strahlte 2020 eine Dokumentation aus, in der eine Mutter VR nutzte, um einen digitalen Avatar ihrer siebenjährigen Tochter zu treffen, die an Leukämie gestorben war. Das Segment wurde innerhalb weniger Wochen über 35 Millionen Mal online angesehen.
Die Trauerlandschaft: Wo Technologie auf Verlust trifft
Trauer ist kein linearer Prozess. Das Kübler-Ross-Modell der fünf Phasen – Verleugnung, Zorn, Verhandeln, Depression, Akzeptanz – wird weithin zitiert, aber die moderne Trauerpsychologie hat sich erheblich weiterentwickelt. Forscher wie George Bonanno (Columbia University) haben gezeigt, dass Trauerverläufe hochgradig individualisiert sind, wobei viele Menschen von Natur aus resilient sind und andere eine anhaltende komplexe Trauerstörung (PGD) erleben, einen Zustand, der jetzt im DSM-5-TR formalisiert ist.
Für Personen mit PGD – schätzungsweise 7–10 % der trauernden Menschen weltweit, laut einer Metaanalyse von World Psychiatry aus dem Jahr 2021 – können selbst geringfügige Reize destabilisierende Episoden auslösen. Dies ist genau die Bevölkerungsgruppe, die am ehesten digitale Avatare nutzen wird, und auch die am anfälligsten für deren Missbrauch ist.
Die Frage ist nicht einfach, ob wir diese Systeme bauen können. Es ist, sollten wir – und unter welchen Bedingungen?
Die zentralen ethischen Spannungen
1. Zustimmung und posthume Identitätsrechte
Hat der Verstorbene der digitalen Rekonstruktion zugestimmt?
Dies ist das grundlegende Problem. Die derzeitigen Rechtsrahmen in den meisten Jurisdiktionen bieten kein explizites Recht zur Kontrolle der posthumen digitalen Identität. Kaliforniens Celebrities Rights Act und die EU-Datenschutz-Grundverordnung (DSGVO) bieten teilweisen Schutz, wurden aber nicht für konversationelle KI entwickelt.
Das WhatsApp-Archiv einer Person kann rechtlich der Plattform gehören. Ihre Persönlichkeit jedoch – ihre Ironie, ihre Zögerlichkeit, ihre charakteristische Art, Liebe auszudrücken – ist etwas weitaus Intimeres. Das Training einer KI mit diesen Daten ohne vorherige schriftliche Zustimmung verletzt wohl den Geist der persönlichen Autonomie, auch wenn es nicht gegen geltendes Recht verstößt.
Digitale Vorausverfügungen – Rechtsdokumente, die festlegen, was mit den Daten einer Person nach dem Tod geschehen darf und was nicht – entwickeln sich als praktische Lösung. Schweden und das Vereinigte Königreich haben informelle Diskussionen auf politischer Ebene begonnen. Einzelpersonen können solche Verfügungen heute über Nachlassanwälte, die mit dem Recht digitaler Vermögenswerte vertraut sind, erstellen.
2. Psychologisches Risiko: Trost oder Komplikation?
Die klinische Evidenz ist noch jung, aber vorsichtig.
Eine Studie aus dem Jahr 2023, veröffentlicht in Death Studies von Forschern der University of Melbourne, untersuchte 40 trauernde Personen, die mit textbasierten KI-Simulationen verstorbener Angehöriger interagierten. Wichtige Ergebnisse:
- 62 % berichteten von kurzfristigem emotionalem Trost
- 38 % berichteten von erhöhter Schwierigkeit bei der Akzeptanz
- 21 % berichteten von aufdringlichen Gedanken, die sich im folgenden Monat verschlimmerten
Die Studie war klein, weist aber auf eine Bifurkation hin: Für einige kann ein kurzes, strukturiertes Engagement mit einem Avatar den Übergang erleichtern. Für andere – insbesondere diejenigen, die zu PGD prädisponiert sind – kann es den Trauerprozess einfrieren und Akzeptanz durch eine digitale Abhängigkeit ersetzen.
Lizenzierte Trauertherapeuten raten ihren Klienten zunehmend, KI-Trauerwerkzeuge so zu behandeln, wie man Alkohol bei einem Leichenschmaus behandelt: situativ in kleinen Dosen akzeptabel, potenziell zerstörerisch, wenn es ein Ersatz für echte Verarbeitung wird.

