Réponse rapide : La réincarnation numérique utilise l'IA pour simuler des individus décédés à partir de leurs données numériques – textes, e-mails, enregistrements vocaux. Bien qu'elle offre un soulagement à certains endeuillés, elle soulève de profondes questions éthiques concernant le consentement, les dommages psychologiques, les droits à l'identité et la marchandisation de la mort. Naviguer dans ce domaine nécessite des cadres légaux clairs, des conseils psychologiques et des limites personnelles.
Les morts parlent à nouveau – et cette fois, par l'intermédiaire de chatbots.
En 2021, Joshua Barbeau a fait la une des journaux internationaux lorsqu'il a utilisé la plateforme Project December, alimentée par GPT-3, pour converser avec une simulation de sa défunte fiancée, Jessica Pereira, décédée d'une maladie neurologique rare. Il a alimenté le système avec ses anciens messages texte, publications sur les réseaux sociaux et souvenirs écrits. Le résultat a été un bot qui répondait avec sa voix, référençait leur histoire commune et même racontait ses blagues emblématiques. Barbeau a décrit l'expérience comme étant à la fois apaisante et déchirante.
Ce n'était pas de la science-fiction. C'était un mardi matin en 2021 – et cela signale quelque chose de fondamentalement nouveau sur la manière dont l'humanité affronte le deuil à l'ère numérique.
Qu'est-ce que la réincarnation numérique ?
La réincarnation numérique fait référence à la reconstruction de la personnalité, de la voix ou des schémas conversationnels d'une personne décédée à l'aide de l'intelligence artificielle entraînée sur son empreinte numérique. Cela inclut :
- Avatars textuels : Chatbots entraînés sur des e-mails, des archives de réseaux sociaux et des historiques de messages
- Clones vocaux : Audio généré par l'IA reproduisant les caractéristiques vocales du défunt
- Deepfakes visuels : Avatars vidéo recréant l'apparence et les manières d'une personne
- Entités composites : Avatars multimodaux complets combinant voix, vidéo et IA conversationnelle
Des entreprises comme HereAfter AI, StoryFile, Eternos et Soul Machines ont commercialisé des versions de cette technologie. La chaîne de télévision sud-coréenne MBC a diffusé un documentaire en 2020 dans lequel une mère utilisait la réalité virtuelle pour rencontrer un avatar numérique de sa fille de sept ans décédée d'une leucémie. Le segment a été visionné plus de 35 millions de fois en ligne en quelques semaines.
Le paysage du deuil : quand la technologie rencontre la perte
Le deuil n'est pas un processus linéaire. Le modèle de Kübler-Ross en cinq étapes – déni, colère, négociation, dépression, acceptation – est largement référencé, mais la psychologie moderne du deuil a considérablement évolué. Des chercheurs comme George Bonanno (Université de Columbia) ont montré que les trajectoires du deuil sont hautement individualisées, de nombreuses personnes étant naturellement résilientes et d'autres connaissant un trouble du deuil prolongé (TDP), une condition désormais officialisée dans le DSM-5-TR.
Pour les individus atteints de TDP – estimés affecter 7 à 10 % des personnes endeuillées dans le monde selon une méta-analyse de World Psychiatry de 2021 – même des stimuli mineurs peuvent déclencher des épisodes déstabilisants. C'est précisément la population la plus susceptible de se tourner vers les avatars numériques, et aussi la plus vulnérable à leur mauvaise utilisation.
La question n'est pas simplement de savoir si nous pouvons construire ces systèmes. C'est de savoir si nous le devrions – et sous quelles conditions ?
Les tensions éthiques fondamentales
1. Consentement et droits posthumes à l'identité
Le défunt a-t-il consenti à être reconstruit numériquement ?
C'est le problème fondamental. Les cadres juridiques actuels dans la plupart des juridictions n'offrent pas de droit explicite de contrôler son identité numérique posthume. Le Celebrities Rights Act de Californie et le RGPD de l'UE offrent des protections partielles, mais ils n'ont pas été conçus pour l'IA conversationnelle.
L'archive WhatsApp d'une personne peut légalement appartenir à la plateforme. Sa personnalité, cependant – son ironie, ses hésitations, sa manière caractéristique d'exprimer son amour – est quelque chose de bien plus intime. Entraîner une IA sur ces données sans consentement écrit préalable viole sans doute l'esprit de l'autonomie personnelle, même si cela ne viole pas la loi actuelle.
Les directives numériques anticipées – des documents juridiques spécifiant ce qui peut et ne peut pas être fait avec les données d'une personne après son décès – émergent comme une solution pratique. La Suède et le Royaume-Uni ont entamé des discussions informelles au niveau politique. Les individus peuvent rédiger de telles directives aujourd'hui par l'intermédiaire d'avocats spécialisés en droit des actifs numériques.
2. Risque psychologique : confort ou complication ?
Les preuves cliniques sont naissantes mais prudentes.
Une étude de 2023 publiée dans Death Studies par des chercheurs de l'Université de Melbourne a examiné 40 personnes endeuillées qui ont interagi avec des simulations d'IA textuelles de proches décédés. Principales conclusions :
- 62 % ont signalé un confort émotionnel à court terme
- 38 % ont signalé une difficulté accrue à accepter la perte
- 21 % ont signalé des pensées intrusives qui se sont aggravées au cours du mois suivant
L'étude était de petite taille, mais elle pointe vers une bifurcation : pour certains, un engagement bref et structuré avec un avatar peut faciliter la transition. Pour d'autres – en particulier ceux prédisposés au TDP – cela peut geler le processus de deuil, remplaçant l'acceptation par une dépendance numérique.
Les thérapeutes spécialisés dans le deuil conseillent de plus en plus aux clients de traiter les outils d'IA pour le deuil comme on traite l'alcool lors d'une veillée : acceptable ponctuellement à petites doses, potentiellement destructeur lorsqu'il devient un substitut au traitement réel.

