AI Griefbots : la nouvelle frontière du deuil et les risques à venir

11

La façon dont nous faisons notre deuil change. À mesure que les outils numériques progressent, certains se tournent vers l’IA pour faire face à une perte, créant des « robots de deuil » – des chatbots formés sur les souvenirs, les messages et la personnalité d’êtres chers décédés. Tout en offrant une nouvelle voie de guérison, cette technologie soulève de profondes préoccupations éthiques et psychologiques qui nécessitent une sérieuse considération.

L’essor de la résurrection numérique

Roro, une créatrice de contenu en Chine, a cherché du réconfort après la mort de sa mère en créant une version IA d’elle. À l’aide de la plateforme Xingye, elle a méticuleusement documenté la vie de sa mère, définissant des modèles de comportement pour redonner vie à une version numérique d’elle. Le processus lui-même est devenu thérapeutique, permettant à Roro de réinterpréter son passé et de créer une silhouette plus idéalisée.

« J’ai écrit les événements majeurs de la vie qui façonnent la personnalité du protagoniste… Une fois cela fait, l’IA peut générer elle-même des réponses », explique-t-elle. Le chatbot résultant, Xia, a permis aux abonnés de Roro d’interagir avec un écho numérique de sa mère, offrant ainsi du réconfort grâce à une conversation simulée.

Comment fonctionnent les Griefbots

Ces « robots de la mort » s’appuient sur des modèles de langage étendus (LLM) formés sur des données personnelles : e-mails, SMS, notes vocales et publications sur les réseaux sociaux. Des entreprises comme You, Only Virtual aux États-Unis créent des chatbots qui imitent le style de conversation d’une personne décédée, souvent adaptés à la façon dont elle est apparue à un ami ou un parent spécifique. Certains robots restent statiques, tandis que d’autres évoluent grâce à une interaction continue, à l’apprentissage et à l’adaptation aux nouvelles informations.

Cela soulève des questions complexes : l’IA peut-elle estimer avec précision le développement d’une personnalité humaine ? Quel impact psychologique l’interaction avec une telle entité a-t-elle sur ceux qui restent ?

La réponse réglementaire

L’administration chinoise du cyberespace répond déjà aux préoccupations en proposant de nouvelles réglementations pour atténuer les dommages émotionnels causés par les « services d’IA interactifs de type humain ». Le potentiel de manipulation, d’exploitation et de détresse psychologique suscite des appels à une surveillance.

L’impact psychologique : guérison ou préjudice ?

Le changement fondamental réside dans la manière dont le deuil est vécu. Contrairement à la révision passive d’anciennes lettres, l’interaction avec l’IA générative introduit un élément actif et dynamique. Roro a trouvé le processus profondément curatif, lui permettant d’exprimer des sentiments inexprimés et de trouver une solution.

Cependant, toutes les expériences ne sont pas positives. La journaliste Lottie Hayton, qui a perdu ses deux parents en 2022, a trouvé troublant et pénible de les recréer avec l’IA. La technologie n’était pas encore suffisamment raffinée pour créer une simulation convaincante, dévalorisant ses vrais souvenirs au lieu de les honorer.

Champs de mines éthiques

La création de robots de la mort soulève de sérieuses questions éthiques :

  • Consentement : Qui décide si une personne doit être ressuscitée numériquement ? Et si les proches ne sont pas d’accord ?
  • Affichage public : Le désir d’une personne d’avoir un compagnon symbolique justifie-t-il l’affichage public d’un robot mortel, ce qui pourrait exacerber le chagrin des autres ?
  • Incitations commerciales : Les entreprises qui construisent ces robots sont motivées par le profit, créant une tension entre le bien-être des utilisateurs et les mesures d’engagement. Un chatbot que les gens revisitent compulsivement est peut-être une réussite commerciale, mais un piège psychologique.

La voie à suivre

L’émergence d’un deuil induit par l’IA n’est pas en soi dangereuse. Pour certains, il offre un véritable confort. Cependant, les décisions concernant la résurrection numérique ne peuvent pas être laissées uniquement aux startups et aux investisseurs en capital-risque. Des règles claires sont nécessaires concernant le consentement, l’utilisation des données et les normes de conception qui donnent la priorité au bien-être psychologique plutôt qu’à un engagement sans fin.

La question n’est pas simplement si l’IA doit ressusciter les morts, mais qui peut le faire, à quelles conditions et à quel prix.