La forma en que lloramos está cambiando. A medida que avanzan las herramientas digitales, algunos recurren a la inteligencia artificial para afrontar la pérdida, creando “griefbots”, chatbots entrenados en los recuerdos, los mensajes y la personalidad de sus seres queridos fallecidos. Si bien ofrece una nueva vía de curación, esta tecnología plantea profundas preocupaciones éticas y psicológicas que exigen una seria consideración.
El auge de la resurrección digital
Roro, una creadora de contenido en China, buscó consuelo después de la muerte de su madre creando una versión de ella con IA. Utilizando la plataforma Xingye, documentó meticulosamente la vida de su madre, definiendo patrones de comportamiento para devolverle la vida a una versión digital. El proceso en sí se volvió terapéutico, permitiéndole a Roro reinterpretar su pasado y crear una figura más idealizada.
“Escribí los principales acontecimientos de la vida que dan forma a la personalidad del protagonista… Una vez hecho eso, la IA puede generar respuestas por sí sola”, explica. El chatbot resultante, Xia, permitió a los seguidores de Roro interactuar con un eco digital de su madre, ofreciendo consuelo a través de una conversación simulada.
Cómo funcionan los Griefbots
Estos “robots de la muerte” se basan en grandes modelos de lenguaje (LLM) entrenados con datos personales: correos electrónicos, mensajes de texto, notas de voz y publicaciones en redes sociales. Empresas como You, Only Virtual en EE. UU. crean chatbots que imitan el estilo de conversación de una persona fallecida, a menudo adaptados a cómo le aparecía un amigo o familiar específico. Algunos bots permanecen estáticos, mientras que otros evolucionan mediante la interacción continua, el aprendizaje y la adaptación a nueva información.
Esto plantea preguntas complejas: ¿puede la IA estimar con precisión el desarrollo de una personalidad humana? ¿Qué impacto psicológico tiene la interacción con una entidad así en los que quedan atrás?
La respuesta regulatoria
La Administración del Ciberespacio de China ya está respondiendo a las preocupaciones y proponiendo nuevas regulaciones para mitigar el daño emocional de los “servicios de IA interactivos similares a los humanos”. El potencial de manipulación, explotación y angustia psicológica está generando llamados a la supervisión.
El impacto psicológico: ¿curación o daño?
El cambio central es cómo se experimenta el duelo. A diferencia de revisar cartas antiguas de forma pasiva, interactuar con la IA generativa introduce un elemento activo y dinámico. Roro encontró que el proceso era profundamente curativo, permitiéndole articular sentimientos no expresados y encontrar un cierre.
Sin embargo, no todas las experiencias son positivas. La periodista Lottie Hayton, que perdió a ambos padres en 2022, encontró inquietante y angustioso recrearlos con IA. La tecnología aún no estaba lo suficientemente refinada como para crear una simulación convincente, desvalorizando sus recuerdos reales en lugar de honrarlos.
Campos minados éticos
La creación de deathbots plantea serias cuestiones éticas:
- Consentimiento: ¿Quién decide si una persona debe resucitar digitalmente? ¿Qué pasa si los familiares no están de acuerdo?
- Exhibición pública: ¿El deseo de una persona de tener un compañero simbólico justifica exhibir un robot mortal en público, lo que podría exacerbar el dolor de los demás?
- Incentivos comerciales: Las empresas que construyen estos bots están motivadas por las ganancias, lo que crea una tensión entre el bienestar del usuario y las métricas de participación. Un chatbot que la gente vuelve a visitar compulsivamente puede ser un éxito empresarial, pero una trampa psicológica.
El camino a seguir
El surgimiento del duelo mediado por la IA no es intrínsecamente peligroso. Para algunos, ofrece una comodidad genuina. Sin embargo, las decisiones sobre la resurrección digital no pueden dejarse únicamente en manos de las nuevas empresas y los capitalistas de riesgo. Se necesitan reglas claras con respecto al consentimiento, el uso de datos y estándares de diseño que prioricen el bienestar psicológico sobre el compromiso interminable.
La pregunta no es simplemente si la IA debería resucitar a los muertos, sino quién puede hacerlo, en qué términos y a qué costo.
