додому Últimas notícias e artigos AI Griefbots: a nova fronteira do luto e os riscos futuros

AI Griefbots: a nova fronteira do luto e os riscos futuros

A maneira como sofremos está mudando. À medida que as ferramentas digitais avançam, alguns recorrem à IA para lidar com perdas, criando “griefbots” – chatbots treinados nas memórias, mensagens e personalidade de entes queridos falecidos. Ao mesmo tempo que oferece um novo caminho para a cura, esta tecnologia levanta profundas preocupações éticas e psicológicas que exigem uma consideração séria.

A ascensão da ressurreição digital

Roro, uma criadora de conteúdo na China, buscou consolo após a morte de sua mãe criando uma versão dela com IA. Usando a plataforma Xingye, ela documentou meticulosamente a vida de sua mãe, definindo padrões de comportamento para trazer de volta à vida uma versão digital dela. O próprio processo tornou-se terapêutico, permitindo a Roro reinterpretar seu passado e criar uma figura mais idealizada.

“Escrevi os principais eventos da vida que moldam a personalidade do protagonista… Depois de fazer isso, a IA pode gerar respostas por conta própria”, explica ela. O chatbot resultante, Xia, permitiu que os seguidores de Roro interagissem com um eco digital de sua mãe, oferecendo conforto por meio de uma conversa simulada.

Como funcionam os robôs do luto

Esses “deathbots” dependem de grandes modelos de linguagem (LLMs) treinados em dados pessoais – e-mails, textos, notas de voz e postagens em mídias sociais. Empresas como a You, Only Virtual nos EUA criam chatbots que imitam o estilo de conversação de uma pessoa falecida, muitas vezes adaptados à forma como ela apareceu para um amigo ou parente específico. Alguns bots permanecem estáticos, enquanto outros evoluem através de interação contínua, aprendizagem e adaptação a novas informações.

Isto levanta questões complexas: a IA pode estimar com precisão o desenvolvimento de uma personalidade humana? Que impacto psicológico a interação com tal entidade tem sobre aqueles que ficam para trás?

A resposta regulatória

A Administração do Ciberespaço da China já está a responder às preocupações, propondo novos regulamentos para mitigar os danos emocionais dos “serviços interactivos de IA semelhantes aos humanos”. O potencial de manipulação, exploração e sofrimento psicológico está a suscitar apelos à supervisão.

O impacto psicológico: cura ou dano?

A mudança central é como o luto é vivenciado. Ao contrário da revisão passiva de cartas antigas, a interação com IA generativa introduz um elemento ativo e dinâmico. Roro achou o processo profundamente curativo, permitindo-lhe articular sentimentos não expressos e encontrar um encerramento.

No entanto, nem todas as experiências são positivas. A jornalista Lottie Hayton, que perdeu ambos os pais em 2022, descobriu que recriá-los com IA era perturbador e angustiante. A tecnologia ainda não foi refinada o suficiente para criar uma simulação convincente, desvalorizando suas memórias reais em vez de honrá-las.

Campos minados éticos

A criação de deathbots levanta sérias questões éticas:

  • Consentimento: Quem decide se uma pessoa deve ser ressuscitada digitalmente? E se os parentes discordarem?
  • Exibição pública: O desejo de uma pessoa por um companheiro simbólico justifica a exibição pública de um deathbot, potencialmente exacerbando a dor de outras pessoas?
  • Incentivos comerciais: As empresas que criam esses bots são movidas pelo lucro, criando uma tensão entre o bem-estar do usuário e as métricas de engajamento. Um chatbot que as pessoas revisitam compulsivamente pode ser um sucesso empresarial, mas uma armadilha psicológica.

O caminho a seguir

O surgimento do luto mediado pela IA não é inerentemente perigoso. Para alguns, oferece conforto genuíno. No entanto, as decisões sobre a ressurreição digital não podem ser deixadas apenas às startups e aos capitalistas de risco. São necessárias regras claras em relação ao consentimento, utilização de dados e padrões de design que priorizem o bem-estar psicológico em detrimento do envolvimento interminável.

A questão não é simplesmente se a IA deve ressuscitar os mortos, mas quem pode fazê-lo, em que termos e a que custo.

Exit mobile version