AI Griefbots: la nuova frontiera del lutto e i rischi futuri

3

Il modo in cui soffriamo sta cambiando. Con l’avanzare degli strumenti digitali, alcuni si rivolgono all’intelligenza artificiale per far fronte alla perdita, creando “griefbot” – chatbot addestrati sui ricordi, sui messaggi e sulla personalità dei propri cari defunti. Pur offrendo una nuova strada per la guarigione, questa tecnologia solleva profonde preoccupazioni etiche e psicologiche che richiedono una seria considerazione.

L’ascesa della resurrezione digitale

Roro, una creatrice di contenuti in Cina, ha cercato conforto dopo la morte di sua madre creando una sua versione AI. Utilizzando la piattaforma Xingye, ha documentato meticolosamente la vita di sua madre, definendo modelli comportamentali per riportare in vita una sua versione digitale. Il processo stesso è diventato terapeutico, consentendo a Roro di reinterpretare il suo passato e creare una figura più idealizzata.

“Ho scritto i principali eventi della vita che modellano la personalità del protagonista… Una volta fatto ciò, l’intelligenza artificiale può generare risposte da sola”, spiega. Il chatbot risultante, Xia, ha permesso ai follower di Roro di interagire con un’eco digitale di sua madre, offrendo conforto attraverso una conversazione simulata.

Come funzionano i Griefbot

Questi “deathbot” si basano su modelli linguistici di grandi dimensioni (LLM) addestrati su dati personali: e-mail, messaggi di testo, note vocali e post sui social media. Aziende come You, Only Virtual negli Stati Uniti creano chatbot che imitano lo stile di conversazione di una persona deceduta, spesso adattato a come appariva a un amico o parente specifico. Alcuni robot rimangono statici, mentre altri si evolvono attraverso l’interazione continua, apprendendo e adattandosi alle nuove informazioni.

Ciò solleva domande complesse: l’intelligenza artificiale può stimare con precisione lo sviluppo di una personalità umana? Quale impatto psicologico ha l’interazione con una tale entità su coloro che sono rimasti indietro?

La risposta normativa

L’amministrazione cinese del cyberspazio sta già rispondendo alle preoccupazioni, proponendo nuove normative per mitigare il danno emotivo dei “servizi di intelligenza artificiale interattivi di tipo umano”. Il potenziale di manipolazione, sfruttamento e disagio psicologico sta spingendo alla richiesta di supervisione.

L’impatto psicologico: guarigione o danno?

Il cambiamento fondamentale riguarda il modo in cui viene vissuto il dolore. A differenza della revisione passiva delle vecchie lettere, l’interazione con l’intelligenza artificiale generativa introduce un elemento attivo e dinamico. Roro ha trovato il processo profondamente curativo, permettendole di articolare sentimenti inespressi e trovare una conclusione.

Tuttavia non tutte le esperienze sono positive. La giornalista Lottie Hayton, che ha perso entrambi i genitori nel 2022, ha trovato inquietante e angosciante ricrearli con l’intelligenza artificiale. La tecnologia non era ancora abbastanza raffinata per creare una simulazione convincente, sminuendo i suoi veri ricordi invece di onorarli.

Campi minati etici

La creazione di Deathbot solleva serie questioni etiche:

  • Consenso: chi decide se una persona deve essere resuscitata digitalmente? Cosa succede se i parenti non sono d’accordo?
  • Esposizione pubblica: Il desiderio di una persona di un compagno simbolico giustifica l’esposizione pubblica di un robot mortale, esacerbando potenzialmente il dolore degli altri?
  • Incentivi commerciali: le aziende che costruiscono questi bot sono guidate dal profitto, creando una tensione tra il benessere degli utenti e i parametri di coinvolgimento. Un chatbot a cui le persone ritornano compulsivamente può essere un successo aziendale, ma una trappola psicologica.

Il percorso da seguire

L’emergere del dolore mediato dall’intelligenza artificiale non è intrinsecamente pericoloso. Per alcuni offre un vero comfort. Tuttavia, le decisioni sulla resurrezione digitale non possono essere lasciate esclusivamente alle startup e ai venture capitalist. Sono necessarie regole chiare in materia di consenso, utilizzo dei dati e standard di progettazione che diano priorità al benessere psicologico rispetto al coinvolgimento senza fine.

La domanda non è semplicemente se l’IA debba resuscitare i morti, ma chi potrà farlo, a quali termini e a quale costo.