Man mano che i sistemi di intelligenza artificiale (AI) diventano sempre più sofisticati, la loro potenziale influenza in politica sta suscitando speranze e preoccupazioni. Una nuova ricerca suggerisce che gli argomenti politici generati dall’intelligenza artificiale possono essere persuasivi quanto quelli elaborati dagli esseri umani, rimodellando potenzialmente il modo in cui interagiamo con il discorso politico, con conseguenze di vasta portata.
Due studi dell’Università di Stanford approfondiscono questa complessa questione. Il primo, guidato dal professor Robb Willer, ha studiato la persuasività dei messaggi scritti dall’intelligenza artificiale su vari argomenti politici, come il controllo delle armi e il cambiamento climatico. I risultati sono stati sorprendenti: i partecipanti esposti ad argomentazioni generate dall’intelligenza artificiale hanno mostrato cambiamenti nelle loro opinioni simili a quelli che hanno letto argomentazioni di autori umani, indipendentemente dal fatto che inizialmente sostenessero o si opponessero alle politiche discusse.
Questa scoperta mette in discussione l’idea secondo cui l’intelligenza artificiale non ha le sfumature necessarie per influenzare efficacemente l’opinione pubblica. Sebbene i partecipanti abbiano riconosciuto la logica e la chiarezza dei testi generati dall’intelligenza artificiale, hanno attribuito ai messaggi scritti dagli esseri umani un maggiore impatto emotivo grazie agli aneddoti personali e alle tecniche di narrazione.
In uno studio separato, il professor Zakary Tormala e il suo team si sono concentrati su come le persone percepiscono gli argomenti politici in base alla loro fonte percepita: umana o AI. La loro ricerca ha rivelato che gli individui sono più aperti a considerare punti di vista opposti quando presentati da un’intelligenza artificiale, attribuendo questa apertura all’obiettività percepita e alla mancanza di pregiudizi associati all’intelligenza artificiale.
Questo “effetto AI” si estende oltre la semplice ricettività. I partecipanti che hanno incontrato controargomentazioni da parte dell’IA erano più propensi a condividere queste idee e hanno persino mostrato una ridotta animosità verso coloro che avevano posizioni politiche diverse. Ciò suggerisce che l’intelligenza artificiale potrebbe potenzialmente fungere da ponte tra le divisioni ideologiche, facilitando conversazioni più civili e produttive.
Tuttavia, entrambi gli studi sottolineano l’arma a doppio taglio di questo potenziale. Sebbene la comunicazione basata sull’intelligenza artificiale possa aiutare le persone a interagire con prospettive diverse in modo più costruttivo, la capacità della tecnologia di imitare la persuasione umana comporta rischi intrinseci. Se gli attori malintenzionati sfruttassero l’intelligenza artificiale per diffondere disinformazione o manipolare l’opinione pubblica, le conseguenze potrebbero essere disastrose. Immagina uno scenario in cui entità straniere utilizzano l’intelligenza artificiale come arma per seminare discordia e amplificare le tensioni sociali esistenti durante le elezioni. Questa prospettiva agghiacciante evidenzia l’urgente necessità di linee guida etiche e tutele relative allo sviluppo e all’impiego dell’intelligenza artificiale nella sfera politica.
In definitiva, questi studi di Stanford servono come un duro promemoria: l’intelligenza artificiale sta rapidamente diventando uno strumento potente nel plasmare le nostre visioni del mondo e influenzare i panorami politici. Resta da vedere se alla fine favorirà una maggiore comprensione o esacerberà le divisioni sociali. Una cosa è chiara: dobbiamo navigare in questo panorama emergente con cauto ottimismo e incrollabile vigilanza.
