Nu systemen voor kunstmatige intelligentie (AI) steeds geavanceerder worden, roept hun potentiële invloed in de politiek zowel hoop als zorgen op. Nieuw onderzoek suggereert dat door AI gegenereerde politieke argumenten net zo overtuigend kunnen zijn als die van mensen, waardoor de manier waarop we omgaan met het politieke discours potentieel kan worden hervormd – met verstrekkende gevolgen.
Twee onderzoeken van Stanford University verdiepen zich in dit complexe vraagstuk. De eerste, geleid door professor Robb Willer, onderzocht de overtuigingskracht van door AI geschreven berichten over verschillende beleidsonderwerpen, zoals wapenbeheersing en klimaatverandering. De resultaten waren opvallend: deelnemers die werden blootgesteld aan door AI gegenereerde argumenten vertoonden verschuivingen in hun meningen, vergelijkbaar met degenen die door mensen geschreven argumenten lazen, ongeacht of ze aanvankelijk het besproken beleid steunden of ertegen waren.
Deze bevinding daagt het idee uit dat AI de nuance mist die nodig is om de publieke opinie effectief te beïnvloeden. Hoewel de deelnemers de logica en duidelijkheid van door AI gegenereerde teksten erkenden, gaven ze aan dat door mensen geschreven berichten een grotere emotionele impact hadden dankzij persoonlijke anekdotes en verteltechnieken.
In een afzonderlijk onderzoek concentreerden professor Zakary Tormala en zijn team zich op de manier waarop mensen politieke argumenten waarnemen op basis van hun waargenomen bron: mens of AI. Uit hun onderzoek bleek dat individuen meer openstaan voor het overwegen van tegengestelde standpunten wanneer ze door een AI worden gepresenteerd. Deze openheid wordt toegeschreven aan de waargenomen objectiviteit en het gebrek aan vooringenomenheid die gepaard gaan met kunstmatige intelligentie.
Dit ‘AI-effect’ gaat verder dan louter ontvankelijkheid. Deelnemers die tegenargumenten van AI tegenkwamen, waren eerder geneigd deze ideeën te delen en toonden zelfs minder vijandigheid jegens degenen die verschillende politieke standpunten innamen. Dit suggereert dat AI mogelijk zou kunnen fungeren als een brug over ideologische scheidslijnen, waardoor meer civiele en productieve gesprekken mogelijk zouden worden.
Beide onderzoeken onderstrepen echter het tweesnijdend zwaard van dit potentieel. Hoewel AI-gestuurde communicatie mensen kan helpen constructiever met verschillende perspectieven om te gaan, brengt het vermogen van de technologie om menselijke overtuigingen na te bootsen inherente risico’s met zich mee. Als kwaadwillende actoren AI misbruiken om desinformatie te verspreiden of de publieke opinie te manipuleren, kunnen de gevolgen ernstig zijn. Stel je een scenario voor waarin buitenlandse entiteiten AI als wapen inzetten om verdeeldheid te zaaien en bestaande maatschappelijke spanningen tijdens verkiezingen te vergroten. Dit huiveringwekkende vooruitzicht benadrukt de dringende behoefte aan ethische richtlijnen en waarborgen rond de ontwikkeling en inzet van AI in de politieke sfeer.
Uiteindelijk dienen deze Stanford-studies als een duidelijke herinnering: AI wordt snel een krachtig hulpmiddel bij het vormgeven van onze wereldbeelden en het beïnvloeden van politieke landschappen. Of dit uiteindelijk tot meer begrip zal leiden of de maatschappelijke verdeeldheid zal verergeren, valt nog te bezien. Eén ding is duidelijk: we moeten door dit opkomende landschap navigeren met zowel voorzichtig optimisme als onwrikbare waakzaamheid.









































