All’inizio del 2025, una richiesta di routine sulla libertà di informazione (FOI) ha creato inavvertitamente un nuovo precedente legale riguardo al modo in cui il governo del Regno Unito gestisce le interazioni con i chatbot di intelligenza artificiale. Il caso ha avuto origine da una semplice domanda: è possibile ottenere registrazioni delle conversazioni tra l’allora segretario tecnologico britannico Peter Kyle e ChatGPT attraverso le leggi FOI?
La richiesta iniziale e il risultato inaspettato
Kyle aveva dichiarato pubblicamente il suo uso frequente di ChatGPT, spingendo a chiedere se fosse possibile accedere alla sua cronologia chat. Mentre le interazioni personali erano considerate private e quindi esenti da divulgazione, le conversazioni condotte in veste ufficiale sono state rese disponibili dal Dipartimento per la Scienza, l’Industria e la Tecnologia (DSIT) a marzo. Questa decisione ha segnato la prima volta che gli scambi di chatbot con intelligenza artificiale tra un ministro del governo e un’intelligenza artificiale sono stati resi pubblici.
Il comunicato ha sbalordito gli esperti di protezione dei dati. “Sono sorpreso che li abbiate ottenuti”, ha commentato Tim Turner, specialista in protezione dei dati, sottolineando la natura insolita del risultato. La storia ha attirato l’attenzione internazionale, con ricercatori canadesi e australiani che cercavano indicazioni su come replicare il processo nelle proprie giurisdizioni.
Le implicazioni più ampie
Il caso ha messo in luce una lacuna critica nella trasparenza dei dati. Mentre i governi adottano rapidamente gli strumenti di intelligenza artificiale – con la pubblica amministrazione britannica che rivendica fino a due settimane di guadagni annuali in termini di efficienza attraverso sistemi simili a ChatGPT – la supervisione rimane minima. L’intelligenza artificiale non è imparziale e le “allucinazioni” (falsi risultati) rappresentano un rischio noto. La trasparenza è essenziale per la responsabilità, soprattutto perché cresce la dipendenza dei governi da queste tecnologie.
Risposta del governo e conseguente ostruzione
Dopo il successo iniziale, le successive richieste FOI hanno incontrato una maggiore resistenza. Un’indagine di follow-up al DSIT riguardante le reazioni interne alla storia – comprese e-mail e messaggi di Teams – è stata respinta come “vessante”, con i funzionari che hanno citato tempi di elaborazione eccessivi. La riluttanza del governo evidenzia una tendenza crescente: un’applicazione più rigorosa delle eccezioni legali per bloccare il rilascio di informazioni.
Il cambiamento nel comportamento dei governi sottolinea la necessità di una solida supervisione dell’uso dell’IA nella pubblica amministrazione. La trasparenza non riguarda semplicemente l’accesso ai dati, ma anche la garanzia di responsabilità in un panorama tecnologico in rapida evoluzione.
Il governo del Regno Unito è diventato più cauto riguardo alle richieste FOI, in particolare per quanto riguarda l’utilizzo dell’intelligenza artificiale. Questo caso dimostra l’urgente necessità di linee guida chiare e di un’applicazione coerente delle leggi sulla trasparenza man mano che l’intelligenza artificiale viene ulteriormente integrata nelle operazioni governative.

































