Début 2025, une demande courante d’accès à l’information (FOI) a créé par inadvertance un nouveau précédent juridique concernant la manière dont le gouvernement britannique gère les interactions avec les chatbots IA. L’affaire est née d’une question simple : les enregistrements des conversations entre le secrétaire britannique à la technologie, Peter Kyle, et ChatGPT, pourraient-ils être obtenus grâce aux lois sur la liberté d’accès à l’information ?
La demande initiale et le résultat inattendu
Kyle avait déclaré publiquement son utilisation fréquente de ChatGPT, ce qui a déclenché une enquête pour savoir si son historique de discussion était accessible. Alors que les interactions personnelles étaient considérées comme privées et donc exemptées de divulgation, les conversations menées à titre officiel ont été mises à disposition par le ministère de la Science, de l’Industrie et de la Technologie (DSIT) en mars. Cette décision marquait la première fois que les échanges de chatbots IA entre un ministre du gouvernement et une IA étaient rendus publics.
Cette publication a stupéfié les experts en protection des données. “Je suis surpris que vous les ayez obtenus”, a commenté Tim Turner, spécialiste de la protection des données, soulignant le caractère inhabituel du résultat. L’histoire a attiré l’attention internationale, des chercheurs du Canada et d’Australie cherchant des conseils pour reproduire le processus dans leurs propres juridictions.
Les implications plus larges
L’affaire a révélé une lacune critique dans la transparence des données. Alors que les gouvernements adoptent rapidement les outils d’IA – la fonction publique britannique revendiquant jusqu’à deux semaines de gains d’efficacité annuels grâce à des systèmes de type ChatGPT – la surveillance reste minime. L’IA n’est pas impartiale et les « hallucinations » (fausses sorties) constituent un risque connu. La transparence est essentielle à la responsabilité, d’autant plus que le gouvernement dépend de plus en plus de ces technologies.
Réponse du gouvernement et obstruction ultérieure
Après le succès initial, les demandes ultérieures de FOI se sont heurtées à une résistance accrue. Une enquête de suivi auprès du DSIT concernant les réactions internes à l’histoire – y compris les courriels et les messages Teams – a été rejetée comme « vexatoire », les responsables citant un temps de traitement excessif. La réticence du gouvernement met en évidence une tendance croissante : une application plus stricte des exceptions légales pour bloquer la divulgation d’informations.
Le changement de comportement du gouvernement souligne la nécessité d’une surveillance rigoureuse de l’utilisation de l’IA dans l’administration publique. La transparence ne consiste pas seulement à accéder aux données, mais également à garantir la responsabilité dans un paysage technologique en évolution rapide.
Le gouvernement britannique est devenu plus prudent quant aux demandes de FOI, en particulier en ce qui concerne l’utilisation de l’IA. Cette affaire démontre le besoin urgent de lignes directrices claires et d’une application cohérente des lois sur la transparence à mesure que l’IA s’intègre davantage dans les opérations gouvernementales.































