IA et protection des données: la prudence est de mise

L'Etat recommande de la prudence avec l'utilisation des IA. Entretien avec Martine Stoffel, préposée cantonale à la protection des données.

Tôt ou tard, les intelligences artificielles finissent par identifier les utilisateurs. © Matheus Berteli/Pexels

Dans le débat sur l'intelligence artificielle, la question de la protection des données est probablement celle qui enflamme le plus les Etats européens. Alors que l'Union européenne prépare une législation, la France et l'Espagne enquêtent sur le robot conversationnel ChatGPT pour un possible manquement à la réglementation sur la protection des données, tandis que l'Italie a bloqué l'accès au site.

Du côté des Helvètes par contre, on choisit plutôt de se poser en observateur de ce qui est mis en place chez nos voisins. Le canton de Fribourg suit ce qui se passe au niveau fédéral, tout en soulignant l'importance de cette technologie pour l'avenir. "Nous devons, à mon avis, apprendre à vivre avec les intelligences artificielles comme ChatGPT", indique Marine Stoffel, préposée cantonale à la protection des données ad interim. La Fribourgeoise avertit tout de même: cette technologie est une chance qui comporte évidemment des risques.

Une identification inévitable

"On doit partir du principe que tôt ou tard, elle parviendra à nous identifier lorsqu'on l'utilise", explique la préposée cantonale à la protection des données. "Soit parce qu'on lui fournit directement des informations sur nous, soit parce qu'elle arrive à recouper ce qu'on lui donne avec d'autres informations qu'elle peut retrouver de manière accessible sur internet."

La prudence est donc de mise. Il faut éviter au maximum de donner des informations privées ou confidentielles. "Par exemple, ChatGPT n'est pas adéquat pour rédiger un certificat de travail sur un collaborateur, écrire un rapport pour des mesures de protection prises envers une personne, ou encore rédiger des rapports d'évaluation concernant des prestations." Autre exemple, dans le cas d'élèves qui seraient amenés à découvrir les chatbots dans le cadre des études, Martine Stoffel recommande aux enseignants de sensibiliser aussi les parents, afin d'éviter que le partage d'informations privées se fasse durant les devoirs.

Garder le contrôle sur ses données

Si la Suisse n'a pour l'instant pas de réglementations en place, il n'est pas exclu que cela change à l'avenir. Mais à quoi pourraient ressembler des législations pour protéger les données de la population? En guise d'aperçu, on peut se tourner vers l'Italie. La Botte reproche à ChatGPT de ne pas respecter la réglementation européenne sur la protection des données, par exemple en ne vérifiant pas l'âge des mineurs. "L'Italie a demandé à OpenAI, l'entreprise derrière le robot conversationnel, de fournir toute une série d'informations", développe Martine Stoffel. "L'Etat demande notamment de mettre en place des avertissements pour que les mineurs ne puissent pas se créer de compte, d'informer le public pour indiquer comment ChatGPT utilise les données personnelles ou encore de créer un processus pour permettre aux utilisateurs de corriger des données personnelles fausses. L’autorité de protection des données italienne est en attente d’informations sur ces points. En fonction des réponses, le blocage pourrait être levé."

A noter que du côté de Fribourg, il est déjà possible pour les personnes qui ont un intérêt légitime de demander aux organes publics qui traitent de leurs données personnelles de les rectifier, de les détruire ou encore de s'abstenir de les communiquer à des tiers.

Frapp - Mattia Pillonel
...