"Tant que l'humain a le dernier mot, je ne crains pas l'IA"

Pour le professeur Jean Hennebert, la volonté de certains experts de vouloir bloquer l'expérimentation sur l'IA est une erreur. Interview.

Jean Hennebert est en informatique, spécialisé en recherche sur l'IA à la Haute école d'ingénierie et d'architecture de Fribourg. © DR

Dans une lettre publiée mercredi sur le site Future of Life, une centaine d'experts des nouvelles technologies, dont Elon Musk et Steve Wozniak, le co-fondateur d'Apple, appelaient à une pause de la recherche sur l'intelligence artificielle (IA). Ils dénoncent une course au développement "hors de contrôle" de programmes que même "les créateurs ne peuvent prédire et contrôler", tel que ChatGPT-4. Selon eux, des protocoles et des régulations doivent impérativement être mises en place avant que les expérimentations puissent reprendre.

Jean Hennebert, professeur en informatique et spécialisé en recherche sur l'IA à la Haute école d'ingénierie et d'architecture de Fribourg, relativise sur la gravité des propos de la lettre.

Frapp: la lettre ouverte mentionne le fait que l’IA est un "risque" pour la société. Qu’entend-on par risque?

Jean Hennebert: L'un des risques principaux est lié à la perte de certains emplois, qui deviennent obsolètes avec l'arrivée de ces nouvelles technologies. Je pense par exemple aux traducteurs avec les systèmes de traduction automatique comme Deepl ou Google Translate qui ont bouleversé le domaine. Quand des révolutions technologiques sortent des laboratoires, cela crée évidemment des changements sociétaux, mais aussi énormément d'opportunités.

Je rejoins tout de même les signataires dans le sens où il faudrait que nos gouvernements se penchent sur la question. On doit regarder les implications que ces nouveaux programmes ont sur la société, notamment en termes de perte d'emplois.

Est-ce que ça veut dire qu'il faut freiner la recherche?

Au contraire, je pense qu'il faudrait la renforcer. Non pas dans les sciences dures qui créent ces IA, mais dans les sciences humaines qui analysent leurs impacts. Voire dans quelles mesures on peut augmenter l'intelligence humaine avec cette technologie, plutôt que de l'utiliser pour nous remplacer.

Ce remplacement pourrait-il toucher les Fribourgeois?

Je ne pense pas. Pour le moment, nous avons la chance d'être en situation de pénurie de main d'œuvre, donc je ne la vois pas prendre notre place dans les prochains mois, voir les prochaines années. J'imagine davantage l'IA nous venir en aide dans notre quotidien. Mes collègues enseignants accompagnent déjà les étudiants dans l'utilisation de ChatGPT. Pour les Fribourgeois, elle pourrait par exemple faciliter la communication entre les deux langues.

Qu'en est-il de la désinformation, à l'instar de ces fausses photos de l’arrestation de Donald Trump, très partagées sur les réseaux sociaux?

Certains programmes ont montré qu'ils pouvaient générer des images assez bluffantes. Même nous, en tant qu'être humain, ne pouvons pas toujours en déceler le vrai du faux. La simplicité de cette technologie la rend accessible. N'importe qui pourrait le faire et bombarder les réseaux avec des fake news. L'enjeu, maintenant, est de développer des IA capables de détecter ces photos truquées. De nombreux chercheurs se sont lancés ce défi, avec beaucoup de succès. Nous avons donc déjà des contre-mesures. Mais une question reste: est-ce qu'on arrivera encore à contrer les prochaines générations d'IA ? C'est pour cette raison aussi qu'il ne faut pas arrêter la recherche.

Il n'y a donc pas de danger de scénarios apocalyptiques typique des films hollywoodiens?

Je ne pense pas (rires). Il faut savoir que le terme "Intelligence Artificielle" vient de l'anglais, où le mot intelligence a deux significations. Prenons l'exemple de la Central Intelligence Agency (CIA) aux États-Unis: c'est un bureau qui rassemble des données, puis en créé de l'information. L'IA fait exactement la même chose. C'est un système de digestion et d'extraction de data, plutôt qu'une forme d'intelligence comme on peut l'entendre en français.

Pour l'instant, l'IA ne peut pas prendre de décision spontanée, et ça n'arrivera pas tant qu'on ne l'aura pas programmé à le faire. Peut-être qu'un jour les développeurs de ces systèmes décideront de lui donner cette capacité. Mais tant que l'humain a le dernier mot, ça ne me fait pas peur.

Frapp - Mattia Pillonel
...