Pierre Noro : « L’IA n’est pas un 100 mètres mais une course d’orientation »

Affilié à Sciences Po et à l’Université Paris Cité, Pierre Noro cumule les casquettes d’enseignant et d’expert avec un point commun : l’impact des technologies numériques et leurs enjeux de gouvernance. Entretien quelques jours avant l’AI Action Summit.

— Le 7 février 2025

Crédit photo : Juno Grace Lee

Vivons-nous vraiment un moment de rupture sur l’IA ?

Une rupture dans les usages, oui. Depuis la sortie de ChatGPT et les progrès dans les grands modèles de langage (ou LLM en anglais), les textes produits sont d’une très grande qualité. Alors qu’ils restaient principalement des gadgets développés par fascination technologique il y a encore quelques années, les outils basés sur l’IA atteignent un fort niveau de performance pour un grand nombre de tâches. Le but affiché par les grandes entreprises comme OpenAI étant d’augmenter l’efficacité au travail, ceci ajoute une pression, à la fois individuelle et institutionnelle,  pour adopter ces outils. Pression à laquelle il peut être difficile de résister dans nos sociétés productivistes.

« L’IA n’est pas un 100 mètres, mais une course d’orientation pour chaque pays »

Pierre Noro

Pourquoi faudrait-il “résister” ?

À cause des injonctions à l’adoption tous azimuts, du techno-solutionnisme omniprésent dans les discours des entreprises et de certains de nos politiques, de l’autorité de ces technologies présentées comme révolutionnaires et échappant à la compréhension du plus grand nombre… Il y a une dimension presque « magique » entretenue par l’absence de transparence des grandes entreprises du secteur. Tout cela contribue à déposséder les gens du choix des technologies dont ils sont pourtant les utilisateurs. La résistance à ces déploiements est une forme individuelle de « réagencement » et il me semble qu’il faut aujourd’hui en faciliter la réappropriation collective de leur gouvernance pour s’assurer que le déploiement des systèmes d’IA soit légitime, digne de confiance et bénéficie au plus grand nombre.

En quoi l’IA pose problème ?

L’utilisation de l’IA peut générer de la valeur dans beaucoup de contextes mais elle peut avoir des impacts négatifs du point de vue socio-environnemental, qui doivent être mesurés et discutés pour orienter nos choix collectifs. C’est l’un des buts du AIAAIC (pour “AI, Algorithmic and Automation Incidents and Controversies”) qui développe un registre des incidents, une base de données ouverte et accessible à tous. Environ deux mille y sont répertoriés, pour lesquels l’AIAAIC tente d’introduire une taxonomie exhaustive. Mais on peut également les ranger dans trois grandes catégories  – les trois écologies que la philosophe Anne Alombert a  pour l’IA d’après la pensée de Félix Guattari : l’écologie environnementale, l’écologie sociale et l’écologie mentale, qui relève plus de l’intime. Cette typologie très accessible permet déjà d’initier un travail essentiel : politiser les outils d’IA pour se les réapproprier.

« Si [l’]IA n’est pas alignée avec les valeurs humaines, les conséquences seraient potentiellement désastreuses »

Pierre Noro

L’augmentation du nombre d’utilisateurs augmente-t-elle l’empreinte carbone de l’IA ?

Une requête formulée auprès d’une IA générative consomme environ dix fois plus d’électricité que celle demandée à un moteur de recherche classique. Et les modèles généralistes ont plus d’impact : ils consomment plus que les IA spécialisées sur une tâche. Même si les centres de données sont de mieux en mieux optimisés, les entreprises de la tech prévoient une telle augmentation de la demande que, aux États-Unis, Google et Microsoft investissent massivement dans l’énergie nucléaire pour alimenter leurs data centers. En plus de cela, il faut considérer la consommation en eau, en matières premières comme les terres rares, les pollutions…  et cela sur toute la chaîne ! La production des composants électroniques est la face cachée de l’iceberg. 

La trajectoire actuelle de l’IA est-elle compatible avec des objectifs de durabilité ?

Non, la preuve en est que Google et Microsoft ont abandonné leurs objectifs de réduction d’émission carbone pour rester dans cette course à l’armement. Estimant que les objectifs environnementaux n’étaient de toute façon pas atteignables, l’ancien PDG de Google Eric Schmidt appelait il y a quelques mois à tout miser sur l’IA, sous-entendant qu’elle seule pourrait nous apporter la solution. C’est très inquiétant. Une note positive : la question environnementale sera à l’ordre du jour du Sommet pour l’action sur l’IA qui aura lieu les 10 et 11 février, ce qui constitue un début de rééquilibrage par rapport aux sommets internationaux précédents. Ces sujets étaient occultés en faveur de la question éthique des risques existentiels.

« Une IA sobre (…) et respectueuse des droits humains présenterait peu de risques existentiels »

Pierre Noro

En quoi consistent ces risques existentiels ?

L’objectif affiché par de nombreuses entreprises est de développer une intelligence artificielle générale qui performera mieux que les humains dans tous les domaines. Mais si cette IA n’est pas alignée avec les valeurs humaines, les conséquences seraient potentiellement désastreuses – c’était d’ailleurs la raison d’être initiale d’OpenAI [son PDG Sam Altman était entendu par le Congrès étasunien à ce sujet en mai 2023, NDLR]. Les entreprises du secteur ont joué la stratégie de l’épouvantail en imposant ces risques existentiels comme les seuls à discuter dans le débat public, alors que des évolutions en termes de gouvernance sont déjà nécessaires au vu des risques et impacts immédiats. Mon hypothèse est d’ailleurs qu’une IA sobre du point de vue environnemental et respectueuse des droits humains présenterait peu de risques existentiels. 

Quels dommages sociaux de l’IA s’observent aujourd’hui ?

Le règlement européen de 2024 interdit certains usages de l’IA, comme la manipulation d’opinion ou le calcul de scores sociaux. Mais d’autres usages de systèmes plus modestes créent déjà des dommages. Un des cas les mieux documentés est celui des allocations familiales aux Pays Bas, où des algorithmes sont utilisés pour détecter les fraudes. Plusieurs dizaines de milliers de familles ont été poursuivies par erreur, avec des conséquences terribles pouvant aller jusqu’au divorce ou même le suicide. En France, ces problématiques existent aussi, notamment documentées par la Quadrature du Net avec son projet France Contrôle. Dans ce genre de cas, ce n’est pas seulement l’algorithme qui pose problème (avec notamment des biais dans les données ou dans la définition des objectifs) mais également son déploiement par l’institution. Afin de sortir de l’effet “boîte noire”, une solution serait de permettre aux utilisateurs, voire à des organismes indépendants, de questionner les décisions en accédant aux indices de confiance des résultats. La recherche a également un grand rôle à jouer, notamment pour mieux comprendre et expliquer quels sont les déterminants d’une décision algorithmique. La mise en place de recours humains, qui peut aller à l’encontre du principe d’efficacité gouvernant ces algorithmes, me semble néanmoins essentielle au déploiement de systèmes IA acceptables et responsables.

« DeepSeek avec son modèle en partie open source ennuie beaucoup les entreprises étasuniennes »

Pierre Noro

On entend parfois dire que l’Europe doit rattraper son retard et qu’il vaudrait mieux ne pas “se mettre des bâtons dans les roues” avec trop de réglementation. Qu’en pensez-vous ?

Ce discours d’urgence nous condamne à rester dans une relation de dépendance technologique et idéologique face aux États-Unis et maintenant à la Chine. Imaginez courir un 100 mètres, vous réalisez que les autres sont devant et que vous devez d’un coup courir deux fois plus vite. C’est impossible, surtout si vous courez à la même vitesse que les autres. Ce type de rhétorique encourage le clientélisme envers les géants du numérique, au lieu de soutenir un écosystème d’acteurs locaux et décourage les pays émergents d’établir leur propre stratégie. Certains comme Yanis Varoufakis parlent même de techno-féodalisme. En réalité, ce n’est pas un 100 mètres mais une course d’orientation, où chaque pays part d’un point différent, peut avoir ses propres objectifs selon ses besoins. L’Europe peut ainsi trouver un meilleur chemin en construisant un modèle de gouvernance plus éthique pour l’IA, en promouvant notamment l’ouverture des modèles. 

Deepseek, l’IA générative chinoise qui a bousculé la bourse américaine il y a quelques semaines, est-elle un exemple ?

Cette entreprise chinoise semble l’avoir développée avec relativement peu de ressources, en contradiction avec le paradigme actuel qui voudrait que l’accumulation de puissance de calcul soit nécessaire à la compétitivité des modèles. C’est une mauvaise nouvelle pour les entreprises américaines et leur capitalisation mais cela devrait aussi renforcer notre confiance dans la capacité de l’Union Européenne à faire émerger des modèles compétitifs, notamment en mettant en commun ses infrastructures existantes. En dehors des marques de censure, une des grandes particularités de DeepSeek est son modèle en partie open source, qui ennuie beaucoup les entreprises étasuniennes. Celles-ci ont presque toutes basculé vers des modèles fermés – Meta reste une exception avec ses modèles Llama partiellement ouverts, avec comme principal argument que les gardes-fous techniques mis en place pour limiter les abus – l’appologie du terrorisme par exemple – seraient trop faciles à contourner si le code était accessible à tous. Mais sans cette transparence, il devient impossible d’évaluer les biais, l’impact environnemental ou le respect de la protection des données.

« L’utilisation de l’IA (…) peut augmenter un sentiment de solitude déjà présent dans le monde de l’enseignement supérieur et de la recherche »

Pierre Noro

Les personnels de la recherche, qu’ils soient chercheurs ou non, reçoivent beaucoup d’incitation à utiliser l’IA. À l’échelle individuelle, comment se décider à l’utiliser ou non ?

Une des premières questions à se poser serait : est-ce un réel besoin ? Si oui, privilégier un modèle spécialisé et le mutualiser sera moins gourmand en ressources plutôt qu’entraîner son propre modèle, surtout s’il est généraliste. Des outils permettent de mesurer l’empreinte carbone à l’entraînement comme Code Carbon ou Green Algorithm. Sur la question des IA génératives qui remplacent les moteurs de recherche, il faut rester conscient que ce qui nous est présenté est une synthèse réalisée par l’IA, dont les sources ne sont pas toujours communiquées et fidèlement représentées. On peut réfléchir à l’impact sur son collectif de travail : est-ce que j’utilise l’IA pour ne pas payer ou ne pas créditer quelqu’un ? Si je n’ai pas les moyens de financer cette tâche, apporte-t-elle une réelle valeur ajoutée ? Ne pourrais-je pas plutôt développer un partenariat avec des pairs ? 

Vous parliez d’écologie intime. En quoi ce choix relève de l’intime ?

De manière plus générale, l’utilisation de l’IA change son rapport à soi et peut augmenter un sentiment de solitude déjà présent dans le monde de l’enseignement supérieur et de la recherche, avec des données inquiétantes sur la santé mentale, notamment des étudiants et des doctorants. Il est donc important de s’interroger sur ce que génère l’utilisation de l’IA au cas par cas : du lien ou de l’isolement ? de la fierté ou de la frustration ? Je pense qu’il faut se méfier de l’importation des codes productivistes issus du monde de l’entreprise dans le secteur de l’enseignement et de la recherche. Est-ce que l’usage immédiat d’une IA est compatible avec le développement de compétences ou la production de savoirs désirables sur le long terme ? Si oui, que faire de ce temps libéré ? Doomscroller davantage ou bien le consacrer à des activités qui comptent vraiment ? Certains usages de l’IA peuvent se révéler émancipateurs, voire diminuer les inégalités, notamment celles liées à l’usage de la langue, dans les cursus universitaires et le monde de la recherche. Les institutions ont un rôle à jouer pour accompagner les étudiants, chercheurs et le grand public dans cette voie. En tant qu’enseignant, je demande à mes étudiants d’être transparents et d’expliquer comment ils ont utilisé l’IA, ce qui leur permet de prendre une distance critique vis-à-vis de leurs usages, de faire des choix éclairés et d’être à nouveau fiers de leur travail. 

Envie d’écouter Pierre Noro ? Sa présentation aux Journées réseaux de l’enseignement et de la recherche (JRES) 2024 est en ligne.

À lire aussi dans TheMetaNews

Guillaume Cabanac, détective sans impair

Quand on rencontre Guillaume Cabanac, on a l’impression de croiser un ancien camarade d’école : souriant, calme, avec sa petite chemise à carreaux (ou à fleur) et son accent toulousain chantant, rien ne laisse présager qu’on va parler de fraudes scientifiques pendant...