Vous êtes ici : Accueil / Conseils de lecture / The Submerged Part of the AI-Ceberg

The Submerged Part of the AI-Ceberg

[Perspectives]
Auteur(s)
Couillet, R., Trystram, D. & Ménissier, T.
Numéro
2022 Décembre
DOI
https://doi.org/10.1109/msp.2022.3182938
Centre d'intérêt
Les Facteurs Humains Et Organisationnels De La Securite

Formats disponibles

    Résumé

    Couillet, R., Trystram, D.  & Ménissier, T. (2022) The Submerged Part of the AI-Ceberg [Perspectives], IEEE Signal Processing Magazine, vol. 39, no. 5, pp. 10-17, Sept. 2022, doi:10.1109/msp.2022.3182938.

     

    Notre avis

    📖📖📖📖 Cet article écrit par des collègues du laboratoire d’informatique de l’Université de Grenoble n’est pas à proprement parler un article sur la sécurité, mais il touche à un sujet central de la transformation des métiers et des entreprises, et par rebond à plusieurs thèmes abordés dans le futur programme « Foncsi 4 » sur notre capacité à réussir le mariage de la transition numérique et écologique d’un point de vue global et sécurité. Il a un autre avantage, celui de sa clarté et du niveau de langue accessible au plus grand nombre. Une belle lecture avec beaucoup d’enjeux à la clé.
     

    Notre synthèse

    Cet article discute quelques contradictions croissantes existant entre une demande toujours plus forte pour l’Intelligence Artificielle (IA), une information et communication de l’industrie sur le sujet largement fantasmatiques, et la forte incitation à rester sobre énergétiquement dans ce monde en pleine transition écologique.

    Partant de ces contradictions, ces auteurs français du pôle numérique Grenoblois, proposent une réflexion sur la nécessité d’un changement de paradigme profond de notre considération pour l’IA.

    L’IA a déjà beaucoup profité au développement rapide de plusieurs champs scientifiques, par exemple dans le traitement du langage ou la reconnaissance et le traitement d’images. Le proche futur pourrait s’appliquer massivement à la conquête d’une autonomie toujours plus grande des machines (véhicules autonomes, robots d’assistances divers à la maison comme à l’usine ou dans l’agriculture, dispositifs immersifs).

    L’apprentissage profond (deep learning), théorisé dans les années 1980 comme technique principale du machine learning,  se présente comme un nouvel eldorado qui met au rancart les techniques normatives basées sur une expertise stable, partagée par les opérateurs avec la machine (un savoir indexé et représenté sous forme d’un système formel de règles logiques).

    Le système à base de deep learning pourrait « voir » ce qu’on ne voit pas, « savoir » ce qu’on ne sait pas. Investir sur un tel système supposerait ainsi qu’on lui délègue un pouvoir de décision au risque, comme le disait prophétiquement Stephen Hawkins en 2014, d’avoir le pouvoir de menacer et concurrencer les humains ‒ les adaptations biologiques et génétiques humaines étant trop lentes pour être encore compétitives avec l’agilité de ces systèmes à monter en autonomie et puissance hors du contrôle humain. Ivan Illich nous proposait avant lui dès 1973 (Ivan Illich, Tools for conviviality, Harper & Row, 1973) une lecture encore plus ancrée dans le réel de la même prophétie, en insistant sur notre dépendance croissante aux énergies et aux machines par le fait de la migration d’une connaissance et d’une compétence qui nous échappent.

    Le tableau général (big picture) habituellement déployé pour lire le futur de l’IA ne prend pas plus en compte les coûts sociétaux et environnementaux de ces techniques. L’inflation énergétique liée au déploiement des systèmes à base d’IA (consommation massive d’Internet, véhicules autonomes, caméras intelligentes) est le plus souvent totalement passée sous silence.

    Pourtant, 63 % de la consommation électrique des applications numériques provient d’électricité carbonée et 80 % du coût des outils numériques concernent des ressources rares de la planète (jusqu’ à 50 métaux rares dans un smartphone, dont la plupart extraits au prix d’une destruction environnementale locale importante).

    La consommation énergétique pour entraîner (lui faire apprendre) un des plus récents systèmes de deep learning employé en langage naturel dépasse 1000 MWh (soit plus d’un mois de consommation de calcul avec un réseau d’ordinateurs actuels). Ceci correspond à un coût approché de 100 000 € et 500 tonnes de CO2, soit encore 500 aller-retour entre Paris et New York. En comparaison, un cerveau humain consomme 12 kWh en un mois pour des tâches de traduction, soit 100 000 fois moins. À noter qu’il n’est définitivement plus possible d’entraîner un réseau de neurones moderne sur un ordinateur domestique aussi puissant soit-il (il faudrait 405 années…).

    Tous ces éléments de consommation de l’IA devraient continuer à augmenter rapidement dans le futur, et non se réduire, et donc heurter de plein fouet l’objectif de la transition écologique et d’émission de CO2.

     

    On pourrait aussi se faire l’avocat de la défense. Une fois « entraîné », un réseau neuronal pourrait être utilisé des millions de fois et aider des millions de personnes pour un coût devenu négligeable.

    Mais, même cet argument est fallacieux : d’une part, le concept d’aide nécessite d’être bien analysé (est-ce une aide d’avoir un robot autonome qui vous impose ce que vous faites ?) ; et d’autre part, l’entraînement de la machine ne s’arrête jamais, avec une demande constante d’amélioration des serveurs et des machines elles-mêmes très consommatrices de ressources.

    Un autre risque est l’effet rebond :  bien des économies produites par le numérique ‒ si elles existent ‒ popularisent les nouvelles utilisations, les rendent accessibles, et finalement augmentent le nombre d’applications et d’utilisateurs. Cette augmentation incontrôlée des applications numériques conduit à prédire une hausse de la consommation électrique en lien avec le numérique qui irait de 3 à 4 % de la consommation annuelle totale du pays aujourd’hui, à 20 % de cette consommation totale en 2050, sans parler du bilan carbone catastrophique.

    Et concernant les matériaux et ressources rares impliquées dans l’industrie numérique, on considère que le recyclage concerne à peine 17 % de ces ressources aujourd’hui.  Même si on améliore ce chiffre, et même si on arrivait à 100 %, l’accélération du numérique en demanderait bien plus.

     

    Où sont les solutions ? LIA est-elle condamnée par la survie de la planète ?

    Il y a un consensus de plus en plus fort ‒ qui va maintenant au-delà des groupes de pression (le GIEC , le Shift Project, l’Association negaWatt, etc.) ‒ sur l’urgente nécessité, particulièrement dans les pays riches occidentaux, de réduire drastiquement la consommation d’énergie carbonée, et d’appeler toutes les sociétés à reconsidérer leur rapport à la richesse (leur « grand récit national » basé sur le « toujours plus » de possession, de richesses, etc.), de préserver la richesse de la terre et d’être plus sobres.

     

    Que veut-on, que peut-on, que va-t-on éliminer dans cette quête de sobriété ?

    Dans le contexte actuel, il serait logique d’investir en priorité sur des technologies et solutions numériques qui exigent peu d’énergie et de ressources rares, tout en ayant un maximum d’impact positif sur la vie sur la planète, en quelque sorte des « technologies résilientes ».

    Ivan Illich, dès les années 1970, et Stiegler, plus récemment, avaient décrit une telle technologie résiliente comme une technologie conviviale, qui ne rend pas dépendant (de la technologie, mais aussi de ses ressources consommées) et qui porte en elle les vertus de durabilité souhaitées.

    Dans ce contexte, les nouveautés en IA pourraient rapidement s’avérer contraires à cette idée de technologie conviviale ; elles pourraient atteindre un point de rupture (tipping point) où le coût de la conception et de l’usage prend le pas sur l’apport supposé sur le bénéfice en bien-être et performance.

    Le deep learning aurait ainsi déjà atteint un plateau. Thomson (2020) montre notamment, par une revue des pratiques sur les dix dernières années, qu’optimiser les erreurs résiduelles dans un processus de deep learning nécessite une multiplication par 29 du nombre d’opérations nécessaires (flops) au parcours d’entraînement/apprentissage de la machine (Thompson, Greenewald, Lee, Manso, The computational limits of deep learning, 2020, arXiv, 2007.05558). Et le futur est exponentiel dans ce sens, totalement hors des limites et incompatibles avec la sobriété désirée.

     

    L’alternative pourrait être ‒ comme le suggère le travail de Valérie d’Acremont ‒ de penser une IA low tech. Acremont travaille sur la santé en Tanzanie où l’électricité n’est pas toujours disponible, ni même les médecins spécialistes (Valérie d’Acremont, 2021 : Technologies et santé : Quels compromis entre éthique, environnement et climat ? Analyse réflexive et expérience de terrain).

    Le défi est d’essayer de passer, dans ces conditions de la connaissance, à des bénévoles moins qualifiés, de savoir utiliser des médicaments à bon escient, sans miser sur une hyper technologie. La question du diagnostic est essentielle pour cette orientation, notamment pour le paludisme et encore plus pour les autres pathologies infectieuses. Les tests simples marchent bien pour le paludisme, mais pas pour un grand nombre de pathologies infectieuses. L’équipe a fourni un algorithme d’aide à la décision à base d’IA optimisé à partir d’un arbre de décision habituel aux médecins (et non par le seul paradigme de deep learning utilisant l’apprentissage sur données). Cet outil est accessible au téléphone portable, suffisamment transparent dans son expertise pour rester contrôlable dans son contenu de connaissance par les utilisateurs, fonctionnant sous forme de conseil pour être enrichi par le retour d’expérience des utilisateurs.

    Ce type de low tech, un peu hybride, connaît maintenant plusieurs applications et on a même des « low techs labs » qui se multiplient ‒ le plus souvent hors universités. Ces « low tech labs » développent des produits digitaux à partir de matériaux recyclés, avec un niveau de simplicité et de durabilité étendus, et avec une adaptation à une résilience d’utilisateur humain local.

    On notera que cette approche est à distinguer radicalement des tentatives (largement commerciales) de « rhabiller » les outils actuels de hautes technologies avec des concepts rassurants, par exemple dans le traitement du signal, en parlant de conception résiliente, de numérique « vert » et d’analyseur d’énergie carbonée dans le numérique.

     

    Enfin, une autre voie de progrès relevant de  « l’économie symbiotique » pourrait être de chercher à remplacer par de nouvelles ressources non limitées ‒ ou à régénérer ‒ les ressources rares du numérique avancé. Le parcours reste à faire pour l’IA.