Livre

Économie, emploi - Recherche, sciences, techniques

L’Hyperpuissance de l’informatique. Algorithmes, données, machines, réseaux

Par

L’Hyperpuissance de l’informatique. Algorithmes, données, machines, réseaux
BERRY Gérard , « L’Hyperpuissance de l’informatique. Algorithmes, données, machines, réseaux », Odile Jacob, 2017.

Polytechnicien, ingénieur général des Mines, pluri-académicien, Gérard Berry aurait pu se perdre dans les conseils d’administration des entreprises du CAC 40. C’est un tout autre personnage qui se manifeste dans cet ouvrage : brillant chercheur (docteur ès sciences, médaille d’or du Centre national de la recherche scientifique), développeur (langage Esterel), industriel (Esterel Technologies) et passeur de savoir (professeur au Collège de France et à l’université d’Édimbourg). Le tout assaisonné d’un provincialisme revendiqué et d’une réjouissante pointe d’autodérision (il est régent de « déformatique » au Collège de pataphysique). Saluons au passage la grande modestie de l’auteur, qui s’excuse fréquemment de ne pas aller plus loin dans certains domaines par manque de compétence (?), sollicite les critiques de ses lecteurs, et ne ménage pas les coups de chapeau aux travaux de ses collègues et concurrents.

Le message de Gérard Berry est que la vision de l’informatique comme outil, encore trop répandue en France jusqu’aux plus hauts niveaux, est non seulement étriquée, mais néfaste. L’informatique ne se réduit pas à la programmation et à la puissance de calcul, c’est la science de l’information au sens large, qui couvre les télécommunications, le stockage et la sécurité des données, l’algorithmique, l’automatique et la robotique, la conception assistée et la modélisation, le tout avec un large recours aux mathématiques, aux neurosciences, à l’abstraction. C’est une science subversive, qui exige une révolution des schémas mentaux hérités du monde physique des siècles passés.

Pour étayer son propos, Gérard Berry passe en revue « cinq domaines de transformations massives : les télécommunications, Internet, la photographie et la cartographie, l’informatisation de la médecine, et celle en cours de toutes les sciences ». Très éclairant et accessible au profane, ce panorama ne peut malheureusement être résumé ici, faute de place.

La centaine de pages qui suit est consacrée aux problèmes de la sécurité informatique, aux bugs des temps modernes, à la discipline qui devrait s’imposer aux concepteurs et développeurs, depuis la spécification rigoureuse des applications jusqu’aux méthodes formelles de vérification et de preuve (qui sont, avec la programmation en temps réel, une spécialité de l’auteur). Au chapitre des errances informatiques, on ne sait s’il faut rire ou pleurer au rappel des mésaventures de l’escadrille d’avions furtifs Raptor, soudain privée de tout système de navigation et de communication au passage de la ligne de changement d’heure ; ou de l’explosion en vol de la première fusée Ariane 5 avec son chargement de quatre satellites (non assurés), par la faute d’une seule ligne de code inutile ; ou encore du porte-avions britannique Queen Elizabeth, paralysé et ramené au port par des remorqueurs, pour s’être doté d’un système d’exploitation obsolète qui n’aurait jamais du trouver sa place à bord d’un navire de guerre ; ou encore le crash de la sonde martienne européenne Schiaparelli qui, arrivée à destination, a éteint trop tôt ses rétrofusées. Que d’argent perdu par légèreté !

L’auteur consacre un chapitre à sa vision personnelle de « l’informatisation du monde ». Reprenant un adage familier aux lecteurs de Futuribles, selon lequel « la prévision est un art difficile surtout en ce qui concerne l’avenir », il observe que l’exercice n’a jamais été aussi délicat en raison de l’accélération des ruptures dans de nombreux domaines. En témoignent les spectaculaires erreurs d’appréciation d’éminents patrons de l’informatique, depuis « le marché mondial des ordinateurs ne dépassera pas cinq unités » de Thomas Watson (alors dirigeant d’IBM, 1943), jusqu’à « l’iPhone n’a pas d’avenir industriel » de Steve Balmer (PDG de Microsoft, 2007). Or, ces experts étaient autrement plus compétents que les bureaux et comités qui rêvent périodiquement de programmer l’avenir.

À défaut de boule de cristal, la prudence s’impose donc [1] : « la seule chose qu’on peut faire est de faciliter la naissance impromptue des ruptures en faisant confiance à la créativité et la capacité de vagabondage mental et technique des chercheurs fondamentaux et appliqués, davantage qu’à leur capacité à remplir des formulaires et des dossiers ». Encore faut-il disposer en quantité suffisante d’une ressource humaine opportunément formée [2]. La France possède des chercheurs et ingénieurs de haut niveau, mais en nombre insuffisant (et elle peine à les retenir sur son territoire). Elle ne compte malheureusement qu’une seule société de logiciels parmi les 100 premières mondiales [3].

Il faut d’urgence reconstituer le gisement de compétences nécessaires et sensibiliser une classe dirigeante et politique qui a trop « longtemps choisi de faire purement et simplement l’impasse sur l’informatique et ses effets ». L’Éducation nationale n’a, timidement, inscrit un enseignement optionnel « Informatique et création numérique », en seconde, qu’en 2015, et elle ne dispose pas suffisamment de professeurs adéquatement formés. Elle résiste par ailleurs à la création d’un CAPES (certificat d’aptitude au professorat de l’enseignement du second degré) et d’une agrégation informatiques.

Il y a toutefois des signaux réconfortants : un secrétariat d’État au Numérique et un Conseil national du numérique ont été créés sous le quinquennat précédent, et le nouveau gouvernement multiplie les initiatives [4]. Les informaticiens dialoguent de mieux en mieux avec les autres scientifiques, les industriels et les pouvoirs publics. Les start-ups se créent à une vitesse peu connue auparavant. Les parlementaires commencent à se saisir des bonnes questions.

Les médias, en revanche, brodent un peu trop allègrement sur le creusement des inégalités, la disparition de la notion d’intimité personnelle, la marginalisation de l’enseignement traditionnel au profit des MOOC (Massive Open Online Classes), l’irruption d’une intelligence artificielle qui va rendre les machines plus intelligentes que les hommes, etc. Ce sont certes des questions tout à fait sérieuses, reconnaît Gérard Berry, mais elles ont pour inconvénient de masquer le travail à faire en profondeur par des organisations rassemblant des intérêts très variés : science, industrie, politique, droit, etc.

En conclusion, un ouvrage à faire lire d’urgence par les parlementaires, les enseignants et les faiseurs d’opinion.



[1] Quelques pistes d’avenir sont toutefois évoquées : la gravure tridimensionnelle des puces en silicium ; l’utilisation du graphène ; l’arrivée des memristors ; la sauvegarde de longue durée des données sur des brins d’ADN ; l’anonymisation des données ; l’informatique quantique. Et bien sûr l’intelligence artificielle, dont les réseaux neuronaux et l’apprentissage automatique supervisé ne donnent qu’un avant-goût.

[2] Aux États-Unis, le président Obama s’était personnellement engagé dans la bataille pour l’enseignement informatique. En Asie, le sujet est considéré comme absolument majeur dans beaucoup de pays, dont l’Inde et la Chine, qui forment des cohortes d’ingénieurs et de chercheurs qui poursuivent leur formation en Occident, d’où ils ramènent de précieuses connaissances industrielles.

[3] Dassault Systèmes, dont le logiciel de conception assistée tridimensionnelle interactive Catia est utilisé aussi bien par Airbus et Boeing que par l’industrie automobile, la construction navale et d’autres industries.

[4] Le gouvernement d’Édouard Philippe a chargé le mathématicien Cédric Villani d’une mission sur l’intelligence artificielle, prévu un volet numérique dans le grand plan d’investissement, chargé Philippe Arraou d’une mission sur l’informatisation des PME, nommé Thomas Cazenave délégué interministériel à la Transformation numérique de l’État, réformé la vielle loi Informatique et libertés.