RTFlash

Edito : Intelligence artificielle, photonique et informatique quantique vont produire une puissance cognitive inimaginable

Avant Propos :

Chaque semaine, jusqu'à la fin de notre campagne de dons qui se terminera au 31 Décembre, je vous ferai un bref résumé de l'état d'avancement de cette campagne de dons pour permettre à RT Flash de survivre. Au moment où je clos cet édito, nous venons de dépasser les 7.000 euros de dons. Comme la barre minimale est fixée à 15.000 euros et pour vous faire ressentir combien je suis toujours aussi optimiste, je constate que notre verre sera bientôt à moitié plein.

Mais il ne faut pas se tromper, remplir l'autre moitié, ce sera inévitablement beaucoup plus long.

Je veux remercier les 110 personnes qui ont déjà fait un don. J'ai été très touché par les mots particulièrement gentils et les encouragements qui souvent accompagnent ces dons.

EDITORIAL :

Nous assistons actuellement à une accélération exponentielle de l’intégration de l’intelligence artificielle (IA) et il ne se passe plus un jour sans une annonce relative à de nouvelles applications de cette technologie qui est en train d’envahir absolument tous les domaines d’activités, de la médecine à la défense, en passant par les loisirs et les services.

C’est ainsi qu’il y a quelques semaines, Google a annoncé avoir développé un nouvel outil d’intelligence artificielle extrêmement puissant, capable de détecter avec une très grande fiabilité les cancers du poumon, à partir d’une analyse des images provenant des scanners, I.R.M. et autres appareils d’imagerie médicale (Voir Interesting Engineering).

Ce nouvel outil a permis de détecter, avec un taux de précision de 94,4 % les cancers du poumon à partir des images analysées. Il s’est avéré plus performant que les six radiologues expérimentés  auxquels il a été comparé en repérant 5 % de cancers supplémentaires, mais également en réduisant de 11 % le nombre de « faux positifs », c’est-à-dire de cancers diagnostiqués à tort.

Une autre étude, publiée il y a quelques jours et réalisée sous la direction de Charlotte Manisty (Clinique cardiologique de Londres) (Voir AHA Journals), a montré qu’un nouvel outil d’IA était capable de lire et interpréter de manière très fiable une image cardiaque issue de scanners et d’I.R.M. en seulement quatre secondes, au lieu de 13 minutes en moyenne pour un médecin humain. L’étude montre qu’en comparant le temps gagné sur chaque analyse d’image avec le nombre de lectures effectuées chaque année, les médecins britanniques pourraient gagner, en moyenne, un total de 54 journées par an…

L’intelligence artificielle est également en train de révolutionner le domaine ô combien important de la climatologie et les prévisions météorologiques (Voir Nature). Il y a également quelques jours, une étude réalisée par des chercheurs de l’Université de Chonnam, en Corée du Sud, a fait sensation au sein de la communauté scientifique en montrant qu’un nouveau système d’intelligence artificielle utilisant les réseaux de neurones était capable de prévoir jusqu’à 18 mois à l’avance les survenues du redoutable et difficilement prévisible phénomène météorologique El Niño, qui affecte, on le sait à présent, l’ensemble du climat mondial et correspond à un cycle de variations de la pression atmosphérique entre l'est et l'ouest du Pacifique, couplé à un cycle du courant océanique le long de l'Equateur.

Mais en plus, ce nouvel outil permet aussi de localiser de façon beaucoup plus précise ce redoutable phénomène et d’anticiper l’ensemble des mesures à prendre pour la protection alimentaire et sanitaire des populations concernées, ce qui constitue évidemment un immense progrès.

La défense et la sécurité n’échapperont pas non plus non plus à la puissance de l’intelligence artificielle. Le département de la défense américain a ainsi créé en juin 2018 un Centre interarmées pour l’intelligence artificielle (IA). Le but de cette nouvelle structure est de fournir d'ici cinq ans à toutes les unités de l’armée, qu’elle soit combattante, technique, logistique, une aide à la décision basée sur l’analyse des multiples données constituant l’environnement militaire, qu’il soit tactique ou stratégique.

En matière de transports, la société allemande Siemens a présenté, en septembre dernier, le premier tram autonome du monde, qui a parcouru la ville de Potsdam en Allemagne dans les conditions réelles de circulation et en toute sécurité. Équipé de caméras intelligentes, de lidars et de systèmes de reconnaissance d’image, ce nouveau type de tram peut faire face, grâce à son logiciel d’IA, à des situations inattendues et à de brusques changements dans son environnement, y compris le surgissement inopiné d’un piéton sur la voie (voir Siemens).

Toujours en utilisant les nouvelles ressources de l’intelligence artificielle, Google a développé depuis trois ans une nouvelle technologie dont on n’a pas fini d’entendre parler : le VPS (Visual Positioning Service). Cet outil qui utilise la cartographie 3D permet de se positionner à l’intérieur d’un lieu à partir des images filmées par la caméra d’un smartphone. Cette technologie très puissante ouvre un champ d’applications considérable. Elle permet notamment de repérer très facilement, grâce à la reconnaissance visuelle intelligente, une personne ou un objet dans des espaces fermés, immeubles, magasins, domiciles…

Autre domaine qui va rapidement être bouleversé par l’arrivée de l’IA, les transports routiers de marchandises. Il y a quelques jours, le constructeur de poids-lourds suédois Scania a présenté l’AXL, son nouveau concept étonnant de camion de transport de matériaux, qui ressemble à un engin de science-fiction. Dépourvu de cabine, cet engin est destiné à être utilisé de manière autonome dans les exploitations minières.

D’ici la fin de l’année, la ligne 393 de la RATP (reliant Thiais à Sucy-Bonneuil, dans le Val-de-Marne) devrait quant à elle accueillir les premiers bus autonomes en situation réelle de circulation. Bien entendu, pendant une période d’essai relativement longue, un chauffeur sera présent à l’intérieur de ce bus pour superviser la conduite, rassurer les voyageurs et parer à toute éventualité. Néanmoins, l’objectif à terme de la RATP est bien de généraliser la circulation de ces bus entièrement autonomes sur l’ensemble de son réseau, une perspective qui n’est envisageable qu’en utilisant toute la puissance des nouveaux outils d’intelligence artificielle.

L’Intelligence artificielle est également en train de s’imposer dans des domaines plus inattendus, comme celui du recrutement. Dans ce secteur, par exemple, de nouveaux outils de « gaming mobile » s’avèrent très efficaces pour repérer certains candidats tout à fait aptes à remplir les emplois visés mais présentant des profils atypiques qui ne permettent pas toujours de les identifier par les méthodes classiques.

Dans le domaine de la mode, Facebook a développé une nouvelle intelligence artificielle capable de choisir une tenue vestimentaire « tendance ». Cet outil baptisé Fashion ++ a été conçu pour proposer à l’utilisateur un véritable service de « relooking » personnel. Concrètement, le système propose non seulement des combinaisons de vêtements à porter (en fonction de l’âge et des circonstances) mais suggère également différentes façons de porter ses tenues vestimentaires pour être « dans le vent ».

Reste que, pour pouvoir diffuser l’intelligence artificielle partout et augmenter encore sa puissance et ses performances, il faudra parvenir à résoudre la « quadrature du cercle » technologique qui consiste à la fois à miniaturiser encore des composants électroniques, diminuer drastiquement la consommation énergétique globale des outils informatiques et augmenter considérablement la puissance de calcul de ces nouveaux outils. On le sait peu, mais la consommation globale des activités numériques mondiales atteint déjà 10 % de la consommation planétaire d’électricité, soit environ 2400 TWh, cinq fois la consommation annuelle de la France. Il est donc devenu crucial de parvenir à améliorer de manière drastique l’efficacité énergétique du monde numérique, qu’il s’agisse des composants électroniques, des réseaux ou des terminaux.

Pour parvenir à relever ce défi, de nombreuses voies technologiques classiques ou plus exotiques sont explorées. Google a ainsi développé l’unité de traitement de tenseur (tensor processing unit, ou TPU), qui présente une consommation d’énergie bien inférieure à celle des deux microprocesseurs GPU (graphics processing unit) et CPU (central processing unit) par unité de calcul. Mais à plus long terme, des ruptures technologiques majeures se profilent avec l’arrivée de la photonique et de l’informatique quantique.

Contrairement à leurs homologues électroniques, les unités de calcul optique (OPU en anglais) effectuent une transformation linéaire des vecteurs d’entrée suivie d’une transformation non linéaire, ce qui permet in fine d’obtenir une très grande puissance de calcul, associée à une faible consommation d’énergie.

Il est intéressant de souligner que la France est à l’avant-garde dans ce domaine et que la société française LightOn a récemment développé un nouveau dispositif basé sur l’optique, baptisé Optical Processing Unit (OPU). Ce processeur optique révolutionnaire, qui devrait être commercialisé en 2020, est déjà capable de multiplier par cinq la vitesse de calcul de certains algorithmes utilisés en intelligence artificielle, tout en divisant par cinq la consommation énergétique globale nécessaire à ces calculs.

Outre-Atlantique, la société Cerebras Systems a, pour sa part, dévoilé fin août un processeur d'une taille jamais vue, destiné à accélérer la capacité de calcul des intelligences artificielles. Cette puce est 57 fois plus grande que la plus large puce actuelle du marché et compte pas moins de 1200 milliards de transistors, 400.000 cœurs et 18 gigaoctets de mémoire. Dotée d’une telle puissance, elle devrait permettre de faire tourner les algorithmes d'intelligence artificielle 150 fois plus rapidement que les meilleurs systèmes informatiques actuels et à moindre coût énergétique.

Comme il est impossible de réaliser et de graver sur une seule plaque autant de transistors sans qu’un certain nombre ne soient défectueux, Cerebras a conçu et réalisé sa puce géante en la divisant en 84 modules interconnectés. Chaque module dispose de composants similaires qui assurent un haut niveau de redondance. Grâce à cette conception astucieuse, si un dysfonctionnement se produit dans l’un des modules, la puce peut quand même continuer à fonctionner en recourant aux composants opérationnels des autres modules.

C’est dans ce contexte d’effervescence technologique qu’il y a quelques jours Google a annoncé qu'il était parvenu au stade de la "suprématie quantique" (Voir article Usahitman), ce qui signifie qu'il aurait développé une machine qui surpasse de très loin, pour une tâche donnée, la puissance d’un ordinateur traditionnel reposant sur la logique binaire. Les spécialistes considèrent que le point de suprématie ou d’avantage quantique est atteint lorsqu’un ordinateur quantique comportant au moins 50 qubits parvient à un taux d’erreur suffisamment bas, ce qui lui permet d’effectuer de manière fiable des calculs complexes, beaucoup plus vite que ne pourrait le faire la plus puissante des machines classiques.

Google affirme que ses chercheurs seraient parvenus à faire effectuer un calcul bien spécifique à un ordinateur quantique en seulement 3 minutes et 20 secondes, alors que 10 000 ans seraient nécessaires au plus puissant supercalculateur au monde, le Summit, pour y parvenir. Bien que les chercheurs de Google aient pris soin de souligner que leur machine quantique ne pouvait, pour l’instant, effectuer qu’un seul calcul à la fois, les spécialistes en informatique quantique ont salué cette avancée remarquable qui n’était pas attendue avant cinq ans et constitue une étape essentielle vers un ordinateur quantique opérationnel et commercialisable, qui devrait voir le jour au cours de la prochaine décennie.

Il est raisonnable désormais d'espérer que d’ici une dizaine d’années les premiers ordinateurs photoniques et quantiques sortiront des laboratoires et seront utilisés dans tous les secteurs d’activité. Il faut bien comprendre que la révolution qui résultera de l’arrivée sur le marché de ce nouveau type de machine sera absolument vertigineuse. En effet, des problèmes extrêmement complexes qui demanderaient aujourd’hui plusieurs décennies, voire plusieurs siècles de calcul, pourront être effectués en quelques heures ou quelques jours.

Concrètement, cela signifie qu’il sera par exemple possible de réaliser enfin des prévisions météorologiques à long terme fiables et précises, de prévoir de manière beaucoup plus fine l’évolution probable du climat, ou encore de prévoir des catastrophes naturelles aujourd’hui malheureusement imprévisibles, comme les séismes.

Dans le domaine des sciences de la vie, les bouleversements que va provoquer l’arrivée de tels outils ne seront pas moins grands. En disposant d’une puissance de calcul absolument gigantesque, médecins et biologistes pourront mettre au point, de manière individualisée, de nouvelles molécules et médicaments, mais également de nouveaux vaccins qui seraient tout simplement impossibles à concevoir aujourd’hui dans un temps raisonnable. Ils pourront également modéliser et simuler numériquement le fonctionnement et l’évolution d’interactions biologiques très complexes d’organes entiers.

Dans le secteur des matériaux et des nouvelles énergies, ces outils informatiques permettront également des révolutions que l’on peine encore à imaginer. Il deviendra notamment possible de concevoir et de produire à la demande une multitude de nouveaux matériaux possédant des propriétés très spécifiques, ce qui permettra par exemple de produire des cellules solaires bien plus performantes qu’aujourd’hui, ou encore de nouveaux matériaux ultralégers, souples et extrêmement résistants qui permettront de fabriquer des véhicules à haut niveau de sécurité, des avions ultralégers, des bâtiments pouvant affronter les pires catastrophes naturelles, ou encore des composants électroniques de taille atomique.

Cette révolution scientifique et technique, qui résultera de l’alliance de l’intelligence artificielle et de l’informatique photonique et quantique, s’appuiera sur une synergie théorique, conceptuelle et industrielle entre quatre grandes disciplines : les mathématiques et la logique, la physique et les matériaux, la chimie et enfin la biologie et les sciences du vivant.

Notre pays, en raison de sa tradition scientifique, technique et industrielle, et de la qualité de sa recherche publique, est particulièrement bien placé pour être à la pointe de cette extraordinaire rupture de société qui s’annonce. Nous devons, dans le cadre d’une coopération beaucoup plus intense au niveau européen, nous donner tous les moyens qui nous permettront, à l’horizon 2030, d’être les premiers au monde à maîtriser et à utiliser largement ces futurs outils d’intelligence artificielle quantiques et photoniques. Il faut en effet bien comprendre que cet enjeu va bien au-delà de sa dimension scientifique et économique et constitue également la clef qui nous permettra demain, face aux nouveaux géants chinois, indiens et africains qui émergent, de conserver notre souveraineté politique et de préserver non seulement notre prospérité mais également notre modèle de société.

René TRÉGOUËT

Sénateur honoraire

Fondateur du Groupe de Prospective du Sénat

e-mail : tregouet@gmail.com

Noter cet article :

 

Vous serez certainement intéressé par ces articles :

Recommander cet article :

back-to-top