RTFlash

Edito : Est-ce la fin de la loi de Moore ?

La fameuse loi de Moore, qui repose sur des observations concrètes, a été édictée en 1965 par Gordon E. Moore, l'un des cofondateurs de la société Intel. Cette loi trace une courbe d'évolution de la taille et du prix des microprocesseurs. Elle postule qu’à coût égal, le nombre de transistors présents sur une puce double tous les ans. En 1975, cette loi fut révisée par Gordon Moore lui-même et postula que, désormais, ce doublement du nombre de transistors sur un microprocesseur aurait lieu tous les deux ans, au moins jusqu’en 2015.

Le premier microprocesseur commercialisé par Intel en 1971 comptait 2 300 transistors. Presque 50 ans plus tard, l’américain Xilinx, leader mondial des circuits logiques programmables, vient de lancer sa nouvelle génération de circuit logique programmable en technologie de 16 nanomètres. Avec 35 milliards de transistors, ce composant, fabriqué chez le fondeur taïwanais de semi-conducteurs TSMC en technologie de 16 nanomètres, est devenu la puce la plus puissante au monde, en dehors des mémoires. Sur le dernier demi-siècle, force est de constater que cette loi a été globalement respectée, puisque, de 1971 à 2020, le nombre de transistors intégrés sur une seule puce a été multiplié par un peu plus de 15 millions…

Il y a trois ans, une alliance industrielle rassemblant Samsung Electronics, GlobalFoundries, ASML et IBM a réussi à graver une puce électronique avec une finesse de cinq nanomètres, deux générations en avance sur les circuits intégrés les plus performants de l’époque. Pour parvenir à ce résultat, les chercheurs ont remplacé la technologie FinFET de transistor en 3D par une nouvelle approche reposant sur l’empilage de nanofeuilles (Stacked Nanosheet Gate-all-around transistor). Selon IBM, la puce en question offre un gain de 40 % de performances à consommation égale de courant par rapport à son équivalent en 10 nm, ou 75 % d’économie d’énergie pour des performances équivalentes. Elle peut intégrer 30 milliards de transistors, contre 20 milliards de transistors pour celle de 7 nm.

Il y a deux ans, des chercheurs du MIT et de l’Université du Colorado ont présenté, à l’issue de plus de vingt ans de recherche, un transistor 3D d’une taille de seulement 2,5 nm (nanomètre), soit moins de la moitié de la taille des plus petits transistors disponibles. Pour parvenir à franchir cette nouvelle étape décisive  dans la miniaturisation des composants, ils ont développé une nouvelle technique de gravure, appelée « Gravure thermique au niveau atomique » (Thermal ALE), qui permet de modifier les semi-conducteurs au niveau atomique. (Voir MIT). Comme le souligne l’étude « Ce travail pourrait avoir un impact considérable sur le monde de l’électronique et permettre de prolonger la validité de la loi de Moore, en sachant manipuler les matériaux avec une précision atomique. »

En décembre dernier, Intel a annoncé qu’il pensait être en mesure de continuer, en utilisant de manière combinée une nouvelle technologie de lithographie en ultraviolet extrême et sa technologie Tri-Gate, à respecter la loi de Moore jusqu’à la fin de cette décennie. Sa nouvelle feuille de route prévoit des transistors de 10 nm en 2019, de 7 nm en 2021, de 3 nm en 2023 et de 1,4 nm en 2029.

Le géant américain des semi-conducteurs, numéro un mondial des microprocesseurs pour PC et serveurs, vient d’ailleurs de lancer "Lakefield", un nouveau type de microprocesseurs en 3D qui repose sur l’empilement des puces sur plusieurs centaines de couches, une technologie très délicate à maîtriser en raison des problèmes liés à la dissipation thermique de ces composants. Ces nouveaux processeurs « basse consommation » font 12 millimètres de côté, pour un millimètre d’épaisseur.

Les fondeurs de puces, approchant des limites physiques que constitue le nombre d’atomes marquant l’épaisseur de gravure des transistors, tentent donc, comme on le voit avec « Lakefield », d’optimiser la conception des transistors et des circuits plutôt que d'essayer de miniaturiser ces composants de manière brute. Aujourd’hui, il ne reste plus que trois industriels encore capables de graver des composants de 7 nm : Intel, Samsung et TCMC et seuls les deux derniers semblent en mesure de graver des puces en 3 nm, ce qui correspond à une dizaine d’atomes…

Pour essayer de reculer l’inexorable échéance qui conduit à la fin de la loi de Moore et gagner quelques années, les grands de l’électronique misent sur le transistor 3D et l’utilisation de nanofils, pour limiter dans des valeurs acceptables l’inévitable fuite des électrons résultant du fameux « effet tunnel, une étrange propriété de la physique quantique qui se manifeste à des échelles atomiques. Mais ces technologies ont aussi leurs limites et leur mise en œuvre est si coûteuse (30 milliards de dollars pour les prochaines usines de fabrication de puces en 3 nm), et si complexe, qu’il n’est pas certain qu’elles soient une solution viable pour poursuivre la miniaturisation des puces électroniques.

A moyen terme, d’ici 2025, les géants du numérique vont donc également tenter de concevoir et de fabriquer un nouveau type de puce hybride, associant calcul et mémoire en fines couches reliées par des nanotubes de carbone, ce qui va permettre à la fois de réduire sensiblement, de l’ordre d’un facteur 100, les distances parcourues par les électrons et de diminuer également le dégagement de chaleur par effet joule de ces circuits électroniques.

A plus long terme, 10 à 15 ans, ces puces hybrides seront associées à de nouveaux types de puces capables de calcul hautement spécialisés, recourant aux technologies quantiques et neuromorphiques. Ces nouvelles combinaisons électroniques, aux immenses potentialités, pourraient permettre, selon une majorité d’experts, de poursuivre la course à la puissance de calcul et à la miniaturisation pendant au moins 25 ans.

Il faut bien comprendre que ces enjeux ne sont pas seulement technologiques et industriels, ils sont aussi éminemment politiques. En effet, pour pouvoir exploiter toutes les ressources des nouveaux logiciels d’IA et traiter des immenses quantités de données à traiter, il est urgent de disposer de calculateurs exaflopiques, capables de réaliser plus d’un milliard de milliards d’opérations par seconde. Et pour construire de tels monstres de puissance, il faut disposer de composants et de puces encore plus performants que ceux dont nous disposons aujourd’hui, à la fois en termes de capacité de calcul, de consommation électrique et de taille.

En 2018, les Etats-Unis, grâce à leur nouveau supercalculateur Summit de 150 pétaflops (1 pétaflop vaut un million de milliards d’opérations en virgule flottante par seconde), ont repris la première place mondiale que détenait la Chine depuis 2015. Cette machine équipe l’Oak Ridge National Laboratory du département de l’énergie américain. Et les Etats-Unis sont bien décidé à garder leur avance en la matière, à la fois sur la Chine et sur l’Europe. Au mois d’août dernier, l’état américain a commandé pour 2022 à la firme Cray un troisième ordinateur exaflopique qui sera utilisé à la recherche et la modélisation des futures armes nucléaires. Cette machine de nouvelle génération, dite « Exascale » viendra s’ajouter aux deux autres déjà commandées par les pouvoirs publics américains, « Aurora » qui sera installée à l’Argonne National Laboratory et « Frontier » au Oak Ridge National Laboratory (ORNL), qui seront livrées dès 2021 et seront utilisées pour des recherches extrêmement gourmandes en calculs, dans les domaines de la physique, des matériaux, du climat et de l’énergie.

Pendant ce temps, la France et l’Europe, faute de volonté politique et de moyens budgétaires, peinent à rester dans cette course technologique pourtant tout à fait stratégique pour notre avenir. Certes, la France est fière d’avoir mis en service, il y a quelques semaines, son propre superordinateur, baptisé « Jean Zay (en hommage au Ministre qui fut à l’origine de la création du CNRS en 1939). Mais cette machine, même si elle possède une puissance de calcul de 16 pétaflops, et double d’un seul coup notre puissance nationale de calcul, reste dix fois moins puissante que le plus gros calculateur américain ou chinois en service…

Quant à l’Europe, elle a deux handicaps majeurs dans ce domaine du calcul massif. Elle est à la fois dépendante de technologies non-européennes et largement distancée par les supercalculateurs américains et chinois : le supercalculateur le plus puissant d’Europe n’arrive qu’en 6ème position, dans le classement mondial. Il est sept moins performant et son efficacité énergétique 2 fois moindre que le n°1 mondial - le supercalculateur d’Oak Ridge dans le Tennessee -.

Face à cette situation très préoccupante pour l’avenir de l’Europe, sa place scientifique et économique et sa souveraineté politique, l’Union européenne s’est enfin décidée à réagir en 2018, pour éviter d’être définitivement distancée sur ce marché stratégique des composants électroniques du futur. Elle a annoncé un projet ambitieux. Il s’agit d’un plan d’investissement massif pour s’équiper en supercalculateurs exaflopiques, des machines capables de calculer à la vitesse pharamineuse d’un milliard de milliards d’opérations par seconde. La feuille de route vise des supercalculateurs pré-exascale d’ici la fin de l’année 2021, exascale vers 2022 et 2023, puis post-exascale en 2026 et 2027.

Ce programme nommé Horizon 2020 implique 89 projets et 1350 partenaires ; il devrait mobiliser à terme au moins trois milliards d’euros. Parmi ceux-là, le plus emblématique est l’European Processor Initiative (EPI). Son objectif est de fabriquer des processeurs à basse consommation d’énergie et un accélérateur. Il était temps que l’Europe se mobilise, surtout face à la Chine qui affirme ses ambitions dans ce domaine, avec son supercalculateur TaihuLight. Pour y parvenir, l’Union a rassemblé plusieurs sociétés de différents pays au sein d’une entreprise commune baptisée EuroHPC. Celle-ci vient de livrer ses premiers projets architecturaux.

Elle rassemble 23 partenaires, dont Atos, le CEA, le Barcelona Supercomputing Center (BSC), l’institut Fraunhofer, STMicroelectronics, ainsi que plusieurs constructeurs automobiles. L’EPI prévoit de construire un microprocesseur européen utilisant l’architecture RISC-V, des composants FPGA et ARM intégrés. On attend un modèle pour un système pré-exascale en 2021, et une version améliorée pour l’exascale en 2023.

Il y a quelques jours, une nouvelle étape de ce plan européen Horizon 2020 a été franchie, avec la création de la société SiPearl. Sa mission : donner à l’Europe son indépendance dans les puces clés qui motoriseront les futurs supercalculateurs exaflopiques. Aujourd’hui, Atos, seul constructeur européen, dépend exclusivement de processeurs américains d’Intel, AMD et Nvidia, qui équipent presque tous les supercalculateurs. En revanche, la Chine et le Japon ont bien compris la nécessité de ne pas dépendre de quelques fabricants de puces américains et ils ont su concevoir et produire leurs propres processeurs de calcul intensif. SiPearl espère sortir la première puce d’ici à 2022, de façon qu’elle puisse équiper les deux supercalculateurs exaflopiques prévus dans le plan européen EuroHPC.

On voit donc qu’il n’est plus possible d’espérer rester dans cette course technologique à la puissance de calcul informatique, si on ne maîtrise pas également, en amont, la fabrication de puces spécialisées gravées à des niveaux atomiques, et en aval la conception d’algorithmes très élaborés, capables d’étendre les champs d’application de l’IA.

Il faut bien comprendre que l’arrivée de ces calculateurs exaflopiques au cours de cette décennie ne constitue pas un changement de degré, mais bien de nature, en matière informatique et numérique. Avec des machines d’une telle puissance utilisant l’IA, il va devenir possible de concevoir et de tester en quelques semaines des matériaux, des molécules, des médicaments ou des modèles biologiques ou climatiques complexes, qui nécessiteraient encore, aujourd’hui, des années de calcul, avec nos ordinateurs actuels les plus puissants. C’est donc notre société toute entière qui va être bouleversée, dans les dix prochaines années, par l’arrivée de ces ordinateurs de nouvelle génération. C’est pourquoi il est si important que la France et l’Europe redoublent d’efforts pour construire une industrie électronique complète qui soit à la hauteur des défis qui attendent notre siècle.

René TRÉGOUËT

Sénateur honoraire

Fondateur du Groupe de Prospective du Sénat

e-mail : tregouet@gmail.com

Noter cet article :

 

Vous serez certainement intéressé par ces articles :

  • L'ordinateur biologique, nouvelle frontière de l'informatique...

    Edito : L'ordinateur biologique, nouvelle frontière de l'informatique...

    On le sait, l'électronique n'en finit pas de plonger vers l’infiniment petit et TSMC, devenu leader mondial des semi-conducteurs, vient d'annoncer qu'il comptait atteindre une finesse de gravure ...

  • L’IA qui apprend et se souvient

    L’IA qui apprend et se souvient

    Des chercheurs de l’Université de Sydney et de Californie ont conçu un réseau neuronal physique qui a réussi à apprendre et à se souvenir ‘à la volée’, d’une manière inspirée et similaire à celle ...

  • La révolution biométrique est en marche...

    Edito : La révolution biométrique est en marche...

    La biométrie est aussi vieille que notre civilisation puisqu'à Babylone, il y a 5000 ans, les commerçants utilisaient déjà l'empreinte de leur pouce comme signature, pour authentifier leur identité. ...

Recommander cet article :

back-to-top