TIC
- Information et Communication
- Informatique
Edito : L’ordinateur neuromorphique ouvre-t-il la voie vers une intelligence artificielle « forte » ?
- Tweeter
-
-
9 avis :
Depuis les origines de l’informatique, il y a maintenant trois quarts de siècle, la grande majorité des ordinateurs fonctionne selon le mode binaire : ils produisent, stockent et traitent les informations sous la forme de 0 et de 1 ; c’est-à-dire d’absence ou de présence de signal. Mais ce modèle dominant, reposant sur l’architecture « Van Neumann », pourrait bien se voir dépasser et remplacer, d’ici quelques années, par un nouveau type de processeurs directement inspirés des neurones de notre cerveau et incomparablement plus performants : les puces neuromorphiques.
En 2014, IBM avait fait sensation en dévoilant sa puce neuromorphique développée dans le cadre du programme de recherche SyNAPSE (pour Systems of Neuromorphic Adaptive Plastic Scalable Electronics) lancé en 2008 et financé par la Darpa. Baptisée TrueNorth, cette puce, dite bioinspirée avait réussi à intégrer un million de neurones artificiels et 256 millions de synapses sur une puce de 4,3 cm.
Il y a quelques jours, des chercheurs du MIT dirigés par Jeehwan Kim ont présenté une synapse artificielle conçue de manière à pouvoir contrôler avec précision la tension d'un courant électrique, à l’instar des courants ioniques circulant entre les neurones. Construite sur un substrat de silicium-germanium, cette puce synaptique s’est avérée capable de reconnaître des échantillons d'écriture, avec une précision de 95 % (Voir MIT News).
Cette puce développée par le MIT, comme les autres prototypes de puces neuromorphiques, utilise donc un signal analogique qui, contrairement à un numérique, est un signal continu et périodique qui varie dans le temps. Pour transmettre une information, le cerveau utilise de manière particulièrement efficace ce mode analogique, grâce à ses 100 milliards de synapses, eux-mêmes connectés à 80 milliards de neurones.
Les chercheurs du MIT se sont donc directement inspirés du fonctionnement du cerveau humain pour mettre au point cette puce synaptique. Mais ils sont parvenus à surmonter l’un des obstacles majeurs qui caractérisait ce type de composant jusqu’à présent. La plupart des puces neuromorphiques disponibles utilisent en effet deux couches conductrices d’électricité, séparées par une couche de matériaux amorphes qui fait office d’interrupteur et de synapse. Mais, problème, lorsque cet interrupteur était ouvert, le flux électrique avait une fâcheuse tendance à se disperser à cause de la structure amorphe du matériau utilisé.
Pour surmonter cet obstacle, ces scientifiques ont imaginé une synapse constituée d’une plaque de silicium cristallin recouverte d’une couche de silicium-germanium. L’association de ces deux matériaux forme un réseau maillé qui canalise les ions et évite leur dispersion. Ces synapses artificielles ne mesurent que 25 nanomètres et leur stabilité s’avère remarquable puisque les essais ont montré qu’après 700 fonctionnements, la variation de tension observée ne dépassait pas les 1 %.
Les chercheurs ont ensuite interconnecté plusieurs synapses au sein d’une puce, et celle-ci a été capable de reconnaître, avec un taux d’exactitude de 95 % des milliers d’écritures différentes… « Notre objectif est clair : à terme, nous voulons une puce aussi grande qu’un ongle qui pourrait remplacer un énorme super-ordinateur », précise Jeehwan Kim qui dirige ce projet.
Dans cette compétition féroce visant à la maîtrise industrielle de la production de puces neuromorphiques, il semble qu’IBM garde une longueur d’avance avec sa puce TrueNorth présentée il y a quatre ans et capable de simuler 16 millions de neurones et 4 milliards de synapses pour une consommation électrique de 2,5 W seulement.
S’inspirant du cerveau humain, cette puce est composée de 4 096 noyaux neuro-synaptiques intégrant leurs propres mémoires et capacité de calcul et travaillant en parallèle, ce qui permet de disposer de l'équivalent d'un million de neurones par puce. Cette puce en tous points hors norme intègre 5,4 milliards de transistors et fonctionne avec seulement 70 mW de puissance, soit environ 1000 fois moins qu’un processeur Intel, qui compte 1,4 milliard de transistors, consomme entre 35 et 140 watts. Reste que, selon la plupart des spécialistes, cette puce a atteint les limites du possible en termes d’intégration et que, pour aller plus loin, il faudra se passer du transistor.
Bien conscients de l’enjeu énorme que représente ce saut technologique des puces neuromorphiques, tous les géants de l’informatique et du numérique ont intensifié leurs recherches dans ce domaine stratégique qui devrait faire exploser les capacités de l’apprentissage profond (Deep Learning) et de l’intelligence artificielle au cours des dix prochaines années. Google a notamment créé la surprise en dévoilant récemment sa puce TPU (Tensor Processing Unit), un composant qui possède un ratio performance/consommation 13 fois supérieur à celui des meilleurs processeurs.
Dans cette course technologique, le géant des microprocesseurs Intel n’est pas en reste. Il travaille simultanément sur plusieurs projets de puces neuromorphiques avec un objectif pour le moins ambitieux : réduire d'un facteur 100 le temps d'apprentissage d'un réseau de neurones à l'horizon 2020. Dans le cadre de son programme « NNP » (Neural Network Processor), un premier modèle a été dévoilé en novembre 2016 et son architecture a été spécifiquement conçue pour l'apprentissage et l'inférence de réseaux de neurones.
En octobre dernier, Intel a par ailleurs présenté une puce neuromorphique baptisée Loihli qui reproduit un certain nombre de fonctions du cerveau et apprend à partir des retours provenant de son environnement. Grande nouveauté, cette puce n’a plus besoin de passer par le processus d'entraînement habituel pour rendre une intelligence artificielle opérationnelle. Loihli peut en effet gérer à la fois apprentissage et inférence et s'adapter de manière automatique à son environnement, sans dépendre d’une mise à jour externe. Autre avantage décisif : à capacité de calcul égal, cette puce consomme 1000 fois moins d’énergie qu’un système informatique classique.
Le champ potentiel d'applications d’un tel composant est immense et va de la robotique aux voitures autonomes, en passant par l’industrie, la recherche médicale ou la domotique. Intégrant pour le moment l'équivalent de 130 000 neurones et 130 millions de synapses, Loihli sera, dès cette année mise à disposition des universités et instituts de recherche travaillant dans le domaine de l'IA.
Mais le passage à l’informatique neuromorphique ne répond pas seulement à une exigence de puissance de calcul. Il est également nécessaire pour éviter une explosion à terme insupportable de la consommation énergétique globale liée à l’essor des activités numériques. Il faut en effet savoir que le secteur numérique, dans son ensemble (informatique, Internet, télécommunications), consomme déjà environ 7 % de l’électricité de la planète (soit plus de trois fois la consommation française d’électricité), contre moins de 1 % en 2005. A ce rythme, le secteur numérique, sans saut technologique majeur, risque d’absorber plus du quart de la production mondiale d’électricité à l’horizon 2040, ce qui n’est pas envisageable.
Il est donc tout à fait vital, pour l’ensemble de l’économie mondiale, de parvenir à améliorer de façon drastique l’efficacité énergétique de l’ensemble de nos systèmes et réseaux numériques. Or, l’informatique neuromorphique, mille fois moins gourmande en énergie que l’informatique classique, peut permettre de relever ce défi énergétique redoutable.
Toutefois, les puces neuromorphiques actuellement expérimentées par IBM, Intel ou Google restent à base de transistors et, même en parvenant à intégrer des milliards de transistors sur une seule puce, il sera impossible, compte tenu des lois de la physique, de réaliser des processeurs neuromorphiques viables, simulant des millions de neurones, sans ruptures technologiques.
Pour surmonter cet obstacle, il faudrait que le transistor soit lui-même doté d'une mémoire et d’une capacité d’autoconnexion, comme un neurone biologique qui dispose en moyenne de 10.000 synapses, soit 10.000 connexions, par lesquelles il ne cesse d’échanger une multitude d’informations avec les dizaines de milliards d’autres neurones qui composent notre cerveau.
Mais une équipe de recherche française, regroupant des chercheurs du CNRS et de Thales, pense avoir trouvé une solution pour lever cet obstacle de taille. Dirigée par Damien Querlioz, chercheur CNRS du Centre de nanosciences et de nanotechnologies de Saclay (Essonne), et Julie Grollier, cette équipe travaille sur un nanoneurone 1000 fois plus petit qu’un transistor. Composé d’un sandwich de deux couches de métaux ferromagnétiques – qui peuvent être aimantées – et séparées par une fine couche d’isolant électrique, il a la forme d’un disque d’une centaine de nanomètres de diamètre. Autre avantage de cette voie technologique : ces nanoneurones peuvent être produits par pulvérisation cathodique sur des machines déjà existantes et utilisées par l'industrie électronique dans la fabrication de certaines puces-mémoires (Voir Thales).
Contrairement aux transistors, ces minuscules cylindres magnétiques de 100 nanomètres ont en eux-mêmes une mémoire qui s’inspire directement des travaux en matière d'électronique de spin (ou spintronique) du prix Nobel de physique Albert Fert. Après avoir démontré la fonctionnalité de ce nano-neurone, l’équipe du CNRS-Thales est passée à l’étape suivante : associer un nombre croissant de ces nanoneurones en utilisant l’interaction électromagnétique entre nanoneurones voisins. "D’ici deux à trois ans, nous visons la réalisation d’un réseau d’environ un millier de nanoneurones", révèle Julie Grollier.
Pour valider la pertinence de leurs recherches, ces scientifiques ont voulu savoir si un réseau constitué de ces nanoneurones était capable d'accomplir une tâche cognitive complexe, comme la reconnaissance de chiffres de zéro à neuf prononcés par divers interlocuteurs. Le résultat a été remarquable, puisque ce réseau, encore modeste, de nanoneurones, a reconnu les chiffres prononcés avec un score de 99,6 %. Ces chercheurs pensent qu’il est possible de réduire encore d’un facteur dix – pour atteindre 10 nanomètres - la taille de ces nanoneurones et se fixent l’objectif de parvenir à réaliser d’ici cinq ans la première puce nanoneuronique capable de révolutionner l’intelligence artificielle par sa puissance de calcul.
De l’autre côté de l’Atlantique, une équipe de chercheurs de l’Université de Princeton (New Jersey), dirigée par Alexander Tait, travaille pour sa part sur une autre voie passionnante et a présenté en 2016 un prototype de puce neuromorphique photonique, composée de 49 neurones artificiels. Contrairement aux autres axes de recherche explorés dans le monde, ces chercheurs ont choisi la voie de la lumière pour développer leur prototype. La prouesse réalisée par ces chercheurs a été de mettre au point un dispositif photonique, sous forme de petits guides d’ondes circulaires, dans lequel chaque nœud présente les mêmes caractéristiques de réponse qu'un neurone. Après avoir testé leur puce neuromorphique photonique pour résoudre un problème mathématique qui consiste à émuler un certain type d’équations différentielles, ces scientifiques ont annoncé que leur prototype était 1960 fois plus rapide qu’un processeur classique pour cette tâche spécifique…
Mais en attendant que ces puces neuromorphiques futuristes sortent des laboratoires, ces neuroprocesseurs arrivent déjà dans nos smartphones. Le Chinois Huawei a par exemple équipé plusieurs de ses smartphones de dernière génération d’un neuroprocesseur (NPU), qui permet à l’appareil d’être bien plus réactif et performant dans certaines applications, comme la reconnaissance vocale, la traduction automatique ou la reconnaissance d’images.
Microsoft utilise également ces neuroprocesseurs pour son application de traduction Microsoft Translate, visant à reconnaître le texte dans les images filmées par l’utilisateur afin de le traduire. Apple, qui ne veut pas être en reste, a également doté son iPhone X d’une puce neuronale, baptisée « A11 bionic neural engine » et capable de réaliser 600 millions d’opérations par seconde.
Soulignons enfin que, si la prochaine génération d’ordinateurs et de composants sera sans doute directement inspirée du cerveau humain, les avancées dans la connaissance de notre cerveau s’appuient en retour sur les extraordinaires progrès que permettent la simulation et la modélisation informatique.
Les chercheurs du Blue Brain Project (BBP), l’un des volets du vaste Human Brain Project européen (HBP), ont ainsi livré, fin 2015, leur reconstruction numérique d’une bribe de cerveau de rat. Dans un néocortex de rats, les scientifiques ont étudié un échantillon de 14000 neurones et en ont décortiqué l’ensemble de la structure et du fonctionnement (Voir Cell).
Ils ont ensuite pu reconstituer par modélisation informatique l’architecture neuronale tridimensionnelle d’un volume équivalent à un tiers de millimètre-cube, contenant 30 000 neurones et 37 millions de synapses. Ces chercheurs ont enfin pu vérifier que leur modèle numérique se comportait d’une façon similaire à celle d’un réseau de neurones réel. Cette avancée majeure dans la simulation du fonctionnement du cerveau constitue un véritable exploit scientifique et technique.
En utilisant, d’ici seulement quelques années, les ressources et les potentialités prodigieuses de l’informatique neuromorphique en termes de calcul et d’intelligence artificielle, ces chercheurs du Human Brain Project pensent qu’il deviendra possible d’envisager la construction d’un modèle informatique simulant de manière complète et très réaliste le fonctionnement de l’ensemble du cerveau humain.
Dans cette vertigineuse quête scientifique et technique, la boucle serait alors bouclée et intelligences humaine et artificielle deviendraient alors les deux dimensions à jamais interconnectées d’une synergie cognitive qui ferait entrer notre espèce et notre civilisation dans une nouvelle ère, dont il nous appartient de fixer avec force les finalités sociales et éthiques afin qu’elles servent le bien commun et soient porteuses d’un nouvel humanisme.
René TRÉGOUËT
Sénateur honoraire
Fondateur du Groupe de Prospective du Sénat
Noter cet article :
Vous serez certainement intéressé par ces articles :
DeepMind, l'IA de Google, prend 800 ans d'avance sur la découverte de nouveaux matériaux...
L'intelligence artificielle de DeepMind, une filiale de Google, avec un nouvel outil nommé "réseaux graphiques pour l’exploration des matériaux" (GNoME), vient de faire une percée majeure, en ...
Pearcode veut stocker tout un data center dans un 1 gramme d’ADN
Face à l’explosion du volume des données, il faut inventer de nouveaux dispositifs de stockage. C’est ce que fait Pearcode. La start-up sophipolitaine, qui a remporté le concours i-lab 2023, utilise ...
Google a développé une IA qui pourrait anticiper les catastrophes climatiques
Google annonce avoir développé sa propre IA dédiée au climat, baptisée SEEDS (pour “Scalable Ensemble Envelope Diffusion Sampler”). Google explique que SEEDS est un modèle capable de générer une ...
Recommander cet article :
- Nombre de consultations : 1711
- Publié dans : Informatique
- Partager :