RTFlash

RTFLASH Recherche & Technologie
NUMERO 1260
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 31 Mai 2024
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
Les skyrmions pourraient décupler la vitesse des ordinateurs
Intel dévoile le plus grand ordinateur neuromorphique jamais conçu
Matière
Le Japon prévoit de lancer un prototype de centrale solaire spatiale d’ici 2025
Photoncycle : une batterie résidentielle à hydrogène solide pour stocker jusqu’à 10 000 kWh d’énergie solaire
De nouveaux catalyseurs organiques pourraient réduire sensiblement le coût des piles à combustible
Terre
Le dérèglement climatique coûtera bien plus que prévu
Vivant
Des émulsifiants alimentaires possiblement associés à une augmentation du risque de cancers
La vitesse de la parole serait un bon indicateur de la santé cérébrale...
Autisme : un nouvel outil de mesure pour le diagnostic
Vers des vaccins sans rappels
Le lien entre fatigue chronique et système immunitaire se précise
Vers un vaccin thérapeutique amélioré contre le mélanome
La pollution de l'air augmente le risque de déficit d'attention chez les enfants
Prévenir le risque cardiovasculaire grâce à un outil de mesure de la rigidité artérielle
Un chercheur français identifie une molécule qui imite l'ocytocine
Edito
En 2030, les robots humanoïdes seront partout...



C'est en 1920 que l'écrivain tchèque Karel Capek utilisa pour la première fois, dans sa pièce de théâtre R.U.R (Rossum's Universal Robots), le terme de "robot", pour désigner un ouvrier mécanique ayant une apparence humaine. En 1954, les ingénieurs américains George Devol et Joseph Engelberger déposèrent le brevet de UNIMATE, premier robot industriel qui n'était en fait qu'un bras articulé capable de transférer un objet d'un endroit à un autre. Mais il fallu attendre 1973 pour que l’université de Waseda (Tokyo), présente WABOT-1, le tout premier robot anthropomorphe à marche bipède. En 2000, Honda présenta son robot humanoïde ASIMO, le premier à être capable de marcher de manière convaincante. En 2013, la firme Boston Dynamics présenta son fameux robot humanoïde ATLAS, qui n'a cessé d'évoluer jusqu'à la dernière version impressionnante présentée en 2024, plus longiligne et entièrement électrique. En 2022, la start-up britannique Engineered Arts a franchi un nouveau palier technologique en présentant son robot humanoïde AMECA, dont le visage possède une palette d'expressions assez extraordinaires et qui peut tenir une véritable conversation avec un être humain depuis qu'il intègre le moteur de conversation doté d’intelligence artificielle GPT-3, développé par la société OpenAI (Voir YouTube). Depuis quelques mois, on assiste à l'arrivée d'une véritable vague de robot humanoïdes tous plus performants les uns que les autres et il ne fait plus de doute à présent que ces robots humanoïdes polyvalents, autonomes et sociaux, vont arriver dans nos vies quotidiennes bien plus rapidement qu'on ne l'imaginait il y a encore deux ou trois ans.

Il y a quelques semaines, des ingénieurs chinois d'Astribot ont créé l'événement en présentant leur nouveau robot humanoïde, le S1. Ce robot est capable de réaliser une variété de tâches complexes grâce à l’apprentissage par imitation. Ce robot se distingue notamment par sa capacité à effectuer des mouvements à une vitesse impressionnante de 10 mètres par seconde, tout en manipulant une charge utile jusqu’à 10 kg par bras. Ce robot S1 est si rapide et adroit qu'il peut retirer une nappe sous une pile de verres à vin sans les renverser, peler délicatement un fruit, ou retourner un steak dans une poêle... (Voir YouTube).

En décembre dernier, Unitree Robotics, une autre société de robotique basée en Chine, a dévoilé son premier robot humanoïde, le UNITREE H1. Pesant 47 kg pour une taille d’1,80 m, le H1 a été conçu pour transporter des charges allant jusqu’à 30 kg. La dernière version de ce robot, baptisée Evolution V3.0, parvient à se déplacer à 3,3 m/s (11,9 km/h) ; il est donc plus rapide qu'OPTIMUS de Tesla, qui ne dépasse pas les 0,6 m/s, mais aussi plus qu’ATLAS, avec ses 9 km/h, soit 2,5 m/s. Ce robot est également capable de réaliser des mouvements complexes et coordonnés ; il peut danser, monter et descendre des escaliers. Composé d'une structure en acier et aluminium et étanche à l'eau et la poussière, le H1 est d'une résistance à toute épreuve et peut en outre évoluer dans les environnements hostiles et effectuer des tâches complexes avec une précision remarquable. Il peut également encaisser des coups sans broncher, grâce à un système d'amortissement sophistiqué qui absorbe les vibrations (Voir YouTube).

Amazon mise également sur les robots humanoïdes, avec son nouveau robot, DIGIT. Grâce à son agilité, ce robot bipède peut réaliser de nombreuses tâches. « Digit peut être utilisé pour déplacer des bacs et des colis », affirme Emily Vetterick, directrice recherche et développement chez Amazon Robotics. Et, de fait, DIGIT peut remplacer à lui seul deux autres robots déjà utilisés par Amazon, en combinant deux capacités : il peut à la fois se déplacer et manipuler divers objets.

La firme norvégienne 1X NEO travaille, en coopération avec Open AI, le créateur de ChatGPT, sur son prochain robot humanoïde, baptisé NEO. Ce robot mesure 1,67 mètre, pèse 30 kg et peut transporter des objets jusqu'à 20 kg. La batterie a une autonomie de 4 heures et permet à l'androïde de courir jusqu'à 12 km/h. Ce robot retourne tout seul à la station de recharge lorsque sa batterie devient faible. Il est conçu pour évoluer de manière autonome et il est capable de réaliser des mouvements d'une grande précision. Il peut interagir grâce à des commandes verbales utilisant une version dédiée de GPT4 : il peut notamment se saisir d'objets grâce à ses bras et ses mains afin d'effectuer des tâches logistiques jusque là réservées aux humains, comme le rangement, le ménage ou la manutention. Neo vise à répondre à la pénurie de main-d'œuvre dans certains secteurs d'activité, comme la logistique et l'industrie, mais veut également s'imposer sur le marché très prometteur de l'aide à la personne.

L'entreprise de robotique canadienne Sanctuary AI, basée à Vancouver, a récemment présenté son robot PHOENIX qui est capable de trier et ranger de multiples objets avec une dextérité tout à fait étonnante. PHOENIX mesure 170 centimètres de haut pour 70 kg ; il peut se déplacer à une vitesse maximale de 4,8 km/heure et peut soulever une charge utile de 25 kg. Mais surtout, PHOENIX possède des mains robotiques extrêmement agiles offrant 20 degrés de liberté de mouvement, ce qui l'autorise à manipuler des objets de la même manière qu'un opérateur humain. Ses mains intègrent une technologie haptique capable de reproduire le sens du toucher. L'année dernière, PHOENIX a été testé sur le terrain, en situation réelle, dans un magasin de vêtements, et il s'est montré capable de remplir 110 tâches différentes, allant de la recherche et l’emballage de marchandises, au nettoyage, l’étiquetage, le pliage, etc. (Voir YouTube).

Les progrès en matière de robots humanoïdes sont tels que ceux-ci sont en train de s'imposer bien plus vite que prévu dans l'industrie. La startup californienne Figure et le constructeur automobile allemand BMW ont récemment conclu un partenariat prévoyant le déploiement de FIGURE 01, le robot humanoïde fabriqué par la startup, au sein de l'usine de fabrication de BMW située à Spartanburg aux Etats-Unis. Ces robots humanoïdes de Figure vont permettre d'effectuer les tâches de production pénibles, dangereuses ou fastidieuses, ce qui libérera du temps pour les ouvriers, qui pourront ainsi se recentrer sur leurs compétences et les processus qui ne peuvent pas être automatisés. De son côté, Mercedes-Benz a conclu un accord avec la start-up américaine Apptronik, pour déployer des robots humanoïdes dans ses usines hongroises. APOLLO, un robot humanoïde qui mesure 1,80 m et peut soulever jusqu’à 25 kg, sera utilisé par Mercedes pour inspecter et apporter des pièces aux ouvriers.

En France, la start-up française Enchanted Tools, en partenariat avec l'AP-HP, a mis au point deux automates, MIROKI et MIROKA, destinés à assister les travailleurs humains dans de nombreuses tâches. Ces robots, d'une hauteur de 1,23 mètre et d'un poids de 28 kg, intègrent une intelligence artificielle avancée qui leur permet d'évoluer dans un environnement complexe et de manipuler et transporter de nombreux objets. Ces robots peuvent ainsi exécuter avec un taux de réussite record de 97 % de nombreuse tâches répétitives mais indispensables, apporter des médicaments ou tirer un chariot pendant que le soignant se concentre sur une tâche à plus grande valeur cognitive et sociale. Ces robots sociaux et conviviaux devraient rapidement se rendre indispensables dans les secteurs de la santé, des services et du commerce, que ce soit dans les hôpitaux, les maisons de retraite, les hôtels, les centres commerciaux ou les services publics. Ces machines polyvalentes ont pour vocation de réduire le fardeau logistique supporté par le personnel soignant et de service, afin de le rendre plus disponible et attentif dans les tâches proprement relationnelles ou créatrices, qui ne peuvent pas être automatisées.

Le bond en avant représenté par MIROKI et MIROKA tient dans leur capacité à comprendre et exécuter des commandes vocales et à interagir de manière émotionnelle avec les humains. La forme et l'esthétique très élaborée de ces robots, ainsi que leur utilisation combinée de sons et de couleurs, leur permettent d'exprimer et de communiquer toute une palette d'émotions de manière intuitive. Ce n'est donc pas par hasard si ce projet MIROKI et MIROKA a reçu le soutien et la reconnaissance des pouvoirs publics, en tant que lauréat du programme French Tech 2030. Les robots Mirokaï ont déjà été testés avec succès dans plusieurs hôpitaux de l'AP-HP. Leur utilité s'est rapidement confirmée dans le domaine logistique, notamment dans la livraison de fournitures médicales. Ces robots se sont rendus indispensables pour le personnel médical.

En début d’année, LG a présenté, à l'occasion du CES 2024, un robot domestique intelligent à deux pattes, conçu pour faciliter la vie quotidienne. Le robot peut se déplacer de manière autonome au sein du foyer et assurer le contrôle les appareils électroménagers, assurer la sécurité de la maison, détecter des événements inhabituels et alerter, le cas échéant, les propriétaires. Mais ce robot domestique peut également interagir verbalement avec ses utilisateurs. Là encore, LG vise à libérer du temps pour les possesseurs de cette machine et alléger la charge mentale que peut représenter, surtout pour des personnes âgées ou fragiles, la gestion des tâches domestiques.

Il faut bien comprendre que toutes ces avancées rapides et surprenantes dans la robotique humanoïde n'arrive pas par hasard et s'inscrivent dans un contexte démographique et économique particulier. Une étude réalisée par le célèbre cabinet britannique Oxford Economics prévoit que les robots de nouvelle génération pourraient remplacer vingt millions d'emplois dans le monde d'ici 2030 (Voir Oxford Economics). Mais cette étude souligne toutefois que cette robotisation accélérée de l'économie devrait augmenter la productivité et la croissance économique, tout en créant autant d’emplois qu’elle en détruira, ce qui se traduirait par une richesse supplémentaire produite de 5.000 milliards de dollars d’ici 2030 grâce aux gains de productivité. Il y a quelques semaines, un autre rapport de Gartner (Voir Gartner) prévoit, pour sa part, que l'ensemble des nouvelles technologies d'intelligence artificielle, y compris celles intégrées à la robotique, pourraient permettre la création de pas moins de 500 millions de nouveaux emplois d'ici 2033, un nombre d'emplois finalement supérieur à celui des emplois détruits au cours de la même période et suffisant pour envisager une baisse du taux de chômage mondial (5,1 % en 2023).

A plus long terme, cette robotisation accélérée de l'économie s'inscrit dans un phénomène dont nous n'avons pas encore prise toute la mesure ; la décélération démographique mondiale plus forte et plus rapide que prévue, puisque les dernières projections tablent sur un pic démographique mondial à 10, 4 milliards d’habitants dès 2064, suivi d'un lent mais inexorable déclin du nombre d’habitants sur Terre. Dans ce contexte démographique, la population active mondiale, actuellement de 3,3 milliards de personnes, pourrait commencer son déclin dès 2040 dans l'ensemble des pays développés et à partir de 2050 dans le reste du monde.

Confrontées à une baisse inexorable et continue de la population active mondiale, nos économies développées n'auront d'autre choix que de faire appel massivement aux robots dans tous les secteurs d'activités, industrie, bâtiment, transports, commerce mais aussi et surtout services à la personne, que ce soit dans les hôpitaux, à domicile ou dans les services publics. Global Data rappelle que le nombre de robots industriels a triplé depuis 10 ans, pour dépasser les 4 millions cette année, et devrait atteindre les 20 millions d'unités en 2030. Ce cabinet prévoit parallèlement que le marché mondial de la robotique passera de 75 milliards de dollars en 2023 à 218 milliards de dollars en 2030. Les récentes avancées impressionnantes des robots humanoïdes autonomes et polyvalents pourraient bien déjouer ces prévisions et David Holz, fondateur de Midjourney, a estimé récemment que nous devrions nous attendre à un milliard de robots humanoïdes sur terre dans les années 2040, soit une machine pour 9 terriens. Dans son rapport, The investment case for humanoid robots (Les raisons d’investir pour les robots humanoïdes ), Goldman Sachs Research prévoit que les robots humanoïdes représenteront un marché mondial de 154 milliards de dollars en 2035 (équivalent à celui des voitures électriques) et pourraient combler la moitié de la pénurie de main-d'œuvre dans le secteur industriel et dans celui du soin et du service à la personne d'ici 2035 (Voir Electrek).

D'autres prévisions tablent sur 20 % des foyers mondiaux utilisant (soit ponctuellement, soit en permanence) un robot humanoïde en 2040, ce qui correspond à environ 450 millions de machines, auxquelles il convient d'ajouter une centaine de millions d'autres robots humanoïdes qui trouveront leur place dans les différents services publics, sécurité, santé, éducation. Jensen Huang, le patron de Nvidia, leader mondial incontesté des puces d'IA, a souligné récemment que les coûts de production des robots humanoïdes devraient baisser rapidement, pour atteindre une fourchette de prix de 10 000 à 20 000 dollars, ce qui les rendrait accessibles à de nombreux consommateurs. Le mois dernier, NVIDIA a par ailleurs dévoilé le projet GROOT, entièrement dédié aux robots humanoïdes, et a présenté Jetson Thor, un outil informatique puissant spécialement conçu pour les robots humanoïdes. L'IA générative multimodale GROOT de Nvidia permet d'apprendre et de répéter les gestes d'un formateur humain ou d'un autre robot. A supposer que le prix de vente moyen d'un robot humanoïde puisse tomber à 20 000 dollars vers 2040, ce qui est l'objectif visé par la plupart des fabricants, on arrive tout de même, dans cette hypothèse de 550 millions de robots humanoïdes d'ici 15 ans, à un marché mondial gigantesque, de l'ordre de 1100 milliards de dollars par an en 2040...

Le créateur de la Fondation XPrize, Peter Diamandis, prévoit pour sa part plus d'un milliard de robots humanoïdes dans les foyers et lieux de travail d'ici 2050, notamment grâce à la combinaison de trois avancées technologiques : les nouvelles puces d'IA ultrapuissantes dédiées à la robotique, des micromoteurs électriques bien plus performants et des batteries solides à haute densité d'énergie, capables de rendre un robot autonome plusieurs jours. Il reste que l’arrivée et la diffusion de ces robots humanoïdes polyvalents très sophistiqués et dotés de grandes capacités cognitives et mimétiques en matière émotionnelle ne va pas sans soulever de profondes interrogations sociales, culturelles, éthiques et politiques. Il y a quelques semaines, huit entreprises ont d'ailleurs signé un accord à Kranj, en Slovénie, à l'occasion du 2e Forum mondial de l'Unesco sur l'éthique de l'IA. Ces firmes, dont Microsoft, Mastercard, LG, AI Research et Salesforce, se sont notamment engagées à protéger les droits humains lors de la conception, du développement et de l'utilisation de l'IA. Ce cadre éthique est indispensable mais il n'est pas suffisant car, face à des machines qui seront de plus en plus nombreuses et vont devenir de plus en plus humaines, en reproduisant toujours plus habilement nos émotions et en comprenant de mieux en mieux nos attentes, les Etats vont devoir rapidement construire des cadres législatifs solides qui préciseront les possibilités et les limites d'utilisation de ces artefacts humanoïdes.

Comment, par exemple, s'assurer que ces robots sophistiqués ne puissent être détournées de leur usage initial pour servir à des activités criminelles ou illicites ? Comment s'assurer qu'en toute circonstance, y compris en cas de dilemmes éthiques, ces robots privilégient la sauvegarde la vie humaine dans leurs décisions ? Ces questions fondamentales ne sont pas simples et pourtant il va falloir que nos sociétés tentent de les résoudre le mieux possible, si l'on veut prévenir des phénomènes sociaux de rejet violent de ce type d’androïdes dans un futur proche. Dès 1942, le grand auteur de science-fiction Isaac Asimov (1920-1992) avait défini de manière particulièrement visionnaire les fameuses trois lois de la robotique auxquelles doivent impérativement obéir les robots humanoïdes autonomes et polyvalents :

- Un robot ne peut porter atteinte à un être humain ni, restant passif, laisser cet être humain exposé au danger ;

- Un robot doit obéir aux ordres donnés par les êtres humains, sauf si de tels ordres entrent en contradiction avec la première loi ;

- Un robot doit protéger son existence dans la mesure où cette protection n'entre pas en contradiction avec la première ou la deuxième loi.

On le voit, l'arrivée massive et inexorable des robots humanoïdes dotés d'une intelligence artificielle très puissante va profondément transformer nos vies et nos sociétés, bien au-delà de la dimension économique et utilitaire, car ces machines vont devenir, pour le meilleur et pour le pire, des parties intégrantes de notre monde mental, affectif et émotionnel, au point que nous aurons de la peine à imaginer comment nous avons pu vivre sans elles... Nous devons, dès à présent, nous préparer à cette mutation majeure de civilisation afin qu'elle permette un enrichissement humain, social et économique, et ne conduise pas à des formes subtiles mais redoutables de contrôle et d'asservissement...

René TRÉGOUËT

Sénateur honoraire

Fondateur du Groupe de Prospective du Sénat

e-mail : tregouet@gmail.com


TIC
Information et Communication
Les skyrmions pourraient décupler la vitesse des ordinateurs
Mercredi, 29/05/2024 - 05:30

Selon une étude du CNRS, les ordinateurs de demain pourraient aller 10 fois plus vite grâce aux skyrmions. Ces recherches menées par le scientifique Olivier Boulle montrent comment les skyrmions pouvaient atteindre des vitesses record. Aujourd'hui, l'informatique consomme énormément d'électricité. En 2022, l'Ademe indiquait que le numérique comptait pour 10 % de la consommation électrique annuelle. D'un autre côté, elle n'est jamais assez puissante. Chaque année, des nouveaux équipements viennent supplanter les performances de la génération précédente. Les nouveaux besoins de l'intelligence artificielle sont colossaux. Pour trouver des solutions, la recherche se tourne désormais vers la spintronique. Cette science se rapproche de l'électronique, le recours aux électrons pour stocker de l'information sous forme de courant électrique, mais y ajoute l'exploitation du “spin”, une caractéristique quantique des électrons, assimilable à un moment magnétique intrinsèque.

La spintronique, c'est donc l'exploitation de ces nanoaimants élémentaires (des “spins”) pour chercher des voies d'amélioration qui pourraient, notamment, révolutionner l'informatique. Les skyrmions en découlent directement puisqu'il s'agit d'un agglomérat de spins qui vont s'enrouler les uns autour des autres jusqu'à former une structure en spirale très stable, vulgairement décrite comme "un tourbillon magnétique".

« Les skyrmions, on peut voir ça comme de toutes petites bulles magnétiques plates où le pôle nord et le pôle sud de l'aimant viennent s'inverser localement », détaille à France Culture Olivier Boulle, chercheur CNRS au laboratoire Spintec du Commissariat à l'énergie atomique (CEA). Trouvable dans des couches très fines de cobalt ou de fer, un skyrmion s'apparente à une particule magnétique 10 000 fois plus petite qu'un cheveu. Les chercheurs peuvent donc l'exploiter pour y encoder une information.

Cela signifie que dans une couche magnétique, la présence d'un skyrmion peut être interprétée comme un “1” dans le langage binaire. Son absence s'assimilerait alors à un “0”. Grâce à cette particularité, un nouveau concept de mémoire à l'échelle du nanomètre a vu le jour. Le skyrmion pourrait devenir un objet pour transmettre l'information entre un processeur, qui effectue des calculs informatiques, et un disque dur, qui stocke cette information. C'est alors un courant électrique qui permettrait de déplacer les skyrmions d'un élément à un autre.

Mais jusqu'à maintenant, les skyrmions affichaient une limite de vitesse compromettante. Ils étaient en mesure de franchir seulement 100 mètres par seconde. Une performance bien trop basse pour espérer une quelconque application dans le domaine de l'informatique. Mais des calculs théoriques du CNRS entrevoyaient déjà la possibilité d'aller beaucoup plus vite. « On avait déjà fait des calculs auparavant qui prédisaient que, du fait qu'on venait annuler l'aimantation dans un matériau, on avait une très forte augmentation de la vitesse par rapport aux matériaux magnétiques », explique à France Culture Olivier Boulle.

Ainsi, l'étude dirigée par le CNRS, qui s'inscrit dans le programme national de recherche SPIN (inauguré en janvier 2024), a permis de déplacer des skyrmions à la vitesse record de 900 mètres par seconde. Ce qui est neuf fois plus rapide que précédemment. Tout cela est rendu possible par un matériau antiferromagnétique, développé et optimisé par le CNRS. Il est composé de deux couches ferromagnétiques très fines de cobalt entre lesquelles une couche fine non magnétique est placée. En opposant les pôles magnétiques des deux couches de cobalt, il est possible d'annuler leur aimantation. C'est-à-dire que les capacités magnétiques disparaissent, alors que le matériau reste un environnement dans lequel des skyrmions peuvent être créés. Il est ainsi possible d'y faire passer un courant pour déplacer ces skyrmions. Cela donne l'espoir de bénéficier de cette grande vitesse de déplacement pour véhiculer des données informatiques.

Article rédigé par Georges Simmonds pour RT Flash

Science

Intel dévoile le plus grand ordinateur neuromorphique jamais conçu
Mercredi, 29/05/2024 - 05:00

Intel a franchi une étape majeure dans le domaine de l’intelligence artificielle (IA) avec la création d’Hala Point, l’ordinateur neuromorphique le plus puissant au monde. Cette machine révolutionnaire est conçue pour imiter le cerveau humain et offrir ainsi des performances 50 fois plus rapides que les systèmes informatiques conventionnels équivalents. L’informatique neuromorphique adopte une approche radicalement différente de l’informatique conventionnelle en s’inspirant du fonctionnement du cerveau humain pour le traitement des données. Dans le détail, dans un système informatique conventionnel, les données sont traitées de manière séquentielle, c’est-à-dire une étape après l’autre en suivant un cheminement logique prédéfini. Les unités de traitement, telles que les CPU et les GPU, exécutent des opérations arithmétiques et logiques sur les données en suivant des instructions précises.

En revanche, l’informatique neuromorphique utilise des réseaux de neurones artificiels pour le traitement des données. Ces réseaux interconnectés sont inspirés de la structure et du fonctionnement des neurones du cerveau humain. L’une de ses caractéristiques les plus importantes est le traitement parallèle et simultané des informations. Cela permet ainsi d’accélérer considérablement le traitement des données. De plus, les ordinateurs neuromorphiques intègrent la mémoire et la puissance de calcul au sein des mêmes unités de traitement, ce qui élimine le besoin de déplacer physiquement les données entre différents composants. Cette intégration étroite permet d’optimiser l’efficacité énergétique et de réduire les goulots d’étranglement liés à la communication entre les composants, ce qui contribue à améliorer les performances globales du système.

Hala Point est équipé de plus de 1 000 nouvelles puces spéciales conçues pour l’intelligence artificielle. Ces puces, appelées processeurs Loihi 2, fonctionnent de manière très efficace. Elles peuvent traiter les tâches d’intelligence artificielle 50 fois plus rapidement que les ordinateurs traditionnels. Pour vous donner une idée de sa puissance, Hala Point peut effectuer jusqu’à 20 quadrillions d’opérations par seconde. En termes de structure, Hala Point est composé de 1,15 milliard de « neurones » artificiels et de 128 milliards de "synapses" artificielles. Ces termes peuvent sembler complexes, mais en gros, cela signifie que l’ordinateur a une structure similaire à celle du cerveau humain, avec des éléments qui interagissent entre eux pour traiter les informations.

Hala Point se distingue également par sa grande efficacité énergétique. Cet ordinateur peut en effet accomplir jusqu’à 15 000 milliards d’opérations avec seulement un watt d’énergie. C’est environ 100 fois plus économe en énergie que les systèmes plus traditionnels. Intel prévoit d’utiliser Hala Point aux laboratoires nationaux Sandia au Nouveau-Mexique pour résoudre des problèmes complexes liés à la physique des appareils, à l’architecture informatique et à l’informatique.

Article rédigé par Georges Simmonds pour RT Flash

Science Post

^ Haut
Matière
Matière et Energie
Le Japon prévoit de lancer un prototype de centrale solaire spatiale d’ici 2025
Jeudi, 30/05/2024 - 05:10

Bien que l’énergie solaire soit utilisée depuis les années 1970, son adoption généralisée reste limitée en raison de défis techniques et logistiques. Les difficultés incluent par exemple le manque d’emplacement approprié pour l’installation des panneaux photovoltaïques, la dégradation des installations avec le temps et la dépendance aux conditions météorologiques et du cycle jour-nuit. Afin de combler les déficits de production, les utilisateurs sont tout de même obligés de se tourner vers les énergies fossiles.

Proposée pour la première fois par Peter Glaser, un ancien ingénieur des missions Apollo, la production spatiale d’énergie solaire pourrait aider à surmonter ces limitations. Contrairement à la plupart des technologies énergétiques vertes terrestres, les centrales solaires spatiales pourraient produire de l’énergie en permanence, car elles ne dépendraient pas des conditions météorologiques et seraient moins esclaves du cycle jour/nuit (selon le type de placement orbital).

Cependant, la production d’énergie solaire depuis l’espace est généralement considérée comme peu pratique et beaucoup trop coûteuse. En effet, elle nécessite l’installation en orbite d’énormes infrastructures, ce qui nécessiterait des dizaines de fusées pour les transporter. Toutefois, les chercheurs du Japan Space Systems estiment que les récentes avancées en matière d’ingénierie spatiale et de technologies solaires pourraient changer la donne, sans compter le besoin urgent de décarboner l’industrie énergétique mondiale. Conçu dans le cadre du projet Ohisama, le dispositif du Japan Space Systems consiste en un petit satellite de 180 kilogrammes qui orbitera à 400 kilomètres d’altitude. Il sera équipé d’un panneau photovoltaïque de 2 mètres carrés qui chargera une batterie intégrée. L’énergie accumulée sera ensuite convertie en micro-ondes puis envoyée vers une antenne de réception sur Terre. Étant donné que le satellite se déplacera à grande vitesse (28 000 km/h), les éléments de l’antenne de réception seront répartis sur une distance de 40 kilomètres et espacés de 5 kilomètres.

Cependant, il est important de noter qu’il ne s’agit que d’un prototype de démonstration, qui ne permettra d’envoyer qu’un kilowatt de puissance énergétique, soit de quoi alimenter un petit lave-vaisselle ou une bouilloire pendant une heure. En outre, « la transmission ne prendra que quelques minutes, mais une fois la batterie vide, il faudra plusieurs jours pour la recharger », a précisé Koichi Ijichi, conseiller au Japan Space Systems, lors de la présentation de la feuille de route du projet à la Conférence internationale sur l’énergie spatiale à Londres. D’autre part, les chercheurs ont déjà réalisé une première démonstration de la transmission sans fil d’énergie solaire à partir d’une source stationnaire placée au sol. Et en décembre de cette année, ils prévoient d’effectuer la transmission depuis un avion, en y installant un panneau solaire identique à celui qui équipera le satellite. L’avion transmettra de l’énergie sur une distance de 5 à 7 kilomètres, par rapport à l’antenne de réception au sol.

Par ailleurs, selon les administrateurs, les avancées en matière de cellules photovoltaïques (telles que les cellules solaires flexibles) permettraient d’étendre ce type de technologie à des échelles commercialement viables. Dans cette vision, un projet gouvernemental connexe prévoit de lancer des satellites équipés de panneaux solaires géants de 2 kilomètres carrés qui pourraient générer jusqu’à 10 fois plus d’énergie que les panneaux au sol. Chaque satellite pourrait ainsi produire mensuellement l’équivalent de la production quotidienne d’une centrale nucléaire. D’après la NASA, les investissements nécessaires à la construction et au lancement des centrales spatiales seraient trop élevés par rapport à la quantité d’énergie produite, ce qui remet en question leur rentabilité. En vue des capitaux engagés, l’énergie produite pourrait coûter environ 0,61 dollar le kilowattheure, contre 0,5 dollar pour l’énergie solaire terrestre.

Article rédigé par Georges Simmonds pour RT Flash

Space

Photoncycle : une batterie résidentielle à hydrogène solide pour stocker jusqu’à 10 000 kWh d’énergie solaire
Mercredi, 29/05/2024 - 05:10

Le soleil est une source d’énergie écologique et inépuisable, prête à répondre à tous nos besoins et disponible à grande échelle. Elle est cependant intermittente. En effet, les panneaux solaires photovoltaïques ne produisent de l’électricité que lorsque notre étoile brille. Cela signifie que pour profiter pleinement de cette forme d’énergie, nous devons recourir à des solutions de stockage efficaces.

Les batteries acides et au lithium permettent d’ores et déjà de conserver cette électricité produite à partir de l’énergie solaire en vue d’une utilisation ultérieure, notamment la nuit. Cependant, elles sont peu efficaces quand il s’agit de stocker cette énergie sur le long terme à cause de l’autodécharge. Un phénomène qui décharge progressivement les batteries, même quand elles sont peu ou pas utilisées. Avec sa solution de stockage disruptive, Photoncycle veut changer la donne en matière de stockage résidentiel grâce à l’hydrogène solide.

Pour faire simple, la start-up norvégienne a inventé une batterie qui permet de conserver l’excédent d’énergie produite par les modules solaires pendant l’été pour une utilisation durant l’hiver. Cette technologie révolutionnaire repose sur une batterie pas comme les autres. De forme cylindrique, celle-ci a été conçue pour contenir de l’hydrogène solide. L’idée consiste à produire de l’hydrogène vert à partir du surplus d’électricité généré par les panneaux solaires quand l’ensoleillement est favorable à la production d’énergie.

Le processus est connu sous le nom d’électrolyse de l’eau. Puisqu’il génère de la chaleur, celle-ci peut être exploitée pour chauffer la maison. L’hydrogène est ensuite conservé sous forme solide dans le système de stockage mis au point par Photoncycle. L’entreprise a également développé une approche permettant d’intégrer l’infrastructure de stockage à proximité des maisons. Le but est de faciliter le raccordement aux panneaux solaires et de diminuer ainsi les coûts d’installation. L’énergie pourra ensuite être libérée progressivement en fonction des besoins.

L’un des principaux avantages de ce dispositif inventé par Photoncycle est qu’il présente une densité énergétique bien plus élevée qu’une batterie au lithium, soit d’environ 3,5 kW/kg contre seulement 0,3 kWh/kg pour cette dernière. Le coût de stockage de l’énergie promet donc d’être particulièrement faible. Selon l’entreprise, un système de 3 m³ peut emmagasiner jusqu’à 10 000 kWh d’énergie. La start-up prévoit de mettre sur le marché sa batterie résidentielle en 2025.

Article rédigé par Georges Simmonds pour RT Flash

Neozone

De nouveaux catalyseurs organiques pourraient réduire sensiblement le coût des piles à combustible
Mardi, 28/05/2024 - 05:40

L’un des obstacles auxquels les chercheurs sont confrontés est que la technologie actuelle des piles à combustible repose sur l’utilisation de catalyseurs métalliques coûteux comme le platine pour convertir l’hydrogène en énergie ; cependant, une équipe du Collège et de la Graduate School of Arts & Sciences de l'Université de Virginie a identifié une molécule organique qui pourrait constituer un substitut efficace et moins coûteux aux catalyseurs métalliques conventionnels.

Les piles à combustible qui rendent possibles les véhicules électriques et les générateurs industriels et résidentiels et qui sont nécessaires pour stocker l'énergie générée par le vent ou le soleil utilisent des métaux comme le platine pour déclencher la réaction chimique qui divise les sources de carburant comme l'hydrogène gazeux en protons et en électrons, qui sont ensuite exploités comme l'électricité. Jusqu’à présent, les substituts organiques aux catalyseurs à métaux rares n’étaient pas considérés comme pratiques car le processus de catalyse les faisait se décomposer en composants qui ne sont plus utiles. Dans un article publié dans le Journal de l'American Chemical Society, cependant, les professeurs agrégés de chimie Charles Machan et Michael Hilinski, ainsi que les étudiantes Emma Cook et Anna Davis identifient une molécule organique composée de carbone, d'hydrogène, d'azote et de fluor qui a le potentiel de constituer un substitut pratique.

La molécule peut non seulement initier la réduction de l’oxygène – la réaction qui a lieu à l’intérieur de la pile à combustible – a déclaré Machan ; il peut continuer à réagir avec les produits de la réaction puis revenir à son état initial. « Ces molécules sont stables dans des conditions dans lesquelles la plupart des molécules se dégradent, et elles continuent d'atteindre une activité qui correspond au niveau des catalyseurs de métaux de transition », a déclaré Machan. Cette découverte représente une avancée significative dans la recherche de piles à combustible efficaces utilisant des matériaux plus durables et moins coûteux à produire et pourrait aboutir au développement de la prochaine génération de piles à combustible d'ici cinq à dix ans, mais les découvertes ne sont qu’un début.

« Cette molécule elle-même pourrait ne pas en faire une pile à combustible », a déclaré Machan. « Cette découverte indique qu’il peut exister des matériaux catalytiques à base de carbone et que si vous les modifiez avec certains groupes chimiques, vous pouvez espérer les transformer en d’excellents catalyseurs pour la réaction de réduction de l’oxygène. L’objectif à terme est d’intégrer les propriétés qui rendent cette molécule si stable dans un matériau massif, afin de supplanter l’utilisation du platine. Hilinski, dont le groupe de recherche se concentre sur la chimie organique, a souligné l'importance de la nature interdisciplinaire de l'équipe de recherche. « Cette molécule que nous utilisons comme catalyseur a une histoire dans mon laboratoire, mais nous avons toujours étudié son utilisation dans des réactions chimiques effectuées sur des molécules beaucoup plus grosses contenant du carbone, comme les ingrédients actifs des médicaments », a déclaré Hilinski. « Sans l'expertise de Charlie Machan, je ne pense pas que nous aurions fait le lien avec la chimie des piles à combustible. »

Cette découverte pourrait également avoir des implications sur la production industrielle de peroxyde d'hydrogène, un produit ménager également utilisé dans la production de papier et le traitement des eaux usées. « Le processus de fabrication du peroxyde d'hydrogène est peu respectueux de l'environnement et très gourmand en énergie », a déclaré Machan. « Cela nécessite un reformage à la vapeur à haute température du méthane pour libérer l’hydrogène utilisé pour le générer. » Les découvertes de son équipe pourraient également améliorer la composante catalytique de ce processus, ce qui pourrait avoir des impacts positifs sur l'industrie et l'environnement ainsi que sur la technologie de traitement de l'eau.

Hilinski a également souligné que la découverte et la collaboration qui y a conduit pourraient avoir des impacts bien au-delà du stockage d’énergie. « Dans l’ensemble, l’un des aspects les plus intéressants de cette étude est qu’en électrifiant le catalyseur, nous avons modifié sa façon de réagir. C’est quelque chose d’inattendu qui pourrait également être utile pour la synthèse de médicaments, que mon groupe de recherche est impatient d’explorer ».

Article rédigé par Georges Simmonds pour RT Flash

EurekAlert

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
Le dérèglement climatique coûtera bien plus que prévu
Jeudi, 30/05/2024 - 05:20

Selon une étude du prestigieux centre de recherche climatique de Potsdam,  les conditions météorologiques extrêmes –résultat du dérèglement climatique d’origine anthropique –, qui ravagent les terres agricoles, nuisent à la productivité et détruisent les infrastructures, infligeront à l’économie mondiale des pertes d’une valeur annuelle de 38 000 milliards de dollars d’ici à 2049. L’étude, qui se fonde sur quarante ans de données issues de 1 600 régions du monde, montre également que le réchauffement de la planète s’accompagnera d’une réduction des revenus de 19 % au niveau mondial d’ici au milieu du siècle, par rapport à une économie mondiale qui n’aurait pas été affectée par le dérèglement climatique. « D’ici vingt-six ans, les coûts des dommages seront déjà six fois supérieurs au coût des mesures nécessaires pour limiter le réchauffement de la planète à 2°C et varieront fortement ensuite en fonction des choix qui seront faits en matière d’émissions de gaz à effet de serre », écrivent les auteurs.

Ils soulignent aussi que les pertes les plus importantes seront enregistrées dans des régions situées dans les latitudes basses, où les émissions historiques cumulées sont plus faibles qu’ailleurs et où les revenus actuels sont les moins élevés. Mais le coût économique du dérèglement climatique se fera sentir partout, « y compris dans les pays très développés comme l’Allemagne, la France et les États-Unis », indique à Bloomberg Leonie Wenz, chercheuse au Potsdam Institute for Climate Impact Research, qui a piloté ces travaux. Seules les régions situées à des latitudes très élevées bénéficieront du réchauffement des températures. « Cela coûte beaucoup moins cher de protéger notre climat que de ne pas le faire, même si l’on ne prend pas en compte les conséquences non économiques, comme la disparition de la vie et de la biodiversité », insiste la chercheuse.

Article rédigé par Georges Simmonds pour RT Flash

Potsdam

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Des émulsifiants alimentaires possiblement associés à une augmentation du risque de cancers
Jeudi, 30/05/2024 - 05:30

De grandes études épidémiologiques ont déjà associé l’alimentation riche en produits ultra-transformés à une augmentation du risque de maladies cardio-vasculaires, de diabète, d’obésité et de mortalité, avec, comme explication possible, la présence d’additifs, et particulièrement d’émulsifiants. Ceux-ci sont destinés à améliorer la texture des aliments et leur durée de conservation.

Des études expérimentales récentes ont montré que les émulsifiants altèrent le microbiote intestinal et peuvent entraîner une inflammation de bas grade. Or, la dysbiose et l’inflammation chronique augmentent non seulement le risque de maladies inflammatoires intestinales, mais sont aussi impliquées dans l’étiologie de plusieurs autres pathologies chroniques et de certains cancers extra-intestinaux.

L’étude NutriNet-Santé a fourni de nombreuses informations sur les habitudes alimentaires de plus de 100 000 Français. Une nouvelle analyse a été réalisée, examinant le lien possible entre la présence d’émulsifiants dans l’alimentation et la survenue d’un cancer. Au total, les données de 92 000 personnes, dont 78,8 % de femmes, ont été utilisées. Elles portent sur un suivi de 6,7 ans en moyenne, au cours desquels 2 604 cas de cancers ont été diagnostiqués (dont 750 cancers du sein, 322 de la prostate et 207 cancers colorectaux). Dans cette cohorte, le risque de cancer augmente avec la présence plus importante dans l’alimentation de produits contenant certains émulsifiants très largement utilisés dans l’alimentation industrielle en Europe : les carraghénanes (E407), les mono et diglycérides d’acides gras (E471), les pectines (E440) et le carbonate de sodium (E500).

Notamment, les plus fortes consommations de mono et diglycérides d’acides gras E471 sont associées à une augmentation de 15 % du risque de tous types de cancer, de 24 % du risque de cancer du sein chez les femmes, et de 46 % de celui de cancer de la prostate. Chez les femmes, les plus fortes consommations de carraghénanes (E407) sont associées à une augmentation de 28 % du risque de cancer du sein. En analyse selon le statut vis-à-vis de la ménopause, le risque de cancer du sein avant la ménopause est associé aux fortes consommations de diphosphates (E450 ; augmentation de 45 %), de pectines (E440 ; augmentation de 55 %) et de bicarbonate de sodium (E500 ; augmentation de 48 %). Il n’est pas retrouvé de lien entre la consommation d’émulsifiants et le risque de cancer colorectal. Quant aux autres émulsifiants, si certaines associations sont observées, elles ne persistent pas lors des analyses de sensibilité.

Cependant, l’Agence Européenne de sécurité alimentaire (AFSA) a récemment évalué les risques des émulsifiants, et n’a relevé aucun problème de sécurité ni aucune nécessité d’en limiter la consommation journalière, pour un certain nombre d’entre eux et notamment pour le E471. Il est certain que le cancer est multifactoriel, et qu’un seul facteur (ici l’exposition aux émulsifiants) ne va pas en augmenter considérablement le risque. Toutefois, et alors qu’ils ne sont pas essentiels à la santé humaine, les émulsifiants sont très largement répandus sur le marché mondial. Aussi, si une causalité est établie, l’augmentation du risque peut se traduire par un nombre non négligeable de cancers évitables au niveau de toute la population. La confirmation de ce lien de causalité devra être obtenue par des études expérimentales et épidémiologiques.

Article rédigé par Georges Simmonds pour RT Flash

Univadis

La vitesse de la parole serait un bon indicateur de la santé cérébrale...
Jeudi, 30/05/2024 - 05:00

Selon une étude réalisée une équipe du Baycrest Centre for Geriatric Care (Toronto), de la même façon que la vitesse de marche peut être un indicateur de forme physique, la vitesse de la parole -tout comme la fluidité verbale d’ailleurs- peut être un marqueur fidèle de la santé cérébrale. De fait, en vieillissant, la plupart des personnes âgées ont besoin de plus de temps pour trouver les bons mots. De telles hésitations, lorsqu’elles interviennent dans le cours du discours, devraient donc susciter des inquiétudes sur le développement possible d’un déclin cognitif et de la démence.

Une étude récente avait d’ailleurs suggéré qu’il « suffisait » d’analyser la voix pour évaluer la cognition. Cette nouvelle recherche est l’une des premières à examiner simultanément les différences dans la parole naturelle et la santé cérébrale chez des participants adultes en bonne santé. L’auteur principal, le Docteur Jed Meltzer, titulaire de la Chaire de recherche en neurosciences cognitives du Baycrest, explique que ces changements dans la vitesse de la parole pourraient refléter des changements dans le cerveau. La vitesse de parole devrait donc être testée dans le cadre d’évaluations cognitives standard afin de détecter plus rapidement le déclin cognitif chez les personnes âgées.

L’étude est menée auprès de 125 participants âgés de 18 à 90 ans et en bonne santé, qui ont passé 3 évaluations différentes : la première évaluation consistait en un test de dénomination d’images alors que les participants entendaient, dans le même temps, des mots distrayants dans des écouteurs. Cet exercice visait à tester la capacité des participants à reconnaître l’image et à se souvenir ensuite de sa dénomination ; un deuxième test consistait à décrire 2 images complexes pendant 60 secondes chacune. Les performances linguistiques des participants étaient analysées à l’aide d’un logiciel basé sur l’intelligence artificielle. L’objectif était d’évaluer la vitesse de parole et la longueur des pauses au cours de ces descriptions ; des tests standards ont permis enfin d’évaluer les capacités mentales dont la fonction exécutive, qui est la capacité à gérer des informations contradictoires, la capacité de concentration, ou à éviter la distraction.

L’analyse des résultats à ces 3 évaluations révèle que de nombreuses capacités cognitives diminuent avec l’âge, notamment la vitesse de recherche et de rappel des mots ; même si la capacité à reconnaître une image et à se souvenir de sa dénomination se détériore avec l’âge, cette détérioration n’apparaît pas associée à un déclin cognitif global ; le nombre et la durée des pauses prises par les participants pour trouver leurs mots au cours d’un récit, ne semblent pas être des caractéristiques liées à la santé cérébrale ; la rapidité avec laquelle les participants sont capables de nommer des images prédit la vitesse de la parole en général, et ces 2 rapidités de dénomination et de parole sont significativement liées à la fonction exécutive.

En d’autres termes, la vitesse de parole entourant d’éventuelles pauses dans le récit apparaît clairement associée à la santé cérébrale. Alors que de nombreuses personnes âgées s’inquiètent de devoir faire une pause pour chercher et retrouver leurs mots, il semble que ce soit un signe et une étape du vieillissement normal. Le ralentissement global de la parole, indépendamment des pauses, est quant à lui un véritable indicateur des changements dans la santé du cerveau.

Article rédigé par Georges Simmonds pour RT Flash

Taylor

Autisme : un nouvel outil de mesure pour le diagnostic
Mercredi, 29/05/2024 - 05:40

Une étude américaine a révélé une approche innovante pour améliorer le diagnostic de l'autisme : l’utilisation de l’imagerie par résonance magnétique (IRM) de diffusion. L’IRM de diffusion permet de mesurer la diffusion moléculaire dans les tissus biologiques, autrement dit d’observer comment l’eau se déplace dans le cerveau et interagit avec les membranes cellulaires. Cette technique a aidé les chercheurs de l’Université de Virginie, aux Etats-Unis, à développer des modèles mathématiques de microstructures cérébrales qui ont permis d’identifier les différences structurelles dans le cerveau des personnes autistes. Des différences qui étaient « directement liées aux scores des participants sur le questionnaire de communication sociale, un outil clinique pour diagnostiquer l'autisme », selon l'étude.

C’est, selon les chercheurs, une histoire de « conductivité électrochimique des neurones » et de « leur capacité à transporter l’information à travers le cerveau ». « Ce que nous voyons, c'est qu'il y a, dans le cerveau des personnes autistes, une différence dans le diamètre des composants microstructuraux qui peut les amener à conduire l'électricité plus lentement », explique le neuroscientifique Benjamin Newman, auteur principal de l’étude. « C’est la structure même qui détermine comment le cerveau fonctionne ».

Article rédigé par Georges Simmonds pour RT Flash

PLOS

Vers des vaccins sans rappels
Mercredi, 29/05/2024 - 05:20

Des biologistes de l'université de Californie Riverside travaillent à la mise au pont d'un nouveau type de vaccin sans rappel. Ce nouveau type de vaccin utilise une version vivante et atténuée des virus. De nombreux vaccins existants, comme le vaccin ROR et le vaccin contre la varicelle, utilisent une méthode similaire. Toutefois, contrairement à ces derniers, les futures injections ne s'appuieront pas sur le système immunitaire de l'organisme qui réagit au virus injecté. Au lieu de cela, elles activeront un système appelé "interférence ARN", ou “ARNi”. « Les virus peuvent muter dans des régions qui ne sont pas ciblées par les vaccins traditionnels. Avec notre nouvelle technique, nous ciblons l'ensemble de leur génome avec des milliers de petits ARN. Ils ne peuvent donc pas y échapper », explique le chercheur à l’origine de cette avancée, Shouwei Ding, professeur de microbiologie.

La nouvelle technique vaccinale présente également un autre avantage de taille. Comme elle ne repose pas sur une réponse immunitaire traditionnelle des cellules B et T, elle pourrait potentiellement être utilisée chez les très jeunes bébés ou chez les personnes souffrant de troubles immunitaires qui ne peuvent normalement pas recevoir de vaccins vivants. Pour tester cela, les chercheurs ont créé un vaccin contre un virus de souris appelé Nodamura. Ils ont donné une seule injection à des souris qui avaient été génétiquement modifiées pour éliminer leurs cellules immunitaires B et T. Cette injection a suffi à les protéger contre l'infection par le virus Nodamura pendant au moins trois mois, ce qui est assez long si l'on considère que la durée de vie d'une souris se situe entre deux et trois ans.

« Notre prochaine étape consistera à utiliser ce même concept pour produire un vaccin contre la grippe, afin que les nourrissons puissent être protégés. Si nous réussissons, ils n'auront plus à dépendre des anticorps de leur mère », développe Shouwei Ding. « Il existe plusieurs agents pathogènes humains bien connus : la dengue, le SRAS et le COVID. Ils ont tous des fonctions virales similaires. Cette méthode devrait être applicable à ces virus », conclut-il.

Article rédigé par Georges Simmonds pour RT Flash

PNAS

Le lien entre fatigue chronique et système immunitaire se précise
Mardi, 28/05/2024 - 05:50

Une vaste méta-analyse inédite à partir d'une centaine d'études sur la fatigue révèle qu'un adulte sur cinq, dans le monde, a déjà ressenti une perte d'énergie pendant plus de six mois sans aucune pathologie sous-jacente. De récents travaux sur l'encéphalomyélite myalgique apportent un début de réponse. Cette maladie handicapante est autrement connue sous le nom de syndrome de fatigue chronique, ou "syndrome des yuppies", en référence aux young urban professionals de 35 ans très investis dans leur travail qui en sont les principales victimes. Elle se déclare brusquement, comme un burn-out qui rend intolérant à l'effort. Outre Gaston Lagaffe, une personne sur 200 dans les pays industrialisés – 150.000 en France – en souffre, très majoritairement les femmes.

Ces scientifiques ont avancé l'hypothèse d'une origine virale privant le malade de phases de sommeil lent et profond au cours desquelles le corps se régénère et retrouve de l'énergie. C'est précisément cette théorie que des chercheurs de plusieurs instituts de santé américains ont voulu tester. Dix-sept patients soigneusement choisis ont été recrutés pour leur étude récemment publiée dans "Nature". Tous avaient subi une infection aiguë avant de tomber malade.

Pendant plusieurs jours, les chercheurs ont scruté leur cerveau à l'aide d'imagerie à résonance magnétique fonctionnelle. Leurs analyses ont montré que leur activité était moins soutenue dans une région (la jonction temporo-pariétale) connue pour contrôler l'intensité des efforts. A contrario, le cortex moteur, une zone du cerveau qui dirige les mouvements du corps, restait particulièrement actif. Les chercheurs en concluent que des dysfonctionnements cérébraux pourraient altérer la tolérance des patients à l'effort et à leur perception de la fatigue. « La fatigue peut résulter d'un décalage entre ce qu'une personne pense pouvoir accomplir et ce que son corps accomplit réellement », vulgarise Brian Walitt, l'un des principaux auteurs de l'étude.

En investiguant plus avant, les chercheurs ont découvert que le liquide céphalorachidien de leurs cobayes montrait des niveaux particulièrement bas de catécholamines, des neurotransmetteurs associés aux performances motrices et cognitives. A l'inverse, des tests immunitaires ont révélé des taux élevés de cellules B naïves, un constituant majeur du système immunitaire indiquant une infection chronique. « Une réponse immunitaire persistante pourrait provoquer des altérations de la chimie du cerveau pouvant affecter le fonctionnement des structures qui contrôlent la fonction motrice et la perception de la fatigue », concluent les auteurs.

Article rédigé par Georges Simmonds pour RT Flash

Pubmed

Vers un vaccin thérapeutique amélioré contre le mélanome
Mardi, 28/05/2024 - 05:30

Un vaccin contre le mélanome de deuxième génération, simulant les lymphocytes T helper, améliore la survie à long terme par rapport au vaccin de première génération, selon cette étude. Curieusement ce bénéfice était plus important pour les hommes que pour les femmes. La plupart des premiers vaccins "thérapeutiques" contre le cancer étaient destinés à stimuler les cellules T CD8+ cytotoxiques avec des petits peptides présentés par les molécules de classe I du MHC (complexe majeur d'histocompatibilité). Cependant les cellules T helper CD4+ jouent un rôle crucial dans la maturation des cellules dendritiques et pour fournir des cytokines venant soutenir les cellules CD8. Elles peuvent aussi avoir une activité antitumorale directe.

Ces constatations sont à l’origine d’une étude multicentrique randomisée de phase II ayant inclus des patients atteints d’un mélanome à haut risque (stade IIB à III pour 80 % d’entre eux). Deux stratégies vaccinales ont été testées : l’une visant à uniquement stimuler les cellules T CD8+ et l’autre à stimuler non seulement les CD8 mais également les cellules CD4 helper. En pratique il s’agissait d’un vaccin comprenant 12 peptides courts spécifiques du mélanome stimulant les cellules T CD8+ (12 p CD8) ayant déjà prouvé son efficacité, et d’un vaccin à partir de 6 peptides spécifiques du mélanome (peptides longs présentés par les molécules de classe II du MHC) destinés à stimuler les cellules T helper CD4+ (6 p CD4).

Quatre groupes de traitement ont été constitués selon une randomisation : Groupe A recevant le vaccin 12 p CD8 et un peptide non spécifique issu de la toxine tétanique (ptt) connu pour stimuler également les réponses CD4+. Groupe B recevant le même vaccin et le ptt mais avec un prétraitement par cyclophosphamide (Cy) administré en IV 5 jours avant la première dose vaccinale, Groupe C recevant le vaccin 12 p CD8 et le vaccin 6 p CD4, Groupe D recevant le vaccin 12 p CD8 et le vaccin 6 p CD4 ainsi que la cyclophosphamide en prétraitement.

Contrairement à l’hypothèse de départ et bien qu’une réponse avec les 6 peptides « helper » ait été obtenue ex vivo chez la plupart des participants, il a été initialement constaté que l’ajout du vaccin 6 p CD4 (au lieu du ptt) au vaccin 12 p CD8 diminuait la réponse à ce dernier. Après cette première évaluation, les patients ont été suivis sur le long terme : 15 années se sont en effet écoulées depuis l’enrôlement du premier participant. Les données de suivi concernent 167 patients éligibles (population en intention de traiter) dont 82 vaccinés avec le vaccin à 12 p CD8 et le ptt et 85 vaccinés avec le 12 p CD8 et le 6 p CD4. Le suivi médian était de 12,2 ans pour les participants vivants en avril 2023.

Il a été constaté que deux ans et demi après l’inclusion, la courbe de survie globale diverge progressivement en faveur des groupes C et D. Dans les groupes C et D, le taux de survie globale estimé à 5, 10 et 15 ans est de 74 % et 61 %,  alors qu’il est plus bas dans les groupes A et B ayant reçu le vaccin à 12 peptides associé au ptt, soit respectivement 68 % et 45 % (± 7 %). Les récidives ont été essentiellement à type de métastases mais il y a eu aussi deux nouveaux mélanomes primitifs (un dans chaque groupe vaccinal).

La survie médiane sans récidive a été de 2,7 ans dans les bras 12 peptides et ptt, et de 13,3 ans dans les bras 12 peptides et 6 peptides helper (HR 0,77 ; IC 0,51 à 1,18 ; p<0,22), ce qui est légèrement en faveur de cette approche. Il y a eu peu de récidives après 4 ans quel que soit le bras. En cas d’administration en prétraitement de cyclophosphamide, la courbe de survie globale est très similaire à ce qu’elle est en l’absence de prétraitement mais la survie sans récidive est un peu meilleure. En tout état de cause, c’est dans le groupe D que l’on obtient les meilleurs résultats.

Enfin il est à signaler une découverte déconcertante, à savoir l’influence du sexe du patient sur le bénéfice apporté par l’ajout du vaccin aux 6 antigènes : en effet la survie globale des hommes recevant les vaccins 12 p CD8 + 6 p CD4 était plus favorable que celle des hommes recevant seulement le vaccin 12 peptides et que celle de toutes les femmes participant à l’essai.

Article rédigé par Georges Simmonds pour RT Flash

Nature

La pollution de l'air augmente le risque de déficit d'attention chez les enfants
Mardi, 28/05/2024 - 05:20

Une étude menée par l'Institut de Barcelone pour la Santé Globale (ISGlobal) a montré que l'exposition au dioxyde d'azote (NO2), gaz émis par les véhicules essence et diesel, était associée à des fonctions attentionnelles plus faibles chez les enfants d’âge scolaire. Le risque d'une capacité d'attention moindre était encore plus important lorsque les petits faisaient face à ce polluant au cours des deux premières années de leur vie.

Pour évaluer l’impact du NO2 sur les enfants, les chercheurs ont suivi 1.703 femmes et leur progéniture de quatre régions espagnoles. Ils ont calculé l’exposition au polluant pendant la grossesse et les six premières années de l’enfance en utilisant l'adresse de leur domicile. De plus, la fonction attentionnelle – c’est-à-dire la capacité de l’enfant de choisir ce à quoi il prête attention et ce qu'il faut ignorer - était mesurée à 4-6 ans et 6-8 ans. En 6 et 8 ans, la mémoire de travail des enfants était aussi testée.

Résultat : être exposé à des taux élevés au NO2 était associée à une capacité d’attention plus faible chez les enfants de 4 à 6 ans, « avec une susceptibilité accrue à ce polluant observée au cours de la deuxième année de vie ». L’association persistait entre 6 et 8 ans, mais uniquement chez les garçons, « avec une période de susceptibilité légèrement plus importante de la naissance à 2 ans ». En revanche, aucun lien n'a été mis en évidence entre une exposition plus élevée au NO2 et la mémoire de travail chez les enfants âgés de 6 à 8 ans.

« Ces résultats soulignent l'impact potentiel de l'augmentation de la pollution atmosphérique liée à la circulation sur le développement retardé de la capacité attentionnelle et soulignent l'importance de poursuivre les recherches sur les effets à long terme de la pollution atmosphérique chez les groupes plus âgés », explique la chercheuse Anne-Claire Binter, qui rappelle également que les fonctions attentionnelles sont cruciales pour le développement des fonctions exécutives du cerveau. Pour elle, l’étude montre que « la petite enfance, jusqu’à l’âge de 2 ans, paraît être une période pertinente pour mettre en œuvre des mesures préventives ».

« Même un petit effet au niveau individuel dû à des niveaux d'exposition relativement faibles, comme dans cette étude, peut avoir des conséquences importantes au niveau de la population. L’exposition à la pollution atmosphérique liée au trafic est donc déterminante pour la santé des générations futures », conclut la chercheuse.

Article rédigé par Georges Simmonds pour RT Flash

Science Direct

Prévenir le risque cardiovasculaire grâce à un outil de mesure de la rigidité artérielle
Mardi, 28/05/2024 - 05:10

Grâce aux données de santé collectées auprès de plus de 1 250 Européens, des chercheurs de l’Inserm, de l’Université de Lorraine et du CHRU de Nancy ont montré que plus la rigidité artérielle est élevée, plus le risque cardiovasculaire est augmenté. Ces scientifiques suggèrent d’utiliser la mesure de la rigidité artérielle comme outil de prédiction du risque cardiovasculaire du patient et soulignent l’intérêt du recours en clinique à un outil spécifique appelé CAVI (Cardio Ankle Vascular Index ou Indice vasculaire cardio/cheville). Ces résultats sont publiés dans la revue eBioMedicine.

Le risque cardiovasculaire est la probabilité de survenue d’une maladie ou d’un accident cardiovasculaire (maladies du cœur et des artères). Trouver une mesure qui permette de prédire ce risque en détectant au plus tôt les facteurs qui peuvent l’influencer est un enjeu de taille pour la recherche. Les facteurs de risque déjà bien connus sont l’hypertension artérielle, le tabagisme, le diabète, l’hypercholestérolémie, le surpoids ou la sédentarité.

De précédentes études ont montré que le vieillissement a un effet sur la souplesse de nos artères : celles-ci deviennent de plus en plus rigides à mesure que nous vieillissons. D’autre part, la littérature scientifique indique que cette perte de souplesse peut être accélérée par d’autres facteurs durant le vieillissement (par exemple l’hypertension ou le diabète), et qu’elle est associée à un risque cardiovasculaire accru. En se fondant sur ces éléments, il avait été suggéré que s’intéresser à la rigidité artérielle pouvait présenter un intérêt pour prévenir le risque cardiovasculaire. Toutefois, l’examen de la rigidité artérielle ne figure pas parmi la liste des pratiques recommandées en clinique.

Dans une nouvelle étude, des chercheurs et des chercheuses de l’Inserm, de l’Université de Lorraine et du CHRU de Nancy se sont intéressés à un outil de mesure de la rigidité artérielle appelé CAVI (Cardio Ankle Vascular Index ou Indice vasculaire cardio/cheville), avec l’hypothèse que son utilisation en clinique pourrait permettre de prédire le risque cardiovasculaire des patients.

Les scientifiques se sont spécifiquement intéressés à CAVI en raison de sa précision dans les mesures, du fait qu’il ne soit pas influencé par la pression artérielle mais le reflet de la structure même de l’artère, ainsi que par son caractère non invasif. En effet, l’indice CAVI est mesuré par le biais de deux brassards disposés autour de chaque bras ainsi que de deux autres au niveau des chevilles, évaluant ainsi la rigidité de l’artère fémorale à l’artère tibiale. Un microphone est par ailleurs disposé au niveau du cœur. L’outil mesure ainsi la vitesse de circulation du sang et calcule un indice chiffré : plus le numéro est élevé, plus la rigidité des artères est forte.

Au cours de leurs travaux, les chercheurs ont suivi 1 250 personnes originaires de 18 pays européens, toutes âgées de plus de 40 ans. Celles-ci ont renseigné leurs antécédents médicaux et ont passé un examen physique incluant une évaluation de leur rigidité artérielle grâce à l’outil de mesure CAVI. Elles ont ensuite été convoquées pour un examen de suivi deux ans après, et pour certaines, jusque 5 ans après la première mesure. L’objectif du suivi était d’évaluer la progression de la rigidité artérielle et de corréler cette évolution avec l’état de santé général des participants.

Grâce à leurs mesures, les chercheurs ont pu observer que chaque augmentation d’un point de l’indice CAVI, qui correspond à une augmentation d’environ 10 % de la rigidité artérielle, était associée à un risque accru de 25 % de survenue d’un événement cardiovasculaire dans les années qui suivaient la mesure.

Par ailleurs, les chercheurs se sont intéressés à ce qui pouvait influencer l’évolution de la rigidité artérielle. Ils ont observé que l’âge avait un effet sur la valeur de l’indice CAVI, mais aussi sur la progression de cet indice. Ainsi, au cours du vieillissement, celui-ci augmente plus rapidement. Ils ont également observé un impact de la pression artérielle : plus celle-ci est élevée plus l’indice CAVI l’est aussi.

Les scientifiques ont ensuite essayé de déterminer un seuil de rigidité artérielle qui serait associé à un risque cardiovasculaire accru et pourrait être communément reconnu et adopté par les cliniciens, dans l’optique de mettre en place un suivi plus poussé des patients. Ils ont observé qu’un indice CAVI ayant une valeur supérieure à 9.25 était associé à un risque cardiovasculaire élevé à partir de 60 ans.

Enfin, ils ont observé que les traitements pour le cholestérol ou le diabète avaient un effet sur le taux de progression de la rigidité artérielle. Ces observations sont encore à l’étude mais suggèrent que certains traitements pourraient permettre de ralentir la progression de la rigidité artérielle. « Nos résultats suggèrent que l’indice CAVI pourrait être un outil de mesure de prédiction du risque cardiovasculaire, facile, rapide et non invasif. Son recours pourrait figurer à l’avenir parmi la liste des examens recommandés en clinique pour prédire le risque cardiovasculaire d’une personne et lui apporter un suivi préventif », explique Magnus Bäck, premier auteur de l’étude.

Article rédigé par Georges Simmonds pour RT Flash

Inserm

Un chercheur français identifie une molécule qui imite l'ocytocine
Mardi, 28/05/2024 - 05:00

Une molécule susceptible de révolutionner le traitement de certaines maladies, comme l'autisme, l'alcoolisme, ou encore les douleurs neuropathiques, a été découverte par un professeur strasbourgeois. Elle imite l'ocytocine, présente naturellement dans le corps humain, mais qui peut parfois manquer. Elle est souvent présentée comme l'hormone du bonheur – on la retrouve par exemple pendant l'accouchement ou l'allaitement – mais c'est plutôt l'hormone de l'attachement et des interactions sociales. Marcel Hibert est professeur émérite de chimie à la faculté de pharmacie de Strasbourg. Il s'est notamment intéressé à son rôle dans l'autisme : « C'est ce qui peut aider les autistes, dès la naissance, à retrouver la capacité de décrypter les émotions sur les visages, de comprendre ce qui se passe autour d'eux, et donc de se développer normalement dans leur contexte social. On a pu remarquer que les personnes autistes étaient souvent en déficience d'ocytocine ».

Mais cette hormone ne peut pas être utilisée en l'état dans des traitements : « Elle ne passe ni dans le sang, ni dans le cerveau, et elle est très instable ». Pendant vingt ans, Marchel Hibert a donc cherché une molécule avec les qualités de l'ocytocine, mais pas ses défauts : « On en a testé plus de 60.000, il y en a une seule qui est ressortie avec les qualités attendues ».

La molécule est désormais brevetée, et les brevets vendus à une start-up, Occentis, installée en Alsace, grâce au soutien de Conectus, la société chargée de faire le lien dans la région entre les chercheurs et l'industrie. Occentis va d'abord devoir déterminer quelle indication, quel médicament, développer en premier – certainement des recherches sur le sevrage alcoolique. Un travail qui se fera avec des CRO, des entreprises spécialisées dans la recherche biomédicale.

Article rédigé par Georges Simmonds pour RT Flash

France Bleu Alsace

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top