RTFlash

RTFLASH Recherche & Technologie
NUMERO 1232
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 17 Novembre 2023
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
La nouvelle puce IA d'IBM atteint des sommets d'efficacité
L’intelligence artificielle décode des images perçues par le cerveau humain
Avenir
Une main bionique qui peut fonctionner pendant des années...
Matière
Israël se dote d'une nouvelle arme-laser pour contrer les attaques de drones
L'énergie moléculaire : un immense potentiel à exploiter...
Un système d'énergie solaire concentrée pour produire de l’hydrogène vert
Vers l'extraction de l'uranium à partir d'eau de mer
Espace
Un système optique laser pour des communications spatiales haut débit
Vivant
Maladie d'Alzheimer, le rôle-clé du microbiote confirmé
Première greffe complète d'un œil aux États-Unis
Le gène nécessaire aux bénéfices de l'exercice...
Le Covid-19 augmente le risque de syndrome de Guillain-Barré et le vaccin à ARN le diminue...
La stimulation cérébrale non-invasive améliore l'apprentissage moteur
Les probiotiques peuvent faire baisser la tension artérielle
Cancer du sein : un risque accru de récidive chez les femmes en surpoids
Edito
Produire dix fois plus d'hydrogène décarboné à un prix abordable : l'autre défi énergétique mondial…



APPEL aux DONS POUR SAUVER RT FLASH

En ce 15 Novembre, date de remise de mon édito, nous sommes en temps, à la moitié de notre campagne de recherche de dons pour 2024.

Or, à ce jour, nous avons enregistré un total de dons de 4.905 euros alors que l'objectif qu'il nous est nécessaire d'atteindre est fixé à 15.000 euros.

Comme il faut 1364 euros, chaque mois, sauf en Août, soit 45,45 euros/jour, pour permettre à RT Flash de continuer à paraître avec des abonnements totalement gratuits et sans aucune publicité, ce total de dons de 4.905 euros nous permet d'assurer que RT Flash paraîtra jusqu'au 17 Avril 2024 alors que nous devrions être au 30 Juin.

Pour la première fois, depuis 4 ans, je crains que nous ne parvenions pas à atteindre notre objectif avant le 31 Décembre.

L'ADIST a été qualifiée d'Association d'Intérêt Général. Les dons qui sont faits à notre association ouvrent droit à une réduction fiscale de 66 % en respect des articles 200 et 238 du Code Général des Impôt

Ainsi, si vous nous faites le plaisir de faire un don de 100 euros, vous bénéficierez d'une réduction de 66 € sur vos impôts et si votre bonté allait jusqu'à 300 euros de don pour permettre à RT Flash de survivre, ce serait une réduction de 200 euros que vous constateriez sur le montant des impôts qu'il vous faudrait régler.

Sans vous tous qui acceptez de faire des dons, RT Flash n'existerait plus. Nous avons bien conscience de la précarité de notre situation mais vous remercier chaque semaine avec des articles et un édito dont les rédacteurs et moi-même sommes totalement bénévoles nous apporte beaucoup de joie et de bonheur.

René Trégouët
Sénateur Honoraire
Créateur du Groupe de Prospective du Sénat
Rédacteur en Chef de RT Flash

Président de l'ADIST (l'ADIST est une association qui gère RT Flash)

Si vous voulez aider RT Flash, lettre d’informations scientifiques, gratuite et sans publicité depuis 1998, appuyez sur ce lien HelloAsso

EDITORIAL

Produire dix fois plus d'hydrogène décarboné à un prix abordable : l'autre défi énergétique mondial…

En mars dernier, l'AIE l'Agence internationale de l’énergie, révélait que les émissions mondiales de CO2 s'élevaient à 36,8 gigatonnes, en hausse de 0,9 % par rapport à 2021. Toutefois, l'AIE précise que la montée en puissance des énergies renouvelables, bien qu'encore insuffisante, avait quand même permis d'éviter l'émission de 550 millions de tonnes de CO2 supplémentaires. L'AIE souligne que pour effectuer sa transition énergétique, le monde doit surmonter deux défis majeurs. D'une part, la montée en puissance, pourtant réelle, des énergies renouvelables, ne va pas assez vite pour compenser l'augmentation de la demande globale d'énergie au niveau mondial : + 3 % en moyenne par an, à cause de la hausse de la population mondiale et de la croissance économique en Asie. Aujourd'hui, la production mondiale d'électricité (29 000 TWh par an), qui reste assurée à 60 % par les énergies fossiles, est devenue, de loin, la première source d'émissions de CO2 (42 %), loin devant les transports (25 %) ou l'industrie (18 %).

D'autre part, cette demande mondiale toujours plus forte d'énergie est comblée par les énergies fossiles, qui vont continuer à augmenter au moins jusqu'en 2028 : la consommation de pétrole va passer, selon l’AIE, de 103 à 108 millions de barils/jour, celle de charbon va passer de 8,3 milliards de tonnes en 2022 (record absolu) à 8,8 milliards en 2028. Seule la consommation mondiale de gaz s'est stabilisée à 4000 milliards de m3 par an. Résultat : si on extrapole les courbes d'offres et de demandes d'énergie, on voit, comme le souligne l'AIE, que les énergies fossiles, qui représentent encore 80 % de notre consommation mondiale d'énergie, en représenteront encore au moins 70 % en 2050, ce qui n'est pas envisageable si nous voulons éviter une catastrophe climatique majeure, avec un réchauffement de plus de quatre degrés.

Il y a quelques jours, une étude de Carbon Tracker et Global Energy Monitor révélait que les réserves mondiales de combustibles fossiles contenaient l'équivalent de 3 500 milliards de tonnes de CO2, qui seraient libérées dans l'atmosphère et viendraient aggraver le réchauffement climatique de manière catastrophique si elles étaient utilisées. Cette quantité de carbone représente plus que toutes les émissions produites depuis la révolution industrielle et environ trois fois le budget carbone restant pour respecter la température limite de 2°C (Voir Global Registry of Fossil Fuels).

Une nouvelle étude du College Imperial de Londres dirigée par le Dr Lamboll estime que pour garder plus de 50 % de chances de limiter le réchauffement à 1,5°C, il reste moins de 250 gigatonnes de dioxyde de carbone dans le budget carbone mondial. Ces chercheurs soulignent que si les émissions de dioxyde de carbone restent aux niveaux de 2022, soit environ 40 gigatonnes par an, le budget carbone mondial sera épuisé d’ici 2029, entraînant le monde vers un réchauffement de 1,5°C par rapport aux niveaux préindustriels. L’étude révèle que le budget carbone pour une probabilité de 50 % de limiter le réchauffement à 2°C est d’environ 1 200 gigatonnes, ce qui signifie que si les émissions de CO2 se poursuivent au même rythme, le budget carbone mondial pour rester sous les 2°C de réchauffement sera épuisé d’ici 2046...

Sachant que pour limiter la hausse des températures à 2 degrés (ce qui est déjà lourd de conséquences multiples), il faut absolument diminuer de 80 % nos émissions mondiales de CO2, pour redescendre à 10 gigatonnes par an (la quantité de CO2 que le monde émettait en 1963), considérée comme la quantité limite que la Terre peut absorber chaque année (à condition de reboiser massivement), il faut absolument actionner en même temps, et bien plus fortement, trois leviers : d'abord diminuer plus vite la consommation globale d'énergies fossiles, en instaurant une taxe carbone plus importante et suffisamment dissuasive sur ces énergies.

Ensuite multiplier par trois le rythme de progression des énergies renouvelables, ce qui suppose une suppression totale des avantages fiscaux et subventions publiques accordés aux fossiles et un développement massif des énergies marines (au sens large), c'est-à-dire éolien flottant géant, solaire flottant, hydrolien, énergie des vagues, énergie des marées, énergie osmotique. Mais ces énergies étant à forte intensité capitalistique (investissement lourds), il faut en favoriser le développement plus rapide et plus vaste grâce à un cadre fiscal plus incitatif. Dernier levier, mais non le moindre, il faut réorganiser globalement nos sociétés (urbanisme, travail, transport, agriculture, industrie et consommation), pour diviser par deux, "à la source", nos besoins en énergie.

Selon l'AIE, le développement des énergies propres est le principal levier pour faire baisser la demande de combustibles fossiles de plus de 25 % cette décennie et leur essor peut conduire à une baisse des émissions de CO2 dans l'énergie de 35 % d'ici 2030. L'AIE a récemment affirmé que le pic de la demande de toutes les énergies fossiles – pétrole, gaz et charbon – sera atteint « dans les prochaines années » de la décennie, grâce à l’essor considérable des énergies plus propres et des transports décarbonés. Reste que la consommation mondiale de charbon, tirée par la Chine qui en consomme la moitié, n'a jamais été aussi élevée et a augmenté de 3,3 % en 2022, pour atteindre 8,3 milliards de tonnes, plus d'une tonne par terrien...Quant à la consommation de pétrole, elle repart également à la hausse avec 100 millions de barils/jours en 2022 et un pic pétrolier mondial à 107 millions de barils/jours, qui n'est pas attendu avant 2028.

Le nécessaire développement massif de toutes les énergies renouvelables (éolien, solaire, énergies marines, hydrogène naturel) ne suffira donc pas pour atteindre à temps la neutralité carbone qui doit stabiliser le climat. Il va falloir également réduire considérablement, le plus tôt possible, notre consommation globale d'énergie, pour la diviser par deux d'ici 25 ans. Le Conseil européen a entériné le 9 octobre dernier les nouvelles mesures adoptées récemment par le Parlement européen qui fixent l'objectif contraignant d'au moins 42,5 % d'énergies renouvelables dans la consommation européenne d'ici 2030, contre un niveau actuel d'environ 22 %. L'UE prévoit aussi 49 % de renouvelables dans la consommation énergétique des bâtiments. Enfin, en 2030, dans chaque pays, l'hydrogène utilisé par l'industrie devra à hauteur d'au moins 42 % avoir été fabriqué à partir d'énergies renouvelables.

C'est dans ce contexte énergétique, climatique et économique mondial que l'hydrogène apparaît plus que jamais comme le vecteur et la source d'énergie propre indispensable pour accélérer la décarbonation globale de l'Humanité. La production mondiale d'hydrogène, en augmentation constante, représentait environ 95 millions de tonnes en 2022, dont 62 % provient du vaporeformage du méthane, 18 % de l'oxydation partielle du pétrole, 19 % de la gazéification du charbon. Produit presque entièrement à partir d’énergies fossiles, cet hydrogène a généré 900 mégatonnes de CO2, soit plus de 2 % des émissions mondiales de CO2.Le dernier rapport de McKinsey prévoit une multiplication par cinq de la demande en hydrogène, pour atteindre 600 millions de tonnes par an d'ici 2050. L’AIE (Agence Internationale de l'Energie) estime pour sa part qu’un développement massif de l’hydrogène est nécessaire pour accélérer la transition énergétique mondiale et prévoit, comme Mc Kinsey, une demande mondiale d'hydrogène multipliée par plus de six par rapport au niveau actuel, ce qui permettrait à l'hydrogène de représenter 10 % de la consommation totale d'énergie finale dans le monde d'ici 2050.

Mais l'AIE souligne que cet hydrogène, qui nécessitera environ 4000 TWH d'électricité dédiée (soit 10 % de la production mondiale d'électricité prévue en 2040), devra impérativement être produit de manière décarbonée, c’est-à-dire essentiellement par électrolyse, en utilisant de l’électricité issue de sources d'énergie elles-mêmes neutres en carbone, comme le nucléaire, le solaire, l'éolien et les énergies marines. Le modèle Hydrogen Pathway Explorer (HyPE) retenu par le rapport de Deloitte, retient également ce chiffre de 600 millions de tonnes d'hydrogène produit en 2050 à l’échelle mondiale. Cette étude de référence estime que le marché mondial de l'hydrogène vert pourrait atteindre 1 400 milliards de dollars en 2050, soit dix fois plus que le marché global de l'hydrogène en 2022 et montre également que ce développement de l’hydrogène propre pourrait permettre de réduire jusqu’à 85 gigatonnes d’émissions cumulées de CO2 d’ici 2050, soit plus du double des émissions mondiales de CO2 en 2022 (Voir Deloitte).

En matière de stockage massif et bon marché de l'hydrogène, des chercheurs japonais de l'Université de Kyushuont ont mis au point un nouveau matériau porteur d’énergie hydrogène capable de stocker l’énergie hydrogène pendant plusieurs mois de manière efficace et potentiellement moins coûteuse. Chaque molécule peut stocker un électron de l’hydrogène à température ambiante et peut ensuite restituer l’énergie stockée. Bien qu’il existe de nombreux vecteurs pour stocker et acheminer l’hydrogène, ammoniac, acide formique ou hydrures métalliques, tous ces moyens se heurtent à des limites énergétiques. Cette équipe, en s'inspirant de la Nature, a montré qu'une série d’enzymes appelées hydrogénases catalysent l’hydrogène en protons et en électrons et peuvent stocker cette énergie pour une utilisation ultérieure, même à température ambiante. En outre, Le processus repose sur le nickel, un élément peu coûteux, ce qui n’est pas le cas des catalyseurs utilisant des métaux rares, comme le platine, le rhodium ou l’iridium.

Le 4 juillet dernier, Patricia de Rango, Daniel Fruchart, Albin Chaise et Nataliya Skryabina, chercheurs au CNRS à Grenoble, et Michel Jehan, leur partenaire industriel, ont été récompensés par le prestigieux prix de l'inventeur décerné par l'Office Européen des Brevets. Ces scientifiques, qui avaient déjà participé à la création de la société Mc Phy en 2008 (à présent recentrée sur la fabrication d'électrolyseurs très performants), ont développé une méthode de stockage de l'hydrogène très novatrice, sous forme de disques solides, plus sûre, plus durable et moins énergivore. Cette solution à base d'hydrure de magnésium (un matériau recyclable), permet de stocker l'hydrogène sous forme de galettes solides. Cette solution est bien plus sûre que l'hydrogène sous forme de gaz qui risque d'exploser à température ambiante.

La compacité volumique de cet hydrogène solide est aussi très intéressante. Dans un récipient de 1 mètre cube, on pourra mettre l'équivalent de 42 kilogrammes d'hydrogène sous forme de gaz comprimé à 700 bars, 70 kilogrammes d'hydrogène sous forme liquide, et 112 kilogrammes d'hydrogène solide avec ce stockage au magnésium. Cette forte densité de stockage se traduit logiquement par une forte densité énergétique : 1 kg d’hydrure de magnésium stocke 33 kWh alors qu’une batterie électrochimique Li-ion du même poids avoisine les 0,3 kWh, cent fois moins d’énergie. Cette rupture technologique majeure ouvre ainsi la porte à un stockage massif de l’hydrogène.

Une autre avancée majeure récente concerne la production d'hydrogène par certaines enzymes présentes dans les algues et les bactéries. Une équipe de chercheurs associant le IT et l'Université de Bochum a réussi à augmenter considérablement la stabilité de ces enzymes face à l’oxygène, ouvrant ainsi la voie à une utilisation commerciale de l’hydrogène produit par ce processus comme source d’énergie verte. En bloquant génétiquement certains canaux dans l’enzyme [FeFe] hydrogénase CpI, ces chercheurs sont parvenus à augmenter sa stabilité à l’oxygène, ouvrant la voie vers une production d'hydrogène vert bien plus efficace et plus durable (Voir myscience).

Il y a quelques semaines, une autre équipe du MIT a développé un système d'énergie solaire concentrée (CSP) capable de produire de l’hydrogène vert. Cette technique permet d'utiliser jusqu'à 40 % de la chaleur du soleil, contre seulement 7 % pour les systèmes actuels. Le procédé développé, baptisé hydrogène thermochimique solaire (STCH), a un coût de fonctionnement peu élevé. Dans ce processus, l’eau sous forme de vapeur est d'abord exposée à un métal, ce qui l’amène à capter l’oxygène de la vapeur, laissant de l’hydrogène derrière lui. Une fois l’hydrogène séparé, le métal oxydé est réchauffé sous vide, ce qui inverse le processus de rouille et régénère le métal. Une fois l’oxygène éliminé, le métal peut être refroidi et exposé à nouveau à la vapeur pour produire davantage d’hydrogène. Ce processus peut être répété au sein de récipients en métal dans lesquels la séparation physico-chimique entre l’oxygène et l’hydrogène est effectuée (Voir MIT).

Une autre rupture technologique en matière de production massive, propre et sobre d’hydrogène, commence à faire parler d’elle. Il s’agit d’électrolyse du méthane, également appelée plasmalyse. L’entreprise allemande de la production d’hydrogène, Graforce, et le spécialiste mondial des services d’ingénierie et de réalisation de projets, Worley, ont annoncé un partenariat pour développer cette technologie prometteuse dans le monde. Cette technique, qui permet la production d’hydrogène sans émissions de CO2 ou d’autres gaz à effet de serre, est alimentée par le gaz naturel, le gaz naturel liquéfié (GNL), et d’autres hydrocarbures. La plasmalyse consomme cinq fois moins d’électricité que l’électrolyse pour produire la même quantité d’hydrogène. Une installation de 20 mégawatts peut ainsi convertir environ 70 000 tonnes métriques de méthane en hydrogène par an, tout en éliminant près de 200 000 tonnes métriques d’émissions de CO2. Cette alliance entre Graforce et Worley pourrait donc bien marquer le début d’une nouvelle ère dans la production d’hydrogène durable. En France, plusieurs jeunes entreprises, dont Sakowin et HyPlasma, se sont également lancées sur ce nouveau marché très prometteur de la production d’hydrogène par plasmalyse.

La France pourrait produire en 2050 le quart de son électricité (150 TWh par an) à partir de l'éolien marin, ce qui ouvre également la voie à une production nationale massive d'hydrogène vert retransformable, en fonction des besoins, en électricité... En juin dernier, la société Lhyfe, basée à Nantes, a réussi à produire pour la première fois à l'échelle mondiale de l'hydrogène vert à partir de l'électricité fournie par une éolienne flottante au large du Croisic (Loire Atlantique). Installé à 20 kilomètres des côtes, ce site de production d'hydrogène offshore appelé SeaLhyfe a été raccordé en juin dernier au site d'expérimentations Sem-Rev, qui accueille depuis cinq ans une éolienne flottante. Cette plate-forme intègre un électrolyseur capable de transformer l'eau de mer, dessalée sur place, en hydrogène et en oxygène, grâce à l'énergie électrique fournie par l'éolienne flottante située à proximité. Ce site de production expérimental est capable de produire 400 kilos d'hydrogène par jour, soit 1 mégawatt de puissance. « Nous voulions prouver qu'il est possible de produire de l'hydrogène vert à partir de l'éolien offshore, qui représente un potentiel considérable pour massifier sa production et décarboner plus rapidement l'industrie et le transport », souligne Matthieu Guesné, fondateur et PDG de Lhyfe, qui vient également d’être retenu, dans le cadre d’un consortium de neuf entreprises, pour un appel d'offres européen, afin de coordonner le projet Hope, un site de production d'hydrogène sur un parc éolien marin géant situé au large d'Ostende (Belgique). Ce site, annoncé pour 2026, sera pour la première fois relié à un pipeline qui acheminera l'hydrogène à terre. Une récente étude réalisée par DNV indique que l’Europe pourrait produire vers 2030, pour un coût final de moins de cinq euros le kg, plus de 300 TWH de puissance, uniquement grâce à l’hydrogène vert issu de l’éolien marin (Voir DNV).

Ce binôme énergétique hydrogène-éolien pourra également être complété par le binôme, non moins efficace, hydrogène-solaire : Duke Energy, producteur et distributeur d’énergie américain, va construire, à Debary (Floride), une installation qui produira directement de l’électricité à partir d’hydrogène vert. Unique en son genre, elle réunira une centrale solaire alimentant deux électrolyseurs qui fourniront l’hydrogène à une turbine thermique. Ce site de production rassemblera sur le même site une centrale solaire de 74 mégawatts, déjà en service, fournissant de l'énergie à deux électrolyseurs de 1 MW chacun qui produiront de l’hydrogène alimentant une turbine à combustion. Cet hydrogène vert sera stocké, au fur et à mesure de sa production, dans des conteneurs sous pression, qui alimenteront la turbine en fonction de la demande : en période de faible demande, bouclant ainsi une boucle énergétique souple et vertueuse.

Pour terminer ce trop rapide tour d’horizon des immenses perspectives énergétiques ouvertes par la production massive et propre d’hydrogène, je veux enfin évoquer à nouveau l’incroyable potentiel, qui ne cesse de se confirmer, de l’hydrogène "blanc" ou naturel. La société australienne Gold Hydrogen vient ainsi de découvrir, à 1000 mètres de profondeur, dans la péninsule de Yorke (Australie méridionale), un gisement d’hydrogène pur à 73 % d’hydrogène, bien plus important que prévu, qui semble être produit en continu, sous l’effet de différents processus géologiques (Voir PV Magazine).

Je rappelle enfin qu'il y a quelques mois, des travaux menés par Philippe de Donato et Jacques Pironon, directeurs de recherche au laboratoire GeoRessources de Nancy, ont révélé la présence d'un énorme gisement d'hydrogène naturel dans le sous-sol de la commune de Folschviller. Ces chercheurs ont découvert que la concentration d’hydrogène augmentait avec la profondeur pour atteindre 90 % à 3000 mètres de profondeur. Selon les premières estimations, ce gisement lorrain pourrait contenir jusqu'à 46 millions de tonnes d'hydrogène blanc, c'est-à-dire plus de la moitié de la production annuelle mondiale actuelle d'hydrogène "gris", issu des énergies fossiles. Sur ce site également, l’hydrogène naturel serait produit en continu, par réaction d’oxydation entre l’eau et le carbonate de fer, et ce gisement pourrait donc être inépuisable…

Il faut enfin tordre le cou à une affirmation inexacte souvent reprise dans les médias et qui prétend que les fuites qui résulteront invisiblement d’une production et d’une distribution massive d’hydrogène pourraient aggraver de manière sensible le réchauffement climatique. Une récente étude réalisée par des chimistes de l’Université de Cambridge montre en effet que, même en prenant des hypothèses très optimistes de production d’hydrogène pour 2050, et en supposant un taux de fuite relativement important, la contribution de ces fuites au réchauffement climatique resterait marginale (Voir EGU).

On le voit, la production massive d’hydrogène propre, soit d’origine renouvelable, soit d’origine naturelle, est devenue un enjeu énergétique, climatique et économique majeur. Notre pays, qui a toutes les cartes en mains pour devenir leader dans ce domaine, ne doit pas rater cette révolution technologique et industrielle et doit encore accentuer ses efforts de recherche, pour devenir demain, en sachant exploiter ses énormes ressources en énergies éolienne et solaire et ces gisements non moins considérables d’hydrogène naturel, un acteur mondial de premier plan dans cette économie de l’hydrogène qui émerge…

René TRÉGOUËT

Sénateur honoraire

Fondateur du Groupe de Prospective du Sénat

e-mail : tregouet@gmail.com


TIC
Information et Communication
La nouvelle puce IA d'IBM atteint des sommets d'efficacité
Jeudi, 16/11/2023 - 05:00

Inspiré par l’architecture neuronale du cerveau organique, des chercheurs du centre de recherche d’IBM à San José en Californie ont développé NorthPole – une architecture d’inférence neuronale qui entrelace le calcul avec la mémoire sur une seule puce. Selon les auteurs, NorthPole « réinvente l’interaction entre le calcul et la mémoire » en mélangeant l’informatique inspirée du cerveau et la technologie des semi-conducteurs.

Elle offre des performances, une efficacité énergétique et une efficacité de surface supérieures par rapport à d’autres architectures comparables, y compris celles qui utilisent des processus technologiques plus avancés. Et, parce que NorthPole est un système numérique, il n’est pas sujet au bruit de l’appareil et aux biais et dérives systémiques qui affectent les systèmes analogiques.

Les chercheurs démontrent les capacités de NorthPole en le testant sur le réseau de classification d’images de référence ResNet50, où il a atteint 25 fois la métrique d’énergie supérieure de frames par seconde (FPS) par watt, une métrique d’espace 5 fois supérieure de FPS par transistor, et une métrique de temps 22 fois inférieure de latence par rapport à une technologie comparable.

L’une des plus grandes différences avec NorthPole est que toute la mémoire pour le dispositif est sur la puce elle-même, plutôt que connectée séparément. Sans ce goulot d’étranglement de von Neumann, la puce peut effectuer des inférences d’IA beaucoup plus rapidement que les autres puces déjà sur le marché.

NorthPole a été fabriqué avec un processus de nœud de 12 nm, et contient 22 milliards de transistors dans 800 millimètres carrés. Il dispose de 256 cœurs et peut effectuer 2 048 opérations par cœur par cycle à une précision de 8 bits, avec la possibilité de doubler et de quadrupler le nombre d’opérations avec une précision de 4 bits et 2 bits, respectivement. « C’est un réseau entier sur une puce », s’est exclamée Dharmendra Modha.

Article rédigé par Georges Simmonds pour RT Flash

IBM

L’intelligence artificielle décode des images perçues par le cerveau humain
Mercredi, 15/11/2023 - 10:39

De récentes recherches montrent que les outils d'IA sont capables de décoder et de traduire toujours mieux, sous forme de textes et d’images, notre activité cérébrale, lorsque nous écoutons un récit, voulons parler ou regardons des images. L'équipe de Jean-Remy King a mis au point des algorithmes d’IA qui sont parvenus à reproduire avec fidélité des photographies regardées par des volontaires en se fondant sur l’analyse de l’activité de leur cerveau. Leurs observations sont présentées dans un preprint – une publication non encore relue par les pairs avant publication dans une revue scientifique. Elles portent sur des jeux de données obtenues par magnétoencéphalographie (MEG) ou par imagerie par résonance magnétique fonctionnelle (IRMf) sur des volontaires à qui des photographies étaient projetées. Ces données ont ensuite été soumises à une série de décodeurs par l’IA qui ont appris à les interpréter et à les retranscrire en images.

Le résultat ? Si la ressemblance entre l’original et la copie n’est pas parfaite, les similitudes sont souvent frappantes : un zèbre se trouve revêtu d’un mélange de peau de vache et d’okapi, une petite fille au cerf-volant se retrouve avec un objet non identifié au-dessus de la tête, mais un surfeur semble prendre la même vague que son modèle, et un skieur en combinaison rouge conserve la même posture que l’original. Effet waouh garanti, « même pour les chercheurs de notre équipe », admet Jean-Rémi King, chercheur académique (CNRS, ENS) en détachement pour cinq ans à Meta AI. « Il y a encore deux ans, je n’aurais pas pensé que ce type de résultat serait possible ».

Article rédigé par Georges Simmonds pour RT Flash

Meta

^ Haut
Avenir
Nanotechnologies et Robotique
Une main bionique qui peut fonctionner pendant des années...
Mardi, 14/11/2023 - 13:54

La restauration des fonctions sensorimotrices perdues après une amputation est un immense défi. Les prothèses manquent souvent de fiabilité dans les contrôles et la fixation, ce qui les rend inconfortables pour les patients. Une équipe multidisciplinaire d’ingénieurs et de chirurgiens s’est mis en tête de travailler sur de nouvelles interfaces, capables de dépasser ces obstacles. Le projet était mené d’un côté par le professeur Max Ortiz Catalan, à la tête du Bionics Institute (Australie) et fondateur du Center for Bionics and Pain Research (Suède), et de l’autre par Rickard Branemark, chercheur associé au MIT (États-Unis) et professeur associé à l’université de Göteborg (Suède), en charge de la chirurgie. Avec l’aide de leurs collègues, ils sont parvenus à implanter cliniquement une prothèse neuromusculosquelettique. Plus précisément, ils ont relié une main bionique directement aux systèmes nerveux et squelettique de l’utilisateur.

La patiente qui a reçu cette prothèse a été victime, il y a plus de 20 ans, d’un accident de ferme. Des suites de cet accident, la femme née en 1973 a dû être amputée juste en dessous du coude. Malheureusement pour elle, depuis l’opération elle ne cessait de souffrir de douleurs du membre fantôme. Un phénomène qui touche près de deux tiers des nouveaux amputés. De plus, les prothèses conventionnelles, trop limitées, ne lui convenaient pas. Mais la chance a tourné puisqu’elle a fini par rejoindre l’étude des professeurs Ortiz Catalan et Branemark entre septembre 2018 et avril 2021. Elle était alors la première à expérimenter l’interface mise au point par leurs équipes respectives.

Pour réussir à lui greffer une main bionique, les scientifiques ont dû pratiquer plusieurs implantations. D’abord, des implants en titane ont été placés en contact avec la partie interne des os de l’avant-bras (radius et ulna). Puis, des constructions électro-musculaires ont été créées chirurgicalement, en transférant des nerfs coupés vers des greffons de muscles. Ces derniers, ainsi que les muscles natifs et les nerfs ulnaires – relatifs à l’ulna – se sont vus implanter à leur tour de multiples électrodes. Enfin, des extensions transdermiques – appliquées sur la peau – d’implants en titane ont permis de fixer directement la prothèse au squelette, tout en autorisant une communication bidirectionnelle entre les électrodes et la main bionique. Et le résultat a été au rendez-vous ! En effet, des années d’usage au quotidien plus tard, la main bionique fonctionne toujours et soulage son utilisatrice de ses douleurs du fait de sa meilleure intégration au reste de son corps.

Article rédigé par Georges Simmonds pour RT Flash

Science Robotics

^ Haut
Matière
Matière et Energie
Israël se dote d'une nouvelle arme-laser pour contrer les attaques de drones
Jeudi, 16/11/2023 - 19:14

Israël s’apprête à déployer pour la première fois au monde un système laser qui pourra aider à intercepter les roquettes lancées par le Hamas. Annoncé depuis plusieurs années, le canon laser, baptisé "Iron Beam", que l’on pourrait traduire par "faisceau de fer", est une technologie dévoilée au grand public en 2014, qui permettrait, selon l’État hébreu, de détruire des roquettes et des mortiers à courte portée pour un coût considérablement diminué.

Concrètement, c’est un canon qui envoie un laser qui physiquement détruit la cible, la fait exploser en vol, même si elle est en métal. Selon les déclarations du ministère de la Défense israélien, le système utilise les techniques de détection aérienne de Tsahal puis propulse un faisceau laser de 100 kilowatts, pouvant neutraliser en vol n’importe quel objet que ce soit des « drones, des obus, des roquettes ou des missiles balistiques ».

Surtout, chaque tir coûterait quelques dollars contre 50.000 pour chaque intercepteur du "Dôme de fer". Testé et présenté par la même occasion en 2021, le laser serait parvenu à abattre plusieurs drones, à une altitude de moins de 1000 mètres et dans un rayon limité à 1 kilomètre. Mais la technologie, qui était promise en 2021 à l’horizon 2024, pourrait intercepter à terme des cibles dans un rayon de 20 kilomètres. Cette nouvelle arme portative sera déployée en complément du système d'interception "Dôme de Fer", qui permet déjà à Israël de détruire une grande partie des roquettes du Hamas.

Article rédigé par Georges Simmonds pour RT Flash

Rafael

L'énergie moléculaire : un immense potentiel à exploiter...
Jeudi, 16/11/2023 - 05:20

Chaque molécule de liquide sur terre contient en elle-même une forme d’énergie, même au repos. Si nous pouvions exploiter le mouvement à l’échelle nanométrique, cela pourrait représenter une source d’énergie considérable. À l’échelle moléculaire, les atomes et les ions sont toujours en mouvement. « Il y a d’énormes quantités d’air et de liquide sur la terre, et leur exploitation réussie pourrait produire une quantité gigantesque d’énergie pour la société » a commenté l’auteur Yucheng Luan.

Ces chercheurs chinois ont testé un dispositif de récupération d’énergie moléculaire qui capture l’énergie du mouvement naturel des molécules dans un liquide. Leur travail a montré que le mouvement moléculaire peut être utilisé pour générer un courant électrique stable. Pour créer le dispositif, les chercheurs ont immergé des nano-réseaux de matériau piézoélectrique dans un liquide, permettant au mouvement du liquide de faire bouger les brins comme des algues ondulant dans l’océan, sauf que dans ce cas, le mouvement est à l’échelle invisible, moléculaire, et les brins sont faits d’oxyde de zinc.

L’oxyde de zinc a été choisi pour ses propriétés piézoélectriques, ce qui signifie que lorsqu’il ondule, se courbe ou se déforme sous l’effet du mouvement, il génère un potentiel électrique. « En tant que matériau piézoélectrique bien étudié, l’oxyde de zinc peut être facilement synthétisé en diverses nanostructures, y compris des nanofils », a ajouté Yucheng Luan. Leurs dispositifs de récolte d’énergie pourraient être utilisés pour alimenter des nanotechnologies comme les dispositifs médicaux implantables, ou ils pourraient être mis à l’échelle pour des générateurs de taille réelle et une production d’énergie à l’échelle du kilowatt. Une caractéristique clé de la conception du dispositif est qu’il ne dépend d’aucune force externe, ce qui augmente son potentiel en tant que source d’énergie propre révolutionnaire.

Article rédigé par Georges Simmonds pour RT Flash

APL Materials

Un système d'énergie solaire concentrée pour produire de l’hydrogène vert
Mercredi, 15/11/2023 - 10:41

Une équipe de scientifiques du Massachusetts Institute of Technology (MIT) a développé un système d'énergie solaire concentrée (CSP) capable de produire de l’hydrogène vert. Captant jusqu'à 40 % de la chaleur du soleil, il est bien plus efficace que les dispositifs actuels qui, eux, n’en exploitent que 7 %.

Le procédé développé, baptisé hydrogène thermochimique solaire (STCH), se caractérise par son coût de fonctionnement peu élevé, mais surtout son efficacité très supérieure aux précédentes expérimentations. « Dans un premier temps, l’eau sous forme de vapeur est exposée à un métal. Cela l’amène à capter l’oxygène de la vapeur, laissant de l’hydrogène derrière lui », ont expliqué les scientifiques. « Une fois l’hydrogène séparé, le métal oxydé (ou rouillé) est réchauffé sous vide, ce qui inverse le processus de rouille et régénère le métal. Une fois l’oxygène éliminé, le métal peut être refroidi et exposé à nouveau à la vapeur pour produire davantage d’hydrogène ». Ce processus peut être répété des centaines de fois, au sein de « boîtes en métal » dans lesquelles la séparation physico-chimique entre l’oxygène et l’hydrogène est effectuée.

L’efficacité du procédé est liée à sa conception en forme de train : les « boîtes » sont mises bout à bout sur une voie circulaire. Deux trains circulent à contre-sens sur deux voies différentes et alternent des passages dans des zones chaudes et froides. Exposés à la chaleur du soleil concentrée, qui peut atteindre 1 500°C, puis repassant en zone plus froide (1 000°C), ils permettent la production d’hydrogène. Les variations de température des "wagons" des deux trains sont majoritairement obtenues par échange thermique direct. L’équipe de chercheurs compte construire un prototype dans l’année 2024 pour valider son concept, avant un premier test de production à petite échelle.

Article rédigé par Georges Simmonds pour RT Flash

MIT

Vers l'extraction de l'uranium à partir d'eau de mer
Mercredi, 15/11/2023 - 10:16

L’eau de mer contient de gigantesques quantités d’uranium naturel, estimées à une valeur de l’ordre de 4,5 milliards de tonnes d’uranium, c’est-à-dire plus de mille fois l’uranium contenu dans les gisements conventionnels terrestres. Il représente ainsi une ressource considérable, bienvenue lorsqu’il s’agit de porter le parc nucléaire mondial de 400 GW en 2020 à 800 GW en 2050, comme le propose l’IEA.

Mais la concentration de l’uranium dans l’eau de mer est particulièrement faible, de l’ordre en moyenne de 3 microgramme par litre. Et de nombreuses autres espèces chimiques sont diluées dans l’eau de mer, notamment le sodium, le calcium, le magnésium et le potassium – c’est-à-dire les substances qui font que l’eau est salée. Leur concentration est de l’ordre de 400 fois supérieure à celle de l’uranium dissous.

Il est donc nécessaire de concevoir un système peu coûteux, impliquant de faibles dépenses énergétiques et capable d’extraire avec une très grande sélectivité l’élément que l’on souhaite, en l’occurrence l’uranium. Et c’est tout l’enjeu des recherches sur cette thématique. Une équipe australienne pense avoir trouvé le bon matériau, à la suite d’un programme de recherche qui a réuni des chercheurs de l’Australian Nuclear Science and Technology Organisation (ANSTO), de l’université de Nouvelle-Galles du Sud, mais aussi de l’Illinois Institute of Technology.

Ils ont étudié une classe de matériaux spécifique appelée hydroxyde double lamellaire (HDL, en anglais Layered Double Hydroxides, LDH). Ces composés sont constitués de couches superposées d’ions négatifs et d’ions positifs, comprenant un troisième élément chimique intercalé entre ces couches. La grande mobilité de ces derniers est une propriété d’un grand intérêt pour des applications industrielles et scientifiques.

Il s’agit de matériaux complexes et aux propriétés extrêmement diverses en fonction de leur composition. La théorie n’en est encore à ses débuts. Aussi, les chercheurs ont essentiellement mené une belle étude expérimentale. Ils ont réalisé plusieurs échantillons de HDL à base de magnésium et d’aluminium (dit MgAl), chaque échantillon étant dopé avec des espèces chimiques différentes, dont des terres rares comme le néodyme (Nd), le terbium (Tb) ou l’europium (Eu).

Ils ont ensuite laissé flotter des échantillons de ces différents matériaux dans un simulant d’eau de mer et ont analysé le résultat. Ils ont constaté que le néodyme avait un effet particulièrement significatif, parmi les autres dopants testés, en termes de sélectivité, non seulement par rapport aux éléments les plus abondants que nous avons cités plus haut (sodium, magnésium, calcium et potassium), mais également aux autres éléments également présents naturellement dans l’eau de mer, mais moins concentrés, comme l’aluminium, le titane, le fer ou le strontium.

Article rédigé par Georges Simmonds pour RT Flash

EA

^ Haut
Espace
Espace et Cosmologie
Un système optique laser pour des communications spatiales haut débit
Mercredi, 15/11/2023 - 10:19

Avec le développement des instruments de mesure et de captation d’images, la bande passante nécessaire pour transmettre des images devient de plus en plus importante. En effet, les ingénieurs spatiaux estiment que les futures missions sont en train d’arriver à leur limite de bande passante. Problème fatal lorsqu’il s’agit d’aller de plus en plus loin dans l’espace. Dès lors, une communication basée sur un système optique laser permettra de transmettre une quantité d’informations beaucoup plus considérable. Cela aidera, par exemple, à suivre en vidéo à haute résolution et de transmettre des données de recherche aux astronautes en mission sur Mars.

« Nous essayons de montrer qu’il est possible d’obtenir des débits de données très élevés à partir de distances de type martien. Cela permettra d’utiliser des instruments scientifiques à plus haute résolution, comme la cartographie de Mars. De plus, l’exploration humaine de Mars suscite beaucoup d’intérêt, ce qui nécessitera une bande passante élevée », a déclaré Abi Biswas, technologue du projet DSOC au JPL de la NASA.

DSOC aura, en effet, une capacité 10 à 100 fois supérieure que les systèmes de radiofréquence les plus avancés. Le système de communication DSOC se compose d’un émetteur-récepteur laser de vol, d’un émetteur laser au sol et d’un récepteur laser au sol. L’émetteur-récepteur comporte notamment une caméra novatrice de comptage de photons attachée à un télescope d’ouverture de 22 cm.

Le test qui aura lieu dans les semaines à venir sera mené lorsque la sonde Psyché se trouvera à pas moins de 7,5 millions de kilomètres ! Prasun Desai, administrateur associé de la Direction des missions de technologie spatiale de la NASA, a déclaré : « Il est passionnant de savoir que, dans quelques semaines, les communications optiques dans l’espace lointain commenceront à envoyer des données vers la Terre afin de tester cette capacité essentielle pour l’avenir de l’exploration spatiale. Avec la lancée de la sonde Psyché et son système de communication laser, nous pourrons songer à tirer beaucoup plus d’apprentissage des missions spatiales. Les enseignements que nous en tirerons nous aideront à faire progresser ces nouvelles technologies innovantes et, en fin de compte, à poursuivre des objectifs plus audacieux dans l’espace » a affirmé Prasun Desai.

Article rédigé par Georges Simmonds pour RT Flash

NASA

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Maladie d'Alzheimer, le rôle-clé du microbiote confirmé
Jeudi, 16/11/2023 - 19:20

Une équipe internationale de chercheurs est parvenue à inoculer la maladie d’Alzheimer à de jeunes rats en bonne santé, en réalisant des greffes de microbiome intestinal. Ces résultats viennent confirmer les liens entre l’intestin et cette maladie neurodégénérative. Pour arriver à ces conclusions, l’équipe, basée en Italie, a prélevé des échantillons de selles sur plusieurs patients atteints d’Alzheimer, afin de récupérer leur microbiote intestinal. Les cellules ont ensuite été transplantées chez 16 jeunes rats adultes dont le microbiome avait été appauvri par des antibiotiques pendant une semaine.

10 jours après les greffes, les rats ont été soumis à des tests comportementaux conçus pour évaluer leurs performances de mémoire ainsi que d'autres traits associés à la maladie d'Alzheimer. Tous ont montré des comportements de mémoire altérés, en particulier ceux qui reposent sur un processus appelé neurogenèse hippocampique adulte. En analysant le microbiote des malades d’Alzheimer, l’étude a également révélé que certaines bactéries étaient directement liées au déclin cognitif. "Nos résultats révèlent pour la première fois que les symptômes de la maladie d'Alzheimer peuvent être transférés à un jeune organisme sain via le microbiote intestinal, confirmant le rôle causal du microbiote intestinal dans la maladie d'Alzheimer", écrivent les auteurs.

Les chercheurs ont également remarqué que les altérations des comportements observés chez les rongeurs ayant bénéficié d'une transplantation du microbiote fécal de patients atteints de la maladie d'Alzheimer, dépendaient de la neurogenèse (l'ensemble du processus de formation d'un neurone fonctionnel du système nerveux) de l'hippocampe. La professeure Yvonne Nolan qui a dirigé l'étude, ajoute : "Les tests de mémoire que nous avons étudiés dépendaient de la croissance de nouvelles cellules nerveuses dans la région de l'hippocampe du cerveau. Nous avons vu que les animaux atteints de bactéries intestinales provenant de personnes atteintes de la maladie d'Alzheimer produisaient moins de nouvelles cellules nerveuses et avaient une mémoire altérée".

Article rédigé par Georges Simmonds pour RT Flash

Brain

Première greffe complète d'un œil aux États-Unis
Jeudi, 16/11/2023 - 05:10

Une équipe américaine a réalisé un véritable exploit en pratiquant la première greffe mondiale d'un œil entier et d'une partie du visage sur Aaron James, un vétéran militaire de l'Arkansas âgé de 46 ans qui avait survécu à un accident électrique à haute tension survenu dans le cadre de son travail, indique un communiqué de l’hôpital universitaire NYU Langone Health où a eu lieu l’intervention. L'opération, qui a été réalisée il y a cinq mois, a consisté à transplanter l'intégralité de l'œil gauche et une partie du visage à partir d'un donneur âgé de 30 ans.

« Bien que l'on ne sache pas encore s'il retrouvera la vue, l'œil gauche transplanté a montré, depuis l'intervention de mai 2023, des signes de santé remarquables, notamment une irrigation sanguine directe de la rétine, la zone située à l'arrière de l'œil qui reçoit la lumière et transmet les images au cerveau. Bien que de nombreuses questions subsistent dans un cas sans précédent, cette réalisation révolutionnaire ouvre de nouvelles possibilités pour les progrès futurs dans les thérapies de la vision et les domaines médicaux connexes », indique le centre new yorkais. Suite à son accident, malgré de multiples opérations de chirurgie réparatrice au Texas, Aaron James a gardé des séquelles importantes, notamment la perte de son œil gauche, de son bras gauche dominant à partir du coude, de l'ensemble du nez et des lèvres, des dents de devant, de la partie gauche de la joue et du menton jusqu'à l'os.

Lorsque les chirurgiens texans ont été contraints d'enlever l'œil gauche de James en raison de douleurs intenses, le Docteur Eduardo D. Rodriguez, chirurgien plasticien responsable du programme de transplantation faciale au centre NYU Langone et son équipe ont recommandé de couper le nerf optique aussi près que possible du globe oculaire, afin de préserver la plus grande longueur possible du nerf pour maximiser les options de reconstruction et envisager une éventuelle greffe.

Mais, si les greffes de cornée sont devenues relativement courantes, jusqu’ici les quelques tentatives de greffes de l'œil entier se sont soldées par des échecs en raison des défis associés à la régénération nerveuse, au rejet immunitaire et à la circulation sanguine de la rétine. L'opération a duré environ 21 heures et a mobilisé une équipe de plus de 140 chirurgiens, infirmières et autres professionnels de la santé, sous la direction du Docteur Eduardo D. Rodriguez.

Au cours de l’opération, l’équipe a transplanté un partie du visage, comprenant le nez, les paupières supérieures et inférieures gauches, le sourcil gauche, les lèvres supérieures et inférieures et les segments sous-jacents du crâne, des joues, des os nasaux et du menton, avec tous les tissus situés sous l'œil droit, y compris les muscles, les vaisseaux sanguins et les nerfs sous-jacents mais aussi l'œil gauche entier et l'orbite, y compris les os orbitaires et tous les tissus environnants de l'œil, y compris le nerf optique. Pour la première fois, l’équipe a également injecté des cellules souches adultes du donneur dans le nerf optique lors de la transplantation dans l'espoir d'améliorer la régénération nerveuse.

« Les progrès que nous avons constatés avec l'œil sont exceptionnels, surtout si l'on considère que nous avons une cornée viable associée à une rétine qui présente un flux sanguin important cinq mois après l'intervention. Cela dépasse de loin nos attentes initiales, étant donné que notre espoir initial était que l'œil survive au moins 90 jours », a commenté le Docteur Bruce E. Gelb, chirurgien transplanteur au NYU Langone Transplant Institute et vice-président de la qualité dans le département de chirurgie.

« Ce dont nous sommes témoins aujourd'hui n'est pas quelque chose que nous attendions ou pensions voir. La première étape est d'avoir un globe oculaire intact, beaucoup de choses peuvent venir après cela ; c'est une première dans le monde, donc nous apprenons vraiment au fur et à mesure », a conclu la Dre Vaidehi S. Dedania, spécialiste de la rétine dans le département d'ophtalmologie de NYU Langone.

Article rédigé par Georges Simmonds pour RT Flash

NYU

Le gène nécessaire aux bénéfices de l'exercice...
Mardi, 14/11/2023 - 14:12

Des chercheurs de la Wayne State University et de l'Université du Michigan (UM, Detroit) ont identifié un gène un peu particulier car il relie l'endurance lors de l'exercice, la tolérance au froid et la santé cellulaire. Si la démonstration est menée ici chez la mouche, Iditarod -c’est le nom de ce gène- semble responsable de la capacité de l’exercice à nettoyer les cellules endommagées. Ces travaux contribuent à expliquer comment une protéine, lorsqu'elle est manquante, peut rendre l'exercice par temps froid extrêmement difficile. 

L'équipe vient de découvrir la protéine chez la mouche et l’a nommée Iditarod du nom d’une course longue distance en traîneau à chiens à travers l'Alaska. La recherche s’est concentrée sur le processus physiologique d’autophagie, au cours duquel les parties endommagées des cellules sont éliminées du corps. L’examen du génome de la mouche a permis d’identifier un gène, Idit, qui régule l’autophagie.

Les mouches ayant un processus d’autophagie hyperactif présentent une mort cellulaire massive entraînant une dégénérescence visible de l’œil. L'inactivation du gène Idit permet de restaurer la structure normale de l'œil, ce qui suggère que le gène Idit est bien impliqué dans le processus d'autophagie ; les mouches élevées sans le gène Idit ont une moindre endurance à l’exercice et ne bénéficient pas des avantages observés avec l’exercice ; enfin, l’irisine chez les mammifères est connue pour réguler positivement les processus thermogéniques, essentiels à la résistance au froid. Or ces mêmes mouches sans Idit ne pouvaient pas non plus tolérer le froid. 

L’équipe a ensuite recherché un gène similaire, ou homologue, chez l’Homme et identifié le gène FNDC5, un précurseur de la protéine irisine. De précédentes recherches avaient montré le rôle clé de l'irisine dans la production des bénéfices musculosquelettiques liés à l'exercice chez les mammifères, ainsi que dans la capacité d’adaptation aux températures plus froides. « Nous avons alors réalisé que ce gène pouvait être important pour l'exercice », explique l’un des auteurs principaux, le chercheur Jun Hee Lee, du département de physiologie moléculaire et intégrative de l'UM. 

Ainsi, la recherche montre que cette famille de gènes, présente chez les invertébrés ainsi que chez les mammifères, semble avoir été conservée tout au long de l'évolution et que ce gène médie une partie importante des bénéfices de l’exercice : l'exercice aide à nettoyer l'environnement cellulaire grâce à l'autophagie. Lors de la pratique de l'exercice intense, les muscles sont endommagés et certaines mitochondries dysfonctionnent. Le processus d'autophagie est alors activé pour nettoyer les organites endommagés ou les sous-produits toxiques, et le gène Idit semble jouer un rôle clé dans ce processus.

Article rédigé par Georges Simmonds pour RT Flash

PNAS

Le Covid-19 augmente le risque de syndrome de Guillain-Barré et le vaccin à ARN le diminue...
Mardi, 14/11/2023 - 14:01

Une étude israélienne a montré que dans les semaines qui suivent la maladie, le risque de développer un syndrome de Guillain-Barré est plus important. Mais bonne nouvelle, ce risque baisse après une vaccination contre le Covid-19. Le syndrome de Guillain-Barré est encore mal compris. Cette maladie auto-immune survient à la suite d’une infection dans l’organisme, qui peut être gastro-intestinale ou respiratoire. Le système immunitaire attaque alors les cellules nerveuses, en commençant par causer une paralysie des extrémités (pieds et mains), avant de progresser dans les membres. S’il peut être mortel, la plupart des malades en guérissent sans séquelles importantes. Ce syndrome reste très rare, puisqu’il touche environ 20 personnes sur 1 million chaque année.

Dans ces nouveaux travaux, 3 millions de personnes sans diagnostic préalable de Guillain-Barré ont été suivies de début janvier 2021 à fin juin 2022. Parmi elles, 76 personnes ont développé ce syndrome. En croisant ces données avec une infection au SARS-CoV-2, le virus du Covid-19, ils se sont aperçus que les personnes infectées avaient six fois plus de risques d’avoir un Guillain-Barré que les autres. 12 % des personnes souffrant de Guillain-Barré venaient de se faire contaminer par le Covid-19.

Le Covid fait partie des maladies respiratoires dont les infections peuvent entraîner un déclenchement de Guillain-Barré. « Cette association s’explique par un phénomène appelé le mimétisme moléculaire, dans lequel il existe une similarité structurelle entre les molécules de l’organisme et une molécule étrangère. Les réponses immunitaires dirigées contre le virus du SARS-CoV-2 peuvent augmenter le risque qu’un syndrome de Guillain-Barré ne s’attaque aux composants des nerfs périphériques », explique le Docteur Anat Arbel, du Lady Davis Carmel Medical Center à Haifa en Israel, et autrice de l’étude.

Un deuxième volet de l’étude montre que la vaccination contre le Covid-19 fait baisser le risque de survenue d’un Guillain-Barré. On sait que dans des cas extrêmement rares, le syndrome de Guillain-Barré peut survenir après un vaccin, comme cela a été montré avec le vaccin contre la grippe H1N1, surnommée la grippe porcine, lors de la campagne de 1976. « Les médecins et les décideurs politiques ont donc porté une attention toute particulière entre le vaccin contre le Covid-19 et un risque accru de Guillain-Barré », commentent Denis Bourdette et Elizabeth Silbermann, deux membres de l’American academy of neurology. Cette fois, le vaccin montre un effet protecteur : les personnes qui s’étaient récemment fait vacciner avec un vaccin à ARN avaient 50 % de risques en moins de contracter un Guillain-Barré.

Article rédigé par Georges Simmonds pour RT Flash

Neurology

La stimulation cérébrale non-invasive améliore l'apprentissage moteur
Mardi, 14/11/2023 - 13:48

Des scientifiques sous la houlette de Friedhelm Hummel, titulaire de la chaire Defitech de neuro-ingénierie clinique de l’EPFL ont mis en œuvre une nouvelle technique appelée «stimulation électrique transcrânienne par interférence temporelle» (tTIS) pour la neuromodulation non invasive chez l’être humain, afin de cibler les structures profondes et d’améliorer l’apprentissage moteur chez des sujets âgés en bonne santé.

Les scientifiques ont combiné la modélisation informatique, les études IRMf et les évaluations comportementales pour montrer, pour la première fois, que la tTIS peut moduler spécifiquement une aire cérébrale profonde appelée striatum, qui est le centre de traitement du contrôle moteur et de l’apprentissage. Contrairement à d’autres techniques de neuromodulation profonde, la tTIS a pu atteindre le striatum sans procédures invasives. « Nous nous sommes intéressés à l’apprentissage, car il est essentiel pour l’acquisition continue de compétences au cours de la vie et pour la récupération après un handicap moteur », affirment Maximilian J. Wessel et Elena Beanato.

Les scientifiques ont appliqué des salves d’impulsions électriques selon un schéma spécifique ("salve thêta") pour moduler l’activité cérébrale chez des sujets humains. Il a été démontré que ce schéma induit des changements de l’excitabilité neuronale et des propriétés neuroplastiques, avec un grand potentiel d’application pour l’amélioration cognitive et la neuroréhabilitation.

La tTIS à rafales thêta a révélé une forte activité dans le striatum et dans le réseau moteur associé. Les participantes et participants âgés en bonne santé, dont les capacités d’apprentissage naturelles sont généralement inférieures à celles des jeunes, ont montré un effet plus important de la stimulation avec une amélioration plus prononcée des performances motrices. Cela suggère que la TTIS pourrait notamment améliorer l’apprentissage chez les populations présentant des troubles de la motricité. « C’est la première fois que l’on démontre chez l’être humain la possibilité de neuromoduler de manière non invasive et ciblée le striatum et d’améliorer le comportement correspondant », déclare Friedhelm Hummel.

La nature non invasive de la tTIS et sa capacité à moduler sélectivement les structures cérébrales profondes sans affecter le cortex sus-jacent ou d’autres aires fonctionnelles en font un nouvel outil intéressant pour la recherche en neurosciences. Elle constitue également les fondements de stratégies de traitement innovantes et non invasives pour les troubles cérébraux dans lesquels les structures striatales profondes jouent un rôle clé, tels que la démence, la dépendance ou les accidents vasculaires cérébraux.

Article rédigé par Georges Simmonds pour RT Flash

EPFL

Les probiotiques peuvent faire baisser la tension artérielle
Mardi, 14/11/2023 - 09:01

Des chercheurs de l'Université de Hong-Kong ont découvert que deux nouvelles souches de probiotiques ont montré des effets antihypertenseurs intéressants. Pour évaluer l'efficacité de 2 souches probiotiques - appelées Bifidobacterium lactis et Lactobacillus rhamnosus - dans la réduction de la pression artérielle, les chercheurs ont mené une étude préliminaire sur des souris. Elles étaient nourries avec un régime riche en fructose, connu pour augmenter la pression artérielle. Un groupe ne recevait pas de probiotique, un autre prenait du Bifidobacterium lactis et un troisième du Lactobacillus rhamnosus. Un groupe témoin n'avait ni probiotique, ni fructose, uniquement de l'eau nature.

Les résultats ont montré que les rongeurs traités avec les probiotiques présentaient une pression artérielle significativement plus basse que ceux nourris avec du fructose et non traités avec les microorganismes. De plus, il n'y avait pas de différence entre les tensions artérielles des souris ayant eu du fructose ainsi que des probiotiques et celles du groupe témoin. Pour les chercheurs, cela suggère que les probiotiques maintiendraient la pression artérielle à des niveaux normaux.

Article rédigé par Georges Simmonds pour RT Flash

ASM

Cancer du sein : un risque accru de récidive chez les femmes en surpoids
Mardi, 14/11/2023 - 08:56

Des chercheurs danois de l'université Aarhus ont montré que l'obésité augmentait les risques de récidive chez les survivantes du cancer du sein, notamment chez celles prenant des anti-aromatases. Il est essentiel de mieux comprendre cette relation pour améliorer les traitements.

De nombreuses survivantes du cancer du sein prennent un médicament hormonal après leur traitement pour éviter une récidive. Parmi ces médicaments, les anti-aromatases sont souvent utilisés. Les cancers du sein hormonaux positifs sont alimentés par l'hormone sexuelle féminine, l’œstrogène. Les anti-aromatases réduisent les niveaux d’œstrogènes en empêchant une enzyme présente dans le tissu adipeux, appelée aromatase, de transformer d'autres hormones en œstrogènes.

Par rapport aux survivantes du cancer du sein de poids normal, les femmes obèses étaient 18 % plus susceptibles de connaître une récidive, même lorsqu'elles prenaient un anti-aromatases. Ce risque accru était encore plus élevé chez les survivantes souffrant d'obésité sévère. Les chercheurs ont émis l'hypothèse que les cellules graisseuses, plus nombreuses chez les femmes obèses, stockent les œstrogènes, ce qui pourrait expliquer pourquoi les anti-aromatases sont moins efficaces pour supprimer les œstrogènes chez ces femmes.

Les mécanismes précis de cette augmentation du risque de récidive chez les survivantes du cancer du sein obèses ne sont pas encore entièrement compris. Cependant, les chercheurs soulignent l'importance de mener des études cliniques supplémentaires pour mieux comprendre cette relation complexe et identifier les facteurs spécifiques. Ces études pourraient également aider à développer des stratégies de prévention.

Article rédigé par Georges Simmonds pour RT Flash

JAMA

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top