|
|
|
|
|
NUMERO 1231 |
|
|
|
|
|
|
|
Edition du 10 Novembre 2023
|
|
|
|
|
Edito
Les réacteurs nucléaires modulaires pourraient changer la donne énergétique mondiale
APPEL aux DONS : CETTE ANNEE, JE ME FAIS DU SOUCI.
A cette date, 8 novembre (date d'envoi de cet édito), le total des dons enregistrés n'atteint que 3.620 euros sur un objectif de 15.000 euros. Comme je l'ai dit précédemment, RT Flash a besoin de 45 euros chaque jour pour continuer à être mis en ligne chaque semaine.
Or, les 3620 euros reçu jusqu'à ce jour ne nous permettent d'assurer la mise en ligne de RT Flash que jusqu'au Vendredi 23 Mars 2024.
Ce qui signifie que nous n'avons progressé que d'une semaine dans ces 8 derniers jours. Or, nous allons atteindre la semaine prochaine la moitié du temps réservé à notre campagne de dons. Nous devrions donc être assurés à la fin de la semaine prochaine que nous pourrions assurer la mise en ligne de RT Flash jusqu'au 30 Juin.
Or, nous ne sommes qu'au 23 Mars.
Face à cette situation, je demande à tous nos lecteurs de réagir.
Sans vous tous qui acceptez de faire des dons, RT Flash n'existerait plus. Nous avons bien conscience de la précarité de notre situation mais vous remercier chaque semaine avec des articles et un édito dont les rédacteurs et moi-même sommes totalement bénévoles nous apporte beaucoup de joie et de bonheur.
René Trégouët Sénateur Honoraire Créateur du Groupe de Prospective du Sénat Rédacteur en Chef de RT Flash
Président de l'ADIST (l'ADIST est une association qui gère RT Flash)
Si vous voulez aider RT Flash, lettre d’informations scientifiques, gratuite et sans publicité depuis 1998, appuyez sur ce lien HelloAsso
EDITORIAL :
Le dernier et instructif rapport de l'AIE, publié il y a quelques semaines, nous apprend que, pour limiter le réchauffement climatique à +1,5°C, les émissions de gaz à effet de serre doivent baisser de 80 % d'ici 2035, dans les économies développées et de 60 % dans les pays émergents. Pour atteindre cet objectif impératif, l'AIE préconise deux mesures principales, d'une part, tripler le rythme des installations de production d’énergies renouvelables d'ici 2030 ; d'autre part, doubler le taux d'électrification de nos économies au même horizon (Voir IEA).
En France, bien que le dernier scenario de RTE prévoit que notre consommation totale d'énergie baisse d'environ 40 % d'ici à 2050 (passant de 1600 TWh à 930 TWh), notre pays devrait connaître une forte augmentation de la consommation électrique au cours des trente prochaines années, car la nécessaire décarbonation de notre économie passe par une forte électrification des usages dans tous les secteurs d'activités, industrie, transports et chauffage des bâtiments notamment. Selon les dernières études prospectives, la part de l'électricité dans la consommation finale d'énergie passera probablement de 27 % aujourd'hui à plus de 75 % au milieu de ce siècle. Dans cette perspective, notre consommation électrique, qui est aujourd'hui de 460 TWH par an, pourrait dépasser les 600 TWh par an vers 2040 et atteindre les 730 TWh par an vers 2050.
Selon RTE, cette hausse inexorable de notre consommation électrique s’explique essentiellement par les nouveaux objectifs européens visant à réduire de 55 % les émissions nettes de CO² de l’UE d’ici 2030 (le plan « Fit for 55 »). Cette électrification à marche forcée se fera en priorité dans le secteur des transports, avec la fin annoncée de la vente des véhicules thermiques en 2035, et du chauffage et climatisation des logements et bâtiments (avec la généralisation des pompes à chaleur) qui représentent 45 % de la consommation globale d'énergie.
Pour parvenir à répondre de façon décarbonée à cette forte hausse de la consommation électrique, notre pays s'est fixé de nouveaux objectifs très ambitieux en matière de développement des énergies renouvelables : la production d'électricité solaire devrait ainsi être multipliée par dix, atteignant 150 TWh en 2050 ; la production de l'électricité éolienne sera, pour sa part, multipliée par neuf, atteignant 350 TWh en 2050, essentiellement issus des 50 parcs éoliens marins prévus à cette échéance ; enfin la production d'hydroélectricité atteindrait 84 TWh par an, en augmentation de 20 %. Mais à supposer que notre pays parvienne à réaliser ce gigantesque effort de développement du solaire et de l'éolien, et réussisse également à ouvrir d'ici 2050 les six nouveaux EPR prévus (en plus de la centrale de Flamanville qui doit enfin être mise en service en 2024), il manquera encore, au bas mot, 70 TWH par an à notre pays, soit l'équivalent de 5 gros EPR (en se basant sur une hypothèse moyenne de consommation nationale à 730 TWH par an) pour boucler son budget énergétique.
C'est là qu'interviennent les réacteurs nucléaires modulaires, ou SMR, des équipements qui représentent une véritable rupture technologique, économique et industrielle. Ils sont à la fois beaucoup plus petits, plus simples, plus sûrs et bien moins coûteux que les classiques réacteurs nucléaires. Ces SMR ont une puissance qui s'étale de 50 à 300 mégawatts (MW), comme dans le cas du projet français Nuward, un réacteur à eau pressurisée de type PWR développé par EDF et le CEA, qui aura une puissance de 170 MW, dix fois inférieur à celle d'un réacteur EPR. En matière d’ingénierie, ces SMR sont beaucoup moins complexes que les grands réacteurs nucléaires. Ils sont fabriqués en usine, ce qui permet d’envisager une production en série et des économies d’échelle, et sont ensuite transportés sur leur site de fonctionnement. En termes de coût, par rapport à une centrale nucléaire de type EPR qui représente un investissement d’une dizaine de milliards d’euros, la construction d’un SMR varie entre 100 millions et un milliard d’euros, en fonction de la taille et des technologies employées.
Par leur structure hermétique, les SMR présentent des avancées significatives en termes de sûreté, un facteur évidemment essentiel dans ce domaine sensible du nucléaire. Ils excluent tout risque de fusion du cœur, et de fuite de produits radioactifs à l’extérieur.
Ces petits réacteurs modulaires sont dotés de systèmes de sécurité passifs, c’est-à-dire de dispositifs qui ne nécessitent pas d’apport d’énergie pour fonctionner et mettent automatiquement à l'arrêt le réacteur en cas de problème. En outre, le réacteur et le système de refroidissement étant intégrés dans une même enceinte hermétique, les SMR sont insensibles aux aléas climatiques. Au final, ces SMR ont un coût de fonctionnement très compétitif (environ 60 dollars le mégawattheure). Enfin, ils nécessitent peu d'investissement de raccordement aux réseaux, ces SMR pouvant facilement être implantés à proximité de ceux existants.
Tous ces avantages expliquent pourquoi ces petits réacteurs nucléaires modulaires connaissent un développement fulgurant dans le monde, que ce soit en Europe, en Chine, en Russie, aux Etats-Unis et au Canada, qui prévoient d’ajouter au parc nucléaire plus de 300 SMR dans les 25 prochaines années. Outre-Atlantique, la livraison du premier small modular reactor en Amérique du Nord a été signée récemment. Ce SMR est le SMR BWRX-300 développé par General Electric Hitachi Nuclear Energy. D’une puissance de 330 MW, ce mini-réacteur peut alimenter plus de 300 000 foyers ; il sera mis en service sur le site de la centrale nucléaire en cours de rénovation de Darlington, dans l’Ontario (Canada) d’ici fin 2028.
Un autre SMR américain est développé par NuScale et développé à l’Université d’Etat de l’Oregon. Il possède une sécurité dite passive et intrinsèque qui a d'ailleurs été reconnue en janvier dernier par l'autorité de sûreté américaine du nucléaire, la puissante NRC. Même en cas d’accident grave, aucune intervention active des pompes et soupapes n’est requise, et la sécurité de l’installation est garantie sans alimentation en énergie. Le système a été conçu pour s’arrêter de manière entièrement autonome et refroidir par lui-même sur une période illimitée. Le SMR développé par NuScale est un petit réacteur basé sur la technologie éprouvée des réacteurs à eau sous pression. La première centrale nucléaire de NuScale sera construite avec six modules de 77 MW sur le terrain du Carbon Free Power Project (CFPP), à proximité d’Idaho Falls. Le premier module doit être mis en service en 2029.
Toujours aux Etats-Unis, le géant informatique Microsoft a lancé son propre programme de recherche, visant à se doter dans les meilleurs délais de réacteurs nucléaires modulaires qui seraient destinés à répondre de manière décarbonée à l’augmentation des besoins en énergie de la firme, notamment pour alimenter ses immenses data centers, en plein essor avec le développement de l’IA. La firme informatique considère en effet que l’absence de sources d’énergie décarbonée souple et immédiatement disponible constitue un véritable « goulot d’étranglement » au développement de l’IA dans tous les secteurs de la vie économique. La célèbre firme britannique Rolls Royce développe pour sa part son premier SMR d'une puissance de 470 mégawatts et d'une durée de vie de 60 ans et compte bien commercialiser son réacteur modulaire vers 2030. Rolls Royce vise à la fois le marché américain et européen où les besoins de l’industrie et du secteur numérique en matière d’énergie décarbonée pourraient doubler d’ici 2040.
En France, dans le cadre de la nouvelle loi d’accélération du nucléaire votée en juin dernier par le Parlement, l'objectif de six réacteurs EPR a été confirmé et huit autres seront mis à l’étude ainsi qu'un premier exemplaire du mini réacteur Nuward qui appartient à cette famille de ces petits réacteurs nucléaires modulaires (SMR) innovants. Sur ces deux volets, le plan France 2030 prévoit une enveloppe de 1 milliard d’euros, dont 500 millions pour Nuward, le projet de SMR porté par EDF, Naval Group, TechnicAtome et le Commissariat à l'énergie atomique (CEA), et 500 millions pour les autres réacteurs innovants. EDF vise une commercialisation des Nuward au plus tard pour 2030, c'est-à-dire cinq à dix ans plus tôt que la mise en service des premiers EPR2. Et ce temps gagné pourrait s’avérer précieux car la décennie 2030-2040 sera très délicate à négocier pour notre pays sur le plan énergétique : la France devra en effet faire face à une forte hausse de la demande d’électricité, alors que les futures EPR programmés seront encore loin d’être opérationnels et que les énergies renouvelables, notamment en mer, ne seront pas encore suffisantes pour répondre à elles seules à ces besoins accrus en énergie décarbonée.
En juin dernier, le gouvernement a également désigné les lauréats de l’appel à projets réacteurs innovants. Il s’agit du français Naarea, qui développe un réacteur à neutrons rapides aux sels fondus qui pourra produire de l’électricité et de la chaleur à partir de combustibles usés du parc existant. Le second lauréat est une entreprise italo-britannique, Newcleo, qui veut investir 3 milliards en France. Il y a quelques semaines, la société française Naarea a réussi une première mondiale, malheureusement peu relayée par les médias, en réalisant une boucle à sels fondus opérationnelle entièrement en carbure de silicium, à une température de 700°C. Cette avancée remarquable devrait permettre la mise au point d’un petit réacteur modulaire, en vue de décarboner plus vite notre industrie. La technologie développée par cette jeune société, qui repose sur un réacteur à sels fondus, utilise des combustibles nucléaires usagés actuellement entreposés et d’uranium appauvri. L’idée est d’arriver à une fermeture complète du cycle du combustible nucléaire et d’accélérer l'élimination des déchets à vie longue. Alors que ces déchets durent plusieurs centaines de milliers d'années si rien n'était fait, nos produits de fission auront une durée de vie d'environ 250 ans, ce qui est beaucoup plus gérable.
Ce petit réacteur de 40 mégawatts électriques occupera un volume équivalent à celui d’un autocar et son refroidissement ne nécessitera pas d’eau, ce qui facilite grandement son implantation qui n’a pas plus besoin d’être à proximité d’une rivière ou d’une mer. Ce choix technologique permettra de produire de la chaleur exempte de carbone à 650°C, tout en produisant en parallèle de l'électricité. Les industriels pourront ainsi décarboner de manière plus rapide et moins onéreuse leur chaîne de production. « Nous apportons une solution aux consommateurs industriels, principaux émetteurs de CO2, en nous affranchissant des réseaux électriques saturés », souligne Jean-Luc Alexandre, président-directeur général de Naarea. Naarea a également construit un "jumeau numérique" de son microréacteur. Il s’agit d'une plate-forme digitale collaborative qui offre une représentation du réacteur en 3D et permet de le soumettre virtuellement aux différentes contraintes thermiques et physiques. Ce jumeau numérique permet une maintenance prédictive globale, grâce à l'anticipation du vieillissement des matériaux,
Une autre jeune société, Hexana, développe également un SMR de quatrième génération, prévu pour 2030, qui s’appuie sur la technologie des réacteurs à neutrons rapides refroidis au sodium (RNR-Na). Comme son concurrent, Naarea Hexan veut produire à la fois de la chaleur et de l’électricité bas-carbone de manière très flexible et en cycle nucléaire fermé. Cette technologie RNR présente en effet le grand avantage de pouvoir utiliser de l’uranium appauvri associé à du plutonium que l’on trouve dans les combustibles usés de nos réacteurs à eau pressurisée. Cette particularité technique permet de réduire à la fois les besoins en uranium naturel et la quantité finale de déchets nucléaires. Hexana veut proposer deux modules nucléaires de 400 mégawatts (MW) thermiques ou 150 MW électriques, ainsi que des modules de stockage de chaleur afin de pouvoir répondre de manière souple et rapide aux besoins de l'industrie. Cerise sur le gâteau, ce type de SMR, couplé à une unité de captage de CO2, pourra aussi produire de l’hydrogène ou du carburant de synthèse.
Un autre acteur, la jeune société Jimmy Energy, vient de boucler une levée de fonds de 15 millions d’euros pour lancer l’industrialisation de son premier micro-réacteur dès 2026. Fondé en 2021 par Antoine Guyot et Mathilde Grivet, Jimmy Energy conçoit des générateurs thermiques incluant des micro-réacteurs nucléaires à l’uranium, et qui se branchent directement aux installations existantes, fournissant ainsi aux industriels de la chaleur décarbonée à un coût compétitif. « Dès 2026, nous voulons être le premier petit réacteur nucléaire mis en service en France afin de fournir de la chaleur décarbonée à l’industrie, et participer ainsi, très concrètement, à la lutte contre la crise climatique », souligne Antoine Guyot, co-fondateur et CEO de Jimmy.
On le voit, l’arrivée en force des ces petits réacteurs nucléaires modulaires, performants, économique et sûrs, est en mesure de bouleverser notre paysage énergétique, aussi bien sur le plan mondial, qu’européen et national, en apportant au bon moment le « chaînon manquant » qui permettra à nos économies de se décarboner assez vite pour éviter une perte de contrôle du climat et faire la jonction avec l’arrivée massive, à partir de 2040, des énergies renouvelables de prochaine génération, solaire organique, éolien marin géant, énergie osmotique géothermie profonde, et fusion contrôlée…
Nous pouvons nous féliciter que la France, forte de ses compétences et de son expertise mondialement reconnue dans le domaine nucléaire, participe activement à cette révolution technologique et économique qui n’a pas échappé aux Etats-Unis et à la Chine, ces deux géants consacrant des moyens considérables pour s’imposer sur ce marché qui pourrait être multiplié par dix d’ici 2035 et atteindre les 550 milliards de dollars à cet horizon.
Je voudrais enfin souligner une évolution très importante, celle de nos concitoyens face à l’énergie nucléaire. Sans sous-estimer les risques et menaces inhérents à cette forme d’énergie, les Français, comme le montrent plusieurs études récentes, sont à présent majoritairement favorables à une relance de l’énergie nucléaire et pensent également que notre pays a eu raison de s’engager dans cette filière de production d’énergie, il y a maintenant plus d’un demi-siècle. Cette évolution très nette de l’opinion publique s’explique pour trois raisons principales : d’abord, nos concitoyens considèrent que la priorité absolue est à présent la lutte contre le réchauffement climatique et la réduction massive de nos émissions de CO2. Dans cette perspective, ils ne voient pas comment ces objectifs pourraient être atteints en renonçant immédiatement à l’énergie nucléaire, même s’ils sont très favorables au développement des énergies renouvelables. Ensuite, notre pays a compris, avec la guerre en Ukraine et la fin des importations de gaz russe, à quel point il était vital pour notre avenir et notre souveraineté de parvenir à l’indépendance énergétique. Enfin, nos concitoyens ont compris que le nucléaire de demain, qu’il s’agisse des Réacteurs EPR ou des petits réacteurs modulaires SMR aura un niveau d’efficacité (diminution sensible des besoins en combustibles nucléaires) et de sûreté (recyclage des déchets à longue vie radioactive) encore amélioré. Reste que le développement de ces réacteurs nucléaires modulaires devra se faire de la manière la plus démocratique et la plus transparente possible, afin que cette nouvelle source d’énergie, puissante et décarbonée et rapidement mobilisable, puisse contribuer à accélérer notre transition énergétique, à sortir plus vite des énergies fossiles, et à maintenir le réchauffement climatique dans des limites acceptables par l’humanité…
René TRÉGOUËT
Sénateur honoraire
Fondateur du Groupe de Prospective du Sénat
e-mail : tregouet@gmail.com
|
|
|
|
|
|
|
|
Matière |
|
|
Matière et Energie
|
|
|
|
|
|
|
|
|
Les batteries utilisées pour alimenter les énergies renouvelables ne s'avèrent pas toujours fiables. Comment produire de l'électricité à bas coût, soutenable pour la planète, et en quantité ? Une société américaine a récemment annoncé avoir mis au point une nouvelle batterie “verte”, grâce à une méthode empruntée à la production d'énergies fossiles (gaz, pétrole, charbon).
"Nous avons déchiffré le code pour fournir le complément idéal aux énergies renouvelables", s'est félicitée la présidente de Sage Geosystems, Cindy Taff. "C'est une batterie de base alternative aux batteries lithium-ioon et aux usines de pointe au gaz naturel". Selon elle, les perspectives offertes par ce nouveau système sont multiples. Des "opérations minières à distance jusqu'aux centres de données" seraient alimentées par ces nouvelles batteries, qui pourraient également s'attaquer à la "la précarité énergétique".
La société américaine, basée au Texas, assure que cette nouvelle technologie a une capacité d'autonomie de 18 heures. En prime, son efficacité serait de "200 %", ce qui, dans les faits, s'avère impossible. Voici donc un nouvel entrant sur le marché des batteries alternatives. Cette annonce intervient plus de deux mois après qu'une équipe de chercheurs australienne a affirmé avoir fabriqué une batterie à protons.
La course est lancée depuis plusieurs années. Sage Geosystems a peut-être trouvé une des solutions les plus sûres et les moins chères au stockage de l'énergie. Pour ce faire, les chercheurs se sont simplement réapproprié la technique d'extraction “huff and puff”. Cette dernière fait fureur dans l'extraction de pétrole. Il suffit de placer un liquide dans le puits, de le laisser pendant quelques heures dans la roche, puis de remonter l'eau. Le sous-sol terrestre renferme des températures extrêmes, qui peuvent atteindre entre 180 et 220 degrés.
Ainsi, grâce à la chaleur accumulée, la fracture terrestre resserre la vanne qui renferme l'eau, avant d'être acheminée par des turbines pour produire de l'électricité sous forme de vapeur. Ce sont les principes de la géothermie, à savoir la chaleur de la Terre, appliquée au savoir pétrolier. Un puits du système “Earth Store”, récolté dans un ancien forage du Texas, pourrait alimenter une production de 3 mégawats (MW). À titre de comparaison, les éoliennes des parcs français ont une puissance estimée entre 2 et 3,3 MW.
Article rédigé par Georges Simmonds pour RT Flash
New Atlas
|
|
|
|
|
|
|
|
Les productions d’énergies éolienne et solaire fluctuent selon les conditions météorologiques et les saisons. Dans les pays d’Europe du Sud comme la France, l’Allemagne et la Grèce, les panneaux photovoltaïques atteignent leur puissance maximale en été, tandis que les éoliennes fonctionnent de façon optimale en hiver. Pour gérer ces fluctuations, il est primordial de déployer des solutions de stockage d’énergie à la fois efficaces, durables et à coût maîtrisé. En stockant l’énergie excédentaire, il est possible de restituer lors de la pointe de consommation de l’électricité. Dans ce sens, le nouveau système Aquabattery pourrait faire augmenter considérablement les capacités mondiales de stockage d’énergie renouvelable.
Selon l’entreprise qui a conçu ce système, le manque de solutions de stockage d’énergie pourrait toucher les pays de l’UE dans quelques années. Approximativement 600 GW de stockage d’énergie à long terme seraient nécessaires d’ici à 2050, alors que seuls 140 à 290 GW de stockage devraient être disponibles d’ici à 2040. La technologie Aquabattery aurait été mise au point afin de contribuer à combler cette lacune. Elle serait en mesure de stocker de l’énergie de manière évolutive allant de 8 à 100 h. Sa capacité pourrait varier de quelques kilowatts à plusieurs mégawatts, en fonction de la taille du réseau de membranes d’électrodes installé. Ainsi, elle pourrait être ajustée selon les besoins des utilisateurs. De plus, cette solution pourrait fonctionner avec tout type d’énergie propre et renouvelable, optimisant son accessibilité.
Cette nouvelle technologie de stockage fonctionne grâce à l’énergie chimique générée lorsque l’énergie électrique passe à travers un mélange d’eau salée et un réseau de membranes d’électrodes. Cela permet d’obtenir des solutions acides et basiques stables placées dans des réservoirs séparés. Ce système présente un coût de stockage nivelé (LCOS) moins élevé, car il utilise des matériaux peu coûteux.
Par ailleurs, il ne contient aucune substance toxique, ce qui permet de le déployer près des villages. Outre cela, cette solution affiche une empreinte carbone nettement moins importante que celle des autres types de batteries existants, selon ses concepteurs. Sa durée de vie opérationnelle serait de 20 ans (sans dégradation mécanique). Lorsque le système arrive à sa fin de vie, ses composants pourront être recyclés. Pendant la phase de décharge, les solutions acides et basiques traversent la pile de membranes pour se mélanger et former de l'eau salée. Ce processus génère de l'électricité.
Ce système Aquabattery peut être utilisé dans une communauté locale ou à grande échelle dans des industries. Il est adapté à des zones sensibles aux variations de l’approvisionnement énergétique telles que des îles et des régions rurales reculées. En le combinant à un parc éolien ou solaire, on obtient des micro-réseaux favorisant l’autonomie énergétique des communautés locales. Il est à noter que cette entreprise, basée aux Pays-Bas, a récemment obtenu un financement du Fonds national de croissance. Elle planifie de nombreux projets pilotes. Si tout se passe comme prévu, son premier système de stockage à grande échelle sera installé d’ici 2025.
Article rédigé par Georges Simmonds pour RT Flash
Aquabattery
|
|
^ Haut |
|
|
|
|
|
|
|
Espace |
|
|
Espace et Cosmologie
|
|
|
|
|
|
|
|
|
Selon l'Agence Spatiale Européenne, un faisceau de lumière solaire pourrait être utilisé pour construire des routes pavées sur le satellite naturel de la Terre, en faisant fondre la poussière lunaire. Alors que les diverses agences spatiales se lancent dans des projets de plus en plus longs sur la Lune et dans l’exploration des planètes, les astronautes vont être confrontés à plusieurs défis. L’un de ces défis est la poussière. Sur la Lune, la poussière abrasive ressemblant à du talc peut s’introduire dans le matériel et obstruer les équipements.
Pourtant, les astronautes ont aussi des besoins de déplacement pour effectuer leurs missions. Se pose alors la question de ‘’routes’’ ou chemins sur l’astre rocheux et poussiéreux. L’objectif est de limiter les levées et dispersions des particules, notamment dans un contexte de faible gravité, empêchant celles-ci de se reposer sur la surface.
Le projet PAVER — Paving the road for large area sintering of regolith — de l’ESA a étudié la faisabilité de construction de routes lunaires. Il réunit les expertises de plusieurs établissements et organismes : l’Institut allemand de recherche et d’essais sur les matériaux (BAM), l’Université d’Aalen en Allemagne, LIQUIFER Systems Group en Autriche et l’Université de technologie de Clausthal en Allemagne, avec le soutien de l’Institut de physique des matériaux dans l’espace du Centre aérospatial allemand, DLR.
Leur idée phare : faire fondre la poussière de lune (simulée à ce stade) en dalles de différentes formes qui pourraient être assemblées pour former une surface pavée, à l’aide d’un faisceau de lumière solaire concentrée. Pour réaliser ces routes pavées, il faudrait déployer un concentrateur solaire qui utilise une lentille pour faire fondre la poussière, plutôt que des appareils de chauffage qui pourraient nécessiter des cellules solaires pour l’alimentation. Cela se fera à l’aide d’une lentille de Fresnel de quelques mètres de diamètre pour produire l’effet escompté. « Un concentrateur solaire utilise directement la lumière du soleil. Il n’a pas besoin de convertir l’énergie solaire en électricité », explique Ginés-Palomares, basé à l’Université technique de Berlin.
Pendant les tests de concept, en tirant un laser sur le régolithe lunaire simulé, ils pouvaient fabriquer des "tuiles" de poussière lunaire d’environ 25 centimètres de diamètre, sous la forme d’une surface solide vitreuse. Ils ont expérimenté différentes géométries pour fabriquer des tuiles qui peuvent s’emboîter pour former des zones pavées. Selon le communiqué de l’ESA, la Lune sera un point de départ important si les humains veulent explorer d’autres parties du système solaire. Les enseignements de la Lune sont des débuts prometteurs.
Article rédigé par Georges Simmonds pur RT Flash
ESA
|
|
^ Haut |
|
|
|
|
|
|
|
Vivant |
|
|
Santé, Médecine et Sciences du Vivant
|
|
|
|
|
|
|
|
|
Une étude internationale a montré que certaines personnes possèdent plusieurs gènes communs avec nos ancêtres, expliquant pourquoi ils percoivent la douleur de manière plus prononcée. "Les variantes génétiques néandertaliennes sont beaucoup plus courantes chez les personnes d'ascendance amérindienne", a déclaré l'un des principaux auteurs de l'étude, Pierre Faux. Mais ce n'est pas le seul nouvel enseignement tiré de cette étude. Les gènes ont également une incidence sur le type de douleur auquel le corps va réagir.
Un gène a fortement intéressé les chercheurs : le SCN9A. Cet élément du chromosome est la gare de départ du trajet de la douleur. Il est chargé de coder la protéine Nav1.7, qui va transmettre les sensations de la douleur au cerveau. Ce gène est un dénominateur commun de Néandertal et des humains modernes. Souvent, le gène SCN9A est accompagné de ses frères, le V991L et M932L.
Ces séquences génétiques réunies accentuent la perception de la douleur. En analysant les échantillons génétiques collectés auprès de près de 6 000 personnes résidant dans plusieurs pays d'Amérique latine, le Brésil, le Chili, la Colombie ou encore le Mexique, les chercheurs ont soutenu la thèse selon laquelle les Péruviens étaient les plus enclins à porter ces gènes. Et pour cause, il s'agit de la population étudiée avec le plus d'ascendance amérindienne. À l'inverse, les échantillons de Brésiliens, de plus faible proportion amérindienne, portent moins de gènes néandertaliens.
Plus tard, les chercheurs ont réalisé une expérience en lien avec la douleur sur près de 1600 Colombiens. Les personnes portant des variantes génétiques néandertaliennes ressentent des types de douleur différentes. Ainsi, le froid ou la chaleur ne suscite guère de réaction. En revanche, les piqûres sont bien plus douloureuses sur ces personnes. Un fait qui s'enracinerait dans les migrations ancestrales. Néandertal et Homo Sapiens se sont croisés il y a 70 000 ans, avant la disparition de la première espèce. Puis, vers – 15 000 avant le début de l'ère moderne, les humains modernes auraient migré de l'Eurasie aux Amériques. "Ils auraient dû supporter des conditions difficiles et froides. Elles auraient pu aider les humains à faire face au froid", a indiqué Pierre Faux. Mais ces personnes auraient perdu, en contrepartie, leur capacité à résister aux objets pointus.
Article rédigé par Georges Simmonds pour RT Flash
Nature
|
|
|
|
|
|
|
|
La maladie de Parkinson est une maladie neurodégénérative complexe caractérisée par la dégénérescence de types spécifiques de neurones dans le cerveau, ce qui entraîne un certain nombre de symptômes moteurs et non moteurs. Aujourd’hui, on estime que plus de 10 millions de personnes dans le monde vivent avec ce qui est la deuxième maladie neurodégénérative la plus répandue après la maladie d’Alzheimer. Ce nombre devrait passer à 14 millions d’ici 2040, et l’on attribue parfois le terme de "pandémie" à la maladie de Parkinson.
L’un des phénomènes majeurs de la maladie de Parkinson est l’accumulation d’une protéine appelée alpha-synucléine à l’intérieur des neurones. Cela perturbe le fonctionnement normal des cellules et évolue vers la formation d’agrégats appelés "corps de Lewy". Ce processus contribue à la dégénérescence des neurones et entraîne l’apparition des symptômes de la maladie.
Dans une récente étude, des scientifiques de deux laboratoires de l’EPFL ont combiné leur expertise pour étudier comment l’alpha-synucléine perturbe les processus métaboliques à l’intérieur même des neurones. Ils ont utilisé des techniques d’imagerie de pointe, en particulier un instrument d’analyse appelé NanoSIMS (Nanoscale Secondary Ion Mass Spectrometry). C’est une "microsonde ionique" qui combine une spectrométrie de masse à haute résolution (50-150 Nm) avec une grande sensibilité analytique, ce qui lui permet de produire des cartes de l’activité métabolique à une échelle subcellulaire.
Les scientifiques ont combiné le NanoSIMS avec un marquage par isotopes stables. En visualisant les variations isotopiques à l’intérieur des tissus à haute résolution, cette technologie permet de détecter des changements de l’activité métabolique survenant dans des compartiments cellulaires spécifiques ou au sein d’organites telles que les mitochondries. Afin de "voir" à l’intérieur des neurones, la microscopie électronique a permis d’obtenir des images à haute résolution, qui ont été superposées avec les cartes générées avec le NanoSIMS.
Pour modéliser la maladie de Parkinson, l’équipe a utilisé des rats génétiquement modifiés pour surexprimer l’alpha-synucléine humaine dans un hémisphère du cerveau, l’autre hémisphère sain servant de tissu témoin. En comparant les neurones atteints avec les sains, les scientifiques ont découvert des changements importants dans la manière dont les molécules de carbone sont incorporées et traitées dans les neurones.
L’une des découvertes les plus remarquables a été l’effet de l’alpha-synucléine sur le renouvellement du carbone dans les neurones. Les neurones surexprimant l’alpha-synucléine ont un renouvellement accéléré du carbone incorporé dans leurs macromolécules, ce qui montre que l’accumulation de la protéine peut entraîner une augmentation des besoins métaboliques de ces cellules. L’étude a également révélé des changements dans la répartition du carbone entre les différents compartiments cellulaires, tels que le cytoplasme et le noyau, qui pourrait être influencés par l’interaction de l’alpha-synucléine avec l’ADN et les histones.
Les perturbations métaboliques semblent spécifiquement toucher certains organites : les mitochondries, par exemple, présentent des schémas anormaux d’incorporation et de renouvellement du carbone, ce qui concorde avec des études antérieures montrant que l’alpha-synucléine perturbe la fonction mitochondriale. De même, des défauts métaboliques sont apparus dans l’appareil de Golgi, responsable du trafic et de la communication cellulaires, potentiellement dus à des perturbations du trafic vésiculaire causées par l’alpha-synucléine.
Cet implant a permis à un patient atteint de la maladie depuis 25 ans de retrouver une démarche normale. Ce résultat très encourageant est issu d’une collaboration entre l’EPFL, le CHUV (Suisse) et l’Université de Bordeaux. Ce Bordelais avait d’abord été traité avec de la dopamine puis avec la stimulation cérébrale profonde, depuis 2004. Pour tenter de traiter ses troubles de la marche, les équipes de Grégoire Courtine et Jocelyne Bloch ont adapté leur implant de stimulation de la moelle épinière aux spécificités de la maladie de Parkinson.
Après deux mois d’entraînement, Marc avait retrouvé une démarche presque normale grâce à l’implant, qu’il utilise environ 8 heures par jour, ne l’éteignant que lorsqu’il est assis pour une longue période ou lorsqu’il dort : "J’allume la stimulation le matin et je l’éteins le soir. Ça me permet de mieux marcher, de me stabiliser. Même les escaliers ne me font plus peur à présent. Tous les dimanches je vais au bord du lac, et je marche environ 6 kilomètres. C’est génial”. La prochaine étape sera de confirmer ces résultats dans un essai clinique chez six patients, grâce à un financement de la fondation de Michael J. Fox pour la recherche sur Parkinson. Ainsi que de tester si ce type de stimulation de la moelle épinière pourrait aussi aider à traiter d’autres troubles causés par la maladie.
"Cette étude montre le potentiel de la technologie NanoSIMS pour révéler les changements métaboliques dans le cerveau, avec une résolution sans précédent, au niveau subcellulaire", déclare Bernard Schneider. "Elle nous offre un outil pour étudier les changements pathologiques précoces qui se produisent dans les neurones à la suite de l’accumulation d’alpha-synucléine, un mécanisme directement lié à la maladie de Parkinson".
Article rédigé par Georges Simmonds pour RT Flash
Nature
|
|
|
|
|
|
|
|
A l'issue d'un projet international pharaonique dirigé par le National Institutes of Health et connu sous le nom de Brain Research through Advancing Innovative Neurotechnologies (BRAIN), une carte du cerveau d'un niveau de précision sans précédent a pu être établie. Ce projet visait notamment à cataloguer les cellules trouvées dans le cerveau des souris, des humains et des primates non humains comme les singes. Il s’attarde sur les neurones, qui sont les unités de base du système nerveux et qui permettent la transmission d’informations à travers des signaux chimiques et électriques, mais aussi sur les cellules non neuronales qui jouent un rôle crucial dans la régulation de l’environnement cérébral.
Les cellules non neuronales comprennent les cellules gliales, qui remplissent plusieurs fonctions essentielles. Ces dernières apportent un soutien structurel en maintenant la stabilité du tissu cérébral, fournissent des nutriments aux neurones et assurent leur protection. De plus, les cellules gliales régulent le fonctionnement des neurones, notamment en modulant la transmission des signaux chimiques. Pour rappel, le cerveau humain adulte contient environ 86 milliards de neurones et environ 84 milliards de cellules non neuronales.
Pour ces nouveaux travaux, les chercheurs ont eu recours à deux techniques de pointe principalement utilisées dans la recherche sur les animaux jusqu’à présent : la transcriptomique et l’épigénomique. La première consiste à créer un inventaire complet de l’ARN des cellules individuelles, l’ARN étant une molécule génétique jouant un rôle central dans la construction des protéines et l’exécution de diverses fonctions biologiques. L’épigénomique a permis quant à elle d’analyser les marques chimiques situées au-dessus de l’ADN qui modulent la façon dont les gènes sont activés ou désactivés.
Le projet a inclus des données provenant de centaines de milliers, voire de millions de cellules cérébrales, couvrant différentes phases du développement de l’enfance à l’âge adulte. Le cerveau de primates non humains, tels que les ouistitis, les macaques, les chimpanzés et les gorilles, a également fait l’objet d’études. Cette approche a facilité la comparaison directe entre les cerveaux des primates humains et non humains, révélant que bien que de nombreux types de cellules soient partagés entre les espèces, les schémas d’activité génétique varient considérablement.
En d’autres termes, la façon dont ces cellules interagissent et fonctionnent ensemble est notablement différente chez les humains par rapport aux singes, malgré certaines similitudes cellulaires de base. "Ce n’est pas seulement un atlas", a déclaré Ed Lein, neuroscientifique à l’Allen Institute for Brain Science. "Cela ouvre réellement un tout nouveau domaine dans lequel vous pouvez désormais observer avec une résolution cellulaire extrêmement élevée le cerveau d’espèces, ce qui n’était généralement pas possible dans le passé".
Cette recherche novatrice contribue à une meilleure compréhension de la complexité du cerveau humain, de son développement, de ses similitudes et de ses différences avec celui d’autres primates, tout en offrant un aperçu précieux sur la façon dont il fonctionne et évolue. Toutefois, si l’atlas du cerveau humain établi par ce projet est une avancée sans précédent, il n’en est qu’à ses prémices. Les chercheurs envisagent en effet de poursuivre leurs travaux en se penchant sur la fonction des nouvelles cellules cérébrales découvertes, dont beaucoup se trouvent en profondeur dans le cerveau, notamment dans des régions telles que le tronc cérébral.
Un objectif clé à l’avenir sera de comprendre comment l’activité génétique de ces différentes cellules peut contribuer au développement de maladies neurologiques. Cette recherche pourrait aider à éclairer les mécanismes sous-jacents de troubles cérébraux tels que la maladie d’Alzheimer, la maladie de Parkinson et d’autres affections, ouvrant ainsi la voie à de nouvelles stratégies de traitement et de prévention.
Article rédigé par Georges Simmonds pour RT Flash
Science
|
|
|
|
|
|
|
|
Une patiente a été opérée d’une tumeur pulmonaire jeudi 26 octobre aux hôpitaux universitaires de Strasbourg. Les examens et l’opération se sont déroulés dans la même salle et en même temps, permettant un gain de temps inédit et précieux dans la prise en charge de la maladie. Il y a d’abord le scanner, puis les résultats et, s’ils révèlent la présence d’une tumeur, l’interminable attente avant l’opération. Ce délai entre les examens et l’intervention chirurgicale pourrait à l’avenir être réduite à quelques heures. C’est en tout cas l’objectif affiché de l’expérimentation qui a eu lieu jeudi 26 octobre au sein des Hôpitaux universitaires de Strasbourg (HUS).
Ce séquençage technique inédit, une première mondiale dans les maladies néoplasiques, a nécessité deux années de travail. "La grande nouveauté, c'est qu’il y a eu une combinaison de plusieurs techniques dans une même salle et dans le même temps", explique à France 3 le professeur de chirurgie thoracique Anne Olland, l’une des professionnelles de santé ayant participé à l’intervention du 26 octobre.
Le scanner a donc été réalisé le jour de l’intervention, tout comme l’intervention des radiologues ou celle du robot chirurgical. "Au lieu d’avoir un scanner puis quelques semaines plus tard l’opération, le patient est endormi et on fait d’emblée le scanner, le repérage du nodule, la reconstruction en 3D et son intégration dans le robot chirurgical".
Alors que la précocité de la prise en charge du patient est clairement ciblée comme un enjeu de santé publique par la Haute autorité de santé, l’expérimentation des HUS apparaît d’autant plus opportune. L’apport principal du dispositif se situe ainsi dans le délai de prise en charge. "Ce gain de temps est crucial pour les patients, car le cancer du poumon est évolutif. C’est beaucoup moins anxiogène pour eux parce qu'il n’y a pas d’attente".
Si l’expérimentation concernait cette fois un patient atteint du cancer du poumon, Anne Olland précise que "le dispositif pourra fonctionner pour tous les types de cancer, notamment les malades qui ont des nodules très petits". Selon Santé publique France, le cancer est la première cause de décès chez l’homme et la deuxième chez la femme.
Article rédigé par Georges Simmonds pour RT Flash
France3
|
|
|
|
|
|
|
|
« La pollution par les particules reste le plus grand risque externe pour la santé humaine au monde », estime l’Institut de politique énergétique de l’université de Chicago (Epic) dans un rapport publié fin août. L’objet de l’étude a été de comparer, sur la base de données collectées en 2021, les niveaux d’exposition aux particules fines (PM2,5) à travers le monde. L’institut les a ensuite comparées aux normes nationales, lorsqu’elles existent, ainsi qu’aux lignes directrices fixées par l’OMS à 5 μg/m³.
Verdict : le manque de politiques publiques ambitieuses entraîne au niveau mondial un recul de l’espérance de vie de 2,3 ans, calcule l’Epic. C’est plus que le tabac, plus de trois fois plus que la consommation d’alcool et de l’eau insalubre, et plus de cinq fois plus que les accidents liés aux transports. Mais les défis liés à cette pollution dépendent largement des pays. Les trois quarts des impacts sur l’espérance de vie mondiale se concentrent dans six pays : le Bangladesh, l’Inde, le Pakistan, la Chine, le Nigeria et l’Indonésie. Le rapport souligne le manque d’information des populations et l’absence de normes portant sur la qualité de l’air dans ces pays.
Le Bangladesh est le pays le plus pollué aux particules fines, avec une concentration dans l’air moyenne de 74 μg/m³. Selon l’Epic, faire passer les niveaux de particules fines au Bangladesh à 5 μg/m³ pourrait faire gagner 6,8 ans d’espérance de vie aux Bangladais. La capitale de l’Inde, New Delhi, fait quant à elle figure de « mégalopole la plus polluée du monde », avec un taux moyen annuel de 126,5 μg/m³.
Alors que chaque année, 4 milliards de dollars sont consacrés à des fonds mondiaux pour lutter contre le VIH/SIDA, le paludisme et la tuberculose, il n’existe pas d’équivalent de ressources coordonnées pour la pollution atmosphérique, note Epic. « Et pourtant, la pollution de l’air réduit davantage l’espérance de vie moyenne d’une personne en RDC (République démocratique du Congo) et au Cameroun que le VIH, le paludisme et autres », partage l’étude.
La situation est différente en Europe. La pollution de l’air y a baissé d’environ 23,5 % depuis 1998, peu après l’entrée en vigueur de la directive-cadre sur la qualité de l’air. La pollution y est désormais à moins de 15 µg/m³, ce qui lui permet de respecter sa propre norme, établie à 25 μg/m³. Pour autant, 98,4 % de l’Europe ne respecte toujours pas les lignes directrices de l’OMS. Il reste de profondes disparités : les résidents d’Europe de l’Est vivent 7,2 mois de moins que leurs voisins occidentaux en raison d’un air plus pollué.
Aux États-Unis, la pollution a même baissé de 64,9 % depuis 1970 grâce au Clean Air Act. La pollution aux particules fines y est inférieure à 10 µgm³, ce qui lui permet de respecter sa propre norme, établie à 12 μg/m³. Pour autant, 96 % des États-Unis ne respectent toujours pas les lignes directrices de l’OMS. La plus grande menace y est désormais les feux de forêt.
Article rédigé par Georges Simmonds pour RT Flash
Epic
|
|
|
|
|
|
|
|
Ose Immunotherapics a présenté les premiers résultats positifs de l'essai clinique de Phase 1/2 évaluant OSE-279, un anticorps monoclonal anti-PD1 à forte affinité, chez des patients atteints de tumeurs solides, à la conférence AACR-NCI-EORTC International Conference on Molecular Targets and Cancer Therapeutics qui s'est tenue à Boston.
Silvia Comis, Directrice du Développement clinique et des Affaires réglementaires d'OSE Immunotherapeutics, a commenté : "Ces premiers résultats positifs d'efficacité et de tolérance de Phase 1/2 clinique évaluant le potentiel thérapeutique de notre anticorps monoclonal anti-PD1 dans les tumeurs solides avancées sont très prometteurs. Ils sont encourageants pour la poursuite dans le futur du développement clinique d'OSE-279 en monothérapie dans des indications de niche pré-identifiées touchant des cancers à fort besoin médical. Ce produit pourra également être exploré en combinaison avec d'autres candidats médicaments d'OSE ou avec des actifs externes ouvrant la voie à des nouveaux partenariats potentiels".
La communication porte sur les premiers résultats positifs de l'essai clinique de Phase 1/2 évaluant OSE-279 en monothérapie chez des patients atteints de tumeurs solides, sans option thérapeutique disponible. Ces données montrent un profil de tolérance acceptable avec des premiers signes d'efficacité chez les 13 premiers patients inclus, présentant 8 types de tumeur, traités à la dose de 100 et 300 mg toutes les 3 semaines ou à la dose de 600 mg toutes les 6 semaines.
Trois réponses ont été rapportées chez 11 patients ayant eu au moins une évaluation tumorale post-inclusion : une réponse partielle a été confirmée chez un patient atteint d'un carcinome hépatocellulaire (réduction tumorale de 81 %) après une seule dose de 300 mg, et deux réponses partielles (non encore confirmées) observées à la dose de 600 mg : l'une dans un carcinome anal à cellules squameuses (réduction tumorale de 46 %) et l'autre dans un sarcome pléomorphe indifférencié (réduction tumorale de 33 %).
Par ailleurs, une maladie stable de plus de 16 semaines a été observée chez trois autres patients (taux de contrôle de la maladie : 55 %). Le profil de pharmacocinétique a montré une bonne exposition et une bonne proportionnalité des doses, les profils de pharmacodynamique (occupation du récepteur) et de pharmacocinétique étaient en cohérence avec la modélisation. La dose de 300 mg est recommandée pour une phase 2 (DRP2) pour une administration toutes les 3 semaines, et la dose de 600 mg semble être une bonne option pour la DRP2 pour une administration toutes les 6 semaines.
OSE-279 est un anticorps monoclonal humanisé anti-PD1 à forte affinité qui bloque à la fois PD-L1 et PD-L2, les ligands de PD1 surexprimés par les cellules tumorales et le microenvironnement tumoral. OSE-279 constitue également l'ossature anti-PD1 de la plate-forme BiCKI d'OSE d'inhibiteurs de points de contrôle bispécifiques ciblant PD1 et d'autres nouvelles cibles d'immunothérapie. Cette première étude chez l'homme est un essai de phase 1/2, en ouvert, avec escalade de dose et expansion qui vise à déterminer la dose maximale tolérée, et/ou la dose recommandée en phase 2 d'OSE-279 en monothérapie dans les tumeurs solides.
Article rédigé par Georges Simmonds pour RT Flash
Clinical Trials
|
|
|
|
|
|
|
|
Une étude menée par le professeur Brenda Penninx, de l'Université Vrije à Amsterdam, s'est intéressée à la thérapie par l’exercice pour soigner la dépression. Ce travail a comparé sur une durée de 16 semaines les effets des antidépresseurs et de la course à pied sur la dépression, l’anxiété et la santé en général. En effet, le professeur Brenda Penninx, principale chercheuse de l’étude a déclaré : "Nous voulions comparer la façon dont l'exercice ou les antidépresseurs affectent votre santé générale, et pas seulement votre santé mentale".
Pour mener à bien l’enquête, les chercheurs ont étudié 141 patients souffrant de dépression et/ou d'anxiété. Ils leur ont proposé de traiter leur dépression de deux manières différentes : soit par des antidépresseurs, soit par une thérapie de course à pied en groupe. Sur le total des participants, 45 ont choisi les antidépresseurs et 96 ont préféré s'initier à la course à pied. Une répartition surprenante commentée par Brenda Penninx : “il est intéressant de noter que la majorité d'entre eux ont opté pour l'exercice, ce qui a conduit à un nombre plus important de participants dans le groupe de course à pied que dans le groupe des antidépresseurs".
Pendant quatre mois, le groupe ayant choisi de pratiquer de la course à pied a réalisé deux à trois séances supervisées par semaine tandis que le groupe ayant choisi de combattre leur dépression avec des médicaments a pris de l’Escitalopram, un antidépresseur utilisé pour traiter la dépression et les troubles de l’anxiété.
Les résultats de l’étude ont révélé qu’environ 44 % des participants des deux groupes ont perçu une amélioration de leur dépression et de leur anxiété. Par ailleurs sur le plan de la santé en général, le groupe des sportifs a montré une amélioration du poids, du tour de taille, de la tension artérielle et de la fonction cardiaque, alors que le groupe ayant pris des antidépresseurs a montré une tendance à une légère détérioration de ces marqueurs métaboliques.
Ainsi, comme le déclare Brenda Penninx, “les deux interventions ont permis de lutter contre la dépression dans une mesure à peu près équivalente. Les antidépresseurs ont généralement eu un impact plus important sur le poids corporel, la variabilité de la fréquence cardiaque et la pression artérielle, alors que la thérapie par la course à pied a permis d'améliorer la condition physique générale et la fréquence cardiaque, par exemple”. À la lumière des résultats de cette étude, la course à pied apparaît comme une alternative efficace aux antidépresseurs. Elle ouvre le champ des possibles quant à la thérapie par l’exercice pour lutter contre la dépression. Elle peut être d’une grande aide pour les personnes ne répondant pas aux antidépresseurs ou ne souhaitant pas en prendre. Selon Brenda Penninx, “elle pourrait être un bon et peut-être un meilleur choix pour certains de nos patients”.
Article rédigé par Georges Simmonds pour RT Flash
Science Direct
|
|
|
|
|
|
|
|
Pyrvinium, c’est le nom d’un médicament contre l'oxyrurose, une infection intestinale. Il est utilisé depuis plus de 70 ans pour cette maladie. Toutefois, selon une nouvelle étude, il pourrait avoir un autre intérêt thérapeutique. En effet, il pourrait devenir un traitement préventif contre le cancer de l’estomac pour les personnes à risque d’après une équipe du centre de recherche Vanderbilt (États-Unis).
"Notre étude suggère que le pyrvinium peut conduire à la récupération de la muqueuse métaplasique et/ou dysplasique à la normale en ciblant une population de cellules souches, indique le Docteur Choi, auteur de cette étude. Ainsi, le pyrvinium est un (traitement potentiel) unique pour prévenir l’apparition du cancer de l’estomac chez des patients présentant un état précancéreux à haut risque."La métaplasie et la dysplasie sont des états précancéreux. Le premier caractérise les anomalies des cellules de la muqueuse de l’estomac alors que le second concerne le renouvellement cellulaire de la muqueuse gastrique. Durant leurs expériences, les chercheurs ont pu montrer que le pyrvinium pouvait provoquer la mort cellulaire de ces lésions précancéreuses. Ainsi, le traitement serait susceptible d'agir en amont pour éviter le développement du cancer de l’estomac chez les personnes à risque.
De plus, ils ont aussi observé que le pyrvinium inhibait la progression de la métaplasie vers la dysplasie et favorisait la régénération de la muqueuse gastrique normale en contribuant à un microenvironnement anti-inflammatoire. Le Pyrvinium est un médicament utilisé depuis des décennies et bien connu du monde médical. "Compte tenu des bénéfices du Pyrvinium, notamment l’absence d'efets secondaires graves identifiés, la prochaine étape sera de faire une étude clinique dans laquelle le médicament pourrait (inverser l’évolution de) la muqueuse gastrique métaplasique chez les patients présentant un précancer à haut risque", conclut Eunyoung Choi. Ce n'est pas la première fois que les effets anti-cancer du traitement contre l'oxyurose est étudié. De précédents travaux avaient déjà observé que ce médicament pouvait freiner la croissance de certaines tumeurs, comme celles du côlon. Néanmoins, dans cette nouvelle étude, les scientifiques sont parvenus à identifier précisément les cellules souches dysplasiques spécifiques ciblées par le Pyrvinium.
Article rédigé par Georges Simmonds pour RT Flash
Medical Xpress
|
|
|
|
|
|
|
|
Pratiquer chaque jour de courtes activités de seulement quelques minutes serait bénéfique à notre santé cardiaque et réduirait notre risque de mortalité prématurée. C’est ce que viennent de découvrir des chercheurs de l’Université de Sydney. C’est en étudiant pendant presque 8 ans les effets d'exercices courts mais intenses sur près de 25 000 personnes, âgées de 42 à 78 ans, que les scientifiques anglais ont découvert leurs bienfaits. D’après eux, une activité réduite en temps pourrait préserver notre cœur.
“Les gens pourraient potentiellement réduire leur risque d'événements cardiaques majeurs en s'engageant dans des activités quotidiennes d'intensité au moins modérée où ils bougent idéalement de façon continue pendant au moins une à trois minutes”, commence l’auteur principal de l’étude et chercheur Matthew Ahmadi, dans le communiqué de presse. En effet, si l’on en croit la nouvelle étude, les individus effectuant régulièrement de courtes périodes d’effort (de moins de 10 minutes) réduiraient leurs risques de faire une crise cardiaque ou un accident vasculaire cérébral.
Plus précisément, “bouger de manière constante pendant au moins 1 à 3 minutes a été associé à un bénéfice significativement plus important (29 % de moins) que des séances très courtes de moins d'une minute”, ajoute le communiqué de presse. Et les exercices de moins d’une minute étaient également bénéfiques à la santé cardiaque, mais sous certaines conditions : "les épisodes courts (<1 min) n’étaient associés à un risque plus faible de MACE (événements cardiovasculaires indésirables majeurs) que lorsque les épisodes comportaient une activité vigoureuse d’au moins 15 %”.
Car “plus vous faites d’efforts dans ces tâches quotidiennes et plus vous maintenez cette énergie, plus vous êtes susceptible de récolter d’avantages”, a ajouté le co-auteur, Emmanuel Stamatakis. Ainsi, pour récolter le plus d’avantages, des exercices vigoureux devaient être intégrés dans ces activités quotidiennes. “Plus le pourcentage d’activité vigoureuse dans chaque combat est élevé, mieux c’est – ceux qui ont soufflé et soufflé pendant au moins 15 % du combat (environ 10 secondes par minute) ont vu le plus grand bénéfice”, détaille l'étude.
Article rédigé par Georges Simmonds pour RT Flash
The Lancet
|
|
|
|
|
|
|
|
Des chercheurs de l’UMass Amherst ont repoussé au centuple les limites du génie biomédical grâce à une nouvelle méthode de détection de l’ADN d’une sensibilité sans précédent. « La détection de l’ADN est au centre de la bio-ingénierie », déclare Jinglei Ping, auteur principal de l’article paru dans Actes de l’Académie nationale des sciences. Ping est professeur adjoint de génie mécanique et industriel, professeur adjoint en génie biomédical et affilié au Centre de surveillance personnalisée de la santé de l’Institut des sciences de la vie appliquées. « Tout le monde veut détecter l’ADN à faible concentration avec une sensibilité élevée. Et nous venons de développer cette méthode pour améliorer la sensibilité d’environ 100 fois sans frais ».
Avec les méthodes de détection traditionnelles, dit-il, « le défi consiste essentiellement à trouver l’aiguille dans une botte de foin ». De nombreuses molécules présentes dans un échantillon qui ne sont pas l’ADN cible peuvent interférer avec le résultat. Il s’agit de l’appareil qui détecte l’ADN avec une sensibilité 100 fois supérieure aux méthodes traditionnelles utilisant un courant électrique alternatif. C’est là que cette méthode est différente. L’échantillon testé est placé dans un champ électrique alternatif. Ensuite, « nous laissons l’ADN danser », dit-il. « Lorsque les brins d’ADN dansent, ils ont une fréquence d’oscillation spécifique ». Les chercheurs peuvent ensuite lire des échantillons pour voir si une molécule se déplace d’une manière qui correspond au mouvement de l’ADN cible et la distinguer facilement des différents schémas de mouvement. Cela fonctionne même lorsque la concentration de l’ADN cible est très faible.
Cette nouvelle méthode a d’énormes implications pour accélérer la détection des maladies. Premièrement, en raison de sa sensibilité, les diagnostics peuvent être posés à des stades précoces de la progression de la maladie, ce qui peut avoir un impact considérable sur les résultats en matière de santé. De plus, cette méthode prend quelques minutes, et non des jours, des semaines ou des mois, car elle est entièrement électrique. «Cela le rend adapté aux points de service», dit-il. « Habituellement, nous fournissons des échantillons à un laboratoire et il peut fournir les résultats rapidement ou lentement, selon la vitesse à laquelle ils vont, et cela peut prendre 24 heures ou plus ». Par exemple, il cite comment, lors d’un diagnostic, un échantillon de biopsie est congelé puis envoyé à un laboratoire pour traitement, ce qui peut prendre jusqu’à deux mois. Les résultats quasi instantanés de cette nouvelle méthode signifient que le traitement ne doit pas attendre les délais de traitement en laboratoire.
Autre avantage : il est portable. Ping décrit l’appareil comme étant de taille similaire à un outil de test de glycémie, ce qui ouvre la porte à des améliorations de la santé à l’échelle mondiale. « Il peut être utilisé là où les ressources sont limitées. Je suis allé dans un pays et le médecin se rend généralement dans un village une ou deux fois par an, et maintenant, peut-être qu’ils peuvent avoir une base dotée de ce genre d’outil et qu’ils auront la possibilité de le tester rapidement et facilement ». Ping est enthousiasmé par la vaste gamme d’applications possibles de cette découverte, déclarant : « L’approche nano-mécanoélectrique peut également être intégrée à d’autres technologies de bio-ingénierie, comme CRISPR, pour élucider les noyaux nucléiques. acide voies de signalisation, comprendre les mécanismes de la maladie, identifier de nouvelles cibles médicamenteuses et créer des stratégies de traitement personnalisées, y compris des thérapies ciblées sur les microARN ».
Article rédigé par Georges Simmonds pour RT Flash
Sci Tech Daily
|
|
|
|
|
|
|
|
La résistance aux traitements est un problème majeur dans la prise en charge des cancers. Qu’elle intervienne dès le début ou après plusieurs mois, voire des années, elle constitue toujours un défi pour les spécialistes, soucieux de cibler au mieux la maladie, mais aussi d’éviter de lourds effets secondaires inutiles. Véritable laboratoire miniature, la machine développée par le spin-off Parithera isole une à une les cellules cancéreuses présentes dans un échantillon sanguin, même lorsqu’elles sont en infime quantité, et analyse leur ARN messager avec une efficacité et une rapidité inégalée. L’entreprise s’apprête à démarrer une première étude clinique avec un hôpital universitaire afin de développer la machine sur la base d'échantillons provenant de patients.
Les résistances aux traitements surviennent lorsque les cellules tumorales s’adaptent et contournent l’effet de la thérapie. « Elle sont la cause du décès dans 90 % des cas. Malheureusement, aucune méthode de diagnostic n’en permet la détection précise », note Antoine Herzog, CEO de la start-up. « Les biopsies de tissus nécessitent une intervention chirurgicale, ce qui empêche leur utilisation longitudinale alors que l’analyse de l’ADN tumoral circulant ne fournit que des informations limitées ». Le procédé développé par la jeune entreprise offre des données d’une précision inégalée sur la base d’un échantillon sanguin : il permet un état des lieux en direct des changements dans l’expression génétique. Or ce sont ces biomarqueurs qui permettront de mieux cibler les traitements.
L’appareil, élaboré à partir de technologies brevetées à l’EPFL et à l’ETHZ, permet le tri et le séquençage de l’ARN messager cellule par cellule. « Cette minutieuse sélection est nécessaire, car le cancer lui-même est très complexe. Les cellules malades dans un même échantillon ne sont pas toutes identiques et peuvent révéler des informations très diverses », souligne le CEO. Trouver les cellules problématiques, les CTCs - circulating tumor cell -, s’apparente cependant à trouver une aiguille dans une botte de foin. « Il y a en moyenne 1 à 100 CTCs dans un millilitre de sang qui contient plusieurs milliards de globules rouges et plusieurs millions de globules blancs par exemple ». Pour effectuer ce tri avec une réussite avoisinant les 100 %, l’entreprise utilise des nanoparticules magnétiques qui se fixent aux cellules à analyser et les manipulent dans un circuit microfluidique. Un code barre moléculaire leur est apposé. « Dans les analyses similaires disponibles actuellement dans le milieu médical, les nanoparticules sont “mangées” par les globules blancs, ce qui diminue la pureté de l’échantillon. Plus efficace, notre approche est également réaliste d’un point de vue des coûts pour le système de santé », précise-t-il. À terme, cette analyse pourrait également permettre de s’assurer que plus aucune cellule cancéreuse n’est présente chez un patient. L’ensemble du processus est automatisé et adapté au contexte clinique.
L’appareil, dont l’apparence et l’ergonomie ont été élaborées en 2021 par un designer professionnel dans le cadre d’un programme de la vice-présidence à l’Innovation de l’EPFL, est destiné à devenir un test standard des cancérologues. Avant une possible commercialisation d’ici quatre à cinq ans, des études cliniques doivent encore être menées pour déterminer précisément quels types de cancers peuvent être pris en compte et pour quel stade cela fonctionne. « Mais les données existantes permettent d’être très optimiste quant aux possibilités de notre appareil. La grande majorité des cancers présentent des CTCs et il y a des corrélations entre le stade du cancer et le nombre de cellules trouvées », explique Antoine Herzog. Dans le but de pouvoir proposer une interface simple à utiliser pour les professionnels de la santé, l’entreprise travaille avec des partenaires médicaux et de grandes entreprises de diagnostics.
Article rédigé par Georges Simmonds pour RT Flash
EPFL
|
|
|
|
|
|
|
|
Un vaccin universel pour lutter contre tous les supermicrobes hospitaliers ? L’idée fait son chemin, avec ces travaux d’une équipe de virologues et de vaccinologues de l’Université de Californie du Sud qui documentent un premier candidat. Ce vaccin expérimental, testé chez la souris, fait ses preuves d’efficacité contre l’infection à Staphylococcus aureus résistant à la méthicilline (SARM) et d’autres infections connues pour être résistantes aux antibiotiques.
Il s’agit ici de contrecarrer les infections nosocomiales qui entraînent un taux de mortalité estimé à 3,8 pour 100 000 personnes-année dans le monde (OMS). Chaque année, les infections nosocomiales tuent plus de 90.000 personnes aux seuls États-Unis. Chaque jour, environ 1 patient hospitalisé sur 31 développe au moins 1 de ces infections. Dans de nombreux cas, les infections sont causées par des superbactéries telles que le SARM –ou Acinetobacter baumannii. Les infections se propagent via des surfaces ou des équipements contaminés, tels que des cathéters ou des ventilateurs, ou de personne à personne, souvent à partir de mains contaminées. Le risque est le plus élevé chez les patients en soins intensifs qui peuvent souffrir d’infections du site opératoire (ISO), d’infections du sang (AES), d’infections des voies urinaires et de pneumonie associée à la ventilation.
Les vaccins typiques incitent généralement l’organisme à produire des anticorps contre un agent pathogène spécifique. Malgré l’incidence élevée des infections nosocomiales, il n’existe actuellement aucun vaccin approuvé par la FDA qui prévienne les infections résistantes aux antibiotiques les plus graves. Le concept serait donc d’administrer un vaccin aux patients juste avant ou après leur arrivée à l’hôpital pour les protéger contre les superbactéries mortelles disséminées au sein des établissements de soins. Ces chercheurs ont conçu la formule pour prévenir les infections graves causées par des agents pathogènes résistants aux médicaments. L’équipe montre qu’une dose unique, administrée à des souris modèles d’infections, active les cellules immunitaires de manière à développer une protection rapide contre 8 espèces de bactéries et de champignons. « Le principe est celui d’un système d’alerte précoce », explique l’auteur principal, le Docteur Brad Spellberg, médecin-chef du Los Angeles General Medical Center affilié à l’USC. « L’arrivée de mauvaises superbactéries déclenche la réponse immunitaire ».
Ce vaccin innovant exploite l’approvisionnement préexistant du corps en cellules immunitaires macrophages, qui engloutissent et digèrent les bactéries, les champignons. Un fois activés, les macrophages, présents dans tous les tissus, neutralisent rapidement les envahisseurs qui pourraient autrement se multiplier rapidement et submerger les défenses de l’organisme. Le vaccin ne contient que 3 ingrédients, dont 2 sont déjà utilisés dans les vaccins approuvés par l’Agence américaine FDA. Un 3ème composant est un minuscule morceau de la surface d’un champignon que l’on trouve couramment sur la peau humaine.
Testé dans 2 laboratoires indépendants, le vaccin agit en 24 heures et son action dure jusqu’à 28 jours. Chez les souris modèles de laboratoire, le nombre de macrophages a augmenté de façon spectaculaire et la durée de survie des infections invasives du sang et des poumons s’est améliorée. Un brevet vient d’être déposé, avec le soutien du National Institute of Allergy and Infectious Diseases (NIAID/NIH) : « La pandémie a stimulé une innovation sans précédent dans le développement de nouveaux vaccins », commentent les chercheurs.
Article rédigé par Georges Simmonds pour RT Flash
STM
|
|
^ Haut |
|
|
|
|
|
VOTRE INSCRIPTION |
|
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
|
|
|
|
|
|