|
|
|
|
|
NUMERO 1143 |
|
|
|
|
|
|
|
Edition du 18 Février 2022
|
|
|
|
|
Edito
Le nouvel horizon énergétique de la France fait la part belle aux énergies renouvelables…
Cette semaine, j’ai souhaité revenir sur un sujet capital, celui de l’avenir et des choix énergétiques de notre pays. Comme vous le savez, le Président de la République a dévoilé, le 10 févier dernier à Belfort, une feuille de route très attendue, qui fixe le cadre et le calendrier de notre transition énergétique vers la sortie de l’économie carbonée, à l’horizon 2050. Quatre axes majeurs caractérisent le plan global annoncé par le Chef de l’Etat, une montée en puissance considérable des différentes énergies renouvelables, qui vont être multipliées par quatre d’ici 30 ans, un effort absolument gigantesque en faveur de l’éolien marin qui représentera, de loin, la 2ème source de production d’électricité (derrière le nucléaire), en 2050, une sortie complète des fossiles pour produire de l’électricité, et un renouvellement de grande ampleur, accompagné d’un changement de génération, de notre parc électronucléaire.
En reprenant les différentes décisions annoncées par le Président de la République, il est intéressant de détailler le futur paysage énergétique national qui permet de mesurer, par source d’énergie, à fois en valeur absolue et en pourcentage, l’évolution sans précédent que va connaître notre pays au cours des 30 prochaines années. S'agissant du nucléaire, les médias ont surtout retenu l’annonce concernant la construction probable de 14 réacteurs de nouvelle génération (EPR), ainsi que la prolongation à 60 ans de certaines centrales existantes. Mais, curieusement, peu de commentateurs ont souligné un point pourtant fondamental : le plan annoncé par le Chef de l’Etat aboutit (sans le dire de manière formelle) à une diminution très importante de la production électronucléaire à l'horizon 2050, tant en valeur absolue, qu’en pourcentage, de notre production totale d’énergie ; cette production passerait en effet de 379,5 TWH par an (produits actuellement par 56 réacteurs nucléaires) aujourd'hui, à 215 TWH par an en 2050, soit une diminution de 43 %. Encore plus instructif, la part du nucléaire dans la production totale d'électricité (indicateur plus parlant que la simple consommation nette) passerait de 70 % aujourd'hui, à 41 % en 2050…
Sachant que le Président de la République a annoncé la construction "ferme" de 6 EPR, d'ici 2040 (produisant 13 TWH chacun par an), et la construction possible de 8 autres EPR, entre 2040 et 2050, on peut calculer que l'ensemble de ces 14 EPR pourraient fournir 182 TWH par an en 2050. Si l’on ajoute l’EPR de Flamanville, en cours d’achèvement (13 TWH par an), on arrive à 195 TWH par an, avec ces 15 nouveaux EPR, soit 65 % de la production nucléaire nécessaire en 2050 (300 TWh), pour compléter le mix énergétique, dans le scenario officiel prévoyant une production électrique totale en 2050 de 730 TWH (pour une consommation finale de 645 TWh).
Il va donc manquer dans ce scenario 105 TWH d'électricité nucléaire par an pour compléter ce mix global. Ces 105 TWh représentent la puissance de quinze réacteurs nucléaires actuels, ou de huit nouveaux réacteurs EPR. Cette puissance manquante, quand même très importante, devra être trouvée en actionnant plusieurs leviers. Le premier est la prolongation à 60 ans, comme cela est envisagé par l’Etat, de la durée de vie des réacteurs les plus récents. Le second est la mise en chantier d’un nouveau type de centrale nucléaire, les SMR (Small Modular Reactor). Il s’agit de petits réacteurs nucléaires plus simples à construire et moins coûteux, dont le premier prototype est attendu vers 2030. Ces réacteurs devraient apporter 25 gigawatts de nouvelles capacités nucléaires d’ici 2050, en complémentarité avec les EPR annoncés. Mais ces deux premiers leviers risquent d’être insuffisants pour "boucler" de manière décarbonée notre mix énergétique, surtout si la demande électrique augmente plus rapidement que prévue dans l’hypothèse retenue par l’Etat. C’est pourquoi, sauf à devoir prévoir quelques réacteurs nucléaires EPR supplémentaires, il faut envisager dès à présent de développer encore davantage le solaire et l’éolien en mer, deux sources d’énergie qui heureusement disposent dans notre pays de marges de progression considérables, tant en termes de gisements que de rendements.
S’agissant du solaire, et sans prendre en compte le potentiel local très important de l’agrovoltaïque, l’Ademe (Agence de l’environnement et de la maîtrise de l’énergie), estime que le potentiel solaire inexploité sur toiture est de 364 Gigawatts, auxquels il faut ajouter les zones délaissées (parkings, friches), qui représentent un gisement inutilisé de 53 GW ! Il suffirait d’exploiter seulement 20 % de ce potentiel pour produire 96 TWh par an, soit 15 % de la consommation électrique prévue en 2050, ou encore un quart de la production électronucléaire actuelle (380 TWH par an). Rappelons qu’actuellement, la puissance totale installée du parc photovoltaïque français atteint un peu moins de 10 GW, assurant une production annuelle de 11,6 TWh.
Le Président de la République souhaite multiplier par 10 cette production d’électricité solaire d’ici 2050, en la portant à 117 TWh, ce qui représenterait 16 % de la production électrique nationale prévue à cette échéance. Cet objectif ambitieux est tout à fait à notre portée, si l’on considère l’immense potentiel du solaire photovoltaïque, mais également hybride (avec des panneaux qui produisent simultanément électricité et chaleur), et si l’on tient également compte des progrès remarquables en matière d’efficacité énergétique des cellules solaires. Nous aurons en effet sur le marché, avant la fin de la décennie, des cellules fines à pérovskites dont le rendement sera de moitié supérieur aux cellules solaires actuelles, pour un coût de production qui devrait encore sensiblement baisser. S’agissant de l’effort exceptionnel décidé le 10 février dernier en faveur de l’éolien marin, qui devrait représenter plus de 20 % de la production électrique nationale prévue en 2050 (et devenir ainsi la 2ème source d’énergie électrique, derrière le nucléaire), il peut également paraître très ambitieux, mais il est également tout à fait atteignable, si l’on tient compte des énormes avancées technologiques en cours qui vont se matérialiser dans les éoliennes marines de prochaine génération. Il faut en effet savoir que les trois leaders du secteur, GE, Siemens-Gamesa et Vestas, vont prochainement mettre sur le marché une nouvelle génération de "géantes des mers" qui vont changer la donne énergétique.
Ces machines gigantesques, d’une hauteur de 260 mètres, auront des pales de 110 mètres de long et une surface de balayage de 43 000 m2. Placées dans des zones bien venteuses, elles pourront produire, en moyenne, 80 millions de kWh par an, de quoi alimenter en électricité 17 000 foyers (chauffage compris). Ces machines pourront en outre être complétées par de nouvelles éoliennes flottantes géantes, pouvant être installées en toute sécurité à plusieurs dizaines de km des côtes. Ces éoliennes flottantes de 190 mètres de haut peuvent exploiter des vents plus forts et plus réguliers et cinq d’entre elles viennent d’être mises en service au large des côtes d’Ecosse, un pays en pointe mondiale dans le développement des énergies de la mer. Quant à l’électricité excédentaire qui sera produite par ces machines marines, elle pourra être utilisée sur place pour produire directement de l’hydrogène vert qui sera utilisé, soit directement comme carburant (pour la mobilité lourde, trains, bus, bateaux, avions), soit source d’électricité, dans des piles à combustible. RWE, le plus grand producteur d'électricité allemand, vient de s’engager dans un gigantesque projet, baptisé H2opZee, de production d'hydrogène vert en mer du Nord d'ici 2030. La capacité d'électrolyse de ce projet atteindra à terme 500 mégawatts et permettra de convertir l'énergie éolienne marine excédentaire en hydrogène vert, qui sera acheminé à terre grâce à un pipeline existant en mer du Nord.
Dans ce scenario énergétique qui s’esquisse pour 2050, la part de l’hydroélectricité resterait à peu près stable en pourcentage, autour de 10 %. La part des énergies fossiles, qui représente encore 9 % de notre production électrique, serait ramenée à zéro, pour accélérer la décarbonation de notre mix énergétique. Au final, si l’on articule les différentes annonces présidentielles, on constate que la part totale des énergies renouvelables dans la production d’électricité (elle-même en augmentation sensible au sein de notre bilan énergétique global) serait presque multipliée par quatre en valeur absolue, et par trois, en pourcentage, passant de 21,5 % aujourd’hui, à 59 % en 2050. Mais, si l’on examine la place des différentes énergies renouvelables dans ce scenario, on constate que c’est, de loin, l’éolien marin qui se taille la part du lion, puisqu’il représenterait 21 % de notre mix énergétique en 2050, et deviendrait alors la deuxième source d’électricité, derrière le nucléaire, mais loin les autres sources propres, qu’il s’agisse de solaire (16 %), de l’éolien terrestre (9,3 %) ou de l’hydraulique (9,8 %).
Le scénario présidentiel repose, rappelons-le, sur une hypothèse qui prévoit une augmentation de 35 % de la production et de la consommation d’électricité en France d’ici 2050. Mais pour certains experts, cette hypothèse, dite "médiane", pourrait bien sous-estimer la hausse de la demande électrique d’ici le milieu du siècle. Ces spécialistes rappellent en effet que la consommation électrique en France a été multipliée par quatre depuis 1970 et a progressé deux fois plus vite que la consommation d’énergie, ce qui est logique car l’électrification n’a cessé de s’étendre dans notre économie, pour conquérir de nouveaux secteurs, de nouveaux usages, de nouveaux services…
Ce scenario de référence prévoit d’ailleurs, dans le prolongement de cette évolution historique, que trois secteurs vont connaître une accélération notable de leur électrification, les transports, avec une forte montée en puissance des véhicules "tout électrique" (+ 85 TWh sur la période), l'industrie (+ 65 TWh) et la production d'hydrogène (+ 50 TWh). S’agissant du secteur des transports, RTE prévoit que plus de 40 % du parc automobile léger soient composés de véhicules électriques ou hybrides rechargeables à l'horizon 2035, soit 16 millions de véhicules électriques à cet horizon. Reste que, face au fort développement attendu des véhicules tout électrique (qui devrait absorber 10 % de la production électrique nationale en 2035), il est absolument nécessaire, pour éviter des pics de demande ingérable sur les réseaux électriques, de déployer dès à présent la technologie V2G et d’imposer aux constructeurs l’ajout à leurs voitures électriques d’un système de charge bidirectionnel, qui autorise le flux d’énergie à circuler dans les deux sens, du fournisseur à l’utilisateur et vice versa.
On voit donc, même si cela peut d’abord paraître paradoxal, que notre pays, à la fois pour améliorer l’efficacité énergétique globale de notre économie, et respecter ses engagements climatiques internationaux (Accords de Paris) et nationaux, va devoir simultanément diminuer globalement sa consommation d’énergie d’ici à 2050, et augmenter sensiblement sa production d’électricité. Toute la question est de trouver le bon équilibre entre ces deux tendances inéluctables. Rappelons que la France a décidé, dans le cadre de sa Stratégie Nationale Bas Carbone (SNBC), de réduire de 40 % sa consommation d’énergie finale dans les trente ans à venir. Mais dans le même temps, pour atteindre la neutralité carbone en 2050, l’électricité devra couvrir 55 % des 930 TWh d’énergie finale consommée, soit 645 TWh (y compris la production d'hydrogène).
Dans ce scenario, certains secteurs comme le logement résidentiel et le tertiaire devraient voir leur consommation d'électricité diminuer grâce à l'amélioration de l'efficacité énergétique (isolation des bâtiments, gestion numérique intelligente). Le secteur du bâtiment (résidentiel-tertiaire), il est important de le rappeler, pèse pour 44 % dans la consommation énergétique finale française, tout secteur confondu (transports, agriculture, sidérurgie, industrie), soit 61 Mtep en 2019, sur 139 Mtep d’énergie finale consommée.
En juin 2008, une remarquable étude réalisée par une équipe d'EDF-R&D avait imaginé un scénario d'évolution vers des bâtiments (des secteurs résidentiel et tertiaire) ne faisant pas appel aux énergies fossiles, à l'horizon 2050. Ce travail, qui fait toujours référence aujourd’hui, montrait pour la première fois, de manière rigoureuse, qu’il était possible, sans rupture technologique majeure, en améliorant l'isolation et l'efficacité énergétique, en intégrant massivement les énergies renouvelables dans le bâti neuf et en rénovation, et en exploitant toutes les potentialités de la gestion numérique intelligente des bâtiments, de ne plus recourir aux énergies fossiles dans le bâtiment. Mais l’enseignement majeur de cette étude est que cette décarbonation totale du bâtiment pourrait en outre s’effectuer sans augmenter de façon significative la demande d'électricité et en réduisant, de surcroît, ses émissions de CO2 de 90 millions de tonnes par an, une économie qui représenterait plus de 20 % de nos émissions nationales de CO2…
Aujourd’hui, la chaleur représente plus de la moitié des besoins énergétiques de la France. Elle sert essentiellement à chauffer logements et bureaux et, dans une moindre mesure, à des utilisations industrielles. Cette chaleur reste produite à 80 % par des énergies fossiles, et c’est bien là tout le problème, car, pour atteindre 32 % d’énergies renouvelables dans le mix énergétique français en 2030, il va falloir atteindre l’objectif de multiplication par 5 de la chaleur renouvelable (facteur 5) prévu par la loi de transition énergétique. Heureusement, une vraie dynamique s’est enclenchée : le nombre de logements chauffés avec de la biomasse solide devrait passer de 8 à 11 millions d’ici 2028. Le marché des pompes à chaleur (PAC) est en train d’exploser. Il a été multiplié par cinq en moins de 10 ans, passant de 52 000 pompes en 2011 à 267 000 vendues en 2021. Et ce marché pourrait encore tripler d’ici 2030, pour atteindre 6,33 Mtep à la fin de la décennie. La France a également les capacités d’accélérer le développement du biogaz et du biométhane. Selon l’Association européenne de Biogaz (EBA), le biométhane durable, dont la France est devenue le 2ème producteur européen, pourrait couvrir jusqu’à 40 %, de la consommation de gaz de l’Union en 2050. En France, les principaux producteurs, GRTgaz, le SPEGNN et TIGF estiment qu’il est possible de porter de 6 % aujourd’hui, à 30 %, la part du gaz renouvelable (soit 90 TWH) dans la consommation finale de gaz en France en 2030.
Mais une autre révolution, déjà amorcée, pourrait venir encore accélérer la transition énergétique en cours, celle des bâtiments à énergie positive, rendue possible par une combinaison ingénieuse des dernières technologies énergétiques, climatiques et numériques. Dans plusieurs métropoles, Dijon, St-Etienne, Strasbourg, le groupe immobilier Elithis vient de réaliser des tours d’habitation qui, en associant les meilleures technologies disponibles en matière d’isolation, d’intégration énergétique et de gestion numérique, parviennent, in fine, à produire plus d’énergie que leurs occupants n’en consomment… Et, contrairement aux idées reçues, la construction de ces tours ne coûte pas plus cher qu’un bâtiment standard, grâce à une conception rigoureuse et à des économies judicieuses au niveau des matériaux. Elithis, fort du succès de ses premières réalisations, compte à présent construire une centaine de ces tours à énergie positive d’ici 10 ans.
Le choix présidentiel vise à combiner le développement considérable des différentes sources d’énergie renouvelable et le renouvellement de notre parc nucléaire vers la technologie EPR, à la fois plus efficace sur le plan énergétique et plus sûre, de par sa conception et ses multiples systèmes de sécurité. L’objectif est de parvenir à décarboner largement notre économie d’ici 2050, tout en assurant une production suffisante d’énergie, à un coût financièrement et socialement supportable par nos concitoyens. Néanmoins, si nous voulons à la fois tenir notre objectif ambitieux de réduction de 40 % de notre consommation globale d’énergie d’ici 2050, et sortir des fossiles à cette échéance (notamment pour le chauffage) tout en maintenant notre qualité de vie, et sans recourir à des politiques de rationnements ou de quotas d’énergie, nous devons sans tarder adopter des normes de constructions à énergie positive, pour tous les nouveaux bâtiments, qu’il s’agisse de maisons individuelles, de bureaux ou d’habitat collectif.
Je voudrais enfin évoquer, pour conclure, un sujet que n’a pas abordé le chef de l’Etat à Belfort, mais qui va bouleverser, j’en suis convaincu, notre paysage énergétique. Il s’agit du rôle majeur que devrait jouer, bien plus vite qu’on le prévoyait il y a encore quelque mois, une nouvelle forme d’énergie, la fusion thermonucléaire contrôlée. Comme vous le savez, ce processus de production d’énergie à partir de la fusion d’isotopes l’hydrogène (deutérium et tritium), qui ne produit pas de déchets radioactifs à longue vie, permet de produire, avec un seul gramme d’hydrogène, autant d’énergie qu’avec huit tonnes de pétrole. Au cours de ces six derniers mois, les recherches concernant la maîtrise de cette technologie, qui vise rien moins qu’à reproduire les réactions nucléaires de fusions des atomes, à l’œuvre dans les étoiles (dont notre Soleil), ont connu, en quelques mois, trois avancées majeures, qui ont malheureusement été peu médiatisées. Ces ruptures technologiques bouleversent le calendrier jusqu’alors établi, pour le déploiement industriel de cette source d’énergie, très difficile à dompter et à mettre en œuvre.
Le 8 août 2021 au National Ignition Facility (NIF), en Californie, des physiciens américains, qui travaillent sur le confinement dit "inertiel" (l’une des deux grandes voies technologiques pour maîtriser cette forme d’énergie) sont parvenus à focaliser 192 faisceaux laser sur une petite cible en plomb, ce qui a produit un point chaud du diamètre d’un cheveu, générant plus de dix quadrillions de watts par la fusion, pendant 100 trillionièmes de secondes. La quantité d’énergie ainsi obtenue a été huit fois supérieure à celle des dernières expériences précédentes.
Le 30 décembre 2021, les chercheurs et ingénieurs de l’Institut de Physique des Plasmas de l’Académie des Sciences à Hefei en Chine, qui travaillent sur l’autre voie technologique, le confinement dit « magnétique », ont réussi à maintenir un plasma de fusion à une température de 70 millions de degrés pendant plus de 17 minutes (1056 secondes) dans le tokamak EAST. Enfin, le 9 février dernier, des scientifiques du Joint European Torus (JET), le plus grand réacteur à fusion du monde situé près d’Oxford, ont réussi à générer en cinq secondes 59 mégajoules d’énergie (assez pour assurer les besoins, pendant cinq secondes, de 35.000 foyers), multipliant par plus de deux le précédent record établi en 1997. Commentant ce résultat, Joe Milnes, directeur des opérations du JET, a déclaré que « Ces résultats sont la démonstration la plus claire à l’échelle mondiale du potentiel de la fusion pour fournir de l’énergie durable ».
Ces trois avancées tout à fait remarquables sont de très bon augure pour le succès du programme international ITER (financé par 35 pays et regroupant 1200 chercheurs et 2500 techniciens), qui va mettre en service en 2026 le plus grand réacteur à fusion nucléaire du monde (850 m3) sur le site français de Cadarache, en Provence. Ce réacteur devrait permettre, d’ici 2035, de faire la démonstration "grandeur nature" qu’il est possible de produire à l’échelle industrielle de l’énergie de fusion, de manière continue, sûre et rentable, c’est-à-dire en récupérant 10 fois plus d’énergie qu’il n’en faut pour entretenir la réaction initiale. Si ce projet ITER tient toutes ses promesses, comme on peut à présent l’espérer à la lumière de ces progrès majeurs que je viens d’évoquer, l’humanité pourrait bien disposer, plus rapidement que prévu, d’une nouvelle source inépuisable et sûre d’énergie totalement décarbonée, qui pourrait venir compléter les énergies renouvelables, pour répondre à une demande mondiale d’énergie qui va augmenter d’au moins 50 % d’ici 40 ans.
Dans cette hypothèse, la France, qui accueille le projet ITER, serait évidemment l’un des premier pays à utiliser massivement cette nouvelle forme d’énergie, qui pourrait venir totalement se substituer à l’énergie nucléaire de fission, la seule utilisée jusqu’à présent. Mais en attendant ce jour, notre pays doit préparer sa sortie définitive des énergies fossiles, et assurer à nos concitoyens et à notre société une production d’énergie suffisante, propre, participant activement au développement local de nos territoires et économiquement abordable, ce qui ne sera possible qu’en se dégageant des approches idéologiques simplistes et en combinant de manière responsable, intelligente et visionnaire, les différentes sources d’énergie durable et non émettrice de CO2 que la nature et l’ingéniosité humaine nous offrent…
René TRÉGOUËT
Sénateur honoraire
Fondateur du Groupe de Prospective du Sénat
e-mail : tregouet@gmail.com
|
|
|
|
|
|
|
|
Matière |
|
|
Matière et Energie
|
|
|
|
|
|
|
|
|
La synthèse de l'ammoniac (NH3), molécule clé pour l'industrie agrochimique, nécessite des conditions de température et de pression élevées, ce qui engendre 1,4 % des émissions mondiales de dioxyde de carbone. Réduire ces émissions en utilisant une source d’énergie renouvelable pour l’électrosynthèse de cette molécule à partir d’ions nitrate, c’est ce que viennent de réaliser les scientifiques de l'Institut Européen des membranes (CNRS / ENSC Montpellier / Université de Montpellier). Pour cela, ils ont conçu un catalyseur qui s’inspire de la structure des sites actifs des enzymes naturelles responsables de la fixation de l'azote et qui permet d’atteindre une sélectivité proche de 100 % pour la formation de NH3.
La réduction électrochimique directe du diazote N2, composant majoritaire de l’atmosphère, pour la production d'ammoniac dans des conditions douces, est limitée par plusieurs facteurs dont l’inertie de la triple liaison N≡N, particulièrement difficile à rompre. Un moyen de contourner cette limitation est d’utiliser le nitrate NO3- comme source d'azote pour l'électrosynthèse de NH3 pour lequel les liaisons sont bien plus faciles à rompre. Massivement utilisé comme engrais et donc largement présent dans l'environnement, l’ion nitrate NO3- est reconnu pour être responsable de malformations congénitales, de cancers de la thyroïde et de la vessie…
Sa conversion électrochimique en ammoniac pourrait donc également constituer une stratégie potentielle de dépollution. Une équipe internationale menée par des scientifiques de l'Institut européen des Membranes (CNRS / ENSC Montpellier / Université de Montpellier), en collaboration avec des chercheurs de l'Université de Shenzhen et de l'Université de Shaanxi en Chine, a conçu un catalyseur qui s’inspire de la structure des sites actifs des enzymes naturelles responsables de la fixation de l'azote.
Constitué d’atomes de fer isolés supportés sur des nanofeuillets de MoS2 bidimensionnels, il permet de convertir les ions nitrate en ammoniac, de manière électrocatalytique, avec une sélectivité proche de 100 %. Ces performances catalytiques sont parmi les plus élevées observées à ce jour. Les scientifiques sont ensuite parvenus à les insérer dans un dispositif d’électrolyse couplé à une cellule solaire photovoltaïque ; ils ont obtenu une efficacité de conversion solaire du nitrate en ammoniac d'environ 3,4 % avec un rendement de 510 µg h-1 cm-2, une des plus hauts rapporté à ce jour pour des catalyseurs à base d’atomes individuels. Ils proposent ainsi une nouvelle stratégie pour la production d'ammoniac utilisant de l’énergie renouvelable.
Ces travaux, menés dans le cadre du Conseil européen de la recherche (ERC), dans le cadre du programme de recherche et d'innovation Horizon 2020 de l'Union européenne et publiés dans la revue Advanced Functional Materials, permettent d’envisager le développement de nouvelles électrodes pour la synthèse d’ammoniac, l'un des plus importants produits de base de l’industrie pour la fabrication d'engrais et de polymères, ou comme vecteur d’hydrogène décarboné.
Article rédigé par Georges Simmonds pour RT Flash
CNRS
|
|
|
|
|
|
|
|
Et si demain, l’énergie des voitures électriques n’était plus stockée dans des batteries telles qu’on les connaît aujourd’hui, mais dans la structure même des véhicules, comme le plancher ou la carrosserie ? Ce changement de paradigme pourrait devenir une réalité et repose sur une nouvelle technologie, celle des batteries structurelles. Ces dernières ont la particularité d’être conçues à partir de matériaux dits multifonctionnels, capables à la fois de stocker de l’électricité tout en possédant une intégrité mécanique. L’intérêt est double : gagner en encombrement, mais surtout en poids, afin d’alléger les véhicules et donc augmenter leur autonomie. Au-delà des voitures, cette technologie pourrait intéresser toutes les applications de transport, allant des vélos électriques jusqu’aux avions de petite taille.
Ces batteries structurelles fonctionnent selon le même principe que les batteries électrochimiques au lithium, sauf que les matériaux utilisés ne sont pas les mêmes. Ici, elles peuvent par exemple être constituées de polymères renforcés par des fibres de carbone qui servent à la fois d’électrode et de renforcement structurel mécaniquement porteur. Plus précisément, les fibres de carbone sont noyées dans un matériau formant une matrice à l’image d’un composite. Plusieurs couches sont ainsi formées et empilées les unes sur les autres. « Cette configuration permet le transfert de charge entre les fibres ainsi que le transport des ions lithium », explique Gaël Guégan, ingénieur veille stratégique au Cetim et auteur d’une note sur ce sujet. Ce qui n’est pas le cas des batteries standard qui sont constituées de matrices, par exemple en vinylester ou époxy sur des composites thermodurcissables ».
D’importants obstacles restent à surmonter avant de voir cette technologie sur le marché, notamment en matière de conception de ces matériaux multifonctionnels et d’industrialisation. Néanmoins, les perspectives sont très encourageantes. Ainsi, l’entreprise américaine Kitty Hawk a mis au point un petit avion électrique dénommé Cora, au gabarit proche de celui d’un taxi volant, et équipé de batteries structurelles dont l’énergie spécifique atteint 220 wattheures par kilogramme. « Pour développer le marché des voitures volantes, il est couramment admis qu’il faudrait atteindre 400 wattheures par kilogramme », complète l’ingénieur du Cetim. « Cela signifie qu’il ne reste plus qu’un facteur de deux pour atteindre cet objectif ».
Tesla semble très avancé dans ce domaine puisque le constructeur de voitures électriques a annoncé que son modèle Y, construit dans sa gigafactory à Berlin, sera équipé de batteries structurelles, tout comme son modèle S Plaid. « Leur technologie a été annoncée il y a plusieurs années à travers des brevets, mais c’était tellement avant-gardiste qu’on s’est demandé comment ils allaient s’y prendre pour l’intégrer dans leurs voitures. Ils ont non seulement une longueur d’avance sur les aspects électriques, mais aussi en l’occurrence sur les systèmes de stockage ».
Ces batteries structurelles devraient être intégrées dans le plancher des véhicules, à l’aide d’une presse hydraulique de 8 000 tonnes qui sera capable de fabriquer à terme ces planchers en une seule pièce. La firme automobile a annoncé que cette nouvelle technologie lui permettrait de multiplier par 5 l’énergie stockée, par 6 la puissance, et d’augmenter de 16 % l’autonomie du véhicule. « L’intérêt de cette technologie pour le secteur automobile est qu’en réduisant le poids de la voiture, vous pouvez massivement améliorer son autonomie, puisque retirer la moitié du poids du véhicule permet de doubler son autonomie », analyse Gaël Guégan. « Ainsi, choisir un matériau qui stocke l’énergie nécessaire à la propulsion et sert également à supporter la charge mécanique de la voiture sera considéré comme un réel avantage ».
En Europe, plusieurs projets de développement de cette technologie sont menés, notamment celui baptisé SORCERER (Structural pOweR CompositEs foR futurE civil aiRcraft). Il réunit quatre universités européennes : l’Imperial College London au Royaume-Uni, l’IMDEA (Instituto Madrileño de Estudios Avanzados) en Espagne ainsi que le KTH (Kungliga Tekniska högskolan) et l’Université technologique de Chalmers en Suède. En plus d’améliorer les performances électriques et mécaniques de ces matériaux multifonctionnels, son objectif est de résoudre les problèmes liés à leur intégration et à leur mise à l’échelle.
Article rédigé par Georges Simmonds pour RT Flash
Techniques de l'Ingénieur
|
|
^ Haut |
|
|
|
|
|
|
|
Vivant |
|
|
Santé, Médecine et Sciences du Vivant
|
|
|
|
|
|
|
|
|
On connaissait déjà les dégâts du tabagisme passif en France, responsable d'au moins 5 000 morts par an. Mais selon une étude de l'Université de Californie du sud-Los Angeles, le fait d’inhaler, de façon involontaire, une bouffée dégagée par un ou plusieurs utilisateurs de cigarette électronique présente également un réel risque pour la santé. Pour parvenir à cette conclusion, des chercheurs de l’Université de Californie du Sud, à Los Angeles (aux États-Unis), sont partis d’un constat. « On sait actuellement peu de choses sur les effets de l'exposition à la nicotine due au vapotage sur la santé », ont-ils noté. Ils ont ensuite voulu savoir si le vapotage "passif" était associé à des problèmes respiratoires chez les jeunes adultes.
Pour étudier l’impact de cette exposition aux vapeurs de cigarette électronique sur la santé respiratoire, ils ont analysé une recherche appelée "Southern California Children Health Study". Cette dernière a été menée auprès de 2.097 jeunes adultes de 2014 à 2019. Chaque année, les participants devaient donner des informations sur leur santé respiratoire, leur exposition à la fumée de tabac, de cannabis et aux vapeurs de cigarette électronique.
D’après les auteurs de l’étude, la prévalence du vapotage "passif" a augmenté de 11,7 % à 15,6 % entre 2014 et 2019. « La prévalence de la respiration sifflante, des lésions des bronches et de l'essoufflement est passé de 12,3 % à 14,9 %, de 19,4 % à 26 % et de 16,5 % à 18,1 %, respectivement, pendant la durée d'étude », peut-on lire dans les résultats. Selon les scientifiques, les jeunes adultes qui avaient été exposés aux vapeurs de cigarette électronique étaient plus susceptibles de souffrir de problèmes respiratoires que les participants qui n’y avaient pas été exposés.
Article rédigé par Georges Simmonds pour RT Flash
Thorax
|
|
|
|
|
|
|
|
Des chercheurs de l’Université de Durham (Angleterre), ont montré qu'un revêtement polymère à base de sucre pouvait réparer la surface des implants articulaires comme les prothèses de hanche, lorsqu'ils sont endommagés par l'usure. La technique, documentée dans la revue Chem, montre la capacité du revêtement non seulement à limiter les frottements et les dommages, mais à se régénérer lui-même, rendant ainsi inutile une nouvelle intervention.
Alors que le cartilage peut être restauré par le corps humain s'il est endommagé, les surfaces artificielles des implants ne se réparent pas aussi facilement. Cette équipe internationale de chimistes et de bioingénieurs des Universités Durham et York et de l'Université Tsinghua (Chine) s’est inspirée de la façon dont le cartilage fonctionne naturellement, pour mettre au point cette technique de lubrification des articulations -artificielles- chez l'Homme.
Si le revêtement polymère développé par l’équipe est soumis à des frottements, une molécule de sucre présente dans sa structure lui permet de se rattacher à la surface de l’implant. Le revêtement imite la façon dont le cartilage fonctionne naturellement pour lubrifier les articulations humaines : il utilise de l'eau qu’il maintient à sa surface pour créer une surface lisse qui minimise les dommages causés par les frottements et l’usure.
« C’est une nouvelle technique attrayante pour réparer les dommages causés aux surfaces des prothèses soumises au frottement : les articulations de la hanche et du genou de notre corps résistent à des décennies d'usure grâce au cartilage qui est constamment réparé et remplacé, nos matériaux fonctionnent de manière similaire, mais avec les articulations artificielles ».
Les composants de ce revêtement sont biocompatibles, ce qui permet leur utilisation en médecine. Le revêtement polymère possède une longue chaîne moléculaire avec des charges positives et négatives, ce qui lui permet de former cette couche d'eau protectrice à la surface, via un effet similaire à l'électricité statique. Une molécule de sucre est attachée à une extrémité de la chaîne. Cette molécule s'ancre à la surface en s'arrimant à des molécules spécifiques, appelées adamantanes. Le titane des implants est traité avec ces structures en adamantane de manière telle que le revêtement polymère est attiré par la surface de l’implant. Lorsque la couche de revêtement protecteur est usée, elle est restaurée sans avoir besoin d’une nouvelle intervention, grâce à une reconnaissance moléculaire ciblée.
Article rédigé par Georges Simmonds pour RT Flash
Palatinate
|
|
|
|
|
|
|
|
Pour réduire la prise d'espèces non ciblées par la pêche, une équipe française de l'IFREMER teste des chaluts intelligents permettant de trier le poisson avant même de le remonter à bord des bateaux, mais également de limiter l'impact sur l'écosystème marin. Un chalut, c'est comme une grande épuisette, on la remorque derrière le navire pendant plusieurs heures sans avoir connaissance de ce qui y entre en temps réel, à savoir si ce sont des espèces qui sont ciblées par le pêcheur ou non, illustre auprès de l'AFP Julien Simon, du Laboratoire de technologie et biologie halieutique de l'IFREMER.
Avec d'autres partenaires, dont l'Université de Bretagne Sud (UBS), la société Marport, spécialisée dans les capteurs de haute technologie, et le comité des pêches du Morbihan, l'institut public pilote ce projet de chalut intelligent baptisé Game of Trawls, jeu de mots avec la série à succès Game of Thrones et acronyme de Giving Artificial, Monitoring intElligence tO Fishing Trawls.
Chaque année, 20 millions de tonnes de poisson, soit environ le quart des captures marines totales, sont rejetées en mer ou ramenées à quai, bien que non exploitées, selon l'Organisation des Nations unies pour l'alimentation et l'agriculture (FAO). Variable en fonction des espèces ciblées, le taux de rejet dans le cas de la pêche à la sardine est de 22 %, quand il atteint 41 % pour la pêche à la langoustine, selon des données de l'Institut français de recherche pour l'exploitation de la mer.
Malgré des engins de pêche de plus en plus sélectifs, grâce à des tailles et des formes de mailles adaptées, leur efficacité dépend toujours de la volonté ou non des poissons de s'en extraire et non d'une décision des pêcheurs.
Les poissons adoptent souvent un comportement d'évitement face aux mailles des filets qui fait que finalement ils restent à l'intérieur, explique Julien Simon, soulignant également l'effet banc.
Le chalut intelligent constitue un outil d'aide à la décision pour les pêcheurs, assure l'ingénieur, dont le projet s'appuie sur les avancées technologiques récentes dans les domaines de l'intelligence artificielle et des réseaux de capteurs. Doté de caméras, de capteurs et de puissants logiciels d'analyse, le dispositif permet ainsi d'informer le pêcheur en temps réel des espèces capturées, de leur taille et de leur abondance.
Outre ce dispositif innovant de filet pélagique, c'est-à-dire évoluant entre la surface et le fond sans entrer en contact avec celui-ci, un chalut de fond, également doté de caméras et de capteurs, est en test à Lorient. Mais cette fois, le dispositif vise à préserver au mieux l'écosystème marin.
En fonction de la présence d'espèces ciblées ou non ciblées, le chalut va se mettre en mode pêche ou en mode vol afin d'éviter d'avoir un impact sur les fonds marins, explique Julien Simon, devant un prototype immergé dans ce bassin où un courant est généré afin de simuler l'avancée d'un bateau. Cependant, sur les quais, certains marins s'inquiètent du coût d'un tel dispositif. Même si, comme toute innovation vertueuse, il pourrait ouvrir droit à des aides lors de sa mise sur le marché d'ici 2025.
Article rédigé par Georges Simmonds pour RT Flash
Radio Canada
|
|
|
|
|
|
|
|
Des chercheurs de l'Université de technologie de Sydney (UTS) ont identifié une petite molécule d'ARN qui pourrait changer la donne dans la prise en charge de la maladie pulmonaire obstructive chronique (MPOC), une maladie chronique que l'on peut soulager mais qui reste, sans solutions thérapeutiques satisfaisantes, et se caractérisant par l'essoufflement, la toux chronique, une maladie handicapante et mortelle. Le mi-ARN-21 se révèle une cible thérapeutique possible pour lutter contre la maladie pulmonaire obstructive chronique (MPOC). Cette étude montre que l’inhibition de ce mi-ARN trouvé à niveaux élevés dans les formes sévères, permet -chez la souris modèle- de restaurer la fonction pulmonaire.
L’équipe du Docteur Phil Hansbro, Directeur du Centenary Institute for Inflammation de l’UTS, a identifié des niveaux élevés de miARN-21 chez des souris modèles de MPOC. L’équipe démontre ensuite qu’un inhibiteur de miARN-21 (antagomir-21) permet de réduire l'inflammation et d’améliorer la capacité et la fonction pulmonaires chez ce modèle animal. L’étude montre qu’antagomir-21 permet à la fois de réduire l'expression du microARN-21, de supprimer l'afflux de cellules inflammatoires dans les voies respiratoires et les poumons, et d'inhiber la production de cytokines pulmonaires, qui amplifient la réponse inflammatoire.
L'étude souligne que « Le miARN-21 est une molécule courante qui s'exprime dans la plupart des cellules du corps humain et régule de nombreux processus biologiques critiques. Nos résultats démontrent que les niveaux de miARN-21 augmentent de manière excessive dans la MPOC », commente l’auteur. « Nous suggérons que les inhibiteurs du miARN-21 ouvrent une nouvelle voie thérapeutique, pour le traitement de la BPCO, qui touche 65 millions de personnes dans la monde et deviendra la 3ème cause de mortalité d'ici 2030 ».
Article rédigé par Georges Simmonds pour RT Flash
STM
|
|
|
|
|
|
|
|
Une étude réalisée par des chercheurs de la Fondazione IRCCS Istituto Nazionale dei Tumori (Milan) a montré que le programme de restriction calorique sévère, imitant le jeûne, permet de moduler le métabolisme et de renforcer l'immunité antitumorale chez les patients atteints de certains cancers. De précédentes études, précliniques, avaient déjà suggéré qu'une restriction calorique sévère sous la forme d'un jeûne intermittent, ou d'un régime imitant le jeûne, peut avoir de puissants effets anticancéreux lorsqu'elle est associée à des traitements pharmacologiques standards. Cependant, l'innocuité et les effets biologiques de la restriction calorique chez les patients cancéreux ont été relativement encore peu étudiés.
L’essai a été mené auprès de 101 patients présentant différents types de tumeurs traités avec différentes thérapies anticancéreuses standards. Les chercheurs ont invité les participants à suivre un régime de restriction calorique, essentiellement à base de végétaux à faible teneur en glucides et en protéines, fournissant jusqu'à 600 Kcal le jour 1 et environ 300 Kcal les jours 2, 3, 4 et 5, pour un apport calorique total de 1.800 Kcal sur 5 jours. Ce cycle a été répété toutes les 3 ou 4 semaines jusqu'à un maximum de 8 cycles consécutifs. La restriction calorique était suivie d'une période de réalimentation "normale" de 16 à 23 jours, au cours de laquelle les patients n'ont été soumis à aucune restriction alimentaire spécifique mais ont été invités à se conformer aux recommandations relatives à une alimentation et un mode de vie sains. Les chercheurs ont également évalué les effets de la restriction calorique sur le métabolisme et les réponses immunitaires des patients.
Les chercheurs ont ensuite évalué les cellules immunitaires infiltrant la tumeur, et les profils immunitaires chez un sous-groupe de 22 patientes atteintes d'un cancer du sein pour lesquelles suffisamment de tissu tumoral avait été collecté avant et après la restriction alimentaire. L’analyse montre une bonne sécurité de ce programme de restriction avec une incidence d'événements indésirables de 12,9 %, les effets les plus courants étant la fatigue, rarement grave. Ce programme apparaît donc "faisable" et bien toléré par la majorité des participants, quel que soit le type de tumeur et les thérapies antitumorales suivies.
Chez 99 patients évaluables, ce régime de restriction calorique a permis de réduire la glycémie de 18,6 %, l'insuline sérique de 50,7 % et l'IGF-1 (hormone de croissance Insulin-like Growth Factor One) sérique de 30 %, ces modifications restant stables au cours des 8 cycles consécutifs. L'étude montre qu'à l'issue d'un cycle de 5 jours de restriction calorique, on observe chez 22 patientes atteintes d'un cancer du sein, une augmentation sensible des cellules T CD8+ activées infiltrant la tumeur et d'autres modifications exprimant un microenvironnement immunitaire antitumoral, après la restriction calorique.
« Ce type de programme peut vraiment favoriser l'activation de réponses immunitaires antitumorales », concluent les chercheurs qui rappellent que : « la restriction calorique est une approche sûre, peu coûteuse et efficace, qui peut être combinée avec des thérapies antinéoplasiques standard, dans le traitement du cancer ». La restriction calorique sévère génère un « choc » métabolique qui active plusieurs populations de cellules immunitaires, ce qui augmente également l'activité antitumorale des traitements anticancéreux. Ces effets positifs sont observés à la fois au niveau systémique et tumoral, ce qui suggère une réponse immunitaire globale qui prend naissance dans le sang et se propage ensuite à la tumeur.
Article rédigé par Georges Simmonds pour RT Flash
Cancer Discovery
|
|
|
|
|
|
|
|
Des chercheurs de la Northwestern University (Illinois) ont identifié un nouveau marqueur de l'autisme chez les enfants qui pourrait conduire non seulement à un nouveau test diagnostique et à un nouveau traitement chez les enfants atteints d'autisme mais aussi d'épilepsie. Ces travaux révèlent ainsi des niveaux très faibles d'une protéine cérébrale "apaisante" dans l'autisme et qui pourraient également favoriser le développement de l'épilepsie.
L’incidence de l’autisme ou des troubles du spectre autistique (TSA) est aujourd’hui estimée à 1/58 enfant. 30 à 50 % des enfants autistes souffrent également d'épilepsie, soulignent les chercheurs qui identifient peut-être le mécanisme sous-jacent de cette corrélation entre les 2 conditions, avec la découverte de ce nouveau marqueur cérébral. Cette protéine, CNTNAP2, peut être détectée dans le liquide céphalo-rachidien (LCR). Elle constitue un marqueur prometteur pour diagnostiquer l'autisme et pourrait probablement être utile aussi pour dépister et traiter l'épilepsie.
La protéine, CNTNAP2, est produite par les cellules du cerveau lorsqu'elles deviennent hyperactives. Lorsque les cellules cérébrales sont trop actives en raison d'une surstimulation, elles produisent plus de CNTNAP2, la protéine flotte et se lie à d'autres cellules cérébrales pour les calmer. La protéine s'infiltre également dans le liquide céphalo-rachidien, où les scientifiques ont pu la mesurer. Ainsi, cela leur a également donné une idée de la quantité produite dans le cerveau. Parce que le cerveau des enfants atteints d'autisme et d'épilepsie n'a pas assez de CNTNAP2, leur cerveau ne se calme pas ou reste en état d’hyperexcitation, ce qui peut entraîner des convulsions.
L’équipe analyse ici le LCR de personnes atteintes d'autisme et d'épilepsie, ainsi que le LCR de souris modèles. Les scientifiques ont également analysé, pour comparaison, le LCR de patients atteints de la maladie d'Alzheimer et de la maladie de Parkinson. Ces travaux confirment qu'il s'agit d'un biomarqueur spécifique de l'autisme. Cette protéine CNTNAP2 apparaît ainsi une cible prometteuse dans l'autisme et l'épilepsie et pourrait conduire à de nouveaux traitements.
Article rédigé par Georges Simmonds pour RT Flash
Neuron
|
|
|
|
|
|
|
|
Des chercheurs de l’Université de Stockholm ont mis au point un "faux sang", à base de jus de betterave, qui attire les moustiques et les tuent, grâce à la toxine spécifique qu'il contient. La malaria a la particularité vicieuse de non seulement rendre les gens très malades, mais aussi de faire que les moustiques sont davantage attirés par les personnes infectées, facilitant la contagion en répandant le parasite provoquant la maladie.
En 2017, Noushin Emami et d’autres chercheurs ont découvert que ce phénomène était lié à une molécule spécifique – l’HMBPP – produite lorsque le parasite en question s’attaque aux globules rouges de la victime. « Si nous ajoutons cette molécule à n’importe quel liquide, nous le rendons très attirant pour les moustiques », explique la scientifique. « En combinant la molécule avec une quantité infime de toxines, les moustiques l’avalent et meurent » en quelques heures, sans avoir même besoin d’utiliser du vrai sang pour les attirer. L’objectif est également d’utiliser des « composés mortels inoffensifs, respectueux de l’environnement et faciles à obtenir », dit-elle.
Pour Lech Ignatowicz, qui a cofondé la société "Molecular Attraction" qui développe le produit, la méthode est considérablement plus efficace et moins nuisible que les immenses quantités de pesticides épandues pour neutraliser les moustiques, souvent dangereuses pour l’environnement ou la santé. « Les pesticides tuent tous les types d’insectes avec lesquels ils entrent en contact. Ici, même dans des milieux très denses comme la jungle ou les zones tropicales remplies d’insectes, nous choisissons ceux dont on veut se débarrasser », explique-t-il. « Au lieu d’un tapis de bombes », résume l’expert, il s’agit plutôt d’une bombe « dirigée vers une cible particulière ».
Selon l’OMS, les pesticides sont aussi de moins en moins efficaces contre les moustiques, avec 78 pays rapportant des cas de résistance des moustiques à au moins un des quatre insecticides les plus courants, et 29 nations pour les quatre.
Si l’équipe suédoise s’est concentrée sur le paludisme, sa méthode a aussi le potentiel de s’appliquer à d’autres maladies véhiculées par les insectes, comme celle propagée par le virus Zika. Le grand défi va désormais être de transposer la technique à grande échelle, hors laboratoire. Anders Lindström, un chercheur spécialisé dans les moustiques à l’Institut vétérinaire de Suède, pense que la méthode peut être très efficace, notamment en conjonction avec d’autres techniques.
Article rédigé par Georges Simmonds pour RT Flash
Euronews
|
|
|
|
|
|
|
|
La maladie de Huntington est une maladie héréditaire rare du système nerveux central, causée par une altération du gène codant pour la protéine huntingtine. Les premiers symptômes apparaissent généralement entre 30 et 50 ans, puis les troubles – psychiatriques, cognitifs et moteurs – s’aggravent progressivement. En France, environ 18 000 personnes sont concernées : 6 000 présentent déjà des symptômes et près de 12 000 sont porteuses du gène muté mais encore asymptomatiques.
Au cours de précédents travaux conduits chez l’humain, l’équipe du Grenoble Institut des neurosciences, dirigée par Sandrine Humbert, a montré que la maladie débute dès le stade embryonnaire, avec des anomalies du développement cérébral. Les chercheurs ont notamment décrit un problème qui affecte la division des cellules à l’origine des neurones du cortex. En poursuivant ce travail dans un modèle animal, l’équipe vient de mettre en évidence que l’amincissement du corps calleux, caractéristique de la maladie de Huntington, semble lui aussi découler de défauts dans le développement du cerveau.
Le corps calleux est composé d’axones de neurones localisés dans les deux hémisphères du cortex. En étudiant sa formation chez des souris qui modélisent fidèlement la maladie de Huntington humaine, les chercheurs ont constaté que la croissance de ces axones était anormale : ils « poussent » moins bien. En situation normale, le « cône de croissance », structure en forme de palme située à l’extrémité des axones, étire ces prolongements des neurones vers leur future cible. Mais chez les animaux voués à développer la maladie neurologique, l’architecture de ces cônes et la croissance axonale sont altérées.
En détaillant leur composition moléculaire, les chercheurs ont constaté que les cônes de croissance des neurones de souris malades présentent un important déficit en protéines NUMA1, avec pour conséquence un cytosquelette lâche et désorganisé. Déjà connue pour son implication dans la division cellulaire, NUMA1 aurait donc aussi un rôle dans la croissance axonale.
Les scientifiques ont ensuite recherché une explication à ce déficit en NUMA1. Ils ont découvert qu’il est lié à la surexpression d’un acide nucléique régulateur qui empêche la synthèse de la protéine : le microARN miR124. En bloquant l’activité de ce microARN, on rétablit la production de NUMA1 chez les souris malades, ainsi que la formation d’un corps calleux normal. Reste maintenant à comprendre le lien entre la mutation du gène de la huntingtine, responsable de la maladie, et cette surexpression de miR124. L’équipe grenobloise y travaille d’ores et déjà. « En étudiant la maladie à des stades précoces comme nous le faisons, nous progressons dans la description des événements et des mécanismes qui, plus tard, contribuent à l’apparition des symptômes », explique Sandrine Humbert. « À terme, j’espère que nous trouverons des moyens d’enrayer la progression de la maladie pour éviter − ou au moins retarder − la survenue de ces symptômes ».
Article rédigé par Georges Simmonds pour RT Flash
Inserm
|
|
|
|
|
|
|
|
Des chercheurs de l’Imperial College de Londres ont apporté les premières preuves d'un rôle protecteur des cellules T induites par d'autres coronavirus, qui peuvent reconnaître et apporter une protection contre le SRAS-CoV-2, le virus responsable du COVID-19. Ces travaux ont examiné comment la présence de ces cellules T au moment de l'exposition au SRAS-CoV-2 influence la sévérité de l’infection, et apporte également les bases d'un vaccin universel de deuxième génération qui pourrait prévenir l'infection par les variantes actuelles et futures du coronavirus, dont le nouveau variant Omicron.
L’auteur principal, le Docteur Rhia Kundu, de l’Imperial’s National Heart & Lung Institute, explique : « Être exposé au virus SARS-CoV-2 n'entraîne pas toujours une infection, et nous avons voulu comprendre pourquoi. Nous avons découvert que des niveaux élevés de cellules T préexistantes, créées par le corps lorsqu'il est infecté par d'autres coronavirus humains comme ceux qui provoquent le rhume, peuvent protéger contre l'infection au COVID-19 ».
L'étude débutée au Royaume-Uni en septembre 2020, au tout début de l’épidémie, a suivi 52 participants vivant alors avec une personne infectée par le SRAS-CoV-2 confirmée par PCR, et donc exposés au virus, via ce proche. Les participants ont fait des tests PCR à l’inclusion, puis 4 et 7 jours plus tard, pour vérifier la contraction ou pas de l’infection. Des échantillons de sang ont été prélevés chez les participants, dans les 1 à 6 jours suivant leur exposition au virus. Les chercheurs ont ainsi analysé les niveaux de cellules T préexistantes induites par des infections à coronavirus antérieures -qui reconnaissent également les protéines du virus SARS-CoV-2.
Cette analyse révèle des niveaux significativement plus élevés de ces cellules T à réactivité croisée chez les 26 participants qui n'ont pas été infectés, vs les 26 qui l'ont été par le SARS-CoV-2 ; Cette étude montre également que ces cellules T ciblent des protéines internes au virus SARS-CoV-2, plutôt que la protéine de pointe à la surface du virus, pour protéger leur hôte contre l'infection.
Les vaccins actuels n'induisent pas de réponse immunitaire à ces protéines internes. Ces nouvelles cibles constituent ainsi la découverte principale de cette étude : car les chercheurs affirment ici que, parallèlement aux vaccins existants ciblant les protéines de pointe, ces protéines internes offrent une nouvelle cible vaccinale qui pourrait fournir une protection durable, car les réponses des lymphocytes T persistent plus longtemps que les réponses des anticorps qui diminuent quelques mois après la vaccination. Le Professeur Ajit Lalvani, co-auteur principal et directeur du Département de prévention contre les infections respiratoires à l'Impérial College, conclut que l’étude apporte une preuve claire du rôle protecteur des cellules T induites par les coronavirus du rhume contre l’infection à SRAS-CoV-2.
Article rédigé par Georges Simmonds pour RT Flash
Nature
|
|
|
|
|
|
|
|
Des chercheurs de la Harvard T.H. Chan School of Public Health (Boston) ont voulu évaluer l’association entre l’apport en vitamine D et le risque de cancer du côlon avant 50 ans. Les données sont issues de l’étude Nurses’ Health Study II, une cohorte de femmes américaines suivies depuis 1991. Les apports en vitamine D (alimentaires et par supplémentation) ont été évalués par des questionnaires spécifiques depuis leur inclusion. Un modèle prédictif des taux de vitamine D circulant a précédemment été validé. Il tient compte de l’âge, de l’origine ethnique, de l’IMC, de l’activité physique, de la consommation d’alcool, de la prise d’une substitution hormonale pour la ménopause, de l’irradiation solaire au lieu de résidence et de la saison à laquelle les prélèvements sanguins ont été réalisés.
Sur les 94.205 femmes de la cohorte suivies entre 1991 et 2015, 111 cas de cancers du côlon précoces ont été diagnostiqués. Les taux médians d’apports en vitamine D étaient de 372 UI/j. Les femmes de moins de 50 ans qui avaient les plus forts apports en vitamine D avaient tendance à avoir un IMC plus faible, à moins fumer ou boire d’alcool, à passer moins de temps devant la TV, à manger moins de viande rouge et/ou transformée. Les femmes qui avaient les apports en vitamine D les plus importants avaient également tendance à consommer plus de fibres, de folates et de calcium que les autres. Elles prenaient également plus souvent de l’aspirine et des supplémentations vitaminiques. Enfin, elles avaient tendance à être plus actives physiquement et à avoir des habitudes de vie plus saines que les autres.
Après ajustement multiple, il a été mis en évidence que le risque de CCR précoce était diminué de 51 % chez les femmes qui avaient des apports en vitamine D ≥450 UI/j par rapport à celles dont les apports étaient <300 UI/j. Les auteurs ont évalué que toute augmentation des apports en vitamine D de 400 UI/j diminuait le risque de CCR précoce de 54 %. Le niveau de risque estimé restait semblable après retrait des femmes qui avaient des antécédents familiaux de CCR ou qui n’avaient pas eu de coloscopie dans les 10 dernières années.
Les chercheurs ont évalué si les résultats étaient semblables ou non en fonction de l’origine des apports en vitamine D. Ils ont ainsi mis en évidence que les apports via l’alimentation étaient associés à une diminution plus importante du risque de CCR précoce que les apports via une supplémentation : toute augmentation de 400 UI/j des apports en vitamine D diminuait de 66 % le risque de CCR précoce lorsque les apports provenaient de l’alimentation et de 23 % lorsqu’ils provenaient d’une supplémentation.
Article rédigé par Georges Simmonds pour RT Flash
NIH
|
|
|
|
|
|
|
|
Des chercheurs de l'Université de Montréal ont créé une nanoantenne à base d’ADN pour surveiller les mouvements des protéines. Ce dispositif constitue une nouvelle méthode pour suivre les changements structurels des protéines au fil du temps – et pourrait aider les scientifiques à mieux comprendre les nanotechnologies naturelles et de conception humaine. « Les résultats sont si emballants que nous travaillons actuellement à mettre sur pied une entreprise afin de commercialiser cette nanoantenne et de la rendre accessible au plus grand nombre de chercheurs possible », explique Alexis Vallée-Bélisle, professeur de chimie à l'UdeM et auteur principal de l'étude.
Il y a plus de 40 ans, les chercheurs ont inventé le premier synthétiseur d'ADN pour concevoir des molécules qui codent l'information génétique : « Ces dernières années, les chimistes ont réalisé que l'ADN pouvait également être utilisé pour construire une variété de nanostructures et de nanomachines », ajoute le chercheur, qui est aussi titulaire de la Chaire de recherche du Canada en bio-ingénierie et bionanotechnologie. « Inspirés par les propriétés de type “LEGO” de l'ADN, dont les blocs de construction sont généralement 20 000 fois plus petits qu'un cheveu humain, nous avons créé une nanoantenne fluorescente fabriquée avec de l'ADN qui peut aider à définir avec précision la fonction des protéines ».
Comme une radio bidirectionnelle qui peut à la fois recevoir et émettre des ondes radio, la nanoantenne fluorescente reçoit la lumière sous la forme d’une couleur ou longueur d'onde et, selon le mouvement de la protéine qu'elle détecte, elle renvoie la lumière dans une autre couleur, que les chercheurs peuvent distinguer. L'une des principales innovations de ces nanoantennes est que la partie réceptrice de l'antenne est également utilisée pour repérer la surface moléculaire de la protéine étudiée par une interaction moléculaire. « L'un des principaux avantages de l'utilisation de l'ADN pour concevoir ces nanoantennes est que la chimie de l'ADN est relativement simple et programmable », souligne Scott Harroun, doctorant en chimie à l'UdeM et premier auteur de l'étude.
« Les nanoantennes à base d'ADN peuvent être synthétisées avec différentes longueurs et flexibilités pour optimiser leur efficacité », poursuit-il. « On peut facilement attacher une molécule fluorescente à l'ADN, puis fixer cette nanoantenne fluorescente à une nanomachine biologique, comme une enzyme [qui est une sorte de catalyseur à l’échelle nanométrique] ». En réglant soigneusement les paramètres de la conception de la nanoantenne, l’équipe d’Alexis Vallée-Bélisle a créé une antenne de cinq nanomètres de long qui produit un signal distinct lorsque la protéine remplit sa fonction biologique.
Les nanoantennes fluorescentes ouvrent de nombreuses voies passionnantes en biochimie et en nanotechnologie, estiment les scientifiques : « Par exemple, nous avons pu détecter, en temps réel et pour la première fois, la fonction de l'enzyme phosphatase alcaline avec une variété de molécules biologiques et de médicaments », illustre Scott Harroun. « Cette enzyme est associée à de nombreuses maladies, notamment plusieurs cancers et des inflammations intestinales ».
« En plus de nous aider à comprendre comment les nanomachines naturelles fonctionnent ou pourquoi elles fonctionnent mal, entraînant ainsi des maladies, cette nouvelle méthode pourrait favoriser la découverte de nouveaux médicaments prometteurs et guider les nano-ingénieurs dans la mise au point de nanomachines améliorées », précise Dominic Lauzon, coauteur de l'étude et doctorant en chimie à l'UdeM.
Article rédigé par Georges Simmonds pour RT Flash
UdeM
|
|
|
|
|
|
|
|
Des chercheurs de la Nangyang technological University de Singapour (Chine), en collaboration avec leurs collègues de la Harvard TH Chan School of Public Health, aux Etats-Unis, ont développé un nouveau type d'emballage alimentaire biodégradable, capable de tuer les microbes nocifs pour l’homme.
Pour parvenir à ce résultat remarquable, ces scientifiques ont eu recours à la zéine, une protéine extraite du grain de maïs, qui a été employée pour mettre au point ce produit. En France, elle a déjà été utilisée dans le cadre de recherches autour des polymères par l'Institut national de recherche pour l'agriculture, l'alimentation et l'environnement (Inrae). Autres composants de l’emballage, de l’amidon ainsi que d’autres biopolymères d'origine naturelle, infusés dans un mélange de composés antimicrobiens naturels. De l’huile de thym est notamment utilisée.
« L'emballage est conçu pour libérer les minuscules quantités nécessaires de composés antimicrobiens uniquement en réponse à la présence d'humidité supplémentaire ou de bactéries. Ainsi, l'emballage peut résister à plusieurs expositions et durer des mois », expliquent les chercheurs. Face à une augmentation de l'humidité ou exposées à des enzymes provenant de bactéries nocives, les fibres de l'emballage sont capables de libérer les composés antimicrobiens naturels.
Preuve de l’efficacité du procédé, des fraises sont restées fraîches durant sept jours une fois empaquetées. Les fruits et légumes ou la viande crue pourraient bénéficier de cette avancée. « L'un des moyens les plus efficaces d'améliorer la sécurité alimentaire et de réduire la détérioration des denrées, ainsi que les déchets, est de développer des matériaux d'emballage alimentaire biodégradables et non toxiques », indique Philip Demokritou, professeur adjoint à Harvard. Aucune date n’a encore été donnée pour d’éventuels développements industriels.
Article rédigé par Georges Simmonds pour RT Flash
FSN
|
|
|
|
|
|
|
|
C'est une extraordinaire avancée scientifique, médicale et sociale, dont on peine encore à mesurer la portée : l'équipe de recherche de Grégoire Courtine et Jocelyne Bloch, de l'EPFL de Lausanne, a présenté un nouvel implant qui stimule électriquement leur moelle épinière de patients souffrant d’une lésion complète de la moelle épinière, et leur permet de se tenir debout, de remarcher, et même de pratiquer certaines activités, telles que la natation, le vélo, et le canoé. Ces trois patients, tous des hommes, étaient non seulement incapables de tout mouvement des jambes, mais ils n'y avaient plus la moindre sensation, à la suite d'accidents qui avaient endommagé leur moelle épinière. La moelle épinière, contenue par la colonne vertébrale, prolonge le cerveau et commande de nombreux mouvements. Ces derniers peuvent donc être irrémédiablement perdus si le contact avec le cerveau est abîmé.
Mais, pour ces trois patients, il a été possible de changer la donne. À Lausanne, une équipe menée par la chirurgienne suisse Jocelyne Bloch et le neuroscientifique français Grégoire Courtine leur a implanté une quinzaine d'électrodes qui permettent de stimuler électriquement plusieurs zones de leur moelle épinière. Ce n'est pas une première, mais plutôt l'aboutissement de dix ans de travaux de ce type avec, enfin, la perspective d'en faire une thérapie qui changerait la vie de nombreux paralytiques. L'idée d'envoyer un courant électrique pour retrouver des mouvements perdus remonte à plusieurs décennies et a été mise en pratique pour la première fois en 2011. Un paraplégique avait alors été capable de se tenir à nouveau debout.
Mais on était encore loin de pouvoir envisager une application concrète. Les patients concernés avaient eu besoin de plusieurs semaines pour refaire quelques pas et leurs progrès restaient limités, sans guère pouvoir bénéficier à leur vie quotidienne. Cette fois, les patients opérés ont pu faire leurs premiers pas presque immédiatement même si, réalisés sur un tapis roulant en laboratoire, ils n'avaient rien à voir avec une marche normale. « Il ne faut pas imaginer un miracle immédiat, mais cela permet de s'exercer tout de suite à ses activités », a expliqué M. Courtine. Après cinq mois de rééducation, les progrès étaient considérables : l'un des patients était par exemple en mesure de marcher près d'un kilomètre sans interruption.
Pour parvenir à de telles avancées, les chercheurs ont amélioré la technologie utilisée par rapport aux précédentes expériences. Celles-ci se basaient sur des outils préexistants de stimulation électrique. Or, ces dispositifs étaient conçus dans un but différent : réduire la douleur et non relancer des mouvements, un objectif bien plus complexe d'autant que chaque être humain possède une moelle épinière aux caractéristiques très variables. Cette fois, les électrodes sont plus longues et plus grandes que celles utilisées auparavant, ce qui permet d'accéder à plus de muscles, a détaillé Jocelyne Bloch.
Autre avancée importante, grâce à des logiciels utilisant l'intelligence artificielle, les impulsions électriques sont bien plus précises : elles correspondent mieux à chaque mouvement, au lieu de consister en un flux de courant indiscriminé. Quand ces avancées pourront-elles bénéficier au plus grand nombre ? Avec un peu de chance, d'ici à quelques années, estime Mme Bloch. La technologie doit faire l'objet d'essais cliniques bien plus larges sous l'égide d'une jeune entreprise néerlandaise, Onward. Cette société vise à la rendre facilement utilisable à l'aide d'un smartphone, par exemple pour contrôler son déclenchement. Car c'est une des limites à prendre en compte : dès qu'elle est éteinte, la stimulation électrique n'a quasiment pas d'effet durable. Et il est inconcevable de la maintenir en permanence, ce qui épuiserait l'organisme des patients.
Article rédigé par Georges Simmonds pour RT Flash
EPFL
|
|
^ Haut |
|
|
|
|
|
VOTRE INSCRIPTION |
|
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
|
|
|
|
|
|