|
|
|
|
|
NUMERO 1085 |
|
|
|
|
|
|
|
Edition du 08 Janvier 2021
|
|
|
|
|
Edito
L’Homme doit-il tenter de refroidir la Terre ?
Les émissions humaines de CO2 ont atteint le chiffre astronomique de 33 gigatonnes en 2019 ; elles ont augmenté de 55 % depuis le début de ce siècle, en 19 ans seulement, et ont été multipliées par dix depuis la fin de la première guerre mondiale. Selon une étude implacable publiée dans la revue Nature (Voir Nature), la forte réduction (9 %) de nos émissions de CO2, liée à la pandémie du Covid19, attendue pour 2020, n’aurait pratiquement aucun effet sur le rythme d’emballement du réchauffement climatique en cours, et il faudrait l’hypothèse de moins en moins réaliste, que l’Humanité réduise dès cette année, et pour les trois décennies à venir, de 7,6 % par an ses émissions de CO2, pour que nous ayons de bonnes chances d’atteindre les objectifs prévus par l’accord international de Paris sur le climat : rester en dessous des 1,5°C de réchauffement global.
Nous savons à présent que pour parvenir à réduire de plus de moitié nos émissions de CO2 d’ici 2050, avec dans le même temps une population mondiale qui va passer de 8 à 9,5 milliards d’êtres humains et une demande globale d’énergie qui risque d’augmenter de 47 % (selon l’AIE) pendant cette période, il ne suffira pas de déployer d’énormes efforts pour améliorer l’efficacité énergétique de nos économies et de nos sociétés à tous les niveaux, et réduire drastiquement la part des énergies fossiles dans le mix énergétique mondial. Il faudra également développer à une échelle industrielle mondiale différentes technologies de capture et de séquestration de CO2 (qui restent complexes et onéreuses), de manière à ce qu’elles comptent au moins pour 9 % dans les réductions d’émissions, soit en moyenne 2,3 milliards de tonnes d’équivalent CO2 à capter et à stocker par an jusqu’en 2060, pour moitié dans le secteur de l’énergie et pour moitié dans l’industrie (acier, ciment, raffineries, production en amont de gaz et de pétrole).
Mais, même si nous faisons tous ces efforts simultanément, il n’est pas certain que nous parvenions à réduire de manière suffisamment forte et rapide nos émissions de CO2 pour stabiliser le climat et le réchauffement en cours, d’ici la fin du siècle. C’est pourquoi certains scientifiques envisagent sérieusement d’explorer une nouvelle voie, certes risquée, mais qu’on ne peut plus exclure : la géo-ingénierie. Ce concept rassemble les différentes voies qui permettent, par une action technologique puissante et généralisée à la planète, sur les sols, les océans ou l’atmosphère, de refroidir le climat terrestre.
En 2006, le scientifique américain Paul Crutzen, Nobel de chimie 1995, avait fait sensation et provoqué des réactions pour le moins contrastées, en suggérant que, compte tenu des délais d’actions d’au moins 30 ans de nos mesures de réduction de gaz à effet de serre, il fallait réfléchir sérieusement aux possibilités d’agir directement par la technologie sur le climat mondial. Ce scientifique éminent propose de larguer au moins un million de tonnes de soufre ou de sulfure d'hydrogène dans la stratosphère, la couche de l'atmosphère située entre 10 et 50 kilomètres d'altitude, à l'aide de ballons lancés depuis les tropiques. Ces composés seraient alors brûlés pour produire du dioxyde de soufre qui serait ensuite converti en particules de sulfate de moins de 1 micromètre de diamètre. Ce « saupoudrage » de soufre permettrait, selon Crutzen, pour un coût modique au regard de la richesse mondiale, environ 50 milliards de dollars, de faire baisser sensiblement la température moyenne à la surface de la Terre, en réduisant fortement l’effet de serre provoqué par les émissions de CO2.
Crutzen ne nie pas qu’un tel projet est risqué et pourrait avoir des effets néfastes pour la santé humaine, mais également des conséquences imprévisibles sur le climat mondial, en déclenchant de nombreuses actions et rétroactions « en cascade » sur la machine climatique planétaire dont nous sommes loin de maîtriser tous les rouages. C’est pourquoi il préconise de commencer par réaliser de puissants modèles informatiques pour évaluer les différents effets de ce largage de soufre, puis de réaliser des expérimentations locales, sous contrôle de l’ONU, avant de passer éventuellement à l’échelle mondiale…
Des chercheurs de l'Université Harvard ont repris l’idée de Crutzen, mais proposent de remplacer le soufre par du carbonate de calcium, plus inoffensif. Leur idée consiste à larguer cette matière dans la stratosphère en quantité suffisante pour diviser par deux l'augmentation de la température mondiale. Mais dans un premier temps, ils souhaitent pouvoir réaliser des essais à petite échelle pour vérifier les effets du procédé.
Le 29 octobre dernier, une organisation américaine à but non lucratif, SilverLining, a annoncé le lancement d'un projet visant à développer les recherches dans ce domaine de la géo-ingéniérie. Dans le cadre de cette initiative, cette organisation, spécialisée dans la protection du climat, a alloué 3 millions de dollars (2,6 millions d'euros) de subventions à cinq programmes de recherche consacrés à la géo-ingénierie solaire (Voir The New York Times).
Plusieurs solutions technologiques vont ainsi être évaluées pour limiter le réchauffement climatique, comme la dissémination dans l'atmosphère de particules qui réfléchiraient les rayons du Soleil et les renverraient dans l'espace. L’idée est d'imiter le phénomène naturel qui a lieu lorsque se produisent de puissantes éruptions volcaniques. En 1991, l'éruption du Pinatubo aux Philippines avait éjecté dans l’atmosphère plus de 20 millions de tonnes de soufre, faisant chuter la température d'environ un demi-degré à l'échelle mondiale l'année suivante. Le programme SilverLining vise à essayer de mieux évaluer toutes les conséquences que pourrait avoir une action globale de géo-ingénierie solaire sur les écosystèmes mondiaux. Soulignons que le gouvernement américain et le Congrès américain ont par ailleurs décidé d’allouer 4 millions de dollars à l'Agence américaine d'observation océanique et atmosphérique (NOAA), en décembre dernier, pour qu'elle lance, elle aussi, des recherches sur cette technologie.
Une autre équipe anglaise de l’Université de Southampton cherche à voir s’il est possible de faire stocker du CO2 par des microorganismes marins en aspergeant l’océan avec des cendres volcaniques depuis un bateau. Ces chercheurs ont en effet constaté que l’éruption du volcan islandais l’Eyjafjöll en 2010 avait dopé la production de phytoplancton dans la région. Selon leurs calculs, il serait envisageable de capter 2 750 tonnes de CO2 pour 50 000 tonnes de cendres relâchées. Mais surtout, cette technique est simple à mettre en œuvre et permettrait d’obtenir un coût de stockage de la tonne de CO2 qui serait bien inférieur à celui des autres techniques de capture du carbone. Reste qu’on ne connaît pas les effets d’une telle fertilisation massive sur l’écosystème complexe des océans…
De son côté, le gouvernement australien soutient un programme de géo-ingénierie pour déterminer si la géo-ingénierie solaire peut sauver la Grande Barrière de Corail. Des chercheurs australiens travaillent sur une voie technologique appelée «l’éclaircissement des nuages marins», qui vise à rendre les nuages plus réfléchissants en pulvérisant de l’eau salée dans l’air. Il s’agit d’utiliser des particules de sel pour ensemencer des nuages, et provoquer la formation de nombreuses petites gouttelettes d’eau, ce qui augmentera leur luminosité.
Selon ces scientifiques, cette technique pourrait refroidir suffisamment la température de l’océan pour ralentir la destruction de la grande barrière de corail. Les premières expérimentations ont été réalisées cette année par des chercheurs de la Southern Cross University en Australie. Ceux-ci ont utilisé 100 buses pour pulvériser de l’eau dans l’air, et les premiers résultats ont montré que cette technique pouvait effectivement faire baisser la température de l’eau. Selon le Docteur Harrison, qui dirige ces recherches, il faudrait déployer environ 1 000 stations de refroidissement, embarquées sur de vastes plates-formes flottantes, pour couvrir tout le récif. Mais refroidir l’ensemble du globe par cette méthode, il est vrai peu coûteuse, supposerait tout de même le déploiement d’une flotte permanente sur tous les océans de plusieurs dizaines de milliers de navires équipés de canons à sel. Dans une telle hypothèse, certains scientifiques soulignent que ce mode de refroidissement risquerait de perturber dangereusement le régime des précipitations mondiales, notamment en Amazonie.
D’autres scientifiques sont encore plus audacieux et imaginatifs et rêvent de recréer de la glace en grande quantité dans les régions où elle disparaît. C’est par exemple l’idée développée par le physicien Steven Desch et ses collègues de l’Université de l’Arizona aux États-Unis. Ces chercheurs pensent qu’il est possible de pomper l’eau de l’océan puis de la dessaliniser pour l’arroser sur la glace, où elle gèlera et permettra de reconstituer la banquise fragilisée. Dans leur projet, estimé à 426 milliards de dollars (soit 0,5 % du Produit Mondial Brut), 10 millions d’éoliennes alimenteraient ces pompes géantes et ces scientifiques ont calculé que l’on pourrait ainsi épaissir la banquise de plus d’un mètre en hiver, ce qui ralentirait sa fonte durant l’été. « Pour le moment notre seule stratégie est de ralentir les émissions de gaz à effet de serre. C’est nécessaire mais cela ne suffira pas pour empêcher l’Arctique de disparaître », affirme Steven Desch.
Autre voie de géo-ingénierie explorée, celle du « Project Vesta » qui vise à capturer, puis à stocker la totalité des émissions humaines annuelles de CO2 en recouvrant 2 % des plages avec de l’olivine. Ce minerai de couleur verte, contenu dans les roches volcaniques basaltiques, s’érode au contact de l’eau et transforme le CO2 de l’air ambiant en bicarbonate. Il ne resterait plus qu’à rejeter dans l’océan celui-ci, afin qu’il soit consommé par les organismes marins et transformé en squelettes calcaires comme les coquillages ou le corail. L’idée est de faire d’une pierre deux coups : capter le CO2, tout en réduisant l’acidification de l’océan. Mais, là aussi, outre les problèmes considérables de logistique à résoudre, la dissolution en grande quantité d’olivine dans les océans risquerait de perturber l’équilibre de tout l’écosystème marin.
Mais, au lieu d’échafauder des plans comportant un grand nombre de risques et de variables inconnues, pourquoi ne pas revenir sur la terre ferme et utiliser à grande échelle des méthodes qui ont fait leur preuve. C’est ce que veut faire le chercheur britannique Thomas Crowther qui a calculé qu’il serait possible d’ajouter 1 000 milliards d’arbres à la couverture forestière actuelle, ce qui permettrait de capturer 205 gigatonnes de CO2 dans les prochaines décennies, soit six fois la quantité émise en 2019 dans le monde. « Si nous plantions ces arbres aujourd’hui, le niveau de CO2 dans l’atmosphère pourrait être diminué de 25 % », précise l’étude qu’a dirigée Thomas Crowther sur ce sujet. Bien que beaucoup moins risquée que les autres méthodes évoquées, cette « climatisation verte » à l’échelle planétaire laisse cependant sceptiques certains scientifiques qui contestent les prévisions de Crowther et rappellent que les arbres plantés ont une capacité de stockage du carbone bien moindre que les forêts naturelles.
Plus récemment, une nouvelle voie très prometteuse s’est ouverte dans ce domaine en plein effervescence de la géo-ingénierie, celle des matériaux et revêtements hyper réfléchissants, capables, sans apport externe d’énergie, de faire baisser la température ambiante. En 2015, des chercheurs de l’Université de Stanford ont par exemple mis au point un nouveau matériau révolutionnaire, à base d’oxyde d’hafnium. Utilisant le principe du refroidissement radiatif, ce dernier est capable de réfléchir 97 % de la lumière provenant du soleil mais aussi de se refroidir naturellement en émettant des ondes capables de traverser le ciel jusqu’à atteindre l’espace ; il peut ainsi maintenir une température inférieure d’environ 5°C par rapport à l’air ambiant, pendant une exposition directe au soleil.
Il y a deux ans, une autre équipe de l’Université Columbia à New York a mis au point un revêtement révolutionnaire qui maintient les murs plus frais de 6°C que l’air ambiant en pleine canicule. Ce nouveau matériau refroidissant utilise un processus physique appelé « passive daytime radiative cooling » ou PDRC, par lequel un matériau est capable à la fois de réfléchir le rayonnement solaire et d’émettre de la chaleur par radiation. Ce polymère, simple et peu coûteux à fabriquer, peut s’appliquer comme une peinture sur la plupart des surfaces, et présente une bonne résistance aux intempéries. Selon les scientifiques qui l’ont développé, son utilisation à large échelle pourrait diminuer de manière considérable, de l’ordre de 20 %, la consommation électrique due à la climatisation, qui grimpe en flèche et représente 10 % de la consommation électrique mondiale.
Autre avancée remarquable, il y a quelques semaines, des chercheurs américains et chinois ont développé la peinture la plus blanche jamais obtenue. Cette peinture, peu coûteuse, est composée d’une base de peinture acrylique commerciale et d’une haute concentration de carbonate de calcium (CaCO3). Celle-ci est capable de réfléchir 95,5 % de la lumière. Elle absorbe très peu de rayonnement solaire et émet des infrarouges lointains (entre 8000 et 13 000 nm) qui transportent de la chaleur. Grâce à ses propriétés exceptionnelles, cette peinture « superblanche » peut refroidir la surface qu’elle recouvre en dessous de la température ambiante. Les premiers tests réalisés avec cette peinture ont confirmé sa redoutable efficacité en matière de refroidissement : les objets recouverts par cette peinture sont restés 1,7°C en-dessous de la température ambiante lors du pic d’irradiation solaire et jusqu’à 10°C en-dessous la nuit.
Alors, que penser de ces projets de géo-ingénierie, dont certains semblent bien hasardeux, pour ne pas dire fantaisistes ? Dans cette panoplie d’outils, qui relève un peu du concours Lépine, je crois qu’il faut distinguer les projets dont les effets incontrôlables risqueraient d’être plus néfastes que les causes à traiter, des projets beaucoup plus sérieux, dont il est possible d’évaluer de manière solide les conséquences et surtout qui présentent un caractère de réversibilité.
Mais compte tenu du défi climatique immense qui est devant nous, autour duquel nous avons déjà perdu trop de temps, et que nous devons à présent prendre à bras le corps, aucune piste ne doit être, par principe, écartée. Si nous n’accentuons pas sérieusement nos efforts pour réduire plus vite nos émissions de CO2, il se peut en effet que nous soyons obligés d’avoir recours, en dernière instance, à des actions de géo-ingénierie planétaire, pour essayer de limiter les effets catastrophiques du changement climatique majeur que nous sommes en train de vivre.
Nous devons donc étudier le plus scientifiquement possible, et en toute transparence démocratique, toutes les options possibles dans ce domaine encore neuf, en espérant que nous n’aurons pas en nous en servir et que les Etats et nos dirigeants politiques auront la sagesse, le courage et la lucidité, de mettre rapidement en œuvre l’ensemble des mesures fortes préconisées par les scientifiques et acceptées à présent par une majorité de nos concitoyens, mais aussi, et ce point est important, de nos entreprises.
Rappelons-nous que le coût de l’inaction sera infiniment plus grand et douloureux, pour nos sociétés et nos vies personnelles, que celui de l’effort que nous devons accomplir tous ensemble, de manière équitablement partagée, pour nous réconcilier avec notre Terre et permettre aux générations futures de poursuivre leur nécessaire développement économique, matériel et spirituel dans le cadre d’un nouveau contrat constructif et respectueux avec la Nature.
René TRÉGOUËT
Sénateur honoraire
Fondateur du Groupe de Prospective du Sénat
e-mail : tregouet@gmail.com
|
|
|
|
|
|
|
|
TIC |
|
|
Information et Communication
|
|
|
|
|
|
|
|
|
C’est en collaboration avec l’organisation à but non-lucratif Guiding Eyes for the Blind, que Google a développé « Project Guideline », un système basé sur l’intelligence artificielle qui a pour objectif de permettre aux personnes aveugles et malvoyantes de faire leurs footings seules, sans avoir besoin de recourir à une aide extérieure.
Pour utiliser ce dispositif développé par Google, les coureurs malvoyants devront attacher un smartphone Android à un harnais spécialement conçu pour l’occasion et qui fait le tour de leur taille. Ils devront également s’équiper d’un casque audio, lui-même connecté au smartphone.
Pour le reste, c’est l’application Project Guideline qui prend le relais. Basée sur l’intelligence artificielle, celle-ci prend en compte un circuit préalablement établi sur lequel une ligne conductrice jaune aura été dessinée à même le sol, et s’appuie sur les images filmées en temps réel par le smartphone pour guider son utilisateur à travers son parcours. Lorsque l’application détecte que son usager s’éloigne de sa ligne conductrice, elle envoie alors des signaux sonores dans une oreille ou dans l’autre, pour réorienter sa position.
Notons que l’application n’a pas besoin de connexion Internet pour fonctionner, et qu’elle est capable de prendre en compte un certain nombre de paramètres différents, tels que l’éclairage et la météo par exemple.
Actuellement en phase de développement, « Project Guideline » s’annonce déjà prometteur. Dans une vidéo qui n’est pas reprise dans cet article succinct, on voit déjà ce système à l’oeuvre avec Thomas Panek, PDG de la société Guiding Eyes for the Blind, devenu aveugle des suites d’une maladie et jogger passionné.
Pour la première fois depuis qu’il a perdu la vue, il réussit à courir seul durant un parcours de 5 km, sans avoir recours à un chien-guide ou à une quelconque autre aide extérieure. Une expérience prometteuse, qui laisse présager le futur succès de projet.
Article rédigé par Georges Simmonds pour RT Flash
Siècle Digital
|
|
^ Haut |
|
|
|
|
|
|
|
Matière |
|
|
Matière et Energie
|
|
|
|
|
|
|
|
|
L'hydrogène constitue potentiellement un carburant d'avenir. Encore faut-il qu'il puisse être produit de manière neutre en carbone. Car ce n'est aujourd'hui généralement pas le cas, bien au contraire. Mais des chercheurs de l’Université de Bristol (Royaume-Uni) ont peut-être fait un pas vers une solution verte. Ils ont développé de minuscules usines microbiennes enfermées dans des gouttelettes sucrées.
Dans chaque gouttelette, 10.000 cellules algales entassées par compression osmotique. Au plus profond des gouttelettes, les niveaux d'oxygène tombent. Des enzymes appelées hydrogénases sont activées. Elles détournent la voie photosynthétique normale - celle qui produit de l'oxygène à partir de dioxyde de carbone - pour produire de l’hydrogène.
Environ un quart de million de ces usines microbiennes pourrait être préparé dans un seul millilitre d'eau. Et pour doper le dégagement d'hydrogène, les chercheurs ont pensé à recouvrir ces gouttelettes vivantes d'une fine coque de bactéries. Leur rôle : piéger l'oxygène et doper ainsi l'activité des enzymes hydrogénases.
« L'utilisation de simples gouttelettes comme vecteurs pour contrôler l'organisation des cellules algales et la photosynthèse dans des micro-espaces synthétiques offre une approche de la production d'hydrogène potentiellement inoffensive pour l'environnement », explique Stephen Mann, chercheur, dans un communiqué de l’Université de Bristol. Xin Huang, son collègue de l'Institut de technologie de Harbin (Chine) confirme : « Notre méthodologie est simple et flexible. Elle devrait pouvoir être étendue sans nuire à la viabilité des cellules. Et servir aussi à d'autres productions, comme l'éthanol. » Reste tout de même à valider son fonctionnement à grande échelle.
Article rédigé par Georges Simmonds pour RT Flash
University of Bristol
|
|
|
|
|
|
|
|
Aujourd’hui, l’hydrogène et le méthanol sont produits principalement à partir de sources fossiles comme le pétrole ou le gaz naturel. Une option plus écologique et plus respectueuse du climat consiste à fabriquer ces substances à partir d’eau et de dioxyde de carbone, en utilisant une électricité durable, dans ce que l’on appelle des électrolyseurs. Ce processus nécessite de l’énergie électrique sous forme de tension appliquée.
Les scientifiques suédois de l'Université d'Uppsala ont mis au point un nouveau matériau qui réduit la tension nécessaire dans le processus en utilisant la lumière du soleil pour compléter l’électricité. « Nous nous sommes rapprochés de notre objectif de produire le carburant du futur à partir de la lumière du soleil », déclare Sascha Ott, professeur au département de chimie de l’Université d’Uppsala.
Pour capter la lumière du soleil, ils ont utilisé des semi-conducteurs du même type que ceux trouvés dans les cellules solaires. Le nouvel aspect de l’étude est que les semi-conducteurs ont été recouverts d’un nouveau matériau de revêtement qui extrait les électrons du semi-conducteur lorsque le soleil brille. Ces électrons sont ensuite disponibles pour des réactions de formation de carburant, telles que la production d’hydrogène gazeux.
Le revêtement est une «ossature métal-organique» – un réseau tridimensionnel composé de molécules organiques individuelles maintenues en place, à l’échelle sub-nanométrique, par de minuscules connecteurs métalliques. Les molécules capturent les électrons générés par la lumière du soleil et les éliminent de la surface du semi-conducteur, où des réactions chimiques indésirables pourraient autrement se produire. En d’autres termes, le revêtement empêche le système de court-circuiter, ce qui à son tour permet une collecte efficace d’électrons.
Lors de tests, les chercheurs ont pu montrer que leur nouvelle conception réduit considérablement la tension nécessaire pour extraire les électrons du semi-conducteur. « Nos résultats suggèrent que les revêtements innovants peuvent être utilisés pour améliorer les performances des semi-conducteurs, conduisant à une génération de carburants plus écoénergétique avec des exigences d’entrée électriques plus faibles », déclare Sascha Ott.
Article rédigé par Georges Simmonds pour RT Flash
Enerzine
|
|
^ Haut |
|
|
|
|
|
|
|
Vivant |
|
|
Santé, Médecine et Sciences du Vivant
|
|
|
|
|
|
|
|
|
Des chercheurs de l’Institut Max Planck de biologie cellulaire moléculaire et de génétique d’Allemagne et de l’Institut central des animaux d’expérimentation du Japon ont inséré ARHGAP11B, un gène humain particulier, dans le fœtus d’un singe ouistiti typique, permettant au néocortex de son cerveau de se développer.
Les singes sont souvent utilisés par les chercheurs pour réaliser des expériences scientifiques à la limite de l’éthique. Cependant, les singes ne sont pas les seuls animaux utilisés dans les laboratoires. En 2015, Wieland Hunter, le fondateur de l’Institut Max Planck, avait déjà introduit le même gène dans des souris. À l’époque, la fonction spécifique de ARHGAP11B était encore largement inconnue. De plus, l’effet qu’il aurait sur les rongeurs n’était pas clair. La seule chose que les scientifiques savaient à l’époque, c’est que le gène était en quelque sorte lié à la taille du néocortex humain.
En voyant une telle expérience, il n’est pas étonnant de penser à la trilogie "La Planète des Singes", dont le dernier opus remonte à 2017. En effet, l’intrigue du film repose sur une expérience qui vise à rendre des singes plus humains et plus intelligents. Concernant La Planète des Singes, Disney préparerait déjà un nouveau remake.
Grâce au gène ARHGAP11B, les scientifiques ont découvert que le cerveau des primates est rapidement devenu plus humain en développant des néocortex plus grands et plus avancés (la zone qui contrôle la cognition et le langage). Selon les images publiées dans la revue Science, le cerveau modifié des singes a presque doublé de taille après presque 100 jours de gestation.
Les scientifiques ne veulent pour l’instant pas continuer l’expérience. Hunter a déclaré « compte tenu des conséquences imprévisibles potentielles sur les fonctions cérébrales postnatales, nous avons considéré qu’il était indispensable – et obligatoire d’un point de vue éthique – de déterminer d’abord les effets de l’ARHGAP11B sur le développement du néocortex du ouistiti. ». Les analyses ont donc été limitées à des fœtus, car l’expression du gène spécifique à l’Homme affecterait le développement du néocortex chez le ouistiti.
Article rédigé par Georges Simmonds pour RT Flash
Tom's Guide
|
|
|
|
|
|
|
|
Des chercheurs du Walter and Eliza Hall Institute of Medical Research (WEHI) en Australie ont montré le rôle de la protéine SMCHD1 dans le développement de l'embryon. En effet, quand un ovocyte est fécondé par un spermatozoïde, cette protéine de l’ovocyte demeure dans l’embryon en développement, « ce qui désactive au moins 10 gènes différents et a un impact sur le développement de l’embryon ». Et qui pourrait avoir un impact sur l’enfant tout au long de la vie. Les travaux ont été publiés dans la revue eLife. « Nous héritons tous nos gènes de nos parents et il y a quelques gènes qui se comportent différemment dans la progéniture, selon qu’ils sont hérités de la mère ou du père », explique Iromi Wanigasuriya qui a dirigé l’étude. « Ce phénomène est appelé « empreinte génomique » et se manifeste dans certaines maladies génétiques ».
Cette « empreinte génomique » se produit en raison des « marques épigénétiques » sur l’ADN qui influencent la manière dont les gènes peuvent être utilisés. Ainsi en est-il des gamètes. « Lorsqu’un spermatozoïde féconde un ovocyte, l’ADN des deux cellules apporte des marques épigénétiques du parent à l’enfant, qui dans certains cas sont liées à des impacts sur la santé à long terme », affirme la chercheuse. Et les protéines présentes dans l’ovocyte aident à protéger cette empreinte génomique pendant les premières phases de développement de l’embryon.
La procédure a consisté à « suivre » une version de la protéine marquée par un indicateur fluorescent en utilisant des techniques de microscopie avancée. Les chercheurs ont constaté que la protéine SMCHD1 maternelle persistait dans les embryons pendant au moins cinq divisions cellulaires. « Nous avons pu identifier dix gènes qui ont été éteints par la SMCHD1 de la mère dans l’embryon à un stade de développement précoce », précise le Docteur Quentin Gouil qui a collaboré à l’étude. « C’est la première fois que la SMCHD1 de l’ovocyte a été identifiée comme ayant un rôle dans l’empreinte génomique ».
« Bien que les effets que nous avons découverts soient subtils, nous savons que les événements survenant au cours du développement embryonnaire précoce peuvent avoir des effets à long terme sur la santé », affirme le Docteur Quentin Gouil. « En plus d’élargir notre compréhension de l’empreinte génomique, cette recherche ajoute une dimension supplémentaire aux nombreuses façons dont nous savons que les parents peuvent avoir un impact sur la santé de leur progéniture ».
De son côté, le professeur Marnie Blewitt, également associée à ces travaux, précise que cette recherche a également contribué à « expliquer les rôles récemment découverts de la SMCHD1 dans certaines maladies, notamment les troubles du développement tels que le syndrome de Prader-Willi (PWS) et le syndrome de microphtalmie de Bosma arhinia (BAMS), ainsi que la dystrophie musculaire facio-capulo-humérale (FSHD) ».
En effet, l’étude de la protéine SMCHD1 chez les embryons aux premiers stade de développement a permis de découvrir de « nouvelles cibles génétiques que cette protéine rend muettes », déclare-t-elle. « Nous menons actuellement un effort de recherche de médicaments brevetés afin de concevoir de nouvelles thérapies pour traiter les troubles du développement et les maladies dégénératives », précise la scientifique. Et « cette recherche élargit notre compréhension de la manière dont ces nouveaux candidats médicaments pourraient avoir un impact sur l’expression des gènes ».
Article rédigé par Georges Simmonds pour RT Flash
Genethique
|
|
|
|
|
|
|
|
Des chercheurs de l'Université de Floride à Gainesville ont mis au point un nouvel outil de détection pour la maladie de Parkinson, une maladie diagnostiquée généralement très tardivement.
La maladie de Parkinson est un trouble progressif du système nerveux central qui affecte des millions de personnes dans le monde. Le diagnostic est généralement basé sur des symptômes tels que les tremblements, une raideur musculaire et un équilibre altéré, une approche qui présente des limites importantes et induit un diagnostic généralement tardif. « Le problème avec cette méthode est que les patients ne développent généralement des symptômes qu'après une progression prolongée avec une lésion significative des neurones cérébraux dopaminergiques », résume l'auteur principal Maximillian Diaz, titulaire d'un doctorat en génie biomédical à l'Université de Floride.
La progression de la maladie est caractérisée par la désintégration des cellules nerveuses, ce qui amincit aussi les parois de la rétine, la couche de tissu située à l'arrière du globe oculaire ; la maladie affecte également les vaisseaux sanguins microscopiques de la rétine. Ces caractéristiques offrent une opportunité d'exploiter la puissance de l'IA pour examiner les images des yeux à la recherche de ces signes de la maladie de Parkinson.
Les chercheurs utilisent ici un type d'apprentissage automatique appelé SVM qui a été programmé à l’aide d’images de l'arrière de l'œil de patients atteints de la maladie de Parkinson et de participants témoins, à détecter les signes évocateurs de la maladie de parkinson. Le système parvient en effet à diagnostiquer la maladie de Parkinson en fonction du système vasculaire de la rétine.
Comme le soulignent les chercheurs, « Notre méthode se base sur une simple image de l'œil, réalisable en moins d'une minute, et le coût de l'équipement est bien inférieur à celui d'un scanner ou d'une IRM. Nous ouvrons donc la voie vers un dépistage précoce simple et peu onéreux de cette maladie ».
Cette nouvelle approche devrait à l'avenir avoir des applications dans l'identification d'autres maladies qui affectent la structure du cerveau, telles que la maladie d'Alzheimer et la sclérose en plaques, confirment les auteurs.
Article rédigé par Georges Simmonds pour RT Flash
Eurekalert
|
|
|
|
|
|
|
|
Un test sanguin qui permettrait de détecter 50 différents types de cancer va faire l’objet d’un projet pilote des Services de santé nationaux du Royaume-Uni (NHS). Ces derniers espèrent que le test permette la détection plus rapide de la maladie chez les patients, permettant à la fois d’augmenter les chances de réussite des traitements. Le test sanguin «Galleri», développé par la firme californienne Grail, sera testé sur quelque 165 000 patients dans le cadre de l’étude, rapporte CNN. La majorité des participants (140 000) qui sont âgés de 50 à 79 ans n’ont aucun symptôme.
Les autres 25 000 participants sont des personnes qui ont de "possibles" symptômes de cancer. Des tests leur seront offerts afin d’accélérer le dépistage de la maladie.
Grâce à ce nouveau test, NHS England souhaite notamment être en mesure de dépister plus tôt les formes de cancer qui sont plus difficiles à repérer. « La détection rapide, particulièrement pour les cancers des ovaires et du pancréas qui sont plus difficiles à traiter, peut sauver des vies », explique Simon Steven, directeur général de NHS. Le projet pilote doit s’entamer vers la mi-2021. Les résultats sont attendus d’ici 2023, après quoi on espère pouvoir offrir le test à un million d’individus d’ici 2025.
Article rédigé par Georges Simmonds pour RT Flash
NHS
|
|
|
|
|
|
|
|
Une vaste étude épidémiologique réalisée sur la cohorte Agrican a montré une augmentation sensible des risques de lymphomes, leucémies, mélanomes, tumeurs du système nerveux central ou cancers de la prostate chez les travailleurs du monde agricole. Ce travail se fonde sur plus d’une dizaine d’articles de recherche publiés au cours des dernières années dans la littérature scientifique internationale. Plus d’un million de personnes en activité en France, exploitants ou salariés d’exploitations, sont concernées.
Le premier constat est néanmoins que les membres de la cohorte ont un taux de mortalité plus faible de 25 % environ à la population générale. Un chiffre que les chercheurs invitent à considérer avec précaution, en raison du biais dit du « travailleur en bonne santé », bien connu des épidémiologistes. En effet, les cohortes de travailleurs comme Agrican rassemblent par construction des populations en situation de travailler, donc ne souffrant pas d’un certain nombre d’affections.
Sans surprise, ces caractéristiques sont illustrées par la sous-représentation de plusieurs cancers chez les agriculteurs : poumon, larynx, œsophage, foie, vessie, etc., dont une grande part est liée au tabac ou à la sédentarité. A l’inverse, plusieurs cancers du sang (lymphomes, myélomes), les cancers de la prostate, de la peau et des lèvres sont plus fréquents chez les agriculteurs. Au total, six cancers sont retrouvés en excès dans la cohorte, par rapport à la population générale, et quatorze y sont moins fréquents.
Pour déterminer les risques liés à certaines activités ou à l’utilisation de pesticides, explique M. Lebailly, « il faut faire les comparaisons au sein de la cohorte, c’est-à-dire estimer les différences de probabilité de développer telle ou telle maladie entre les membres de la cohorte qui réalisent telle ou telle tâche, et ceux qui ne la réalisent pas ».
« Nous avons examiné treize cultures et cinq types d’élevages », résume l’épidémiologiste Isabelle Baldi (Université de Bordeaux), co-investigatrice de la cohorte. « Toutes sont associées à un surrisque d’au moins un cancer ».
Parmi les maladies les plus représentatives du milieu agricole, les lymphomes non hodgkiniens, myélomes et certaines leucémies sont associées à un grand nombre d’activités : l’application d’antiparasitaires sur le bétail, l’enrobage des semences avant le semis, la pulvérisation de pesticides en champ et en arboriculture, ou encore la désinfection des bâtiments d’élevage.
Ces résultats renforcent les éléments de preuve de l’impact sanitaire des pesticides sur leurs utilisateurs, les liens entre pesticides et hémopathies malignes étant déjà solidement établis. Plusieurs types de lymphomes sont considérés depuis 2015 comme maladies professionnelles pour les travailleurs au contact des pesticides et peuvent ainsi conduire à l’indemnisation des malades.
L’application de pesticides en plein champ ou sur les arbres fruitiers, l’utilisation de produits antiparasitaires sur les bovins et les porcins sont également associées à un risque accru de cancer de la prostate. « Les arboriculteurs réalisant des traitements pesticides ou des récoltes sur plus de 25 hectares ont un doublement de risque » de voir survenir cette maladie, écrivent les chercheurs.
Article rédigé par Georges Simmonds pour RT Flash
Le Monde
|
|
|
|
|
|
|
|
Ces dernières années, une biomolécule a fait l’objet d’une attention particulière, la cGAS. Il s’agit d’un « détecteur d’ADN » qui est impliqué dans le déclenchement des réponses immunitaires dans le corps. Plus précisément, lorsqu’un agent pathogène infecte une cellule, la cGAS détecte son ADN, puis commence une série de réactions biochimiques qui activent le système immunitaire « inné » du corps, la première barrière de défense de notre système immunitaire.
Comment la cGAS parvient à distinguer son propre ADN de l’ADN étranger ? C’est l’une des principales énigmes scientifiques autour de cette biomolécule. Mais le plus déroutant est que la cGAS existe également dans le noyau cellulaire, où se trouve le matériel génétique.
Des scientifiques de l’EPFL et de l’Institut Friedrich Miescher en Suisse ont révélé l’existence d’un mécanisme fascinant par lequel les nucléosomes – les unités structurales qui enveloppent l’ADN à l’intérieur du noyau – se lient et inactivent la cGAS.
Les travaux menés conjointement par la professeure Andrea Ablasser de l’EPFL et le scientifique Nicolas Thomä de l’institut Friedrich Miescher apportent de nouvelles informations sur la biologie de cette molécule indispensable à l’immunité.
Un nucléosome comporte une chaîne d’ADN enroulée autour de paires, ou dimères, de protéines appelées histones, tel un fil autour d’une bobine. L’association des histones et de l’ADN est appelée « chromatine ».
De précédentes études ont révélé que lorsque des cellules sont traitées avec le médicament anticancéreux aclarubicine, certaines histones sont « mobilisées » au sein de la chromatine. Parallèlement, la cGAS devient également mobilisée, ce qui permet aux chercheurs de conclure que la cGAS pourrait s’associer au nucléosome dans la cellule. Cette hypothèse a finalement été confirmée par des essais biochimiques qui ont révélé que ces deux acteurs peuvent en effet interagir.
Pour mieux comprendre ce phénomène, les scientifiques ont eu recours à la cryo-microscopie électronique pour voir, sur le plan structurel, comment les nucléosomes se lient à la cGAS. En étudiant le complexe formé par la cGAS et les nucléosomes à une résolution de 3,1 Ångstroms (0,31 nm), ils ont découvert que la cGAS se lie au « patch acide » du nucléosome, une plate-forme négativement chargée qui se lie généralement aux protéines. Une fois liés, les histones et l’ADN des nucléosomes « piègent » la cGAS dans un état où elle est incapable de détecter l’ADN et est donc fonctionnellement inactivée.
Pour confirmer leurs découvertes, les scientifiques ont introduit des mutations dans l’interface cGAS-patch acide, ce qui a empêché la cGAS de se lier au nucléosome. Cela a été suffisant pour supprimer l’effet de blocage du nucléosome sur la cGAS et a déclenché une forte réponse immunitaire dans les cellules vivantes.
Ces travaux apportent les premiers éléments de réponse sur la manière dont la chromatine interfère avec l’activité de la cGAS. Ils révèlent que la base structurelle de l’interaction de la cGAS avec la chromatine fournit aux scientifiques un mécanisme par lequel la cGAS peut différencier l’ADN de sa propre cellule de celui d’agents pathogènes étrangers.
Article rédigé par Georges Simmonds pour RT Flash
EPFL
|
|
|
|
|
|
|
|
Les cellules souches hématopoïétiques (CSH) sont à l’origine de toutes les cellules du sang. Pour s’orienter vers un type particulier de cellules sanguines matures – plaquettes, globules rouges, globules blancs (lymphocytes)... –, une CSH franchit plusieurs étapes de division et de différenciation successives, contrôlées par différents gènes et facteurs de croissance.
Mais un nouveau paramètre vient d’être mis en lumière : les contraintes mécaniques appliquées sur son noyau. Cette découverte fondamentale apporte des éléments de compréhension inédits sur le déroulement de la différenciation des cellules sanguines. Elle complète les données qui servent à optimiser les traitements fondés sur des CSH, comme la greffe de moelle osseuse ou certaines approches de médecine régénérative.
« Nous travaillons avec l’unité de thérapie cellulaire de l’hôpital Saint-Louis à Paris, pour mieux comprendre la biologie cellulaire des CSH et améliorer les approches médicales qui les utilisent », explique Stéphane Brunet, qui a codirigé ce travail avec Manuel Théry. « Nous voulions comprendre quel pourrait être le rôle du cytosquelette de filaments protéiques à l'intérieur des cellules, conférant à ces dernières leur structure et leurs propriétés mécaniques dans le processus de différenciation qui mène aux cellules sanguines ».
« Le cytosquelette est l’ensemble des filaments qui trament l’intérieur de la cellule. On a longtemps cru que ses fonctions étaient de former des rails qui orientent le déplacement des molécules, de fixer la position des organites spécialisée retrouvées dans le cytoplasme d'une cellule et de chorégraphier la division cellulaire.
Mais en observant des CSH au microscope, nous avons pu montrer que le cytosquelette joue aussi un rôle dans l’expression des gènes et la différenciation des cellules, en dehors de toute division cellulaire ».
Schématiquement, les CSH peuvent s’engager dans la voie dite lymphoïde, qui conduit à la formation des différents lymphocytes (B ou T), ou bien dans la voie dite myéloïde, pour former des cellules telles que les macrophages du système immunitaire chargées d’absorber et de digérer les corps étrangers ou les globules rouges. Lorsqu’elles s’engagent dans cette dernière, leur noyau, initialement petit et rond, grossit peu à peu. Il est ensuite littéralement étranglé et déformé par certains filaments du cytosquelette. « Nous avons observé que cet étranglement, associé à une modification de la structure qui borde l’intérieur du noyau élu lui donne sa forme (la lamina), induit une réorganisation de l’ADN sous les invaginations qui sont créées », précise Stéphane Brunet.
L’ADN peut être empaqueté sous une forme peu dense qui permet l’expression des gènes qu’il contient (l’euchromatine), ou sous une forme condensée qui va au contraire inhiber l’expression génétique (l’hétérochromatine). « Dans ce travail, nous avons observé une perte d’hétérochromatine sous les invaginations, au profit d’euchromatine. Mais lorsque l’on bloque l’activité du cytosquelette durant la phase de différenciation, l’hétérochromatine n’est plus remodelée, l’expression des gènes est modifiée et les cellules obtenues ne sont pas fonctionnelles ».
Ce travail, soutenu par la fondation Bettencourt-Schueller, offre des perspectives importantes pour la thérapie cellulaire. Il apporte en effet une meilleure compréhension des mécanismes qui orientent la différenciation des cellules sanguines, et donc un moyen supplémentaire de contrôler finement le devenir des CSH utilisées dans les protocoles cliniques.
Les liens entre contraintes mécaniques et expression génique invitent en outre à poser une nouvelle hypothèse : « La forme du noyau des CSH pourrait-elle être utilisée comme marqueur de dysfonctionnement ou de sénescence naturel des cellules et des organismes cellulaires ? » interroge le chercheur. L’étude des gènes dont l'expression est modifiée par la perte d’hétérochromatine permettra sans doute d’avancer dans cette voie...
Article rédigé par Georges Simmonds pour RT Flash
Inserm
|
|
|
|
|
|
|
|
Alors que l'architecture et l'organisation générales du cerveau humain sont universelles, des recherches plus récentes montrent comment les différences dans les processus d’imagination entre individus peuvent être observées dans l'activité cérébrale et quantifiées. Ces signatures neurologiques uniques peuvent être utilisées pour comprendre, étudier et même améliorer le traitement de troubles neurologiques tels que la maladie d'Alzheimer, soutiennent ces travaux de l’Université de Rochester.
«Lorsque les gens imaginent des types d'événements similaires, chaque personne le fait à sa manière parce qu'elle a vécu des expériences différentes », explique l’auteur principal, Feng Lin, professeur agrégé de neurosciences : «Nos recherches démontrent que nous pouvons décoder ces informations complexes, identifier ces « empreintes digitales neuronales » rendues uniques par l'expérience mémorisée de chaque individu ».
Dans cette expérience, les chercheurs demandent à 26 participants de se rappeler des scénarios courants, tels que conduire, assister à un mariage ou manger au restaurant. Les scénarii étaient suffisamment courants pour que chaque participant les réinvente différemment. Les descriptions verbales des participants ont été mises en correspondance avec un modèle linguistique informatique capable de créer une représentation numérique du contexte de la description. Les participants ont ensuite subi une IRM fonctionnelle (IRMf) et invités durant l’imagerie à réinventer l'expérience pendant que les chercheurs mesuraient l’activation des différentes zones du cerveau.
En rapprochant les données de l'IRMf et les descriptions et évaluations verbales du sujet, les chercheurs ont pu identifier les modèles d'activité cérébrale associés aux expériences de chaque sujet. À l'aide de ces données, les chercheurs ont construit un modèle fonctionnel du cerveau de chaque participant, caractérisé par une signature unique de leur activité neurologique.
Une signature unique de l’activité neurologique de chaque individu : si cette signature est unique, elle est complexe, reposant sur plusieurs zones du cerveau servant de zones commutatrices pour le traitement des données à travers les réseaux cérébraux qui contribuent à rappeler des « souvenirs » ou informations sur des personnes, des objets, des lieux, des émotions et des sensations. L'équipe a pu observer comment ces modèles d'activation diffèrent en fonction des expériences, des souvenirs et de l'imagination de chaque participant.
Comprendre comment les souvenirs sont manipulés par le cerveau humain : « Ici, l'IRMf qui mesure l'activité cérébrale avec un signal suffisant peut identifier des différences interpersonnelles dans la représentation neuronale d'événements imaginés complexes et ces différences reflètent l'expérience unique de chaque individu », explique le co-auteur, Andrew Anderson, l'Institut Del Monte pour les neurosciences.
Alors que la plupart des zones cérébrales clés identifiées dans cette étude sur l’empreinte digitale cérébrale ont tendance à décliner avec le vieillissement et sont vulnérables à la dégénérescence, la recherche ouvre un nouvel axe pour l’étude des maladies neurodégénératives, comme la maladie d’Alzheimer mais aussi d’autres formes de démence, la schizophrénie et la dépression.
Article rédigé par Georges Simmonds pour RT Flash
Nature
|
|
|
|
|
|
|
|
Au cours de la maladie de Huntington, un mécanisme de sénescence cellulaire se développe en réponse au stress cellulaire durant la différenciation neuronale, affectant plus particulièrement les cellules souches neurales et les neurones striataux.
Reprogrammer l’action des gènes FOXO, notamment FOXO3, vers l’inhibition de l’expression d’inducteurs clés de la sénescence cellulaire chronique tels que la protéine P16INK4a constitue une voie thérapeutique prometteuse pour freiner ce processus en phase précoce de la maladie.
On sait aujourd’hui qu’au cours des maladies neurodégénératives, le cerveau met en œuvre des mécanismes de défenses afin de compenser les dommages cellulaires. C’est notamment le cas des facteurs de transcription FOXO qui modulent la longévité cellulaire en engageant des mécanismes de réparation.
Mais en cas de sénescence cellulaire chronique, comme dans les maladies neurodégénératives par exemple, ils peuvent aussi induire la mort cellulaire par apoptose. FOXO3 appartient à cette famille de facteurs de transcription et il a été montré qu’il avait un rôle neuroprotecteur essentiel dans la maladie de Huntington en limitant l’effet cytotoxique de la huntingtine notamment.
Mais ses cibles cellulaires restent encore méconnues. Comprendre comment ces gènes de régulation FOXO modulent la réparation cellulaire au cours des maladies neurodégénératives pourrait avoir des implications thérapeutiques majeures. Une équipe de recherche de Sorbonne Université/Inserm/CNRS/AP-HP dirigée par Christian Néri a fait l’hypothèse qu’ils pourraient freiner la dégénérescence cellulaire.
Les données obtenues par l’équipe française montrent que la sénescence cellulaire apparaît précocement au cours de la maladie de Huntington dans les cellules souches neurales (CSN) et dans les neurones épineux moyen (NEM) du striatum, dès la phase de différenciation neuronale, et qu’elles s’aggravent ensuite dans les neurones matures. Ce phénomène s’accompagne d’une augmentation de la protéine P16INK4a, un inducteur clé de la sénescence cellulaire chronique.
Dans un modèle cellulaire humain du noyau caudé (une structure particulièrement touchée par la maladie de Huntington) et en ayant recours aux techniques de génomique, les chercheurs ont pu mettre en évidence une reprogrammation de la cible de FOXO3 au cours du processus de différenciation des cellules souches pluripotentes en cellules souches neurales, puis en neurones. Ce mécanisme naturel d’adaptation au stress cellulaire vient spontanément réprimer l’expression du gène de la protéine P16INK4a en inhibant la transcription de son activateur ETS2.
Même si cette réponse reste insuffisante pour compenser le stress cellulaire induit par la maladie de Huntington, les chercheurs pourraient mettre à profit ce mécanisme de réduction du niveau d’expression des inducteurs de la sénescence cellulaire pour aider le cerveau à mieux résister. L’idée serait d’intervenir en phase précoce de la maladie de Huntington, avant que ne surviennent les dommages et la mort cellulaires.
Article rédigé par Georges Simmonds pour RT Flash
Univadis
|
|
|
|
|
|
|
|
Des chercheurs américains ont mis au point un examen de la vue qui, combiné à une technique d’intelligence artificielle, permettrait de dépister la maladie de Parkinson.
On estime à environ 200 000 le nombre de personnes affectées par la maladie de Parkinson en France. Après Alzheimer, cette maladie neurodégénérative a pour principal facteur de risque l’âge. En effet, l’âge moyen au début des traitements se situe autour de 75 ans, même si environ 15 à 20 % des nouveaux malades sont âgés de moins de 65 ans. Une nouvelle étude, présentée par la Radiological Society of North America (RSNA), pourrait révolutionner le dépistage.
Les chercheurs ont mis au point un examen de la vue qui, couplé à une puissante technologie d'apprentissage automatique de l'intelligence artificielle, permettrait une détection précoce de la maladie de Parkinson. Actuellement, le diagnostic se base sur certains symptômes comme des tremblements, une raideur musculaire et un équilibre altéré.
« Le problème avec cette méthode est que les patients ne développent généralement des symptômes qu'après une progression prolongée avec une lésion significative des neurones cérébraux dopaminergiques », rapporte l'auteur principal de l'étude, Maximillian Diaz, titulaire d'un doctorat en génie biomédical. Et de poursuivre : « Cela signifie que nous diagnostiquons les patients tardivement dans le processus de la maladie ».
Comme le rappelle MedicalXpress, la progression de la maladie est caractérisée par la décomposition des cellules nerveuses qui amincit les parois de la rétine, la couche de tissu qui tapisse l'arrière du globe oculaire. Les vaisseaux sanguins sont également touchés. Dans le cadre de cette étude, l’intelligence artificielle a permis d’examiner les images des yeux à la recherche de signes de la maladie. Grâce aux images de l’arrière de l’œil, les chercheurs ont formé l’intelligence artificielle à détecter les signes évocateurs de la maladie. Ces observations soutiennent l’idée que des changements dans la physiologie du cerveau peuvent être observés dans l'œil.
Article rédigé par Georges Simmonds pour RT Flash
Medical Xpress
|
|
^ Haut |
|
|
|
|
|
|
|
Recherche |
|
|
Recherche & Innovation, Technologies, Transports
|
|
|
|
|
|
|
|
|
Le nécessaire développement de l'aviation commerciale électrique, dicté par la lutte contre le changement climatique, passe par une réduction importante de la masse des batteries embarquées. Il s'agit de réduire le poids au minimum tout en stockant un maximum d'énergie.
Mais, concernant l'optimisation et sur le même principe, l'autre enjeu consiste à réduire le poids de la motorisation électrique tout en développant toujours plus de puissance. C'est sur ce type d'optimisation que travaille une nouvelle entreprise américaine située à Minneapolis : H3X Technologies cherche à concevoir un moteur électrique aussi puissant que ceux produits actuellement mais avec un poids divisé par trois.
Son moteur s'appelle le H3X HPDM 250. Il pèse 15 kg et produit 200 kW de puissance avec une pointe à 250 kW. Au final, la densité représente 13,3 kW par kg en puissance continue, un record ! Actuellement, le moteur doté du meilleur rapport poids/puissance est un Magnix Magni 500 qui équipe le premier avion commercial 100 % électrique de ZeroAvia et sa densité est limitée à 4,2 kW/kg.
Pour parvenir à un tel rapport sur le H3X HPDM 250, les chercheurs ont optimisé le système électromagnétique, utilisé des procédés de fabrication additive des bobines en cuivre et des composants électroniques en carbure de silicium. Le H3X HPDM 250 bat les records de densité concernant la puissance par kg. Une prouesse essentiellement due à son architecture et à l’utilisation de l’impression 3D pour la fabrication des bobines.
Les ingénieurs expliquent qu'ils ont également mis au point un système de refroidissement capable de gérer à la fois l'électronique de puissance et le moteur lui-même. De plus, si l’impression 3D des bobines en cuivre est un élément clé de l'augmentation de la densité, elle joue également un rôle important sur le refroidissement.
Mais ce n'est pas tout, les moteurs électriques d'avion sont associés à un onduleur. Or, celui-ci pèse généralement autour de 10 kg. Un poids à ajouter à la motorisation. Alors que ce n'est pas le cas pour les autres motoristes, le H3X HPDM 250 intègre directement cet onduleur dans le moteur.
Il reste un bémol puisque, avec le H3X HPDM 250, le rendement culmine à 20.000 tours par minute. C'est bien trop pour une hélice et, comme c'est le cas pour bon nombre d'avions à moteur thermique, un réducteur est nécessaire. Un « détail » qui vient ajouter trois kg à la motorisation... Mais, selon H3X Technologies, sans ce procédé, un moteur plus lent aurait engendré de moins bonnes performances par rapport à sa masse.
À l'avenir, le porte-parole de H3X Technologies compte voir sa motorisation équiper des petits avions électriques et des aéronefs multirotors, comme les futurs taxis volants. Il prédit également l'arrivée de l'électrification des avions commerciaux de ligne à l'horizon 2030.
Article rédigé par Georges Simmonds pour RT Flash
Pilot Web
|
|
|
|
|
|
|
|
La société Wallenius Marine projette de mettre à flot l’Oceanbird, un super cargo capable de traverser l’Atlantique avec 7000 véhicules embarqués en seulement 12 jours. Jusque-là rien de révolutionnaire ! Mais, l’Oceanbird pourra le faire sans utiliser aucune énergie fossile, seulement la force du vent. Cousteau avait déjà proposé une méthode similaire mais c’était en 1983…
Le commandant Cousteau proposait, à l’époque, une turbo-voile qui, en s’orientant ne fonction du vent, dirigeait le bateau. Dans le cas de l’Oceanbird, l’orientation des ailes rigides se fait grâce à des algorithmes.
Ces algorithmes permettront d’optimiser la direction des vents et de les orienter instantanément. « Les voiles et la coque fonctionneront ensemble comme une seule unité pour maîtriser le vent de la manière la plus efficace » explique Mikael Razola, responsable du projet.
Côté écologique, il n’y a pas de tergiversations possibles, l’Oceanbird est un atout indéniable. Surtout lorsque l’on sait qu’il disposera de cinq grandes ailes télescopiques pouvant atteindre 80 mètres de hauteur pour augmenter leur efficacité. Ces mêmes ailes pourront se rétracter à 20 mètres en cas de vents violents ou de passage de ponts.
Un cargo classique nécessite 2500 tonnes de fioul pour une traversée identique… Le gain écologique est donc indéniable. La réduction des émissions de CO2 pour l’Oceanbird avoisinera les 90 %, comparé à un cargo classique.
Wallenius Marine lancera les premières commandes à la fin de l’année 2021 pour des livraisons probables en 2024. Ce n’est pas tout à fait demain que nous croiserons les Oceanbird sur nos océans mais c’est tout de même un grand espoir d’amélioration du fret maritime. Les éoliennes maritimes ont un bel avenir devant elles !
Article rédigé par Georges Simmonds pour RT Flash
Neozone
|
|
^ Haut |
|
|
|
|
|
VOTRE INSCRIPTION |
|
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
|
|
|
|
|
|