|
|
|
|
|
NUMERO 1037 |
|
|
|
|
|
|
|
Edition du 07 Février 2020
|
|
|
|
|
Edito
Centrales solaires hybrides et FPOS : une nouvelle révolution énergétique et urbaine est en vue !
En 2018, selon l'Agence internationale de l'énergie (AIE), les centrales solaires ont produit 571 térawattheures d'électricité et les parcs éoliens 1.149 térawattheures. En 2010, l'éolien dépassait à peine les 330 térawattheures, tandis que le solaire n'existait pas encore à grande échelle.
Aujourd'hui, les énergies renouvelables assurent déjà 26 % de la production d'électricité dans le monde (26 500 TWh), dont 13 % pour l'éolien et 2 % seulement pour le solaire. Mais ces deux dernières technologies gagnent rapidement du terrain. Cette part des énergies renouvelables devrait grimper de 55 % d’ici à 2040, selon l’Agence internationale de l’énergie (AIE). Le photovoltaïque et l’éolien représenteraient plus de la moitié de cette croissance dans le scénario s’appuyant sur les objectifs énergétiques gouvernementaux. Ces deux sources pourraient fournir plus d’électricité que l’hydraulique dès 2030. Le photovoltaïque serait le principal moteur, avec 60 % des capacités de production d’électricité renouvelable supplémentaires installées d’ici à 2024.
Dans son rapport Renewables 2019, l’AIE relevait déjà l’essor des capacités de production d’électricité renouvelable. La puissance installée additionnelle devrait bondir cette année de 12 % (198 GW), alors qu’elle était restée stable entre 2017 et 2018 (178 GW). L’AIE prévoit 1 200 GW de capacités supplémentaires pour les énergies renouvelables d’ici à 2024, l’équivalent de la capacité totale des États-Unis aujourd’hui. Le solaire photovoltaïque (PV) devrait connaître une croissance « spectaculaire », portée à 75 % par les systèmes distribués (les installations sur les toits des maisons, des bâtiments commerciaux et industriels, par opposition aux centrales photovoltaïques au sol).
La capacité installée du PV distribué pourrait plus que doubler d’ici à 2024 pour atteindre 530 GW. Notamment grâce à la Chine, qui devrait dépasser l’Union européenne dès 2021 et s’imposer dans ce domaine. Un autre facteur s’est avéré décisif pour expliquer cette croissance irrésistible du solaire : depuis 10 ans, le coût de l'électricité produite dans des centrales solaires a été divisé par neuf, selon une étude de la banque Lazard. Le coût réel du solaire et de l'éolien est désormais presque partout inférieur à celui des énergies fossiles ou du nucléaire.
Partout dans le monde, des installations solaires fleurissent et prennent une part grandissante dans la transition énergétique, mais aussi le développement économique de nombreux pays en voie de développement. C’est par exemple le cas en Afrique où le consortium formé par le Français EDF Renouvelables, par Masdar -société d'énergies nouvelles de l'émirat d'Abou Dhabi- et par Green of Africa -producteur d'électricité indépendant marocain- est en train de réaliser la construction de la première phase de la centrale solaire hybride de Noor Midelt 1.
Ce futur complexe, situé à 20 kilomètres de la ville de Midelt mise sur une technologie mixte particulièrement prometteuses qui associe la technologie du panneau solaire, éprouvée et largement diffusée à travers le monde, à celle de la concentration de chaleur, très efficace, mais encore moins bien maîtrisée. « En combinant dans une même installation les technologies photovoltaïques et la concentration de chaleur, la centrale proposée disposera d'un rendement amélioré et d'une capacité de stockage qui lui permettra de produire de l'électricité jusqu'à cinq heures après le coucher du soleil », estime EDF dans un communiqué, précisant que « le mode d'hybridation de ces technologies constitue une première mondiale ».
Le chantier, dont le coût est estimé à 700 millions d'euros, est en phase de lancement. Le futur complexe multi-technologique doit entrer en service en 2022. A terme, il disposera d'une puissance de 800 MW, soit l'équivalent d'un réacteur nucléaire. Il s'agit actuellement de l'un des plus importants projets au monde en matière de technologie solaire hybride. Avec cette technologie hybride et ses grandes étendues désertiques, le Maroc entend à l'avenir encore renforcer son autonomie énergétique. Dans un premier temps, son objectif sera déjà de porter à 52 % la part du renouvelable d’ici 2030.
L’autre exemple remarquable de centrale hybride est australien. Dans cet immense pays, bénéficiant d’un ensoleillement exceptionnel, l’entreprise Windlab, spécialisée dans les énergies renouvelables, travaille actuellement sur un projet de centrale hybride 3 en 1. Ce projet tri-technologique vise à faire travailler ensemble une centrale solaire, un parc éolien et un système de stockage par batterie lithium-ion. L’ensemble serait directement raccordé au réseau électrique. Ce projet, baptisé la centrale Kennedy Energy Park, a déjà obtenu le feu vert et la construction doit démarrer dans les prochaines semaines. Dans le détail, la centrale solaire devrait fournir 15 MW, le parc éolien devrait produire 43,2 MW, et les deux unités de production seront reliées à des batteries Tesla offrant une capacité de stockage de 4 MWh.
Mais la technologie solaire hybride ne se décline pas seulement dans les grandes installations, qui associent des panneaux solaires thermiques à concentration (qui produisent de la chaleur) et des panneaux photovoltaïques (qui produisent de l’électricité). Elle peut également s’appliquer d’une manière particulièrement efficace, en termes de rendement, comme en termes de longévité, dans les installations domestiques de petite taille, en ayant recours cette fois à des panneaux solaires mixtes, capables de produire simultanément chaleur et électricité.
En France, la société DualSun s’est fait connaître dans le monde entier en développant une remarquable innovation, un panneau solaire double face, baptisé Wave, qui allie deux technologies : le photovoltaïque, pour produire de l’électricité, et le thermique pour produire de l’eau chaude. Son fonctionnement est relativement simple : de minuscules tuyaux recouvrent toute la surface inférieure du panneau, permettant une répartition de l’eau sous les cellules photovoltaïques. L’eau rentre dans un coin du panneau, se réchauffe au contact des cellules, puis est renvoyée dans la maison, en direction du ballon d’eau chaude. Le circuit intègre un programmateur qui mesure la température de l’eau et déclenche la circulation dès que celle-ci passe en-dessous de 20 degrés. En fin de journée, après avoir réalisé plusieurs boucles, l’eau revient dans le ballon à environ 60 degrés.
Ce système mixte permet non seulement d’assurer 30 à 50 % de l’eau chaude sanitaire avec une dizaine de panneaux dans les régions bien ensoleillées, mais il peut également refroidir le panneau grâce à cette circulation d’eau et allonger ainsi sa durée de vie. Cette technologie hybride permet donc de produire plus d’énergie, plus longtemps, tout en réalisant de substantielles économies sur la durée. On estime que, pour une installation type de 6 panneaux hybrides dans le sud de la France, si l’on tient compte de l’achat et de l’entretien de l’équipement sur toute sa durée de vie, on obtient un coût global de l’énergie de l’ordre de 8 centimes d’euros par kWh, très inférieur donc au kWh acheté à EDF, dont le tarif de base tourne actuellement autour de 14 centimes d’euros TTC.
Cette efficacité énergétique et cette rentabilité économique du solaire hybride, dont commencent à prendre conscience les particuliers, mais aussi les collectivités, ont été détaillées et confirmées dans la thèse de Laetitia Brottier (voir HAL) qui montre qu’une installation hybride domestique représentant un investissement de 8 500 euros (aides déduites) peut générer plus de 15 000 euros d’économies sur 20 ans. Cette thèse montre également que cette technologie solaire hybride a permis une division par quatre de la consommation d’énergie finale de 73 logements à Marseille. Autre exemple évoqué par cette thèse : à Sète, la pose de 300 m² de panneaux solaires hybrides sur ombrière pour la piscine couverte a permis 2,5 fois plus de production d’énergie qu’une simple installation photovoltaïque, ce qui montre l’efficacité de cette technologie pour optimiser les surfaces ensoleillées disponibles et aller plus vite vers des bâtiments neufs autosuffisants en énergie.
La seconde révolution technologique en cours dans le domaine de l’énergie solaire, qui est d’ailleurs tout à fait compatible avec celle du solaire hybride, est celle des FOPS, les Films Organiques Solaires Photovoltaïques. Flexibles, ultraminces, légers, semi-transparents et peu coûteux, les films photovoltaïques organiques sont produits par des procédés bas carbone ne nécessitant l’emploi d’aucun métal stratégique ni de solvants chlorés. A la place du silicium, ces films utilisent des dérivés du carbone, d’où leur appellation de cellule « organique ».
Par leurs caractéristiques physiques et chimiques remarquables, les FOPS peuvent être appliqués sur à peu près n’importe quel type de surfaces, murs de bâtiments, mais aussi fenêtres, véhicules, vêtements et objets divers. En raison de ses propriétés translucides, ce type de films solaires peut également être déployé sur des serres agricoles, ce qui ouvre de vastes perspectives pour les exploitants, tant en matière d’amélioration des rendements que de production propre d’énergie locale. En outre, les films organiques présentent le grand avantage d’être insensibles à la chaleur et leur rendement reste constant, même en cas de canicule.
Outre Rhin, la firme allemande Heliatek, qui s’est associée avec les meilleurs instituts de recherche allemands, est parvenue, en dix ans, à faire passer le rendement de ces FOPS de 3 à 13 %, et vise les 15 % pour 2025. Ce rendement reste certes inférieur à celui des cellules solaires récentes, qui dépassent les 20 %, mais ce handicap est largement compensé par le champ d’utilisation bien plus large de ces films solaires et leur faible coût.
En France, l’un des principaux concurrents d’Heliatek est l’entreprise bretonne Armor. Cette société nantaise, fondée en 1922, fabriquait à l’origine des cartouches pour imprimantes, avant de s’orienter vers l’impression de modules photovoltaïques organiques. Accompagnée par des scientifiques de l’INES et du CNRS, elle a développé un film OPV ultrafin et très léger (450 g/m²) dont la durée de vie est de 20 ans et le rendement énergétique de 8 %. Armor fournit le film OPV utilisé par un concept de mobilier urbain interactif de JCDecaux, en permettant de communiquer, via les smartphones, les informations et les événements concernant un quartier. Armor équipe également des serres agricoles en partenariat avec Eiffage Energie. Cette firme bretonne est persuadée de l’immense potentiel mondial des FOPS et multiplie les expérimentations et projets. Elle a notamment signé un contrat avec l’UNESCO dans le cadre d’une opération de soutien à l’éducation en Afrique. Dans ce projet, plusieurs centaines d’écoliers du Togo se sont vus remettre gratuitement un cartable doté d’un film photovoltaïque organique. Il leur permet de charger une lampe mobile durant la journée, puis d’utiliser cette lampe le soir pour étudier, ce qui change leur vie, car ces écoliers habitent des régions rurales qui ne sont pas connectées au réseau électrique.
Pendant ce temps, les recherches se poursuivent activement dans le monde pour mettre au point des cellules et films solaires à la fois souples, résistantes et bon marché, que l’on pourrait utiliser sur à peu près n’importe quel type de surface. Des chercheurs de l'Université nationale des sciences et des technologies d’Ulsan (Unist), en Corée du Sud, ont par exemple eu l’idée de percer des cellules solaires conventionnelles de minuscules trous, d'environ 100 μm, l'épaisseur d'un cheveu humain. Ces minuscules perforations rendent la cellule aussi transparente qu'une vitre teintée. Ce nouveau type de cellule atteint déjà le rendement remarquable de 12 %. Mais surtout, elles perdent moins de 4 % d'efficacité lorsqu'elles sont placées verticalement, alors que les cellules classiques perdent un tiers de leur rendement dans la même situation d’exposition. A terme, ce nouveau type de cellules solaires pourrait être directement intégré aux fenêtres des immeubles et habitations, qui présentent l’avantage de représenter des surfaces utilisables bien plus importantes que celles des toits.
Un panneau solaire complètement transparent a également été récemment développé par des chercheurs de la Michigan State University. Ils affirment que cette technologie pourrait avoir un potentiel d’économie d’énergie immense et pourrait être utilisée dans l’architecture, l’électronique mobile, les maisons, le bâtiment et même dans l’industrie automobile. Cette cellule utilise une technologie organique qui absorbe les longueurs d’ondes de la lumière invisibles à l’œil humain. « La lumière capturée est transportée dans le contour du panneau, où elle est convertie en électricité à l’aide de fines bandes de cellules solaires photovoltaïques », explique Richard Lunt, assistant professeur de génie chimique et de science des matériaux au MSU College of Engineering. La technologie vise à remplacer les fenêtres existantes, en particulier celles des grands bâtiments et des gratte-ciel, en raison de leur envergure.
Un nombre croissant de scientifiques sont persuadés que l’utilisation combinée à grande échelle de l’énergie solaire hybride et des FOPS va accélérer sensiblement la montée en puissance déjà impressionnante de l’énergie solaire dans le mix énergétique mondial. Fait révélateur, alors qu’en 2010, l’AIE prévoyait que l’énergie solaire représenterait 22 % de la production électrique mondiale en 2050 (une part déjà très importante, compte tenu du paysage énergétique de l’époque), elle a réévaluée cette part (en 2050) à 27 % en 2014, puis à 33 % en 2016.
Mais certaines études récentes vont encore plus loin. L'étude publiée en mars 2019 par les experts de l’Université finlandaise LUT University et d’Energy Watch Group montre par exemple qu’il est à présent envisageable d’imaginer pour 2050 un scenario énergétique mondial dans lequel le solaire, sous ses différentes formes, fournirait non seulement l’essentiel de l’électricité mondiale, mais aussi plus des deux tiers de la production primaire d’énergie de la planète (Voir Energy Watch Group). L’étude souligne qu’avec une électricité solaire qui coûterait à peine 5 centimes d’euro par kWh à produire, le solaire deviendrait sans rival en terme de compétitivité. Cette transition énergétique accélérée permettrait de réduire de moitié nos émissions mondiales de CO2 et d’éviter la catastrophe climatique annoncée, si nous restons sur la trajectoire actuelle de 1,5 %, en moyenne annuelle, de hausse mondiale de nos émissions de CO2.
En France, nous avons à présent la conjonction des compétences technologiques et de la prise de conscience de l’urgence climatique et environnementale et nous devons profiter de cette dynamique pour faire de notre pays une nation pionnière dans ce « basculement solaire ». Soyons volontaires et ambitieux : pourquoi ne pas décider qu’avant la fin de cette nouvelle décennie, tous les bâtiments neufs et les nouvelles habitations individuelles soient autosuffisants en énergie. Nous pourrions également, reprenant les conclusions de l’étude d’Energy Union Choices, conduite par le cabinet Artelys en 2018, décider de porter de 33 à 51 % la part totale des énergies renouvelables dans notre mix énergétique en 2030, ce qui est tout fait réalisable, en exploitant de manière plus volontariste notre remarquable potentiel solaire national. Le temps est venu de mobiliser toute notre intelligence et nos ressources pour exploiter enfin pleinement toute cette énergie propre, inépuisable et gratuite dont l’Humanité a besoin.
René TRÉGOUËT
Sénateur honoraire
Fondateur du Groupe de Prospective du Sénat
e-mail : tregouet@gmail.com
|
|
|
|
|
|
|
|
Avenir |
|
|
Nanotechnologies et Robotique
|
|
|
|
|
|
|
|
|
La jeune société lilloise Axorus développe depuis deux ans un dispositif qui se glisse sous la rétine biologique des patients atteints de DMLA, dans laquelle des neurones électroniques se substituent aux neurones dégénérés pour faire l'interface entre la lumière externe et le nerf optique. Ce dispositif a déjà fait l'objet d'un prototype.
Depuis plusieurs années, la perspective de restaurer la vision des patients souffrant de dégénérescence maculaire liée à l’âge (DMLA) ou de rétinopathies pigmentaires devient de plus en plus tangible. En voici donc un nouvel exemple.
Mais avant d’entrer dans le détail, expliquons en quelques mots, ce qu’est la DMLA. Maladie du vieillissement particulièrement invalidante, la dégénérescence maculaire liée à l’âge (DMLA) se caractérise par une dégradation de la rétine pouvant mener à une perte de la vision centrale.
Jusqu’à 30 % des personnes âgées de plus de 75 ans seraient concernées. Depuis des années, plusieurs groupes de chercheurs œuvrent pour développer une rétine artificielle qui pourrait redonner la vue à ces patients, ainsi qu’aux individus atteints de rétinopathie pigmentaire.
La rétine est composée de cellules sensibles à la lumière appelées photorécepteurs, dont le but est de transformer les signaux lumineux reçus par l’œil en signaux électriques acheminés vers le cerveau. Ce sont ces cellules qui sont détruites au cours de ces pathologies, ce qui peut mener à la cécité.
Axorus développe depuis deux ans ce dispositif -un prototype existe déjà- qui se glisse sous la rétine biologique des patients dans laquelle des neurones électroniques se substituent aux neurones dégénérés pour faire l'interface entre la lumière externe et le nerf optique. Actuellement, l’équipe recherche des financements pour sa phase préclinique visant à tester la solution sur des animaux. Elle bénéficiera pour cela du savoir-faire de l'Institut de la Vision à Paris.
La solution proposée par Axorus se distingue par son autonomie en énergie (l'énergie électrique requise est renouvelée par la lumière qui passe à travers la rétine biologique via des photorécepteurs) doublée d'une faible consommation. .En outre, le niveau d'acuité restitué par sa solution pourrait être inédit grâce à la taille particulièrement faible de ses neurones électroniques. Or c'est bien là que le bât blesse aujourd'hui, les solutions existantes ne redonnant la vue qu'en deçà du seuil minimum pour voir sans assistance.
Article rédigé par Georges Simmonds pour RT Flash
Axorus
|
|
|
|
|
|
|
|
Depuis les débuts de l'aviation, les inventeurs se creusent la tête pour créer des machines qui voleraient aussi agilement, rapidement et gracieusement que des oiseaux. Des chercheurs de l'Université Stanford ont annoncé avoir étudié minutieusement les ailes de cadavres de pigeons pour créer le « PigeonBot », une sorte de drone avec des ailes formées de 40 vraies plumes.
Les ingénieurs en aérospatiale et en matériaux peuvent désormais commencer à repenser la façon de concevoir et de confectionner des ailes et des matériaux qui se transforment aussi habilement que le font les oiseaux, a décrit David Lentink, un professeur en génie mécanique à Stanford et auteur de deux articles décrivant les résultats de cette étude dans Science et Science Robotics.
Tous les animaux à quatre membres, y compris les dinosaures, proviennent d'un ancêtre qui avait cinq doigts au bout de ses membres qui sont devenus avec le temps des mains, des pattes, des nageoires ou des ailes. Les oiseaux d'aujourd'hui, comme les pigeons, ont gardé trois doigts. En étudiant leurs ailes dans une soufflerie, les chercheurs ont remarqué que leurs poignets et leurs doigts permettaient de contrôler avec précision la position de leurs plumes et l'envergure de leurs ailes.
Lors d'essais en vol, la manipulation du poignet et des doigts a déclenché des virages serrés et précis, la preuve selon les chercheurs que les oiseaux utilisent principalement ces doigts pour se diriger en vol. Les équipes ont aussi découvert comment les oiseaux adaptent leurs ailes en vol : les plumes adjacentes peuvent se coller ensemble avec une microstructure fonctionnant comme du Velcro pour rendre le voyage plus fluide. Ces plumes s'accrochent entre elles quand l'aile s'étend et se détachent à nouveau lorsqu'elle se contracte, la rendant plus résistante aux turbulences. Les chercheurs ont remarqué que des structures similaires existaient chez de nombreuses espèces d'oiseaux, mis à part les chouettes qui peuvent ainsi voler plus silencieusement.
Article rédigé par Georges Simmonds pour RT Flash
Radio Canada
|
|
|
|
|
|
|
|
Selon une équipe de recherche associant de scientifiques du Cheng Lab de la Penn State et de la Northeastern University, chacun pourra bientôt disposer d'un dispositif portable pouvant analyser et mesurer avec rapidité et précision le niveau d'exposition aux principaux polluants toxiques pour la santé et l'environnement.
Ces scientifiques ont en effet développé un capteur de gaz ou de composés organiques volatils (COV) flexible et portable, destiné à une surveillance rapprochée de l'environnement. Selon les chercheurs qui documentent ce dispositif couplé au smartphone dans le Journal of Materials Chemistry A, sa commercialisation pourrait intervenir très prochainement.
Les ingénieurs ont notamment conçu un principe de capteur innovant car il utilise un mécanisme d'auto-échauffement qui améliore sa sensibilité. Les nanomatériaux utilisés pour les capteurs sont l'oxyde de graphène et le bisulfure de molybdène ou un composite d'oxyde métallique composé d'un noyau d'oxyde de zinc et d'une coque d'oxyde de cuivre (soit les 2 types de nanomatériaux les plus largement utilisés pour fabriquer les capteurs de gaz). Avec un défi technologique, explique l’auteur principal, Huanyu Cheng, professeur de Sciences et mécanique de l'ingénierie à la Penn State : « Le problème est que le nanomatériau est très difficilement branchable avec des fils permettant de recevoir ou transmettre le signal, ce qui implique l’ajout d’électrodes interdigitées ».
Dans la partie non sensible du dispositif, une série de lignes en serpentin, capable de s’étirer comme la peau, enduites d'argent, reçoit un courant électrique et réchauffe la zone de détection des gaz. Enfin, chaque dispositif pourrait intégrer de dix à des centaines de capteurs, chacun sélectif d'une molécule différente, tel un nez électronique sophistiqué, capable de détecter plusieurs composants dans un mélange complexe.
Détecter les polluants à l’échelle du pays et à l’échelle individuelle : ici, l’équipe apporte la preuve de concept avec des prototypes permettant déjà de détecter le dioxyde d'azote caractéristique de la pollution automobile. Elle se déclare également en mesure de détecter le dioxyde de soufre et le dioxyde d'azote, caractéristiques des pluies acides.
Les applications sont multiples, de la surveillance des agences gouvernementales et des associations environnementales mais aussi pour le développement de dispositifs médicaux de surveillance des patients, de la détection des polluants pouvant affecter la santé pulmonaire à la détection de biomarqueurs gazeux du corps humain.
Article rédigé par Georges Simmonds pour RT Flash
JMC
|
|
^ Haut |
|
|
|
|
|
|
|
Matière |
|
|
Matière et Energie
|
|
|
|
|
|
|
|
|
Depuis plusieurs années, tous les constructeurs d'appareils numériques travaillent sur des batteries plus performantes, capables de se recharger plus rapidement et d'assurer plusieurs jours d'autonomie à l'utilisateur. C'est notamment le cas du géant Samsung, qui promet pour bientôt des batteries au graphène plus puissantes, à taille égale, que les meilleurs batteries actuelles au lithium-ion.
Aux Etats-Unis, la société Real Graphene annonce que sa technologie est quasiment prête à être commercialisée. Des échantillons seraient même testés par des constructeurs – dont le nom n’a pas été révélé. La technologie de Real Graphene est en fait une évolution de la technologie des batteries actuelles au Lithium. La technologie lithium-ion est en effet basée sur l’échange réversible de l’ion lithium entre une électrode positive, le plus souvent un oxyde de métal de transition lithié (dioxyde de cobalt ou manganèse) et une électrode négative en graphite.
L’approche retenue par Real Graphene est de remplacer l’électrode en graphite par une électrode recouverte d’une fine couche de graphène et de modifier la composition de l’électrolyte. Le PDG de l’entreprise, Samuel Gong, explique qu’une cellule 3000 mAh utilisant leur technologie se charge de 0 à 100 % en 20 minutes, contre 90 minutes en moyenne avec une batterie lithium classique.
Surtout cette batterie a une longévité record : elle peut subir jusqu’à 1500 cycles de charge, contre entre 300 et 500 pour les batteries actuelles. A puissance de charge égale, ces batteries génèrent également moins de chaleur, ce qui, compte-tenu de l’utilisation de lithium, est plutôt un gage de sécurité. Enfin l’approche choisie par Real Graphene a un autre atout de taille : les fabricants de batteries Li-Ion n’auront pas besoin de changer de matériel pour la produire.
Le graphène reste pourtant un matériau cher et complexe à produire. Une feuille de ce matériau coûte 25 dollars et selon Digital Trends, un kilo de graphène était estimé à plus de 300 000 dollars il y a quelques années. Très peu de matériau est nécessaire dans chaque batterie, mais utiliser du graphène devrait nécessairement renchérir le prix de ces batteries sur les autres. Le prix du composant pourrait ainsi grimper de 30 % selon des estimations.
Real Graphene n’en est plus au stade du prototype. La firme a déjà mis sur le marché une batterie externe au graphène – qui est d’ailleurs en rupture de stock sur Amazon US. Samuel Gong ajoute que des batteries au graphène sont également testées par des constructeurs dont le nom n’a pas été dévoilé.
Article rédigé par Georges Simmonds pour RT Flash
Digital Trends
|
|
|
|
|
|
|
|
Mathieu Guesné est le fondateur et directeur de Lhyfe, une start-up nantaise qui veut développer une filière verte de production d’hydrogène. Fondée en 2017, Lhyfe emploie une quinzaine de personnes et a réalisé une des plus grosses levées de fonds en Europe en 2019, à hauteur de 8 millions d’euros, grâce à des investisseurs publics et privés.
Ancien ingénieur du CEA, dont il dirigeait le centre de recherche nantais, Mathieu Guesné s’est passionné très tôt pour l’hydrogène. « En France, nous avons une connaissance importante dans ce domaine, en témoigne le nombre de brevets qui ont été déposés, rien que par le CEA qui a été le premier à développer une pile à combustible.
La technologie est disponible et les usages aussi, il y a des voitures, il y a des trains, des camions et même des bateaux qui l’utilisent. Le souci, c’est que l’hydrogène n’est pas disponible en quantité, que donc son prix n’est pas compétitif et que sa production est actuellement loin d’être vertueuse, voire même très polluante ». Sous sa forme pure, l’hydrogène un gaz invisible, inodore et non toxique, plus léger que l’air, mais il ne se trouve pas naturellement dans cet état. Il faut donc le produire.
Aujourd’hui, 95 % de l’hydrogène sont fabriqués à partir d’hydrocarbures (pétrole, gaz naturel et charbon). On l’appelle l’hydrogène gris. C’est la solution la moins coûteuse mais ce processus est très émissif en CO2 puisqu’un kilo d’hydrogène produit génère jusqu’à 10 kilos de CO2. A contrario, l’hydrogène vert est produit à partir d’énergies renouvelables : on utilise l’électricité issue de l’éolien, du solaire ou de l’hydraulique, pour faire passer le courant dans l’eau, qui va décomposer la molécule d’eau en oxygène (O2) d’un côté, et en hydrogène (H2) de l’autre. C’est l’électrolyse de l’eau.
C’est ce que veut faire Lhyfe : produire, en France, de l’hydrogène grâce à des énergies renouvelables. « De manière à n’émettre à aucun moment du CO2 et le tout à un coût compétitif ». Pour cela Mathieu Guesné a imaginé un système modulaire qui puisse s’adapter à chaque territoire et à ses ressources : photovoltaïque, éolien, biomasse, géothermie, hydraulique, biogaz.
« Sur chaque territoire, Lhyfe travaille avec les collectivités pour identifier les meilleures sources d’énergie disponibles localement et co-pilote, avec les territoires, le projet de développement du site de production, de l’idée à la mise en service ». Mais comment Lhyfe compte-t-il s’affranchir de l’intermittence, propre à de nombreuses énergies renouvelables ?
« C’est l’innovation majeure de notre procédé. Notre équipe a développé un système qui assemble les briques technologiques les plus adaptées à chaque site, tenant compte de l’ensemble des contraintes (du type d’énergie et de la puissance disponible à la capacité de production nécessaire) et surtout a développé un algorithme unique au monde qui est la clé pour gérer et optimiser le processus de bout en bout ».
Ce système innovant, qui gère l’intermittence, permettra, selon le patron de Lhyfe, de rendre cet hydrogène vert compétitif et atteindre un prix de vente de 1,5 euro par litre. Ce qui est comparable à l’essence actuelle.
Et quoi de mieux pour illustrer la viabilité de ce nouveau procédé industriel que d’en faire une démonstration sur le terrain ? C’est précisément ce que Lhyfe va faire avec l’installation de sa toute première unité de production à côté du parc éolien de Bouin, en Vendée. Premier site de production d’hydrogène vert de France, sa construction va débuter dans les jours qui viennent et devrait produire, dès début 2021, plusieurs centaines de kilos d’hydrogène par jour, ce qui « représente 1/100ème des capacités de nos futures unités industrielles ».
L’unité de Bouin va coûter 3 millions d’euros et elle est cofinancée, ainsi que le centre R&D attenant, par différents acteurs publics et privés : la Communauté de Communes de Challans-Gois, la Région des Pays de la Loire, Bpifrance et sera co-construite avec les acteurs du département de la Vendée.
Article rédigé par Georges Simmonds pour RT Flash
Mer et Marine
|
|
^ Haut |
|
|
|
|
|
|
|
Espace |
|
|
Espace et Cosmologie
|
|
|
|
|
|
|
|
|
L’Univers s’étendrait plus rapidement qu’on le pensait. C’est ce qui ressort des observations menées par une équipe internationale d’astrophysiciens utilisant des données du télescope Hubble et à la NASA. Ces chercheurs, dont certains font partie de l’EPFL, ont utilisé un processus inédit. Plutôt que de se servir des techniques traditionnelles, ils ont calculé l’expansion de l’Univers - appelée la constante de Hubble – en utilisant le phénomène naturel de lentille gravitationnelle. Une méthode sur laquelle le Laboratoire d’astrophysique de l’EPFL (LASTRO) travaille depuis plusieurs années et dont il s’est fait une spécialité.
Ces nouveaux calculs sont le fruit d’un travail mené par des experts réunis dans H0LiCOW, un groupe issu d’un projet international nommé COSMOGRAIL. Initié et dirigé par les chercheurs de l’EPFL, ce dernier a pour but de recenser et d’utiliser les systèmes cosmiques agissant comme lentilles gravitationnelles, c’est-à-dire où la gravité d’une galaxie agit comme une sorte de loupe cosmique géante et permet d’observer un objet plus lointain situé en son arrière-fond.
En utilisant ce principe, les chercheurs ont pu calculer une constante de Hubble d’une valeur de 73 kilomètres par seconde et par megaparsec, avec une marge d’erreur de 2,4 %. En clair, cela signifie que pour chaque distance supplémentaire de 3,3 millions d’années-lumière la séparant de la Terre, une galaxie apparaîtra comme s’éloignant plus rapidement de 73 kilomètres par seconde. Une valeur significativement différente de celle de 67 km par seconde, obtenue par mesure du fond de rayonnement cosmologique via le satellite Planck.
C’est une découverte de taille. Car mesurer la constante de Hubble de manière précise ne permet rien de moins que de déterminer l’âge, la taille et l’évolution du cosmos. C’est donc l’un des défis actuels les plus importants du monde de l’astrophysique.
C’est pourquoi la communauté scientifique a été quelque peu secouée par l’écart entre le chiffre obtenu par H0LiCOW avec la méthode de la lentille gravitationnelle, utilisant des mesures du cosmos local, et celui prédit par l’observation du fond de radiations de l’univers primordial d’il y a 13 milliards d’années, à l’aide notamment du satellite Planck de l’Agence spatiale européenne (ESA).
« Si ces deux résultats ne correspondent pas, c’est peut-être le signe que nous ne comprenons pas encore totalement comment la matière et l’énergie évoluent au fil du temps, et plus particulièrement au tout début de l’Univers », explique l’un des leaders de l’équipe H0LiCOW, Sherry Suyu, de l’Institut Max-Planck d'astrophysique, en Allemagne.
Les scientifiques ont obtenu leurs résultats en analysant la lumière de six quasars. Ces objets célestes, représentant la région compacte entourant un trou noir au centre d'une galaxie massive, offrent un arrière-fond idéal pour les observations en raison de leur extrême brillance, leur grande distance et leur répartition uniforme dans le ciel. Entre eux et la Terre, à des distances allant de 3 à 6,5 milliards d’années-lumière, se trouve à chaque fois une imposante galaxie elliptique, dont la gravité a pour effet de décomposer la lumière du quasar parvenant à la Terre en plusieurs faisceaux et qui agit comme une loupe, d’où le nom de « lentille gravitationnelle ».
Article rédigé par Georges Simmonds pour RT Flash
EPFL
|
|
^ Haut |
|
|
|
|
|
|
|
Terre |
|
|
Sciences de la Terre, Environnement et Climat
|
|
|
|
|
|
|
|
|
Des chercheurs de l’ICBMS, avec leurs collègues de l'Université de Turin et de l'Institut des sciences analytiques de Lyon, viennent d’apporter la preuve que le captage du CO2 à partir des fumées, tel qu'il est pratiqué dans les unités industrielles à l'aide d'amines, génère des systèmes de ligands aux propriétés originales.
En effet, ces systèmes sont adaptatifs, c’est-à-dire qu'ils sont capables d'ajuster spontanément leur composition de façon à optimiser l'association avec des sels métalliques avec lesquels ils sont mélangés. Associé à une combinaison sur mesure de ces ligands, chaque métal se voit conférer des propriétés physiques uniques, notamment la solubilité. En modulant la quantité de CO2 dans le milieu et le solvant utilisé, il est ainsi possible de précipiter séquentiellement chaque métal d'un mélange complexe tel qu'un effluent (déchet technologique notamment).
L'étude menée par l'ICBMS a ainsi démontré que chacun des métaux (lanthane, cobalt et nickel) entrant dans la composition des batteries de véhicules électriques en fin de vie peut être sélectivement et intégralement purifié par capture du CO2 dans l'eau et dans le bioéthanol. Pour illustrer la flexibilité de cette découverte, deux de ces ingrédients métalliques ont même pu être purifiés à 99,9 % directement en utilisant le CO2 contenu dans les gaz d'échappement d'un véhicule thermique.
Le CO2 est valorisé pour ses propriétés propres et non comme substituant au pétrole pour la production de matières premières ou combustibles, ce qu'il peine à faire pour des raisons économiques. Il s'agit aussi du premier usage du CO2 à des fins de développement durable : utiliser un déchet pour recycler un autre déchet ! Enfin, c'est la concrétisation d'une des directions prioritaires de recherche des accords de Paris définies en 2018, qui pourrait non seulement dynamiser économiquement la filière CO2 mais aussi apporter des solutions à l'économie circulaire et à l'approvisionnement en métaux stratégiques.
Article rédigé par Georges Simmonds pour RT Flash
Université Lyon 1
|
|
|
|
|
|
|
|
On sait depuis une récente étude de juin 2019 que les pertes de glace dans l'Himalaya ont doublé entre 2000 et 2016. Mais que se passe-t-il en dessous, entre la limite des arbres autour de 4100 m d'altitude et le couvert glacé des sommets ? Une équipe de l'Université d'Exeter (Royaume-Uni) a tenté de répondre à cette question.
Pour déterminer les changements à cette altitude, les chercheurs ont utilisé un outil simple et accessible à tout le monde : Google Earth. La comparaison de ces images avec le suivi des satellites Landsat de la Nasa depuis 1993 a permis de déterminer l'accroissement du couvert végétal à cette altitude. Comme l'Himalaya est long de 3.000 kilomètres entre l'Afghanistan et la Chine et que l'espace étudié représente donc des milliers de km², les chercheurs l'ont "saucissonné" en huit étages.
C'est ainsi qu'ils ont pu déterminer que c'est entre 5.000 et 5.500 mètres d'altitude que les végétaux ont le plus colonisé les terres, soit bien au-dessus du plus haut sommet européen, le mont Blanc (4808 m). Le huitième étage entre 5.500 mètres et les glaces à 6.000 mètres est considéré comme la limite extrême de température qui, au-delà, empêche les plantes de pousser. Les écologues vont devoir désormais lancer des inventaires pour connaître les espèces qui arrivent à grimper ainsi en altitude.
Ce travail ne s'intéresse pas aux causes de cette expansion végétale, mais la hausse des températures induites par le changement climatique est fortement suspectée. Cette augmentation de la biomasse à haute altitude mérite en tout cas d'être mesurée et surveillée de près. « La neige tombe et fond selon les saisons, et il est important de mesurer et de comprendre les bilans en glace, explique Karen Anderson, chercheuse à l'Institut de l'environnement et du développement durable de l'Université d'Exeter. Mais nous ne connaissons rien de l'impact de l'accroissement de la végétation à cette altitude sur le cycle de l'eau qui est vital pour une grande partie de l'Asie ».
L'Himalaya est en effet le “château d'eau” de l'Asie. Le massif alimente les dix plus grands fleuves de ce continent. Tout changement affecte la disponibilité en eau des populations. Or, les végétaux captent une partie de cette ressource pour la restituer à l'atmosphère par évapotranspiration et maintiennent l'humidité des sols. Ils réduisent par ailleurs l'érosion des montagnes. Il reste donc à évaluer l'impact exact sur le climat de cette augmentation sensible de la végétation de montagne à des très hautes altitudes.
Article rédigé par Georges Simmonds pour RT Flash
GCB
|
|
|
|
|
|
|
|
Selon la dernière étude de l'Organisation météorologique mondiale (OMM), 2019 a été la deuxième année la plus chaude jamais enregistrée, après 2016. Les températures moyennes pour les dernières périodes de cinq ans (2015–2019) et de dix ans (2010–2019) ont été les plus élevées jamais observées. Depuis les années 1980, chaque décennie est plus chaude que la précédente. Cette tendance devrait se poursuivre sous l’effet des niveaux record de gaz à effet de serre dans l’atmosphère.
La température mondiale annuelle de 2019, basée sur la moyenne des cinq jeux de données utilisés pour l'analyse consolidée, est supérieure de 1,1°C à la moyenne de la période 1850–1900, qui est utilisée pour représenter les conditions préindustrielles. Quant à 2016, elle demeure l'année la plus chaude jamais enregistrée en raison de la conjonction d'un très fort épisode El Niño, lequel entraîne une hausse des températures, et du changement climatique à long terme.
« La température moyenne de la planète a augmenté d'environ 1,1°C depuis l'époque préindustrielle et le contenu thermique des océans a battu un record », a déclaré le Secrétaire général de l'OMM, M. Petteri Taalas. « Si nous poursuivons notre trajectoire actuelle d’émissions de dioxyde de carbone, la température devrait augmenter de 3 à 5 degrés Celsius d'ici à la fin du siècle ».
Les températures ne représentent qu’une partie du problème. La décennie et l’année qui viennent de s’achever ont été marquées par le recul des glaces, une hausse record du niveau de la mer, l’augmentation du contenu thermique des océans et de leur acidification et la survenue de phénomènes météorologiques extrêmes.
En se cumulant, ces facteurs ont eu des impacts majeurs sur la santé et le bien-être des humains et de l'environnement, comme le souligne la version provisoire de la Déclaration de l'OMM sur l'état du climat mondial en 2019, présentée lors de la Conférence des Nations Unies sur les changements climatiques (COP 25), qui s’est tenue à Madrid. La version finale de la Déclaration sera présentée en mars 2020.
« L'année 2020 a commencé comme l'année 2019 s'est achevée – avec des événements météorologiques et climatologiques à fort impact. L'Australie a connu en 2019 son année la plus chaude et la plus sèche jamais enregistrée, ce qui a préparé le terrain pour les feux de brousse gigantesques qui ont été si dévastateurs pour les personnes et les biens, la faune, les écosystèmes et l'environnement », a expliqué M. Taalas.
Et pourtant, face à ce changement climatique, « nous voyons des individus et des groupes puissants qui redoublent d'efforts pour nier une réalité de plus en plus claire », a estimé Chris Rapley, climatologue à l'University College de Londres. « De toutes les folies auxquelles les humains se sont livrés, endommager notre système de survie est sûrement en haut de la liste ! » a-t-il ajouté, et au cours des prochaines décennies, nous nous attendons à de nombreux phénomènes météorologiques extrêmes, sous l’influence des niveaux record de gaz à effet de serre dans l’atmosphère », a-t-il poursuivi.
Les océans emmagasinent plus de 90 % de l'excès de chaleur. Leur contenu thermique est donc un bon moyen de quantifier le taux de réchauffement de la planète. D’après une étude fondée sur les données des centres nationaux d’information sur l’environnement (NCEI) de l’Administration américaine pour les océans et l'atmosphère (NOAA) et de l'Institute of Atmospheric Physics, publiée le 13 janvier dans la revue Advances in Atmospheric Sciences, le contenu thermique des océans a atteint un niveau record en 2019.
Selon les mesures océaniques effectuées avec des instruments modernes, ces cinq dernières années sont les cinq années les plus chaudes jamais observées, et, de même, les dix dernières années sont également les dix années les plus chaudes qui aient été constatées.
Malgré ce constat, la conférence climat de l'ONU (COP25) en décembre à Madrid n'a pas été à la hauteur de l'urgence climatique, une occasion ratée que déplore le secrétaire général de l'ONU Antonio Guterres qui réclame plus d'ambition dans la lutte contre le réchauffement.
Ce réchauffement climatique inquiète d'autant plus l'ONU que les températures record ne sont pas le seul problème auquel est confrontée la communauté internationale. Fonte des glaces, niveaux de mer record, acidification et augmentation de la chaleur des océans, conditions météorologiques extrêmes... sont autant de phénomènes qui ont caractérisé l'année et la décennie écoulées, selon l'Organisation météorologique mondiale.
Article rédigé par Georges Simmonds pour RT Flash
OMM
|
|
^ Haut |
|
|
|
|
|
|
|
Vivant |
|
|
Santé, Médecine et Sciences du Vivant
|
|
|
|
|
|
|
|
|
Les œstrogènes présents dans ce microenvironnement pourraient-ils faciliter la croissance des métastases hépatiques chez les femmes atteintes de cancers du côlon, du pancréas et du poumon ? C'est ce que suggère une équipe de chercheurs de l'Institut de recherche du Centre universitaire de santé McGill (IR-CUSM), dans une étude qui démontre pour la première fois que le microenvironnement immunitaire du foie réagit différemment aux cellules métastatiques chez les souris mâles et femelles et que la principale hormone féminine, l'œstrogène, peut indirectement contribuer à la croissance des métastases.
Leurs conclusions plaident en faveur d'une exploration plus approfondie du rôle des hormones sexuelles chez les femmes atteintes de cancer et des avantages potentiels des médicaments anti-œstrogènes tels que le tamoxifène dans le traitement des cancers hormono-indépendants qui se métastasent dans le foie.
La Professeure Brodt et son équipe ont étudié l'interaction entre les cellules métastatiques qui pénètrent dans le foie et le microenvironnement unique de cet organe, dans des modèles murins de carcinome du côlon, du pancréas et du poumon, qui sont des affections malignes qui ne présentent pas de biais sexuel évident et dont la progression ne dépend pas des hormones sexuelles.
En augmentant et en diminuant les niveaux d'œstrogènes dans leurs modèles de souris, l'équipe a découvert que l'œstrogène joue un rôle dans l'expansion des métastases hépatiques -- une cause majeure de décès associé au cancer. Plus précisément, ils ont découvert que cette hormone régule l'accumulation dans le foie de cellules immunes innées dérivées de la moelle osseuse, comme les cellules myéloïdes suppressives (en anglais myeloid-derived suppressor cells, MDSC) et les cellules immunitaires immunosuppressives de macrophages.
Lorsque les cellules métastatiques pénètrent dans le foie, des cellules immunitaires innées sont recrutées, certaines provenant de la moelle osseuse. Ces cellules ont la capacité de tuer les cellules cancéreuses, mais une fois dans l'environnement de la tumeur, elles peuvent aussi acquérir des fonctions immunosuppressives et de promotion de la tumeur.
Les MDSC, par exemple, n'affectent pas directement la croissance des cellules cancéreuses, mais peuvent le faire en modifiant le microenvironnement autour de la tumeur dans le foie. « Les MDSC peuvent entraver l'activité des lymphocytes T, dont le rôle est de tuer les cellules cancéreuses. De cette façon, ils agissent pour favoriser la croissance des métastases, au lieu de la freiner ? » explique la Professeure Brodt.
L'équipe a observé que les œstrogènes induisent un environnement immunotolérant qui aide les cellules tumorales à croître, et que l'élimination des œstrogènes réduit l'accumulation et l'activité des MDSC. « Il faut maintenant tenir compte de ces découvertes pour concevoir de meilleures stratégies de traitement, plus spécifiques au sexe, surtout quand on sait que l'incidence du cancer colorectal, par exemple, augmente dans la jeune population », souligne la Professeure Brodt.
Article rédigé par Georges Simmonds pour RT Flash
Eurekalert
|
|
|
|
|
|
|
|
Après sept ans de collaboration, une équipe de chercheurs de l’Institut de recherche du Centre universitaire de santé McGill (IR-CUSM) a mis au point une molécule intelligente qui pourrait prolonger considérablement la vie des patients atteints de glioblastome, un cancer du cerveau incurable et dévastateur, qui touche des personnes de tout âge, indépendamment de leurs habitudes de vie.
Selon les résultats d’une étude dirigée par la Docteure Siham Sabri et publiée dans le journal Clinical Cancer Research de l’American Association of Cancer Research, cette molécule nommée ZR2002, administrée par voie orale et capable de pénétrer la barrière hématoencéphalique, retarderait la multiplication des cellules souches du glioblastome résistantes au traitement standard offert aux patients.
Le glioblastome est un cancer qui touche 1500 Canadiens chaque année, pour qui la survie moyenne actuelle est de 15 mois suivant le diagnostic. Malheureusement, le traitement standard, qui a très peu évolué depuis une quinzaine d’années, n’empêche pas la tumeur de récidiver.
Quatre chercheurs de l’IR-CUSM et co-auteurs de l’étude, Siham Sabri, auteure principale ; Bertrand Jean-Claude, directeur de la plate-forme de découverte de médicaments ; Docteur Janusz Rak, titulaire de la chaire Jack Cole en hématologie-oncologie pédiatrique à l’université McGill ; et Docteur Bassam Abdulkarim, radio-oncologue.
« Les cellules souches du glioblastome, extrêmement agressives et fortement résistantes au traitement standard de radiothérapie et de chimiothérapie temodal®, seraient à l’origine de la récidive de la tumeur. Elles ont la capacité de se réparer lorsqu’on les attaque avec ce traitement », explique Bertrand Jean-Claude, co-auteur de l’étude et chercheur senior à l’IR-CUSM au sein du Programme de recherche en désordres métaboliques et leurs complications.
« La molécule ZR2002 que nous avons développée est conçue pour faire d’une pierre deux coups : en plus d’attaquer la tumeur, elle détruit son système de défense », ajoute le chercheur, qui est également le directeur et le fondateur de la plate-forme de découverte de médicaments du Centre de biologie translationnelle à l’IR-CUSM. Bertrand Jean-Claude travaille depuis plus de 20 ans sur ce concept de molécules capables de déjouer les tumeurs cancéreuses, qu’il a nommées combi-molécules.
Les patients atteints de glioblastome subissent généralement une intervention chirurgicale visant à enlever le plus possible la tumeur dans le cerveau. Pour augmenter les chances de tuer les cellules cancéreuses restantes, ils subissent ensuite six semaines de radiothérapie et chimiothérapie suivies de six mois de chimiothérapie.
« Chez environ 50 % des patients atteints de glioblastome, les tumeurs sont porteuses d’une protéine appelée EGFR qui favorise la prolifération des cellules tumorales et qui les rend résistantes à la chimiothérapie et à la radiothérapie », explique le Docteur Bassam Abdulkarim, co-auteur de l’étude, radio-oncologue au CUSM et scientifique senior à l’IR-CUSM au sein du Programme de recherche sur le cancer.
Cependant, bien que le traitement standard soit capable d’endommager l’ADN des cellules cancéreuses, il ne peut pas contourner les effets de l’EGFR. Par conséquent, chez de nombreux patients, la tumeur recommence à croître alors que leur traitement est encore en cours ».
La molécule ZR2002 a été conçue pour résoudre ce problème. D’une part, elle endommage l’ADN cellulaire de la tumeur et d’autre part, elle bloque de façon irréversible l’action des protéines EGFR. Pour tester l’efficacité de la nouvelle molécule, les chercheurs ont dû établir des cellules souches du glioblastome résistantes à la chimiothérapie utilisée pour le traitement des patients. C’est une tâche complexe que le Docteur Janusz Rak, scientifique senior à l’IR-CUSM, professeur au Département de pédiatrie de l’Université McGill, et chercheur de renommée mondiale sur le glioblastome, a réussi à accomplir.
« Dans un modèle expérimental de souris, nous avons soumis ces cellules très agressives et résistantes à l’action du médicament ZR2002 », dit Siham Sabri, auteure principale de l’étude, scientifique au sein du Programme de recherche sur le cancer à l’IR-CUSM et professeure adjointe au Département de pathologie à l’Université McGill. « Les résultats de l’étude montrent que lorsqu’il est administré par voie orale, le ZR2002 induit une activité antitumorale significativement supérieure à celle du temodal® et tue les cellules tumorales par un mécanisme d’action multimodal ».
« Le défi est non seulement de combattre la résistance des cellules souches du glioblastome », ajoute le Docteur Bassam Abdulkarim, qui est aussi professeur associé au Département d’oncologie à l’Université McGill, « mais aussi de livrer la chimiothérapie au cerveau, car celui-ci est protégé par la barrière hématoencéphalique. Notre équipe a réussi à relever ces deux défis de taille ».
Pour démontrer que la molécule administrée par voie orale pouvait traverser la barrière hématoencéphalique, l’équipe a eu recours à l’imagerie par spectrométrie de masse, une technologie de pointe de la plate-forme de découverte de médicaments acquise lors de la modernisation du CUSM en 2015. Les chercheurs espèrent maintenant pouvoir poursuivre leurs recherches et tester cette combi-molécule, la première de sa catégorie, dans le cadre d’un essai clinique pour les patients atteints de glioblastome.
Article rédigé par Georges Simmonds pour RT Flash
Mc Gill
|
|
|
|
|
|
|
|
Constitués de milliers de synapses, les modèles neuronaux détaillés sont essentiels pour comprendre les propriétés de calcul des neurones, considérés isolément ou en larges réseaux. Ces modèles sont également cruciaux pour interpréter les résultats expérimentaux. Cependant, leurs simulations entraînent des coûts élevés en puissance de calcul (elles réclament de nombreuses heures d’opérations). Cela qui réduit considérablement leur utilité.
Pour la première fois, des scientifiques de l’Université hébraïque de Jérusalem et du Blue Brain Project ont mis au point une approche analytique unique en son genre afin de réduire la complexité des modèles neuronaux, tout en conservant leurs principales fonctions d’entrée et de sortie ainsi que leurs propriétés de calcul.
Neuron_Reduce est un nouvel outil analytique qui fournit des représentations unique dites multi-cylindrical pour des modèles neuronaux complexes et non-linéaires. Il réduit à la fois la complexité morphologique des neurones et le temps de calcul. Cet outil réduit les arbres dendritiques détaillés en arbre multi-cylindrique, selon la théorie des câbles de Rall et la théorie des circuits linéaires. Synapses et canaux ioniques sont retracés dans le modèle abrégé, qui préserve leur impédance de transfert au soma (le corps de la cellule) ; les synapses qui présentent une même impédance de transfert sont fusionnées dans un processus du programme NEURON, tout en conservant leurs temps d’activation individuels.
« Neuron_Reduce constitue une innovation significative pour modéliser analytiquement des calculs dendritiques », explique Idan Segev, titulaire de la chaire David & Inez Myers en neurosciences computationnelles et directeur du Département de neurobiologie de l’Université hébraïque de Jérusalem (HUJI). « Ce modèle analytiquement abrégé préserve de nombreuses caractéristiques au-dessous et au-dessus du seuil du modèle détaillé, dont l’identité des dendrites souches individuelles, leurs propriétés biophysiques ainsi que l’identité des synapses individuelles et la variété des canaux ioniques excitables. En outre, il accélère la vitesse de calcul du modèle de plusieurs centaines de fois », précise-t-il.
L’un des avantages clés de l’algorithme de réduction prouve également sa robustesse : il préserve la magnitude de l’impédance de transfert pour chaque emplacement dendritique vers le soma. Selon Oren Amsalem, neurobiologiste à l’HUJI, il s’agit d’un point très important « puisque dans les systèmes linéaires l’impédance est réciproque ».
Neuron_Reduce présente un autre avantage majeur : il préserve l'identité des synapses individuelles et de leurs dendrites respectives. Il conserve également des propriétés spécifiques des membranes ainsi que les non-linéarités dendritiques, maintenant ainsi les calculs dendritiques spécifiques. De plus, Neuron_Reduce maintient les passive cable properties (Rm, Ra, and Cm) du modèle détaillé, et donc également son intégration synaptique et ses autres éléments temporels.
« Quand on modélise des tissus cérébraux bio-physiquement détaillés, comme on le fait au sein du Blue Brain Project, il est très important de considérer le coût de la simulation en termes de mémoire requise ou de temps de résolution (dû au nombre de calculs qui doivent être exécutés) », explique Pramod Kumbhar, expert de calcul à haute performance au Blue Brain Project. « Neuron_Reduce est extrêmement enthousiasmant, parce qu’il ouvre la voie à de nouveaux types de modèles abrégés qui maintiennent les détails important du modèle original, mais tournent de 40 à 250 fois plus rapidement. Cela complète nos récents efforts pour accélérer la technologie de simulation », conclut-il.
Article rédigé par Georges Simmonds pour RT Flash
EPFL
|
|
|
|
|
|
|
|
Une équipe de la Duke University (Caroline du Nord) a mis au point un bandage « osseux », conçu pour capturer et piéger une molécule pro-cicatrisante, l'adénosine, sur le site de la fracture, et qui accélère et améliore ainsi le processus de cicatrisation. Ce dispositif bioactif qui exploite finalement et démultiplie un processus naturel, pourrait être combiné à des bandages biodégradables, à des revêtements d'implants, voire même à des greffes osseuses.
En 2014, Shyni Varghese, professeur en génie biomédical, génie mécanique et science des matériaux à la Duke, constatait que les biomatériaux en phosphate de calcium favorisaient la réparation et la régénération osseuses. Au cours de ces travaux, son équipe avait identifié le rôle remarquable d’une biomolécule, l’adénosine, dans la croissance osseuse.
Au cours d’expériences, les chercheurs ont ensuite compris qu’en cas de fracture, le corps submerge naturellement la zone de la lésion osseuse de molécules d'adénosine pro-cicatrisantes, mais ces niveaux localement élevés sont rapidement métabolisés et ne perdurent pas. L’idée était donc de pouvoir induire puis maintenir ces niveaux élevés d’adénosine plus longtemps sur le site de la lésion, pour améliorer et accélérer le processus de guérison.
Le défi lié aux effets secondaires possibles : alors que l'adénosine est omniprésente dans le corps à de faibles niveaux et remplit de nombreuses fonctions qui n'ont rien à voir avec la cicatrisation osseuse, il fallait donc pour éviter les effets indésirables possibles, parvenir à la concentrer juste sur le site des tissus endommagés. Alors qu’il « n’y a rien de mieux qu’un processus naturel », les chercheurs ont donc laissé le corps dicter les niveaux d'adénosine mais ont trouvé le moyen de maintenir ces niveaux et de manière localisée : il s’agit d’un bandage de biomatériau appliqué directement sur l'os brisé qui contient des molécules de boronate qui s'accrochent à l'adénosine. Le bandage permet une libération lente de l'adénosine sans effets secondaires.
Plusieurs types de bandage sont testés chez la souris, en biomatériaux poreux comportant du boronate pour capter la poussée locale d'adénosine à la suite d'une blessure ; des bandages préchargés d'adénosine sur les fractures du tibia chez la souris.
Après 1 semaine, les souris traitées avec les deux types de bandage guérissent plus rapidement que les souris traitées avec des bandages qui ne capturent pas ou n’administrent pas l'adénosine ; après 3 semaines, alors que toutes les souris sont en cours de cicatrisation, celles traitées avec les bandages à base d'adénosine présentent une meilleure formation osseuse, une densité osseuse plus élevée et une meilleure vascularisation.
Ces nouveaux "pansements" osseux qui piègent l'adénosine favorisent ainsi la consolidation de la fracture. Ce développement a des implications importantes dans le traitement des fractures mais aussi de l'ostéoporose ou la fragilité osseuse liée au vieillissement. « Les patients atteints d'ostéoporose ne produisent plus d'adénosine et leurs os se brisent. Ces premiers résultats indiquent que ces bandages pourraient fournir l'adénosine nécessaire pour réparer ces lésions tout en évitant les effets secondaires ».
Les chercheurs travaillent actuellement à un bandage biodégradable qui piège l'adénosine puis se décompose ensuite dans le corps, ainsi qu'à un bandage permanent rechargeable avec de l'adénosine et sur un gel lubrifiant concentré en adénosine pour prévenir les lésions osseuses associées aux chirurgies articulaires reconstructrices ou aux implants médicaux.
Article rédigé par Georges Simmonds pour RT Flash
AM
|
|
|
|
|
|
|
|
Tous les ans, en France, quelque 140 000 personnes sont victimes d’un accident vasculaire cérébral (AVC), une obstruction ou une rupture d’un vaisseau sanguin dans le cerveau. 31 000 en décèderont. Pour les rescapés, les séquelles peuvent être importantes : hémiplégie, hémiparésie, troubles cognitifs, troubles de l’équilibre…
Les AVC sont la première cause de handicap chez l’adulte. L’enjeu de la récupération de la motricité ? Restaurer la circulation des informations entre le cerveau et les membres. Longtemps, la rééducation a consisté à favoriser la récupération motrice en mobilisant les membres et en faisant manipuler différents objets, avec un succès limité.
Depuis les années 2000, une révolution technologique est apparue – ouvrant de nouvelles perspectives pour la rééducation : l’imagerie par résonance magnétique (IRM). Elle permet d’observer l’intérieur du cerveau en deux ou trois dimensions et de révéler des informations jusque-là invisibles avec des techniques d’imagerie traditionnelles. En d’autres termes : les médecins ont désormais accès à ce qui se passe dans le cerveau des patients en temps réel lors d’une tâche.
« Dans le cas des patients victimes d’AVC, on a pu voir comment cela se matérialise dans le cerveau, par exemple lorsque le sujet bouge sa main ou pense au mouvement de sa main, certaines zones ne s’allument plus », raconte Isabelle Bonan. Mieux, grâce à l’IRM, les spécialistes peuvent suivre comment se traduisent les progrès faits au cours de la rééducation : certaines zones cérébrales, jusque-là éteintes, commencent de nouveau à s’activer au fur et à mesure des séances d’exercices qui visent à restaurer la motricité du ou des membres paralysés. « C’est la plasticité cérébrale qui permet cela, en mobilisant des zones saines capables de suppléer les zones lésées ou en créant de nouveaux réseaux neuronaux en remplacement de ceux qui ont été endommagés, et ce afin de restaurer une fonction perdue », commente la spécialiste.
Encore plus étonnant, les scientifiques ont découvert que la plasticité cérébrale intervient à force d’entraînements bien réels, mais aussi lorsque les mouvements sont simplement… pensés ! Les skieurs professionnels ou les musiciens, qui répètent leur parcours ou leurs morceaux "dans le vide", soit sans ski ou sans instrument, l’ont compris depuis longtemps : imaginer les mouvements permet de mieux les intégrer et d’améliorer leur réalisation future.
Cette technique d’imagerie mentale peut ainsi être potentialisée par le "neurofeedback", qui permet de montrer au sujet ce qu’il se passe dans son cerveau en temps réel. Il peut ainsi progressivement apprendre à stimuler les zones du cerveau les plus favorables à sa récupération.
Pour visualiser l’activité des neurones dans le cerveau, deux techniques sont couplées : l’électroencéphalographie (EEG), qui mesure cette activité avec une très bonne précision temporelle grâce à des électrodes placées sur le cuir chevelu, et l’IRM, caractérisée par une bonne précision spatiale.
Des logiciels d’analyse de ces informations peuvent ensuite aider à identifier lesquelles de ces activités sont en lien avec les symptômes concernés, ici le déficit de motricité d’un ou plusieurs membres. « Nous avons mis au point un protocole d’entraînement intensif comprenant des séances bimodales (IRM et EEG) et des séances unimodales EEG sur cinq semaines », décrit Isabelle Bonan. « Nos premiers résultats sont encourageants. Lorsque les zones clés pour la rééducation s’allument dans le cerveau et que les activités électriques des neurones reprennent, une "récompense" est donnée au cerveau grâce à une image de jauge présentée en temps réel. Le cerveau comprend alors qu’il est sur le bon chemin et continue l’exercice de la même façon. Si par contre la jauge diminue, c’est que le patient s’éloigne de l’objectif, et il doit corriger le tir ».
Avec ses collègues, la scientifique a récemment étudié les impacts de ce neurofeedback sur quatre patients présentant une paralysie partielle suite à un AVC. Leur activité cérébrale était suivie soit par EEG et IRM, soit par EEG seulement. Objectif ? Identifier les zones cérébrales dont l’activation par la pensée permettait une meilleure récupération de la motricité des membres affectés.
« Les résultats nous ont montré le potentiel d’une approche multi-cibles, qui vise différentes aires cérébrales au fur et à mesure des exercices pour améliorer les résultats chez les patients victimes d’un AVC », se réjouit Isabelle Bonan, qui parle d’une première mondiale. Les chercheurs veulent à présent mettre en place une étude randomisée pour tester la faisabilité et surtout comparer ces résultats à ceux d’une rééducation habituelle, ce qui permettra alors de confirmer la supériorité de cette technique et de mieux définir quels patients peuvent s’attendre à des résultats positifs.
Article rédigé par Georges Simmonds pour RT Flash
Inserm
|
|
^ Haut |
|
|
|
|
|
|
|
Recherche |
|
|
Recherche & Innovation, Technologies, Transports
|
|
|
|
|
|
|
|
|
Des interventions en matière de politiques sont nécessaires pour freiner l'étalement et veiller au développement durable des villes nouvelles et en croissance. Une nouvelle étude réalisée par l'Université McGill et l'Université de Californie à Santa Cruz révèle que les rues des villes sont de moins en moins connectées, une tendance mondiale favorisant l'étalement urbain et décourageant l'utilisation des transports en commun.
Publiée dans Proceedings of the National Academy of Sciences, l'étude retrace pour la première fois l'histoire mondiale de l'étalement en le mesurant en fonction de la connectivité locale des réseaux routiers. Les recherches étaient fondées sur des données accessibles au grand public sur OpenStreetMap, le Wikipédia des cartes, et des données obtenues par satellite.
« Nous voulions emprunter une approche systématique pour trouver les villes - qui ne sont peut-être pas très connues à l'étranger - où l'étalement empire rapidement », a affirmé Christopher Barrington-Leigh, coauteur de l'étude et professeur agrégé à l'Institut des politiques sociales et de la santé de McGill. « Nous souhaitions également trouver les villes qui s'efforcent, souvent discrètement, de croître de manière efficace et interconnectée depuis des décennies ».
Fruit de sept années de collaboration, l'étude montre que, dans de grandes parties du monde, la croissance urbaine récente aboutit de plus en plus à des réseaux routiers inadaptables et déconnectés. Par ailleurs, on observe à l'échelle planétaire une hausse des différentes formes de quartiers privés.
M. Barrington-Leigh et son collaborateur Adam Millard-Ball, professeur agrégé au Département d'études environnementales de l'Université de Californie à Santa Cruz, ont créé un indice de la déconnectivité rues-réseau pour établir une carte mondiale de la connectivité des rues. Leurs données montrent que le sud-est de l'Asie compte maintenant certaines des villes les plus étendues de la planète, et cet étalement ne fait que s'aggraver.
Les réseaux routiers quadrillés favorisent quant à eux une forme urbaine efficace et dense en Bolivie, en Argentine et au Pérou. Pour leur part, l'Allemagne, le Danemark et le Royaume-Uni ont réussi à maintenir un niveau moyen de connectivité des rues grâce aux voies piétonnières et cyclables, offrant ainsi une meilleure connectivité aux moyens de transport non motorisés.
Parallèlement à la publication de l'étude, les auteurs ont lancé une carte interactive en ligne, où les utilisateurs peuvent explorer la connectivité des rues partout dans le monde. Des études antérieures ont montré que l'accessibilité accrue offerte par les réseaux routiers quadrillés facilite le recours à la marche, au vélo et aux transports en commun, tandis que les culs-de-sac ont tendance à encourager l'utilisation de véhicules motorisés personnels. Ainsi, selon M. Barrington-Leigh, les urbanistes doivent tenir compte de la connectivité à l'échelle locale lorsqu'ils conçoivent et planifient de nouvelles rues afin de rehausser la durabilité des villes.
« Les rues et les routes sont essentiellement la pierre angulaire permanente qui façonne les autres dimensions de la forme urbaine et l'utilisation des terrains, soutient-il. Les responsables des politiques devraient s'inspirer de villes comme Tokyo et Buenos Aires pour limiter l'étalement urbain. Notre trajectoire actuelle fait en sorte que les choix qui restreignent la connectivité pourraient être un obstacle à la résilience et faire en sorte que l'utilisation de l'énergie, les émissions de CO2 et les effets sur la santé ainsi que d'autres aspects de nos modes de vie perdurent pendant un siècle, voire au-delà. »
Article rédigé par Georges Simmonds pour RT Flash
Eurekalert
|
|
^ Haut |
|
|
|
|
|
VOTRE INSCRIPTION |
|
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
|
|
|
|
|
|