|
|
|
|
|
NUMERO 1074 |
|
|
|
|
|
|
|
Edition du 23 Octobre 2020
|
|
|
|
|
Edito
Quelles sont les frontières du vivant ?
Avant Propos :
Chers lecteurs de RT Flash,
Grâce à la décision de 130 parmi vous d'adhérer à notre association et de faire un don, nous avons pu réunir, à ce jour, quelque 9.810 €.
Nous allons bientôt atteindre la moitié de l'objectif fixé à 20.000 euros.
Mais alors que vous êtes des dizaines de milliers, chaque semaine, à lire RT Flash, soit directement sur notre site, soit en utilisant les réseaux sociaux (Twitter, Facebook, etc) sans devoir payer un abonnement ou subir les contraintes de la publicité, reconnaissons que ce chiffre de 130 donateurs est bien faible.
Quand on sait par ailleurs, lorsque vous nous versez 30 euros, l'Etat vous en rendra 20 si vous êtes soumis à l'impôt, mes lecteurs ne doivent pas avoir conscience du temps que moi-même et les 2 autres membres de notre petite équipe affectons, bénévolement, depuis 22 ans, à la rédaction de RT Flash, pour ne pas ressentir l'acte affectif qu'ils feraient envers nous en nous versant 10 euros...
Si vous voulez aider RT Flash, Lettre d'Informations Scientifiques, gratuite et sans publicité depuis 1998,
appuyez sur le lien suivant : Adhérez à notre Association ou faites un DON pour sauver RT Flash, vous bénéficierez d'une réduction fiscale de 66 %
Editorial :
Depuis le début de ce siècle, de nouvelles et surprenantes découvertes sont venues bousculer tous les dogmes de la biologie et sans cesse repousser les limites de la conception et de la définition que nous nous faisions du vivant, tant dans ses formes que dans son évolution. Il est impossible ici de relater l’ensemble de ces avancées, mais certaines méritent d’être rappelées. En 2006, la découverte de la bactérie Carsonella rudii, ne comportant que 182 gènes, a remis en cause un dogme qui fixait à au moins 200 le nombre théorique minimal de gènes qu'une bactérie devait posséder pour être autonome.
En février 2020, la découverte d'une famille inconnue de bactériophages (des virus qui infectent les bactéries) possédant des gènes que l'on pensait réservés aux bactéries a fait l'effet d'un coup de tonnerre dans le monde de la biologie. Des chercheurs de l’Université de Californie à Berkeley (États-Unis), ont découvert de nouveaux groupes entiers de bactériophages géants, comportant jusqu’à 351 séquences de gènes, codant des protéines et des ribosomes. Le plus grand de ces nouveaux phages découverts n’avait pas moins de 735 000 bases d’ADN, soit 15 fois plus que les autres phages connus. La connaissance de ces phages est un enjeu scientifique et médical majeur, car ils sont capables de transférer les gènes des toxines bactériennes et de résistance aux antibiotiques entre bactéries pathogènes (Voir UC Berkeley).
Baptisés "huge phages", cette nouvelle famille de micro-organismes est déroutante et échappe aux classifications admises du vivant. Ces phages ne sont pas les virus les plus gros, qui restent les virus géants (comme le gigantesque et incroyable Pandoravirus, découvert par des chercheurs français en Australie et au Chili en 2013, qui fait plus d’un micromètre de long et compte 2500 gènes), mais de petits virus avec de gros génomes, contenant de nombreux gènes, ce qui brouille encore un peu plus les limites entre la vie et la non-vie.
Commentant ces découvertes, le biologiste moléculaire et professeur à AgroParisTech, Thomas Heams, auteur de l’essai "Infravies, le vivant sans frontières", souligne qu’il faut à présent changer notre regard sur le vivant et considérer la vie comme un continuum, dont les frontières précises sont mouvantes et imprécises, et qui évolue, de façon non linéaire, du minéral à l’organisme complexe, dans un jeu subtil d’interactions et rétroactions avec l’environnement.
Thomas Heams prend l’exemple du métabolisme, une propriété considérée comme fondamentale pour un être vivant. Il souligne que ce métabolisme ne concerne qu'une étape du cycle viral, celle des virions, forme inerte du virus. Mais lorsque ces virions prennent le contrôle d'une cellule et détournent son métabolisme à leur profit, ils s’intègrent à celle-ci, au point d’en devenir une composante à part entière. On peut donc dire que les virus sont des entités qui, par nature, alternent des phases de vie et de non-vie. Ce chercheur souligne également que, comme l’avait d’ailleurs bien pressenti Darwin, l’évolution du vivant va généralement dans le sens d’une complexité accrue, mais peut également, sous la pression du milieu, aller dans l’autre sens, celui d’une simplification.
Un bel exemple de cette évolution « à l’envers » est fourni par la bactérie Carsonella rudii, qui a colonisé des cellules d'insecte qui remplissent à sa place certaines de ses fonctions. De ce fait, cette bactérie a évolué en se débarrassant de nombreux gènes devenus inutiles. Cet exemple remarquable montre clairement que l’évolution privilégie toujours la capacité d’adaptabilité au milieu et de survie, et qu’elle sait employer toutes les voies possibles pour y parvenir, que ces chemins passent par une plus grande complexité, ou, au contraire, par une simplification salutaire.
Autre découverte de taille : en mars 2019, des chercheurs de l'Université de Genève (Unige) ont eu la surprise de découvrir des bactéries vivant sous 400 mètres de sédiments de la mer morte, dans un milieu obscur, hyper-salin, très pauvre en oxygène et pratiquement dépourvu de nourriture. Ces recherches ont pu montrer que la vie existait dans ce milieu hostile depuis au moins 200 000 ans (Voir Geoscienceworld). « Nous pensions que seules des archées, une forme plus rudimentaire de vie, pouvaient survivre dans de telles conditions », explique Daniel Ariztegui, chercheur au département des sciences de la Terre de l’UNIGE. Selon cette étude, ces bactéries se nourrissent d’archées mortes, qui constituent la seule source de carbone disponible dans les sédiments pour se nourrir. Ces bactéries ont, en outre, au fil de leur longue évolution, appris à ralentir à l’extrême leur métabolisme, pour atteindre un incroyable niveau d’efficience énergétique, au point de procéder à une division cellulaire tous les 100.000 ans.
Mais si la vie a réussi à coloniser la croûte supérieure de la Terre, a-t-elle réussi le même exploit pour la croûte océanique inférieure ? Et bien oui, si l’on en croit une autre étude publiée en mars dernier par des chercheurs américains de la Woods Hole Oceanographic Institution (WHOI) qui ont exploré une crête sous-marine nommée Atlantis Bank qui coupe le sud de l'océan Indien. Dans cette région, la croûte océanique inférieure présente la particularité d’affleurer au niveau du fond de l'océan, ce qui est une véritable aubaine pour les chercheurs, qui peuvent ainsi explorer des zones enfouies à 750 m de profondeur sous l'océan, et donc normalement totalement inaccessibles (Voir Nature).
Comme leurs homologues de la Mer morte, les bactéries découvertes dans ce milieu très hostile ont développé d’extraordinaires capacités à décomposer et à stocker du carbone dans leurs cellules. Certaines d’entre elles possèdent toute une batterie de gènes leur permettant de décomposer l'azote et le soufre pour générer de l'énergie, produire des vitamines ou recycler des acides aminés.
Récemment, des scientifiques japonais ont réussi, pour leur part, à ressusciter des bactéries, vieilles de 13 à 100 millions d’années et à les faire se reproduire en laboratoire. Ces microbes ont été récoltés dans une région du Pacifique Sud située au sud de l'équateur entre l'Amérique du Sud et l'Australie. Cette zone est connue pour être la plus pauvre en nutriments (Voir Nature Communications). Après avoir extrait ces bactéries de l’océan, les chercheurs les ont nourries pendant deux mois et demi en nutriments riches en carbone et en azote. Ils ont constaté une production d’atomes de carbone et d’azote à l’intérieur de ces microbes, ce qui prouve que ceux-ci s’étaient « réveillés » et se remettaient à vivre normalement. « C’était incroyable : 99,1 % des microbes avaient survécu et ont pu être réanimés », commente Yuki Morono, l'auteur principal de l'étude.
Mais si la vie est présente dans les entrailles de la Terre et au fond des océans les plus profonds, elle est aussi bien active dans la haute atmosphère, contrairement à ce que l’on a longtemps imaginé. En 2013, des chercheurs américains ont découvert que la haute troposphère, partie de l'atmosphère située entre six et dix kilomètres d'altitude, recèle de nombreux micro-organismes, dont plusieurs types de bactéries. Plus de la moitié des bactéries contenues dans les échantillons collectés étaient vivantes et étaient présentes dans le ciel depuis plus d’une semaine. Le Professeur Kostas Konstantinidis ('Institut d'ingénierie de Georgie), qui a dirigé ces recherches, pense que ces bactéries ont probablement une grande influence sur la météorologie et le climat terrestre.
Les chercheurs ont été stupéfaits de constater la présence de 17 espèces de bactéries différentes, présentes en grande quantité dans la partie haute de la troposphère. Certaines d’entre elles étaient aussi capables de métaboliser les composants de carbone présents dans l'atmosphère, provenant surtout des émissions de dioxyde de carbone (CO2), principal gaz à effet de serre.
Quittons à présent la Terre et rendons-nous sur Mars, où, il y a deux ans, le rover Curiosity, en activité depuis 2012, a découvert, à l’intérieur d'un cratère martien dénommé Gale, des molécules organiques dans des échantillons de roche sédimentaire argileuse. Il s’agit de composés thiophéniques, aromatiques et aliphatiques, associés à l'activité de forme de vie. Certes, la NASA a bien précisé que ces composés pouvaient être le résultat de réactions purement chimiques et géologiques, mais en mars dernier, deux exobiologistes, Dirk Schulze Makuch de l'Université de l'État de Washington et Jacob Heinz de la Technische Universität de Berlin, ont publié une étude qui, sans trancher entre les deux interprétations, indique néanmoins que la probabilité que les thiophènes découverts sur Mars soient d’origine biologique leur semble plus grande que celle d’une origine chimique (Voir Astrobiology).
Il faudra cependant probablement attendre les résultats de la prochaine mission d’exploration martienne, celle qui verra se poser en février prochain, sur la planète rouge, le rover Perseverance (parti en juillet dernier de Cap Canaveral) pour pouvoir enfin découvrir des traces d’une éventuelle vie rudimentaire dans le sous-sol martien. Perseverance doit en effet prélever, si tout se passe comme prévu, une trentaine d'échantillons de roches qui seront récupérés par une future mission américano-européenne et rapportés sur Terre vers 2031.
Enfin, une autre découverte récente tout à fait surprenante concerne celle réalisée par une équipe d’astronomes dirigée par Jane Greaves, chercheuse de l’Université de Cardiff (Royaume-Uni), à l’aide de données collectées avec des télescopes à Hawaii et au Chili. Ces chercheurs ont en effet détecté la présence de phosphine (à une concentration de l’ordre de 20 parties pour un milliard) dans la haute l’atmosphère de Vénus, entre 50 et 60 kilomètres au-dessus de la surface de cette planète très inhospitalière (Voir Nature Astronomy). Or, il n’existe aucun mécanisme non biologique connu de production de phosphine sur Vénus. Serait-il donc possible que la présence de ce gaz révèle l’existence de microbes extraterrestres ? Selon cette étude, cette hypothèse peut sérieusement être envisagée, car la phosphine est un gaz qui doit être continuellement renouvelé, ce qui suppose l’existence d’une source, quelle qu’elle soit. Fait très intéressant, c’est la première fois que l’on découvre des traces de phosphine sur une planète tellurique autre que la Terre, où elle résulte de l’activité de bactéries anaérobies (qui vivent sans oxygène).
Toutes ces découvertes passionnantes convergent pour nous révéler un phénomène du vivant impossible à cerner de façon précise, et échappant à toute tentative de définition ultime. Tout se passe comme si, à mesure que nous explorions la complexité insondable du vivant, celui-ci, dévoilant sans cesse de nouvelles formes et de nouvelles propriétés, nous échappe sans cesse…Et il y a fort à parier, selon nombre de scientifiques, qu’il pourrait y avoir dans notre système solaire, et dans l’univers, des formes de vie si étranges, et si différentes de celles que nous connaissons, que nous serions peut-être incapables de les voir, si nous y étions confrontés !
Ce qui est certain, c’est qu’en attendant la découverte d’une possible vie extraterrestre, qui serait un événement scientifique (et philosophique) d’une immense portée, nous devons poursuivre l’exploration des prodigieuses formes de vie à l’œuvre partout sur notre planète, non seulement pour aller toujours plus loin dans la connaissance fondamentale de ce processus du vivant, qui a conduit, en 3,8 milliards d’années, du premier organisme monocellulaire à l’Homme, mais aussi parce que cette compréhension des formes les plus insolites et improbables de la vie est une source inépuisable d’innovations et de progrès, dans les domaines de la biologie, de la médecine et des biotechnologies, bien sûr, mais également dans ceux, non moins importants, de l’énergie, de l’alimentation et de l’environnement, dont l’Humanité a tant besoin pour affronter les redoutables défis de ce siècle, à commencer par la pandémie qui nous frappe et le changement climatique qui menace notre civilisation…
René TRÉGOUËT
Sénateur honoraire
Fondateur du Groupe de Prospective du Sénat
e-mail : tregouet@gmail.com
|
|
|
|
|
|
|
|
Avenir |
|
|
Nanotechnologies et Robotique
|
|
|
|
|
|
|
|
|
À Dinan, les médicaments arrivent en toboggan jusqu’aux comptoirs d’une pharmacie du centre-ville ! Rouverte au début juillet après rénovation, l’officine en a profité pour se doter d’un nouvel outil qu’il faut bien qualifier de révolutionnaire : un robot qui trie, range et distribue à la demande les boîtes de médicaments.
Installé au premier étage de la pharmacie, l’engin se présente comme une grande boîte en verre de 20 m², occupant l’espace du sol au plafond. À l’intérieur, des « armoires à déplacement latéral », coulissantes et robotisées elles aussi, peuvent contenir jusqu’à 18 000 boîtes de médicaments. Dans cet antre où l’homme ne rentre pas, deux bras robotisés se déplacent dans tous les sens, en permanence.
Le robot scanne, trie et calibre chaque boîte de médicaments avant d’aller la ranger. « Tous les jours, après avoir reçu nos commandes, on remplit la machine de boîtes de médicaments. Ensuite, le robot scanne chaque boîte, la calibre et va la ranger en fonction de sa référence ».
Dès qu’un pharmacien, à l’étage en dessous, clique sur le médicament demandé par un patient, le robot arrête illico son travail de rangement. Il fonce à l’emplacement de la boîte demandée, la saisit à l’aide d’une ventouse au bout de son bras articulé, et la laisse tomber dans l’un des toboggans situés derrière chaque comptoir de la pharmacie. Fini le pharmacien qui disparaît dans ses réserves en quête de votre remède… Il n’a qu’à se retourner quelques secondes après sa demande pour saisir la pharmacopée demandée. Derrière chaque comptoir de la pharmacie, un toboggan permet au robot d’acheminer les médicaments jusqu’au pharmacien.
« Cela nous dégage du temps de présence au comptoir. On ne laisse plus le patient tout seul, on ne l’abandonne pas. Cela permet d’échanger davantage, de préciser les détails de la posologie par exemple », se félicitent les deux pharmaciennes. Autres avantages : l’espace gagné dans l’officine, le temps gagné sur le stockage, dont le décompte est plus fiable…
Intelligent, le robot va jusqu’à ranger à proximité des médicaments souvent prescrits ensemble. « Il garde en mémoire que tel médicament est prescrit avec tel autre : les gouttes pour le nez et le sirop pour la toux, par exemple ».
Article rédigé par Georges Simmonds pour RT Flash
Le Télégramme
|
|
^ Haut |
|
|
|
|
|
|
|
Matière |
|
|
Matière et Energie
|
|
|
|
|
|
|
|
|
Trop lourds, rigides, besoin d'un support, coûteux à installer et à entretenir : les panneaux solaires peuvent avoir plusieurs inconvénients. Mais pas d’inquiétude, car une nouvelle génération arrive : des panneaux solaires dits "organiques". Il sera possible de les coller à une sorte de papier peint ou de les mélanger à une pâte pour les appliquer sur un mur ou un objet comme de la peinture. Cette peinture agirait alors comme un capteur à énergie solaire et à humidité de l’air et transformerait cette humidité en hydrogène, capable d’alimenter des piles à combustible.
Ces "panneaux solaires" seront donc plus polyvalents, plus accessibles et surtout beaucoup moins chers. Depuis plusieurs années, des chercheurs basés dans des laboratoires du monde entier travaillent sur ce système... et il fonctionne déjà ! Seulement, jusqu'ici, les rendements ont été très mauvais et le procédé est deux à trois fois moins efficace que les panneaux photovoltaïques traditionnels. Cette "peinture solaire" n'a donc jamais été commercialement rentable.
Toutefois, une équipe de chercheurs du Kist, l’institut coréen de science et technologie, vient de trouver une méthode pour sécher la fameuse peinture solaire en perdant un minimum de rendement. Une avancée majeure dans le secteur, car elle pourrait enfin lancer leur commercialisation et le développement de la photovoltaïque serait alors extrêmement simplifié.
Article rédigé par Georges Simmonds pour RT Flash
Science Codex
|
|
|
|
|
|
|
|
Des chercheurs du CNRS ont développé un revêtement moléculaire capable de mesurer la température de fonctionnement de composants électroniques à l’échelle nanométrique. Ce résultat est le fruit d’une collaboration entre deux laboratoires du CNRS à Toulouse : celui de chimie de coordination (LCC) et celui d’analyse et d’architecture des systèmes (LAAS).
Cette nouvelle technologie utilise la bistabilité d’une famille de composés chimiques appelée molécules à transition de spin, c’est-à-dire leur capacité à passer d’un état à l’autre facilement. Cette commutation est réalisée à partir d’un stimulus extérieur comme un changement de température mais aussi d’une impulsion électrique, un champ magnétique ou une pression et peut être réversible. « Nous avons commencé à étudier ces molécules vers la fin des années 80 », explique Azzedine Bousseksou, chercheur au CNRS. « Au début, le changement d’état se faisait uniquement dans un milieu cryogénique, à très basses températures. En 1993, le phénomène pouvait se faire à température ambiante et à partir de 2007, nous avons développé les toutes premières couches minces nanométriques qui présentent la commutation à température ambiante ».
Environ 200 à 300 molécules à transition de spin ont été synthétisées jusqu’ici à travers le monde. Pour la thermométrie, les chercheurs utilisent une seule d’entre elles, à savoir un borate de la famille du triazol dont la formule chimique est la suivante : [Fe (HB (1,2,4-triazol-1-yl) 3 ) 2]. Cette molécule possède une propriété particulière et est capable de changer de couleur en fonction de la température extérieure.
À l’échelle macroscopique, elle peut en effet passer du blanc vers le rose très rapidement et de façon réversible. Les chercheurs déposent donc des couches minces de cette molécule sur des composants électroniques comme des puces ou des mémoires. Lorsque ces derniers chauffent de manière anormale, les molécules à transition de spin, présentes à la surface, changent de couleur. Les scientifiques réalisent alors une cartographie optique à l’aide d’un spectroscope pour observer ce changement.
Ce travail de recherche a consisté à construire une courbe de calibration pour faire la corrélation entre un changement de couleur de la couche mince déposée sur le support avec une valeur de la température, et ceci à l’échelle nanométrique. L’atout majeur de la molécule à transition de spin utilisée est sa résilience au changement de température. Elle est en effet capable de subir des millions de cycles thermiques sans se fatiguer et de manière entièrement réversible. « Quel que soit le nombre de cycles, nous avons remarqué que le chemin thermique emprunté ne change pas », analyse Azzedine Bousseksou. « Il n’y a donc aucune erreur de correspondance entre un changement de couleur et la variation de température. D’où la naissance du nanothermomètre ».
Autre avantage : le procédé est intégrable sur n’importe quel système souple, qu’il soit solide, mais aussi en solution. Il présente donc un fort intérêt dans le domaine biologique. « Nous pouvons par exemple aider les biologistes à mieux comprendre le mécanisme de repliement des protéines et surtout à identifier précisément à quelle température la protéine se replie de manière efficace ».
Cette nouvelle technologie a fait l’objet d’un brevet et le groupe eV Technologies a déjà acheté une licence. Ce travail de recherche va se poursuivre, notamment en direction d’applications dans le domaine de la micro-électronique et plus tard dans le domaine biologique. A plus long terme, il est aussi envisagé de réparer des déformations musculaires directement dans le corps d’un être humain à l’aide de muscles artificiels intégrables conçus avec des molécules à transition de spin.
Article rédigé par Georges Simmonds pour RT Flash
Nature
|
|
|
|
|
|
|
|
La gestion de la chaleur dans l'électronique est un énorme problème. Notamment à cause de la recherche constante pour réduire la taille et pour assembler un maximum de transistors dans une même puce. Toute la difficulté est de savoir comment gérer efficacement des flux de chaleur aussi élevés.
Habituellement, les technologies électroniques, conçues par des ingénieurs en électricité, et les systèmes de refroidissement, créés par des ingénieurs en mécanique, sont réalisés indépendamment et séparément.
Aujourd’hui, des scientifiques de l’EPFL apportent une petite révolution dans le domaine en combinant les deux approches, développant une technologie microfluidique de refroidissement intégré à l’électronique qui peut gérer efficacement les grands flux de chaleur générés par les transistors, permettant encore plus de miniaturisation et l'intégration de convertisseurs de puissance, avec plusieurs appareils à haute tension, dans une seule puce.
Dans ce projet financé par le Conseil européen de la recherche (ERC), le professeur Elison Matioli, son assistant-doctorant Remco Van Erp et leur équipe du Laboratoire de dispositifs semiconducteurs de puissance (POWERLAB) de l’EPFL, avaient pour objectif d’opérer un véritable changement de mentalité dans la manière d’imaginer nos appareils électroniques.
Ils ont conçu l'électronique et le refroidissement ensemble, dès le début, en visant à extraire la chaleur très près des régions qui chauffent le plus dans l'appareil. « Nous voulions combiner nos compétences en ingénierie électrique et mécanique pour créer un nouveau dispositif », révèle Remco Van Erp.
Les scientifiques souhaitaient résoudre le problème de refroidissement des dispositifs électroniques, en particulier ceux des transistors. « La gestion thermique est l’un des principaux défis de l’avenir de l’électronique », affirme Elison Matioli. « L’impact environnemental étant de plus en plus important, des technologies de refroidissement innovantes s’avèrent nécessaires pour traiter efficacement ces flux de chaleur élevés de manière durable et rentable ».
Leur technologie est basée sur l'intégration de canaux microfluidiques à l'intérieur de la puce semi-conductrice, en même temps que l'électronique, de sorte qu'un liquide de refroidissement circule à l'intérieur de cette puce. « Nous avons placé des canaux microfluidiques très proches des points chauds du transistor, avec un processus de fabrication simple et intégré. Cela permet d’extraire la chaleur de façon très précise. On ne la laisse pas se propager dans l’appareil », explique Elison Matioli. Le liquide de refroidissement est de l’eau déionisée, non-conductrice d’électricité. « Nous avons choisi ce liquide pour nos expériences, mais nous sommes déjà en train d’en tester d’autres, plus performants, afin d’augmenter la quantité de chaleur à retirer du transistor », révèle l’assistant-doctorant.
« La technologie de refroidissement proposée permet de poursuivre la miniaturisation de l’électronique et pourrait réduire considérablement la consommation d’énergie dans le monde entier. De plus, en supprimant le besoin de grands dissipateurs thermiques externes, nous démontrons comment cette approche offre la possibilité de réaliser des convertisseurs de puissance ultra-compacts intégrés sur une seule puce, soutenant ainsi la tendance à l’électrification de notre société », affirme Elison Matioli. Les scientifiques explorent aujourd’hui d’autres domaines dans lesquels la chaleur pose différentes difficultés, notamment pour les lasers et dispositifs de communication.
Article rédigé par Georges Simmonds pour RT Flash
EPFL
|
|
|
|
|
|
|
|
Les structures moléculaires réservent parfois des surprises aux chercheurs. Ceux du Laboratoire de chimie physique théorique (LCPT) de l’EPFL en ont récemment fait l’expérience. En étudiant la dynamique de molécules polyatomiques - c’est-à-dire formées de plusieurs atomes -, ils se sont aperçu que les électrons s'y déplaçaient très différemment que lorsqu’ils se trouvent dans des atomes isolés. Dans ces derniers, les oscillations électroniques se répètent en général selon un schéma régulier. Dans la plupart des molécules polyatomiques, elles diminuent rapidement - ce qui est appelé le phénomène de décohérence. Dans certaines d’entre elles, pourtant, ces oscillations perdurent plus longtemps.
Afin d’identifier plus facilement les candidates à ce type de cohérence persistante, les chercheurs ont développé une technique capable de révéler les mécanismes physiques responsables des décohérences. Celle-ci pourrait s’avérer intéressante dans la recherche de nouvelles technologies électroniques ou d’analyses biologiques. Leur découverte a récemment fait l’objet d’une publication dans le journal Physical Review Letters.
« La mobilité des électrons est un processus extrêmement rapide - ils se déplacent à l’échelle de l’attoseconde -, ce qui les rend particulièrement difficiles à observer », relève Nikolay Golubev, chercheur au LCPT et premier auteur de l’étude. C’est pourquoi, dans leurs travaux, les chercheurs ont intégré une donnée supplémentaire : la dynamique plus lente du noyau atomique et son influence sur celle des électrons dans certaines structures moléculaires, les faisant passer en quelques femtosecondes d’un mouvement ondulatoire cohérent à une décohérence, qui finit par s’affaiblir et disparaître.
Pour pouvoir identifier plus facilement la présence - ou non - de cet effet, les scientifiques ont développé une technique théorique décrivant précisément la dynamique des électrons et des noyaux lorsqu’elle est initiée par ionisation des molécules avec des impulsions laser ultracourtes. Ils se sont basés sur une approche dite « semiclassique », c’est-à-dire combinant des caractéristiques quantiques - telles que la simultanéité de plusieurs états dynamiques différents - et traditionnelles - à savoir les trajectoires classiques guidant les fonctions d'onde moléculaire. La méthode proposée permet d’appréhender le processus de décohérence beaucoup plus rapidement, simplifiant grandement l’analyse de molécules et donc la recherche de potentielles candidates à une cohérence persistante.
« Initialement, déterminer l'évolution quantique de la fonction d'onde d'une molécule polyatomique est un travail gigantesque et irréalisable, même avec les plus grands supercalculateurs du monde », explique Jiri Vanicek, qui dirige le LCPT. « L'approche semi-classique permet de remplacer ce problème quantique insolvable par un problème encore difficile, mais résoluble. Il fournit également une interprétation simple, dans laquelle la molécule peut être vue comme une balle roulant sur un paysage de grande dimension ».
Pour l’illustrer, les chercheurs décrivent les travaux menés sur deux molécules : l'acide propiolique, qui présente une longue cohérence, et l’un de ses dérivés, le propiolamide, qui offre une décohérence rapide. Les chercheurs espèrent pouvoir prochainement en tester des centaines d’autres grâce à leur méthode.
En plus de faire un pas de plus dans la connaissance toujours plus fine des structures et dynamiques moléculaires, cette méthode devrait donc s’avérer utile pour identifier la cohérence électronique de longue durée dans les molécules. Une meilleure compréhension du processus de décohérence pourrait également, par exemple, permettre d’observer plus précisément comment les molécules agissent dans les tissus biologiques ou de créer de nouvelles sortes de circuits électroniques.
Article rédigé par Georges Simmonds pour RT Flash
EPFL
|
|
^ Haut |
|
|
|
|
|
|
|
Vivant |
|
|
Santé, Médecine et Sciences du Vivant
|
|
|
|
|
|
|
|
|
Une équipe de chercheurs espagnols de l'hôpital Quirón de Madrid a testé plusieurs médicaments sur 600 patients, dont l'hydroxychloroquine. Mais c'est la cyclosporine, traitement qui prévient le rejet aigu lors de transplantation d'organes, qui a eu les meilleurs effets. Selon l'équipe de l'hôpital Quirón de Madrid, la cyclosporine donnerait aux patients atteints de Covid "81 % de chances supplémentaires de ne pas mourir" du coronavirus. Ce médicament utilisé habituellement pour prévenir les rejets aigus des greffes d'organes pourrait, selon ses auteurs, "réduire la phase hyperinflammatoire du Covid-19".
Ces recherches ont analysé les traitements de 600 patients admis à l'hôpital madrilène du 10 mars au 15 avril et suivis jusqu'au 12 mai, date du dernier événement concernant l'un de ces patients (décès ou sortie de l'hôpital, cela n'est pas précisé).
Plusieurs traitements ont été testés durant cette période alors même que l'Espagne faisait face à une première vague ultra-violente du Covid-19 : l'hydroxychloroquine, des antiviraux comme le Lopinavir-ritonavir, des antibiotiques, des corticostéroïdes et des médicaments agissant dans la phase inflammatoire de la maladie comme le tocilizumab et la cyclosporine.
Le résultat le plus surprenant de l'étude est que les patients ayant reçu de la cyclosporine ont eu un taux de survie plus élevé que ceux qui ne l'avaient pas prise. Ainsi, 14 % des patients qui ont pris la cyclosporine sont décédés contre 22 % pour ceux qui ont pris de l'hydroxychloroquine. Même taux de 22 % de décès pour ceux qui ont été soignés avec un antiviral. Enfin, 28 % des patients traités avec un corticostéroïde sont décédés, 33 % après un traitement au tozilizumab.
D'après l'étude, les patients qui ont reçu de la cyclosporine souffraient de comorbidités similaires à ceux qui ont pris les autres traitements et leurs résultats cliniques ont été meilleurs. Daniel Carnevali, chef du service de médecine interne de l'hôpital Quirón de Madrid, indique que "la cyclosporine pourrait être un médicament prometteur" mais qu'il reste à le confirmer avec des essais cliniques randomisés, ce qui n'était pas le cas de cette étude.
Article rédigé par Georges Simmonds pour RT Flash
The Lancet
|
|
|
|
|
|
|
|
En France, une équipe de recherche est parvenue à développer un leurre capable de bloquer, de façon irréversible, le virus SARS-CoV-2 en l’empêchant d’infecter les cellules pulmonaires. Celle-ci vient donner une lueur qui pourrait constituer une solution thérapeutique alternative à la vaccination.
L’équipe gérée par Philippe Karoyan, Professeur Sorbonne Université au Laboratoire des Biomolécules (LBM, Sorbonne Université / Ecole normale supérieure - PSL / CNRS), a soumis ses travaux pour publication et ils sont accessibles en preprint.
Plusieurs études sur la Covid-19 démontrent que la phase initiale de l’infection implique l’interaction de la protéine virale SPIKE avec un récepteur humain nommé ACE2, qui ouvre, au niveau pulmonaire, les portes d’entrée des cellules au virus, à l’origine de l’infection et de la multiplication du virus. Par ailleurs, les chercheurs ont entrepris de construire des leurres peptidiques de la protéine humaine ACE2 en mettant à profit les données des structures RX du complexe SPIKE/hACE2 ; les leurres ont été construits par calcul à l’aide de deux algorithmes permettant d’optimiser la structure et l’antigénicité.
En effet, après synthèse et validation de leur capacité à mimer la structure de ACE2 interagissant avec SPIKE, ils ont été criblés pour leur capacité à interagir avec SPIKE et bloquer l’infection virale sur les cellules pulmonaires humaines. Deux mimes se sont révélés puissants, capables de stopper l’infection virale. L’interaction entre ces mimes peptidiques et la protéine virale SPIKE est si forte qu’elle est irréversible, les mimes s’agglutinant à la surface du virus.
Ces leurres, ne présentant aucune toxicité pour les cellules pulmonaires, constituent de puissants outils qui pourraient être utilisés dans des approches prophylactiques et thérapeutiques pour lutter contre le SARS-Cov-2. Cibler la prophylaxie 2 permettrait, dans un premier temps, de contourner le paradigme classique de temps de développement d’un nouveau médicament. Formulés sous forme de pastilles sublinguales ou d’un spray oral ou nasal, ces peptides pourraient permettre de bloquer l'infection par le virus de manière préventive.
Article rédigé par Georges Simmonds pour RT Flash
CNRS
|
|
|
|
|
|
|
|
Décidément, le virus de la Covid-19 est bien plus coriace que l'on croyait : après une récente étude de l'agence scientifique nationale australienne (Csiro) qui a montré que le virus pouvait rester actif au moins un mois sur certaines surfaces (comme les téléphones portables), voilà que des chercheurs de l'Université préfectorale de Kyoto au Japon ont constaté que le coronavirus reste actif sur la peau pendant neuf heures, c’est-à-dire cinq fois plus longtemps que l'agent pathogène qui provoque la grippe.
Pour parvenir à cette conclusion, des chercheurs japonais ont testé des échantillons de peau prélevés sur des spécimens d'autopsie environ un jour après le décès. Mais l'étude précise que le coronavirus et le virus de la grippe sont tous deux inactivés en 15 secondes par l'application d'éthanol, utilisé dans les désinfectants pour les mains. L’Organisation mondiale de la Santé (OMS) recommande d'ailleurs un lavage des mains au savon et à l'eau ou l'utilisation de gel hydroalcoolique contre la propagation de l'épidémie. « La survie plus longue du SRAS-CoV-2 sur la peau augmente le risque de transmission par contact, mais l'hygiène des mains peut réduire ce risque », confirme l'étude.
Une raison supplémentaire d'insister sur l'importance d'un lavage fréquent et méticuleux des mains au savon (30 secondes de lavage, 30 secondes de rinçage, 30 secondes de séchage), complété par une désinfection régulière des mains à l'extérieur, à l'aide d'un gel hydroalcoolique homologué, dont chacun devrait avoir sur soi, en permanence, une réserve...
Article rédigé par Georges Simmonds pour RT Flash
CID
|
|
|
|
|
|
|
|
Le carcinome rénal à cellules claires (cRCC) représente 70 à 80 % des cancers du rein de l'adulte. Il se caractérise par un mauvais pronostic dû à la présence de métastases ganglionnaires précoces.
La majorité des thérapies ciblant le cRCC sont basées sur l'administration en première ligne d'anticorps neutralisant le VEGF-A, comme le Bevacizumab. Ce facteur pro-angiogénique permet le développement de vaisseaux sanguins au voisinage des tumeurs pour les alimenter en oxygène. Le neutraliser permettrait de bloquer la néo-angiogenèse tumorale et limiter le développement des métastases et la croissance tumorale. Cependant, les résultats escomptés n'ont pas été obtenus pour la majorité des patients traités.
Des chercheurs du CEA-Jacob, en collaboration avec l'Université de la Plata (Argentine), proposent une nouvelle piste. Au cours des dernières années, les immunothérapies ciblant les points de contrôle immunitaires (« checkpoints » immunitaires), tels que CTLA-4 et PDL-1, ont également vu le jour. Les « checkpoints » immunitaires (CI) sont cruciaux pour le maintien de la tolérance du soi et pour la modulation des réponses immunitaires afin de minimiser les lésions tissulaires. Les cellules tumorales peuvent réguler à la hausse les CI et échapper ainsi à leur destruction par le système immunitaire.
Les thérapies « anti-checkpoints », ayant pour rôle de renverser l'immunosuppression induite par la tumeur, se sont avérées cliniquement efficaces pour rétablir la fonction immunitaire. Cependant, le traitement est actif pour un nombre réduit des patients. Ainsi, identifier de nouveaux CI, ou combiner différents traitements anti-checkpoints, permettrait d'améliorer le succès de l'immunothérapie anticancéreuse.
Parmi les checkpoints décrits dans la littérature, la molécule HLA-G n'a pas été encore utilisée comme cible thérapeutique. La molécule HLA-G a d'abord été décrite comme jouant un rôle majeur dans la tolérance fœto-maternelle et la transplantation tissulaire. À l'heure actuelle, le point de contrôle HLA-G a été trouvé dans la plupart des tumeurs analysées.
En particulier, une incidence élevée d'expression de HLA-G a été rapportée dans le cRCC. HLA-G a un effet inhibiteur plus large que tout autre point de contrôle car il peut bloquer toutes les étapes des réponses anti-tumorales en agissant sur la plupart des cellules immunitaires. Parmi les récepteurs liant HLA-G, ILT4 est exprimé dans certains types de cancers où il participe à la progression tumorale et au développement des métastases.
C'est dans ce contexte que les scientifiques ont étudié l'angiogenèse tumorale dans des échantillons de tumeurs de cRCC pour analyser la corrélation entre l'expression du VEGF et le checkpoint immunitaire HLA-G/ILT4.
Leurs résultats montrent que les tumeurs hautement vascularisées des patients atteints de cRCC expriment des niveaux élevés de VEGF et de HLA-G. ILT4, l'un des récepteurs HLA-G, a été détecté sur les macrophages entourant les cellules tumorales, suggérant la création d'un microenvironnement immunotolérant qui pourrait favoriser la tumorigenèse. Ainsi, le développement de combinaisons thérapeutiques associant le Bevacizumab à un anticorps anti-HLA-G serait la nouvelle direction à tenter à l'avenir pour améliorer l'efficacité des traitements pour les patients atteints de cRCC en empêchant la progression de la tumeur et des métastases.
Article rédigé par Georges Simmonds pour RT Flash
CEA
|
|
|
|
|
|
|
|
Une nouvelle immunothérapie mise au point par des oncologues belges accroît l’action d’une autre immunothérapie communément utilisée pour traiter le cancer, mais qui n’est pas toujours efficace.
La Professeure Sophie Lucas et ses collègues de l’Institut de Duve de l’Université catholique de Louvain expliquent qu’ils sont ainsi parvenus à neutraliser une molécule qui bloque les défenses immunitaires contre le cancer. Le résultat est clair : les tumeurs cancéreuses régressent.
Le système immunitaire défend le corps contre les infections et des maladies comme le cancer. Lorsque le système immunitaire déclenche une action pour défendre l’organisme contre des corps étrangers, on parle de réaction immunitaire. Dans la lutte contre le cancer, l’immunothérapie utilisée depuis plus de 20 ans permet de manipuler les réponses immunitaires naturellement présentes dans le corps humain. Souvent, ces défenses immunitaires sont bloquées par des cellules ou des molécules qui les empêchent d’éliminer les cellules cancéreuses, si bien que la tumeur initiale parvient à s’installer et même à se développer et créer des métastases, des tumeurs cancéreuses secondaires.
La Professeure Lucas s’intéresse au fonctionnement des cellules immunosuppressives, c’est-à-dire qui bloquent les réponses immunitaires, depuis 2004. Son objectif : les identifier pour les supprimer et ainsi stimuler les anticorps qui agissent contre les tumeurs. Les chercheurs savent que les cellules « lymphocytes T régulateurs (T-REG) » sont très immunosuppressives chez les personnes atteintes de cancer.
L’équipe belge a découvert en 2009 l’existence d’une certaine molécule, appelée GARP, à la surface des T-REG. Ce n’est que près de dix ans plus tard qu’elle a réussi à cerner son rôle. La GARP agit comme un messager pour les T-REG. Elle envoie des signaux qui bloquent les défenses immunitaires. En 2018, la chercheuse et ses collègues développent un outil (des anticorps anti-GARP) qui neutralise le messager et l’empêche d’envoyer ses signaux bloquants et ils commencent des tests.
Les résultats de ces premiers tests montrent que les scientifiques sont parvenus à neutraliser les T-REG chez des souris cancéreuses grâce aux anticorps anti-GARP. Le messager étant neutralisé, et par la même occasion les réponses immunitaires bloquées, le système immunitaire peut à nouveau éliminer les cellules cancéreuses.
Les expériences menées sur les rongeurs ont permis de voir les tumeurs régresser rapidement lorsque les anticorps anti-GARP étaient combinés avec une autre immunothérapie ayant déjà fait ses preuves. La prochaine étape est maintenant d’obtenir les mêmes résultats chez les humains, ce qui pourrait permettre à l’immunothérapie d’être plus efficace contre le cancer.
Article rédigé par Georges Simmonds pour RT Flash
Radio Canada
|
|
|
|
|
|
|
|
Dans l’Union européenne, 13 % des morts sont liés à la pollution, selon un rapport publié récemment par l’Agence européenne de l’environnement (AEE). L’étude souligne que les Européens sont en permanence exposés à des risques environnementaux : pollution de l’air – qui, si elle a nettement diminué, demeure le premier facteur de mortalité, pollution sonore, et par produits chimiques.
Dans les 27 pays de l’UE et au Royaume-Uni, 630 000 décès pouvaient être attribués directement ou indirectement à un environnement pollué en 2012. En tête de peloton, la Roumanie enregistre près d’un décès sur cinq lié à la pollution tandis que les meilleurs élèves, la Suède et le Danemark, en déplorent un sur dix.
L'AEE estime que la crise sanitaire actuelle est un signal devant accélérer une prise de conscience de la relation entre environnement et santé. « L’émergence de ces agents pathogènes zoonotiques (comme dans le cas du Covid-19) est liée à la dégradation de l’environnement et aux interactions entre l’homme et les animaux dans le système alimentaire », affirme l’étude.
Principalement liées à des cancers, des maladies cardio-vasculaires et respiratoires, « ces morts pourraient être évitées en éliminant les risques environnementaux mauvais pour la santé » souligne l’AEE. « Les personnes les plus pauvres sont exposées de manière disproportionnée à la pollution et aux conditions météorologiques extrêmes, y compris les vagues de chaleur et le froid extrême. Cela est lié à l’endroit où elles vivent, travaillent et vont à l’école, souvent dans des zones socialement défavorisées et des quartiers en périphérie des grands axes de circulation », note le rapport.
Article rédigé par Georges Simmonds pour RT Flash
AEE
|
|
|
|
|
|
|
|
Une vaste méta-analyse réalisée par le Centre de recherche biomédicale d’Oxford, de l’Institut national britannique pour la recherche en matière de santé (National Institute for Health Research Oxford Biomedical Research), et incluant au total 348 000 participants, a montré qu’une diminution de la pression artérielle (PA) avec des antihypertenseurs réduit le risque d’événements cardiovasculaires futurs, même chez les personnes présentant une PA normale ou légèrement élevée.
Actuellement, les directives relatives à l’hypertension recommandent une évaluation du risque cardiovasculaire global, mais seulement lorsque les mesures de la PA ont atteint un certain seuil. Mais cette étude vient remettre en cause cette condition restrictive.
Les participants ont été divisés en deux groupes, l’un ayant reçu un diagnostic antérieur de maladie cardiovasculaire (MCV) et l’autre non. Chaque groupe a ensuite été divisé en sept sous-groupes selon la PA systolique. Le critère d’évaluation principal était les événements cardiovasculaires majeurs, y compris l’accident vasculaire cérébral (AVC) fatal/non fatal, l’infarctus du myocarde fatal/non fatal ou la maladie cardiaque ischémique ou l’insuffisance cardiaque entraînant le décès ou l’hospitalisation.
Sur 4 ans de suivi, chaque réduction de 5 mmHg de la PA systolique était associée à une réduction de 10 % du risque relatif d’événements cardiovasculaires majeurs. L’étude montre notamment que, pour chaque réduction de 5 mmHg de la PA systolique, la réduction du risque pour les résultats individuels est de 13 % pour l’AVC, de 14% pour l’Insuffisance cardiaque et de 5% pour la mortalité d’origine cardiovasculaire.
Article rédigé par Georges Simmonds pour RT Flash
ACC
|
|
|
|
|
|
|
|
Comme le rappelle Raphaël Rodriguez, directeur de recherche au CNRS, le tissu tumoral n’est pas homogène. À la manière d’un organisme pluricellulaire, une tumeur contient plusieurs types ou sous types cellulaires que l’on peut classer en deux grandes familles : les cellules épithéliales et les cellules mésenchymateuses. Les premières dérivent du tissu dont est issue la tumeur (muscle, peau, os, …).
Quant aux cellules mésenchymateuses, elles proviennent de la conversion des cellules épithéliales. En effet, sous la contrainte de leur environnement, certaines cellules épithéliales prolifératives, peuvent se transformer en cellules mésenchymateuses, cellules souches cancéreuses, peu prolifératives, mais ayant acquis la capacité d’envahir de nouveaux tissus. Ainsi se développent les métastases !
Les récents travaux de l’équipe de Raphaël Rodriguez (directeur de recherche au CNRS à l’institut Curie), éclairent les étapes et les mécanismes moléculaires qui induisent cette transition cellulaire. Ces chimistes et biologistes ont découvert que la protéine CD44, qui traverse la membrane cellulaire, et est connue comme récepteur de l’acide hyaluronique (un des composants majeurs de la matrice extracellulaire), sert de porte d’entrée au fer dans la cellule cancéreuse. Ils ont également démontré que cet apport de fer supplémentaire modifie le métabolisme et l’expression des gènes de la cellule cancéreuse, ce qui favorise sa transformation en cellule capable de dissémination. Ces découvertes lèvent un peu plus le voile sur un des aspects les moins connus du cancer : son environnement.
Ces recherches se sont appuyées sur les travaux de Robert Weinberg, biologiste du cancer au MIT2009, qui a découvert en 2009 un produit naturel, la salinomycine, capable de cibler une population particulière de cellules tumorales : les cellules souches cancéreuses, qui ont un caractère mésenchymateux.
L’équipe de Raphaël Rodriguez a fait deux découvertes fondamentales : la première, c’est que la cible de la salinomycine est le fer qui se trouve dans le compartiment lysosomal (organite cellulaire, NDLR). La seconde concerne les cellules souches cancéreuses. Nous nous sommes rendu compte que ces dernières avaient une homéostasie du fer qui était surrégulée : leur taux de fer était anormalement élevé.
Ces travaux ont par ailleurs montré que ces cellules souches cancéreuses étaient vulnérables à la ferroptose, qui est un mécanisme de mort cellulaire mis en évidence en 2012 par des chercheurs américains. Ces découvertes ont amené deux questions fondamentales : comment se produit cette surrégulation du fer ? Et à quoi sert le fer ?
En temps normal, la cellule fait entrer du fer via la transferrine et son récepteur transmembranaire. C’est la voie la plus connue d’internalisation du fer, cela fait 70 ans qu’elle est décrite. Cette voie s’autorégule négativement, c’est-à-dire que plus il y a de fer dans la cellule, moins il y aura de production de son récepteur. C’est ce qui permet aux cellules d’avoir suffisamment de fer sans en avoir trop. Une trop grande quantité de fer dans la cellule induit en effet une surproduction de dérivés réactifs de l’oxygène (radicaux libres), essentiels au processus de ferroptose. C’est donc, en quelque sorte, le moyen qu’ont trouvé les cellules pour contrôler leur taux de fer.
Pourtant, cette voie ne pouvait pas être la seule impliquée dans l’addiction au fer des cellules souches cancéreuses, car un taux élevé de fer – ce qu’on constate dans ces cellules – devait mécaniquement induire une répression du récepteur à la transferrine. Il se trouve que la plupart des modèles de cellules souches cancéreuses surexpriment la protéine CD44. Que ce soit dans le cancer de l’ovaire, du sein, de la prostate ou des poumons, CD44 est un marqueur ubiquitaire de mauvais pronostic, un marqueur positif de métastases et de résistance.
CD44 est un récepteur de l’acide hyaluronique. Or, ces recherches ont permis de montrer que l’acide hyaluronique favorise potentiellement la transition des cellules cancéreuses d’un statut épithélial (qui appartiennent à un tissu spécifique) à un statut mésenchymateux.
Ce sont les groupements carboxylates présents dans l’acide hyaluronique qui ont la particularité de très bien interagir avec le fer, ce qui confirme que CD44 est bien une autre porte d’entrée du fer dans la cellule.
Au final, ces recherches ont réussi à montrer et à confirmer que plus les cellules étaient mésenchymateuses, plus CD44 était exprimée, plus les cellules étaient riches en fer et paradoxalement moins il y avait de récepteurs à la transferrine. Cela indique que la voie de signalisation dominante dans ces populations cellulaires se fait via CD44.
Grâce à cette voie, la cellule peut surréguler l’entrée du fer en son sein, sans qu’elle soit inhibée. Cela lui permet d’avoir un taux de fer supérieur à ce qu’il devrait être, ce qui par ailleurs la rend vulnérable à la ferroptose. Ces travaux ont donc montré que le fer est bien nécessaire au maintien du caractère mésenchymateux de certaines cellules cancéreuses.
Article rédigé par Georges Simmonds pour RT Flash
Nature
La Recherche
|
|
|
|
|
|
|
|
En France, environ 225 000 personnes reçoivent chaque année un diagnostic de maladie d’Alzheimer. L’amnésie, ou perte de mémoire, constitue l’une des manifestations cliniques les plus connues, et le plus souvent associée dans l’imaginaire collectif à cette pathologie.
A l’heure actuelle, le diagnostic repose essentiellement sur l’évaluation neuropsychologique et l’imagerie cérébrale qui révèlent à la fois un profil cognitif et anatomique évocateurs de la maladie d’Alzheimer. Sur le plan cognitif, l’amnésie est de fait considérée comme le symptôme le plus fréquent et le plus précoce, et est systématiquement évaluée chez les patients pour lesquelles la pathologie est suspectée. La maladie d’Alzheimer est donc fréquemment diagnostiquée en premier lieu chez les patients âgés présentant des troubles de mémoire ou écartée rapidement dans le cas contraire.
Or, en réalité, elle n’est pas la seule pathologie dans laquelle surviennent des troubles de la mémoire. Ce symptôme est par exemple présent dans 50 % des cas de dégénérescence fronto-temporale, mais le pronostic et l’évolution de cette maladie ne sont pas les mêmes que pour la maladie d’Alzheimer et les solutions thérapeutiques proposées diffèrent. Chez ces patients, une prise en charge spécifique de pathologie Alzheimer peut être délétère.
Les travaux du chercheur Inserm Maxime Bertoux et de son équipe menée par la professeure Florence Pasquier au laboratoire « Lille Neuroscience et Cognition » (Inserm/CHU de Lille/Université de Lille), questionnent pour la première fois la spécificité de l’amnésie dans la maladie d’Alzheimer en s’appuyant sur un diagnostic neuropathologique réalisé post-mortem chez plusieurs patients. Leur objectif : étudier si la présence d’une amnésie évaluée par des tests cognitifs pendant le vivant des personnes pouvait prédire la présence de manifestations caractéristiques de la maladie d’Alzheimer dans le cerveau.
Cette étude se fonde sur des données issues du don de cerveaux de 91 patients souffrant de diverses maladies neurodégénératives dont la maladie d’Alzheimer, mais aussi la dégénérescence fronto-temporale, la maladie à corps de Lewy, de Creutzfeldt-Jakob, ou de lésions cérébro-vasculaire progressives.
Ces patients avaient tous été examinés à des stades débutants de leur maladie et leurs performances cognitives avaient été évaluées. Ils avaient ensuite été classés en trois groupes selon la sévérité des pertes de mémoire : un groupe de non amnésiques, un groupe de patients modérément amnésiques, et un dernier groupe de patients sévèrement amnésiques. Après leur décès, l’étude de leur cerveau (diagnostic neuropathologique) a permis de confirmer ou d’infirmer le diagnostic clinique initial.
Seule une correspondance modérée a pu être mise en évidence entre la sévérité de l’amnésie et la présence d’une pathologie Alzheimer confirmée par le diagnostic neuropathologique. En effet, un tiers des patients présentant une pathologie Alzheimer n’avait pas de troubles de mémoire, et près de la moitié des patients sans pathologie Alzheimer était amnésique. La présence d’une amnésie apparaissait comme faiblement prédictive de la pathologie Alzheimer. « Nos résultats confirment que le diagnostic fondé sur l’amnésie comme marqueur systématique de la maladie d’Alzheimer a une pertinence limitée », souligne Maxime Bertoux, « ils invitent à repenser la manière dont cette maladie est diagnostiquée afin de réduire l’errance diagnostique et la mauvaise orientation de certains patients et d’améliorer la reconnaissance clinique et sociétale des autres maladies neurodégénératives ».
Au-delà de ces implications cliniques, leurs résultats ont aussi des conséquences en matière de recherche. En effet, de nombreux essais cliniques visant à tester des traitements contre la maladie d’Alzheimer recrutent leurs participants sur un critère d’amnésie. « Associer systématiquement une perte de mémoire à la maladie d’Alzheimer pourrait biaiser les inclusions dans les protocoles de recherche », ajoute Maxime Bertoux.
Enfin, cette étude souligne l’importance de confronter toute technique diagnostique à l’analyse post-mortem du cerveau, la seule à offrir une preuve formelle de diagnostic. Pour cela, les chercheurs appellent à une sensibilisation plus large de la population sur l’intérêt du don de cerveaux.
Article rédigé par Georges Simmonds pour RT Flash
Inserm
|
|
^ Haut |
|
|
|
|
|
|
|
Recherche |
|
|
Recherche & Innovation, Technologies, Transports
|
|
|
|
|
|
|
|
|
Imaginer des tracteurs routiers embarquant plusieurs tonnes de batteries et devant être immobilisés parfois plus d’une heure pour le ravitaillement en énergie n’est pas le meilleur scénario lorsqu’il s’agit d’effectuer un millier de kilomètres et plus dans une journée. Les piles à hydrogène permettent au contraire d’exploiter et de bénéficier de tous les avantages d’un groupe motopropulseur électrique en se débarrassant de ses inconvénients majeurs.
Le plein des réservoirs s’effectue aussi vite qu’avec du gazole, et la charge utile est préservée. C’est pourquoi Bosch s’active à développer, pour une commercialisation à horizon 2022 ou 2023, des GMP à PAC H2 pour poids lourds, imaginant que les transporteurs les alimenteront avec de l’hydrogène vert. Et ce, pour une activité de fret climatiquement neutre. L’équipementier pourrait ensuite, une fois sa nouvelle activité bien installée, décliner son offre aux voitures particulières.
Pour convaincre du bien-fondé de cette direction prise en faveur de la mobilité durable, Uwe Gackstatter, président de la division Powertrain Solutions de Bosch, prend cependant soin de ne pas opposer les architectures à batterie et celles à hydrogène. « Elles se complètent parfaitement ! », assure-t-il. Déjà évoquée ci-dessus, la neutralité climatique est le premier argument avancé par le dirigeant allemand. De l’hydrogène et de l’oxygène pour obtenir une réaction productrice d’électricité, et de l’eau pour seul résidu : un schéma bien connu de nos lecteurs. Une batterie tampon reste nécessaire, mais d’une capacité énergétique bien moindre, et avec des dimensions particulièrement réduites synonymes d’empreinte carbone très allégée lors de la production.
Si l’équipementier envisage déjà ces piles en fonctionnement dans les poids lourds, véhicules terrestres légers (voitures et utilitaires), trains, navires et avions, il développe aussi des modèles pour des applications stationnaires (petites centrales électriques, centres de données, bornes de recharge rapide pour véhicules électriques). Bosch signale que l’industrie a également besoin d’une part grandissante d’hydrogène dans la production d’énergie et d’acier.
Pour la mobilité, Uwe Gackstatter chiffre à « environ un quart plus élevé » l’efficacité énergétique des groupes motopropulseurs électriques à pile hydrogène par rapport aux moteurs thermiques habituels. Et ce, avant même de prendre en compte l’énergie récupérée dans la batterie tampon lors des ralentissements et freinages.
Le dirigeant admet volontiers que l’efficience des GMP à batterie seule est bien meilleure tout en relativisant : « La production et la demande d’énergie ne coïncident pas toujours. Ainsi l’électricité produite par les éoliennes et les panneaux solaires reste souvent inutilisée car elle ne trouve pas de consommateur et ne peut être stockée. C’est là que l’hydrogène prend tout son sens ». Le surplus d’électricité peut être exploité pour former le fameux gaz, soit en stockage à plus ou moins long terme, soit en utilisation pour des transports décarbonés.
« A moyen terme, l’utilisation d’un véhicule équipé d’une pile à combustible ne coûtera pas plus cher que celle d’un modèle équipé d’un groupe motopropulseur classique », insiste Uwe Gackstatter. Pourquoi ? Parce que le poids financier de l’hydrogène vert devrait diminuer de moitié dans les 10 ans à venir, selon le Conseil de l’hydrogène. Et ce, sous l’effet de 2 scénarios qui vont dans le même sens : baisse naturelle des coûts au fur et à mesure de l’élargissement des capacités de production et fléchissement du prix de l’électricité obtenue de sources naturelles.
Article rédigé par Georges Simmonds pour RT Flash
H2
|
|
^ Haut |
|
|
|
|
|
VOTRE INSCRIPTION |
|
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
|
|
|
|
|
|