|
|
Edito
Le rôle-clé de l'épigénétique en biologie et en médecine se confirme...
Le terme d'épigénétique a été inventé, en 1942, par l'embryologiste britannique Conrad Waddington, qui voulait étudier les mécanismes par lesquels les interactions entre les gènes et l'environnement produisent les caractères physiologiques et morphologiques de l'individu. A la fin du siècle dernier, le généticien britannique Robin Holliday proposa une nouvelle définition de l’épigénétique : l’étude des changements d’expression des gènes transmissibles au travers des divisions cellulaires, sans changement de la séquence d’ADN. En 2007, le généticien britannique Adrian Bird proposa de compléter cette définition en considérant l'épigénétique comme l’étude des adaptations structurelles des régions chromosomiques qui permettent d’enregistrer et de perpétuer des états modifiés d’activité des gènes. Les mécanismes épigénétiques permettent à un même ADN d’être utilisé différemment d’une cellule à une autre. Ils ne modifient pas les gènes eux mêmes, c'est-à-dire la structure de l'ADN, mais sont néanmoins capables d'agir comme de véritables interrupteurs qui vont venir bloquer ou au contraire activer nos gènes.
Il est à présent bien établi que notre environnement, au sens large, exerce une influence considérable sur ces phénomènes épigénétiques. On sait par exemple que de nombreux facteurs (tabac, stress, alimentation, médicaments, exposition à des bactéries, virus, pesticide, polluants…) ont un effet délétère sur nos mécanismes épigénétiques. C’est notamment le cas du vieillissement caractérisé par certaines marques épigénétiques, comme les méthylations de l'ADN qui régulent l'expression des gènes. C'est également vrai pour le tabac : les anciens fumeurs, par exemple, gardent des marques épigénétiques nocives pendant une vingtaine d’années. Ces dernières années, des recherches ont montré que cette influence, de manière remarquable, est largement réversible. Il a également été établi que les marques épigénétiques peuvent se transmettre de génération en génération, notamment pendant la grossesse, au moment du développement de l’embryon.
L'épigénétique repose sur trois grands mécanismes : la méthylation de l'ADN, la modification des histones et la régulation par l'ARN. Une analyse de la méthylation de l'ADN est souvent réalisée pour mieux comprendre l'expression des gènes. La modification des histones constitue un autre mécanisme épigénétique important qui utilise plusieurs voies : acétylation, méthylation, phosphorylation, qui vont permettre de modifier l'expression génique. Les histones sont des protéines qui, avec l'ADN, forment des nucléosomes qui vont produire la chromatine formant les chromosomes. Le troisième mécanisme, le moins connu, est la régulation par l'ARN. La voie de signalisation de l'ARN peut en effet réguler la structure de la chromatine. De nombreuses recherches tentent de mieux comprendre comment l'ARNm (ARN messager), et en particulier l'ARN non codant et les micro-ARN, régule l'expression des gènes.
En 2021, des chercheurs de l’Institut de génomique fonctionnelle de Montpellier ont pu montrer que l'ARN joue un rôle majeur en matière de cancer, au travers de l’épitranscriptome qui regroupe les modifications chimiques présentes sur les molécules d’ARN, notamment sur les ARN messagers qui servent à la synthèse des protéines. Ces modifications peuvent provoquer la production de différentes protéines, en fonction de l'environnement. Comme le souligne Alexandre David, qui a dirigé ces travaux, « Nos recherches ont mis à jour un niveau de régulation supplémentaire de l’expression des gènes, qui était invisible jusqu'à présent ».
En 2023, l'équipe du Docteur David Sinclair, professeur en génétique et co-directeur du centre Paul F. Glenn de recherche de biologie du vieillissement du Harvard Medical School de Boston, a publié une vaste étude qui a eu un retentissement scientifique mondial. A l'issue de 13 ans de travaux, ces chercheurs ont montré qu'on pouvait utiliser une thérapie génique faisant intervenir trois gènes, Oct4, Sox2, et Klf4, pour donner aux cellules l’instruction de se “reprogrammer", afin de restaurer leur environnement épigénétique d'origine. De manière remarquable, cette thérapie génique a permis l’effacement d’environ 57 % des signes du vieillissement et le rétablissement de l’état de jeunesse initial (Voir Harvard). Ces recherches se sont appuyées sur un nouveau concept prometteur, celui d'“l’horloge biologique”. Cette horloge pourrait être accélérée, mais aussi inversée, et agir de cette façon sur l’âge de toutes les cellules de l’organisme. Selon les auteurs de cette étude, ce mécanisme serait essentiellement lié à la survenue de modifications épigénétiques, indépendamment des mutations de l’ADN qui peuvent intervenir en parallèle.
Cette étude montre que l’altération des informations épigénétiques telles que l’organisation et la régulation de l’ADN cellulaire permet l’accélération du processus de vieillissement. A l’inverse, la restauration de l’intégralité de ces informations permet une réversibilité importante des signes du vieillissement. Cette étude a marqué un véritable tournant dans la compréhension des mécanismes fondamentaux du vieillissement et ouvre la perspective de pouvoir rajeunir l’organisme en utilisant ce procédé de reprogrammation cellulaire. Selon ces travaux, le vieillissement cellulaire des mammifères résulterait donc essentiellement de la perte d’instructions épigénétiques et seulement dans une moindre mesure, de l’accumulation de dommages et mutations subis par leur ADN. Ces chercheurs font valoir qu'il serait plus simple d'essayer de modifier les molécules qui contrôlent l’épigénome que de supprimer les nombreuses mutations de l’ADN impliquées dans le vieillissement. Selon ces scientifiques, Il serait donc plus pertinent de se concentrer sur l’épigénétique que sur la génétique, pour prévenir ou ralentir le processus global du vieillissement, ainsi que les pathologies qui en découlent.
Il y a un an, des scientifiques de l’université d'Algarve ont confirmé et prolongé les travaux de David Sinclair en montrant à leur tout qu'il était possible d'inverser, notamment par l’exercice et l’alimentation, des changements épigénétiques associés au vieillissement. Ces recherches ont montré que l'adoption d'une alimentation équilibrée et la pratique d'un exercice physique régulier pouvait contribuer à réduire sensiblement les modifications épigénétiques liées à l’âge, en favorisant une chromatine (le mélange d'ADN et de protéines qui forment les chromosomes) plus étroitement condensée (Voir Aging).
L'épigénétique est également devenue une nouvelle voie très prometteuse de recherche pour comprendre les causes fondamentales des cancers et proposer aux malades de nouvelles voies thérapeutiques originales, plus ciblées, plus efficaces et mieux supportées par les patients. En 2022, l'équipe de recherche rassemblant des chercheurs du CNRS et de Curie, dirigée par Céline Vallot, est parvenue à analyser cellule par cellule les variations épigénétiques acquises par les cellules tumorales au cours du traitement par chimiothérapie. Ces scientifiques ont à la fois identifié les gènes dont l’expression permet aux cellules de tolérer le traitement et repéré les modifications épigénomiques qui régulent ces gènes. Ces travaux ont montré qu'il existait bien des marques épigénomiques qui bloquaient l’expression de ces gènes en l’absence de traitement. Encore plus intéressant, ces recherches ont également confirmé qu'en maintenant le pouvoir inhibiteur de ces marqueurs épigénétiques, il était possible de prévenir l'apparition presque inévitable du phénomène de résistance aux traitements et de faire en sorte que les cellules cancéreuses restent toutes sensibles aux médicaments anti-cancéreux. Cette possibilité a d'ailleurs été démontrée par cette équipe qui a réussi à bloquer chez l'animal certains cancers, en utilisant des composés chimiques, appelés épi-drugs, qui inhibent le retrait de marques épigénétiques.
Il y a un an, une autre scientifique remarquable, Charlotte Proudhon, généticienne et directrice de recherche Inserm, a obtenu un financement européen de 1,5 million d’euros (sur 5 ans) pour accélérer les travaux de son projet EpiDetect (Detecting epigenetic biomarkers in the blood for non-invasive precision oncology), qui consiste, de manière complémentaire aux projets de biopsie liquide basés sur la recherche de mutations génétiques d'origine tumorale, à repérer des marques épigénétiques caractéristiques des cancers et de leur localisation. Cette chercheuse explique que « l’épigénétique doit être vue comme une couche d’information supplémentaire sur la séquence codante de l’ADN » qui va laisser des traces modifiant l’expression des gènes. Ce mécanisme est actif tout au long de la vie, avec des modifications qui surviennent en permanence en réponse aux changements d’état ou d’environnement. Ainsi, toutes les cellules cancéreuses portent des marques épigénétiques particulières qui sont potentiellement repérables dans le sang des patients.
Sur le plan thérapeutique, les épimédicaments sont des molécules qui agissent sur ces mécanismes épigénétiques, à savoir des processus biologiques réversibles qui influent sur l’expression des gènes sans modifier la séquence d’ADN elle-même. Ces molécules agissent par deux mécanismes principaux : ils inhibent la méthylation de l’ADN ou ciblent des modifications des histones, ces protéines qui entourent l’ADN. Certains sont déjà commercialisés, comme l'asacitidine, utilisée dans le traitement de certaines leucémies. Parmi les épimédicaments, le vorinostat est un inhibiteur des histones désacétylases (HDAC), qui peut moduler l’épigénome des inhibiteurs de marqueurs épigénétiques.
L’essai clinique PEVO de phase 2, conduit par le Professeur Le Tourneau, de l'Institut Curie, vise à évaluer une approche thérapeutique très innovante : l’association d’une immunothérapie (le pembrolizumab) avec un épimédicament, le vorinostat. Il a été mené auprès de 112 patients touchés par un carcinome épidermoïde récidivant. Les carcinomes épidermoïdes, qui représentent environ 20 % des cancers de la peau, présentent des altérations moléculaires similaires qui permettent des stratégies thérapeutiques communes. Les résultats très prometteurs de cet essai ont été présentés il y a quelques mois, à l'occasion du congrès de l’ESMO2023. Ce nouveau traitement combiné, associant un médicament épigénétique, a montré une activité antitumorale encourageante chez les malades atteints de cancers épidermoïde ORL et de cancer du col de l’utérus.
Il y a quelques jours, une étude de chercheurs français, menée par l'Institut de Génétique Humaine de l'Université de Montpellier, est venue raisonner comme un coup de tonnerre dans le monde scientifique et a créé l'événement en montrant pour la première fois qu'un cancer peut émerger sans nécessiter de mutation génétique. Jusqu'à présent, la communauté scientifique considérait que les mutations génétiques étaient la cause principale de l'apparition des cancers. Pourtant il semblerait, selon cette étude solide, que des altérations épigénétiques, qui régulent l'expression des gènes sans modifier leur séquence, puissent, à elles seules, déclencher certains cancers (Voir Nature). Ces chercheurs ont en effet provoqué des cancers chez la drosophile, simplement en réduisant le niveau de la protéine Polycomb, un dérèglement épigénétique. Et même en restaurant l'état normal des cellules, ces scientifiques ont constaté qu'une partie du génome restait dysfonctionnelle, favorisant la production de cellules malignes. Ces recherches démontrent que les mutations génétiques ne sont pas toujours indispensables à l'apparition du cancer. Cette découverte capitale éclaire également le rôle potentiel des facteurs environnementaux, tels que les polluants chimiques, dans le développement du cancer. Des substances comme le bisphénol A, les PFAS présents dans le plastique, peuvent perturber les mécanismes épigénétiques et favoriser la survenue de tumeurs.
Toutes ces avancées récentes sont passionnantes car elles montrent que la connaissance et l'utilisation thérapeutique de l'épigénétique est au moins aussi importante que la compréhension de la dimension purement génétique, dans le traitement des grandes pathologies qui affectent l'homme, à commencer par le cancer. Ces avancées montrent également que nous devons sortir de la représentation statique, fermée et restrictive que nous avons encore de l'information génétique. Cette information n'est pas gravée dans le marbre de notre ADN. Non seulement le génome doit être dupliqué pour la division cellulaire et la descendance, mais il doit également être entretenu en permanence et corrigé en cas d’anomalie, mais son expression est régulée, contrôlée tout au long de la vie de la cellule et de l’organisme.
On voit donc que, loin d'être une dimension subsidiaire du vivant, l'épigénétique s'avère aussi complexe et aussi importante que la génétique pour comprendre les mécanismes biologiques fondamentaux et imaginer de nouvelles voies thérapeutiques pour mieux prévenir et traiter les pathologies lourdes et parfois incurables, très souvent liées au vieillissement continu de notre population. On peut penser que la médecine de demain devra apprendre à combiner de manière intelligente et personnalisée les thérapies géniques, épigénétiques et cellulaires, en utilisant de manière plus large et efficace les puissants outils que sont les outils d'édition génomique (comme CRISP-CAS9 ou le Prime Editing, encore plus précis) et les ARN interférents et messagers (ARNi et ARNm).
Reste que ces traitements d'une très haute précision devront être totalement personnalisés pour produire leur plein efficacité thérapeutique, ce qui ne sera possible qu'en s'appuyant sur des outils extrêmement puissants de bio-informatique et d'IA et à condition que médecins et chercheurs disposent partout d'un accès à une puissance de calcul distribué sans doute 100 fois plus grande que celle dont disposent aujourd'hui les médecins et établissements de santé. Souhaitons que notre pays prenne bien la mesure de cet enjeu numérique en matière de médecine et de santé...
René TRÉGOUËT
Sénateur honoraire
Fondateur du Groupe de Prospective du Sénat
e-mail : tregouet@gmail.com
|
|
|
|
|
|
|
|
Matière |
|
|
Matière et Energie
|
|
|
|
|
|
|
|
|
En janvier, le ministère britannique de la Défense [MoD] s’était félicité du succès du « premier tir d’une arme laser de haute puissance contre des cibles aériennes » au Royaume-Uni. Il s’agissait du système "DragonFire", développé dans le cadre d’un programme lancé en 2017 par le Laboratoire des sciences et technologies de la défense [Dstl] et confié à MBDA UK, Leonardo UK et QinetiQ, pour un montant de 100 millions de livres sterling.
Cette arme laser, d’une puissance de 50 kW, avait en effet réussi à abattre des drones à « plusieurs kilomètres » de distance, lors d’un essai réalisé dans les îles Hébrides. S’il n’avait pas précisé sa portée, le MoD fit savoir que le DragonFire était suffisamment précis pour atteindre une pièce d’une livre sterling à un kilomètre. Au départ, la Royal Navy envisageait d’installer de telles armes laser à bord de certains de ses navires à l’horizon 2032. Finalement, elle a décidé d’accélérer ce programme. C’est en effet ce qu’a annoncé Grant Shapps, le ministre britannique de la Défense, ce 12 avril.
« Cela peut sembler impossible, mais le Royaume-Uni disposera très bientôt de lasers capables d’abattre des missiles et des drones à la vitesse de la lumière. Comment ? Parce que nous avons réformé les achats militaires pour accélérer des projets qui auraient pu prendre des décennies, afin d’obtenir de toute urgence les nouvelles armes dont nous avons besoin pour défendre la Grande-Bretagne », a-t-il fait valoir, via X [anciennement Twitter]. Le système DragonFire « montre que le Royaume-Uni est à la pointe de la technologie militaire. Nous ne tarderons pas à le remettre entre les mains de nos militaires pour faire face aux menaces auxquelles nous sommes confrontés », a aussi affirmé M. Shapps.
Ainsi, ces armes laser commenceront donc à être installées à bord des navires de la Royal Navy à partir de 2027, soit cinq ans plus tôt que prévu. « Il s’agit d’une excellente nouvelle et d’un véritable pas en avant pour permettre à la défense britannique de bénéficier d’un avantage opérationnel rapide. Le Dstl a pour objectif de préparer l’avenir et la technologie DragonFire en est un excellent exemple. Nos scientifiques et nos partenaires industriels ont travaillé sans relâche pour amener la technologie laser là où elle se trouve aujourd’hui », a fait valoir Paul Hollinshead, le directeur du Laboratoire des sciences et technologies de la défense.
De son côté, la Royal Navy a souligné que le DragonFire complétera les systèmes surface-air déjà en service, comme le Sea Ceptor et le Sea Viper. Même si une arme laser est peu coûteuse à l’emploi, il n’en reste pas moins que son efficacité dépend de plusieurs facteurs, notamment météorologiques. Cela étant, le Royaume-Uni n’est pas le seul à investir ce créneau. Bien avant lui, les États-Unis ont mis par exemple au point les systèmes DE M-SHORAD [Directed Energy Maneuver Short-Range Air Defense], installé sur un blindé Stryker, et HELIOS [pour High Energy Laser with Integrated Optical-Dazzler and Surveillance], destiné à l’US Navy. La France est aussi dans la course, avec le dispositif Helma-P, de même que l’Allemagne, avec le démonstrateur LWD de Rheinmetall, et Israël, avec l’Iron Beam.
Article rédigé par Georges Simmonds pour RT Flash
Naval News
|
|
|
|
|
|
|
|
Des batteries efficaces et bon marché, capables également de capter les émissions nocives, pourraient bientôt être disponibles, grâce à un nouveau système qui accélère le développement de catalyseurs pour le lithium-CO.2 (Li-CO2) batteries. La technologie a été développée par l'Université de Surrey, collège impérial de Londres et l'Université de Pékin pour remédier aux méthodes lentes et inefficaces actuellement utilisées pour produire des catalyseurs pour Li-CO2 batteries.
Dans l’étude, les chercheurs ont utilisé leur outil pour tester et sélectionner des matériaux comme le platine, l’or, l’argent, le cuivre, le fer et le nickel, afin de déterminer facilement s’ils seraient des candidats appropriés pour développer du Li-CO haute performance.2 batteries. M. Kai Yang, auteur correspondant de ce travail, co-chef de projet et maître de conférences à l'Advanced Technology Institute de l'Université de Surrey, a expliqué : « Nous avons créé une plate-forme de test électrochimique de pointe, un laboratoire sur puce, capable de faire plusieurs choses en même temps. Il permet d'évaluer les électrocatalyseurs, d'optimiser les conditions de fonctionnement et d'étudier le CO2 conversion en lithium-CO haute performance2 batteries. Cette nouvelle méthode est plus rentable, efficace et contrôlable que les méthodes traditionnelles de fabrication de ces matériaux.
Les Li-CO2 batteries sont un nouveau type de batterie prometteur qui fonctionne en combinant le lithium et le dioxyde de carbone ; ils stockent non seulement efficacement l’énergie, mais offrent également un moyen de capter le CO2 apportant potentiellement une double contribution à la lutte contre le changement climatique. Le Dr Yunlong Zhao, auteur correspondant principal de cette étude et maître de conférences à l'Imperial College de Londres, au National Physical Laboratory et universitaire invité de l'Université de Surrey, a déclaré :
« Il est crucial que nous développions de nouvelles technologies à émissions négatives. Notre plateforme de laboratoire sur puce jouera un rôle crucial dans la réalisation de cet objectif. Cela améliorera non seulement notre compréhension des nouvelles batteries, mais pourra également être appliqué à d’autres systèmes tels que les batteries métal-air, les piles à combustible et les cellules photoélectrochimiques. « Ce nouvel outil permettra un criblage rapide des catalyseurs, l'étude des mécanismes de réaction et des applications pratiques, de la nanoscience aux technologies de pointe d'élimination du carbone ».
Article rédigé par Georges Simmonds pour RT Flash
Sci Tech Daily
|
|
|
|
|
|
|
|
Des chercheurs du célèbre National Renewable Energy Laboratory (NREL), un laboratoire américain de Denver, spécialisé dans les énergies renouvelables, ont mis au point une technologie de stockage d’énergie thermique (TES) utilisant du sable porté à très haute température, permettant de stocker de l’énergie sur plusieurs jours. Le projet semble prometteur, à tel point que le département américain de l’énergie a décidé d’y investir près de 4 millions de dollars pour la réalisation d’un prototype pilote. Celui-ci vise à démontrer l’intérêt économique d’une telle solution.
Il existe déjà plusieurs types de batteries de stockage, que l’on peut diviser en deux catégories : les systèmes de stockage à court terme, comme les batteries électrochimiques (plomb, lithium, etc.) et les systèmes de stockage sur le long terme, comme les réservoirs d’hydrogène, les STEP et certains dispositifs capables de stocker de la chaleur (eau, briques réfractaires, etc.). Selon ses concepteurs, la solution de stockage par le sable répondrait à un besoin de stockage de chaleur sur le moyen terme, c’est-à-dire entre quelques heures et plusieurs jours.
La technologie conçue par le NREL consiste à chauffer du sable à une température d’environ 1 200°C grâce à de l’énergie issue de ressources renouvelables (hydro, éolien, solaire, biomasse), puis à le stocker dans des silos isolés. Lorsqu’il faut produire de l’énergie, ce sable est convoyé par gravité vers un échangeur thermique qui chauffe un fluide caloporteur. Celui-ci alimente ensuite un générateur à cycle combiné. Cette technologie a l’avantage de reposer sur des principes physiques relativement simples, et de ne dépendre d’aucune terre rare, le sable étant très abondant à la surface de la Terre.
Pour que ce système soit le plus efficace possible, pas question d’aller à la plage et ramasser le sable le plus proche possible. Afin de déterminer lequel est le plus adapté à cette technologie, les équipes du laboratoire ont analysé les capacités d’écoulement et de rétention de chaleur de 8 types de sables distincts, comme les matériaux céramiques synthétiques, l’argile de silex, l’alumine fondue brune ou encore les sables de silice. Si l’argile et l’alumine ont été rejetées à cause de leur instabilité thermique, la céramique, elle, s’est positionnée comme le sable le plus performant. Finalement, face à son coût trop élevé, c’est le sable de silice qui lui a été préféré. Celui-ci est, en outre, largement disponible aux États-Unis, en particulier dans le Midwest.
Pour valider l’intérêt commercial de la technologie, le laboratoire devrait donc créer, sur son campus situé près de Boulder, dans le Colorado, un prototype dont la puissance devrait approcher les 100 kW pour une autonomie d’environ 10 heures, soit 1 MWh d’énergie thermique stockée. À l’échelle commerciale, le laboratoire pense pouvoir atteindre une puissance de 135 MW pouvant être stockée pendant 5 jours. Cela représente 16,2 GWh thermiques, une coquette somme d’énergie. Concernant la quantité d’énergie stockée, selon le laboratoire, elle ne dépendrait que de la quantité de sable utilisée. Ainsi, plus on veut avoir d’énergie à stocker, plus il faut construire de silos.
Cette technologie paraît prometteuse pour sa capacité à stocker à moyen terme de l’électricité, mais pas seulement. Selon ses concepteurs, elle serait économiquement très intéressante. Alors qu’une installation de stockage par air comprimé coûte entre 150 et 300 $ par kilowattheure, et le stockage par pompage turbinage avoisine les 60 $ par kilowattheure, le stockage à base de sable coûterait entre 4 et 10 $ par kilowattheure ! Les batteries au lithium, elles, sont notamment plus chères avec un coût au kilowattheure proche des 300 $.
Article rédigé par Georges Simmonds pour RT Flash
Mining
|
|
^ Haut |
|
|
|
|
|
|
|
Terre |
|
|
Sciences de la Terre, Environnement et Climat
|
|
|
|
|
|
|
|
|
La vitamine B1 est un micronutriment essentiel pour l’être humain et sa carence est à l’origine de nombreuses maladies des systèmes nerveux et cardiovasculaire. Des chercheuses et chercheurs de l’Université de Genève (UNIGE), en collaboration avec des équipes de l’ETH Zurich et de la National Chung Hsing University (NCHU) de Taïwan, ont réalisé une percée dans la lutte contre les carences en vitamine B1, fréquemment associées à une alimentation à base de riz. En ciblant spécifiquement les tissus nourriciers du grain de riz, les scientifiques ont réussi à augmenter considérablement sa teneur en vitamine B1, sans compromettre le rendement agronomique. Ces résultats, à lire dans la revue Plant Biotechnology Journal, pourraient contribuer à résoudre un problème majeur de santé publique dans les régions où le riz constitue l’aliment de base.
La plupart des vitamines ne peuvent pas être produites par l’organisme humain et doivent être fournies par l’alimentation. Lorsque celle-ci est variée, les besoins en vitamines sont généralement couverts. Mais au sein des populations qui se nourrissent essentiellement, voire uniquement, de céréales telles que le riz, les carences sont nombreuses. C’est le cas notamment pour la vitamine B1 (thiamine), dont la carence provoque de nombreuses maladies des systèmes nerveux et cardiovasculaire, par exemple le béribéri. Le riz est la culture de base pour la moitié de la population mondiale, notamment dans les pays tropicaux d’Asie, d’Amérique du Sud et d’Afrique. Les grains de riz ont une faible teneur en vitamine B1, et les étapes de leur transformation, dont le polissage (c’est-à-dire l’élimination des couches de son, en râpant les couches périphériques), la réduisent encore davantage, puisqu’environ 90 % de la vitamine B1 se trouve dans les tissus éliminés. Ce procédé aggrave donc encore les carences chroniques.
Le laboratoire de Teresa Fitzpatrick, professeure ordinaire au Département des sciences végétales de la Faculté des sciences de l’UNIGE, est spécialiste des voies de biosynthèse et de dégradation des vitamines chez les plantes. Son groupe, en collaboration avec une équipe de l’ETH Zurich et de la National Chung Hsing University (NCHU) de Taïwan, a cherché à améliorer la teneur en vitamine B1 dans l’endosperme du riz, c’est-à-dire le tissu nourricier qui constitue l’essentiel de la graine, et donc de ce qui est mangé. « Les précédentes tentatives de biofortification par d’autres équipes avaient permis d’augmenter la teneur en vitamine B1 des feuilles et du son – l’enveloppe des grains de riz – mais pas celle du grain de riz prêt à la consommation. Dans notre étude, nous avons ciblé spécifiquement l’augmentation de la teneur en vitamine B1 dans l’endosperme », explique Teresa Fitzpatrick, première auteure de l’étude. Les scientifiques ont généré des lignées de riz qui expriment un gène qui séquestre la vitamine B1 de façon contrôlée dans les tissus de l’endosperme. Après culture en serre, récolte et polissage des grains de riz, ils et elles ont constaté que la teneur en vitamine B1 était augmentée dans les grains de riz issus de ces lignées modifiées.
Les lignées ont ensuite été semées dans un champ expérimental à Taïwan et cultivées pendant plusieurs années. D’un point de vue agronomique, les caractéristiques analysées sont les mêmes entre les plants de riz modifiés et non-modifiés. En effet, la hauteur des plantes, le nombre de tiges par plant, le poids des grains ou encore la fertilité sont tout à fait comparables. En revanche, le niveau de vitamine B1 dans les grains de riz, après l’étape de polissage, est multiplié par 3 à 4 dans les lignées modifiées. Cette modification permet donc une accumulation de la vitamine B1 sans avoir d’impact sur le rendement.
« La plupart des études de ce type sont réalisées avec des cultures en serre. Le fait que nous ayons pu cultiver nos lignées en conditions réelles en champs, que l’expression du gène modifié soit stable dans le temps sans qu’aucune des caractéristiques agronomiques ne soit affectée est très prometteur », s’enthousiasme Wilhelm Gruissem, professeur honoraire de l’ETH Zurich ainsi que professeur émérite et Yushan Fellow de la NCHU. Un bol de riz de 300 grammes issu de cette culture permet d’atteindre environ un tiers des apports journaliers recommandés en vitamine B1 pour un adulte. La prochaine étape pour atteindre l’objectif de plantes biofortifiées en vitamine B1 sera de poursuivre cette approche dans les variétés commerciales. Des étapes réglementaires relatives à la biofortification par génie génétique devront toutefois être franchies avant d’être en mesure de les cultiver.
Article rédigé par Georges Simmonds pour RT Flash
UNIGE
|
|
^ Haut |
|
|
|
|
|
|
|
Vivant |
|
|
Santé, Médecine et Sciences du Vivant
|
|
|
|
|
|
|
|
|
Une étude de l'Université d'Adelaïde, en Australie, suggère que le temps passé devant un écran entre l’âge de 1 an et de 3 ans pourrait empêcher les enfants de vivre un environnement familial riche en langage et en interactions. Argument supplémentaire pour limiter drastiquement le temps d’écran pendant la toute petite enfance. L’importance d’un environnement familial riche en langage pendant les premières années de vie est bien établie. L’exposition précoce au langage et son développement, l’épanouissement socio-émotionnel, le QI et le fonctionnement cérébral sont intimement liés. Cependant, il existe de grandes variations dans l’environnement familial en termes de langage.
Si parler avec ses enfants peut sembler une activité simple, de nombreux éléments de la vie moderne viennent interrompre à la maison les opportunités de se parler et d’interagir. L’usage du smartphone par les parents est négativement associé aux capacités de réponse et d’attention consacrées aux enfants. Il est important d’identifier tous les facteurs qui peuvent interrompre ces échanges. Des chercheurs australiens ont étudié l’association entre l’exposition des enfants aux écrans durant les premières années de vie et 3 mesures des échanges parents-enfants : (i) les mots prononcés par les adultes, (ii) les vocalisations des enfants, (iii) les interactions parents-enfants. L’étude LiLO (Language in Little Ones) a recruté des familles avec un enfant né à terme en 2017 d’un enfant sans handicap de langage diagnostiqué, et de langue anglaise prédominante à la maison.
Les paramètres de l’environnement linguistique familial (langage entendu et parlé) ont été enregistrés prospectivement tous les 6 mois dès l’âge de 6 mois. L’appareillage qui a permis ces mesures (LENA technology) consistait en un micro-processeur porté dans une poche d’un vêtement qui enregistrait tous les sons. Le logiciel fournissait grâce à des algorithmes le compte des mots prononcés par les adultes, des vocalisations émises par l’enfant, les conversations adultes-enfant, l’exposition aux écrans et aux bruits électroniques. Le compte automatique des mots d’adulte incluait tous les mots prononcés dans un rayon de 3 m adressés ou non à l’enfant. Les données étaient complétées par un agenda rempli par les parents. Les données ont ainsi été collectées à domicile de 2018 à 2021, tous les 6 mois, en moyenne 16 heures, un jour neutre ; les enregistrements devaient exclure les jours de crèche, de maladie et les jours de match à la télévision !
Une bonne concordance entre les enregistrements LENA et la transcription humaine pour chaque mesure des échanges parents-enfant a été constatée, moins bonne pour la télévision ou les bruits électroniques (71 % vs 81% pour les mots d’adulte). Les facteurs de confusion pris en compte étaient le sexe, l’âge de l’enfant, la présence d’autres enfants à la maison, le nombre d’activités domestiques, le niveau socio-économique, le niveau d’éducation de la mère, l’existence d’une détresse psychologique.
Pour cette étude EUiLO (Electronic Use in Little Ones), les données de 220 familles, parmi les 302 de l’étude LiLO, ont été utilisées. La cohorte comportait 120 filles (54,6 %) ; l’âge gestationnel était de 38,3 ± 1,5 semaines et l’âge des mères de 31,3 ± 4,8 ans. Les évaluations se faisaient à l’âge de 12, 18, 24, 30 et 36 mois. A l’âge de 12 mois, les enfants étaient exposés à domicile en moyenne à 1 h 28 min de temps d’écran (88 ± 108 min) quotidien, entendaient 14 998 ± 6873 mots d’adultes, émettaient en moyenne 1395 ± 523 vocalises et étaient engagés dans 369 ± 167 échanges de paroles. A l’âge de 36 mois, les temps d’écran étaient de 2 h 52 min (172 ± 135 min), le nombre de mots entendus de 16 302 ± 6655, de vocalises de 3 307 ± 1613, d’échanges de parole de 734 ± 404.
Les modèles linéaires ajustés à effets mixtes ont montré qu’une augmentation de temps d’écran était associée à une baisse des mesures des échanges parents-enfant dans toutes les variables et à tous les âges, les diminutions les plus importantes étant constatées à 36 mois. Chaque minute additionnelle de temps d’écran était associée à moins de mots d’adulte entendus de 6,6 (intervalle de confiance -11,7 à -1,5), de vocalisations de l’enfant de 4,9 (IC -6,1 à -3,7) et d’échanges de parole de 1,1 (IC -1,4 à -0,8). En d’autres termes, avec un temps moyen d’écran de 172 mn, sur 1 h les enfants pourraient manquer 1139 mots d’adulte, 843 vocalisations et 194 échanges de parole.
Article rédigé par Georges Simmonds pour RT Flash
EurekAlert
|
|
|
|
|
|
|
|
L’un des traitements possibles de la maladie de Parkinson est la stimulation cérébrale profonde du noyau sous-thalamique – région du cerveau impliquée dans le contrôle moteur. Cette technique chirurgicale qui consiste à implanter des électrodes pour délivrer des impulsions électriques dans la zone cible, réduit nettement les tremblements. Mais, certains patients ont ensuite des difficultés à concentrer leur attention et à contrôler leurs pensées impulsives. Ce phénomène peut parfois les conduire à adopter des comportements à risque tels que le jeu et la consommation de substances. En cherchant à comprendre l’origine de cet effet secondaire, les chercheurs de l’université de l’Iowa ont mis en évidence que le noyau sous-thalamique jouait aussi un rôle dans le contrôle de l’attention.
Pour découvrir l’origine exacte de l’effet secondaire, l’équipe a conçu une expérience évaluant l'attention de plus d'une douzaine de patients atteints de la maladie de Parkinson traités par stimulation cérébrale profonde. Les volontaires devaient fixer leur attention sur un écran d'ordinateur pendant que les ondes cérébrales de leur cortex visuel étaient surveillées. Environ une fois sur cinq, dans un ordre aléatoire, les participants entendaient un gazouillis destiné à détourner leur attention du moniteur.
Lorsque la stimulation cérébrale profonde était inactive et que le gazouillis retentissait, les patients détournaient leur attention du système visuel vers le bruit, exactement comme le groupe témoin qui n’avait pas d'électrode dans son noyau sous-thalamique. En revanche, lorsque le dispositif était activé, l’attention visuelle des volontaires atteints de Parkinson restait fixée sur l’écran.
« Nous avons constaté qu'ils ne peuvent plus interrompre ou supprimer leur attention de la même manière », explique Jan Wessel, l'auteur correspondant de l'étude. « Le son inattendu se produit et ils sont toujours pleinement attentifs à leur système visuel. Ils n’ont pas détourné leur attention du visuel ». Pour les chercheurs, cela confirme le rôle du noyau sous-thalamique dans la manière dont le cerveau et le corps communiquent non seulement avec le système moteur, comme on le savait auparavant, mais également avec les pensées et l'attention.
« Jusqu'à présent, on ne savait pas vraiment pourquoi les personnes atteintes de la maladie de Parkinson avaient des problèmes cognitifs, par exemple pourquoi leurs résultats aux tests d'attention étaient moins bons », explique Jan Wessel. « Notre étude explique pourquoi : bien que la suppression de l'influence inhibitrice du noyau sous-thalamique sur le système moteur soit utile dans le traitement de la maladie de Parkinson, la suppression de son influence inhibitrice sur les systèmes non-moteurs (tels que les pensées ou l'attention) peut avoir des effets indésirables ».
Pour le professeur Wessel, les résultats ne remettent pas en cause les bienfaits et l'utilité de la stimulation cérébrale profonde dans le traitement de la maladie de Parkinson. Toutefois, ils appellent à mener des recherches supplémentaires pour obtenir un ciblage plus fin des zones du noyau sous-thalamique qui gèrent le système moteur.
Article rédigé par Georges Simmonds pour RT Flash
Brain
|
|
|
|
|
|
|
|
Vous visitez Rome pour la première fois et vous retrouvez devant le Colisée par une chaude journée de juillet. Cette image va se fixer dans votre mémoire. Votre cerveau « encode » ce souvenir : il le grave et va le stocker quelque part dans vos neurones. Mais comment s’y prend-il ? Des années plus tard, les images, les sons et les odeurs, affluent alors en masse, recréant soudain la sensation d’être face au monument en question. Vous vous rappelez alors ce souvenir, mais par quel mécanisme ?
Selon une étude américaine, dans votre cerveau, le souvenir a voyagé aussi. Au moment de l’encodage, il a été transporté par une onde électrique engendrée par votre cerveau, appelée "onde voyageuse". Celle-ci s’est déplacée depuis le point d’entrée du souvenir situé au niveau de la tempe (dans une zone appelée "hippocampe") jusqu’à l’avant de votre cerveau, dans le lobe frontal. Puis, quand récupérez ce souvenir, l’onde parcourt le chemin inverse pour vous le rapporter. Et vous l’avez devant vos yeux.
À l’université de New York, un groupe de quatre scientifiques a pratiqué des expériences d’électrocorticographie : il s’agit d’une technique qui consiste à implanter de minuscules électrodes à la surface du cerveau de volontaires et à enregistrer les décharges électriques produites par ces cellules nerveuses quand on leur fait passer divers tests. Bien sûr, on ne réalise pas ce type d’opération uniquement pour savoir comment se déplacent les souvenirs : ces personnes doivent de toute façon être opérées du cerveau pour guérir des crises d’épilepsie, et les équipes de chercheurs en profitent simplement, avec leur accord, pour pratiquer des examens supplémentaires. Ces derniers ont donc placé des électrodes d’enregistrement à la surface du cortex de 93 patients et leur ont demandé d’apprendre des listes de mots, puis, après un temps d’attente, d’en restituer de mémoire le plus possible. Ils pouvaient ainsi étudier la phase d’encodage et de récupération des souvenirs.
Les chercheurs ont alors observé qu’au moment de l’encodage, les neurones situés au niveau de la tempe émettaient des ondes à la fréquence de 10 hertz, soit dix oscillations par seconde. Or ces ondes ne restaient pas confinées aux neurones du cortex temporal : elles se déplaçaient vers l’avant du cerveau, en direction du lobe frontal, à la vitesse d’environ un mètre par seconde (3,6 km/h, à peu près la vitesse de la marche). Puis, pendant la phase de récupération des souvenirs, quand les participants cherchaient à se remémorer les mots qu’ils avaient vus dans la liste, la même onde parcourait le chemin inverse, revenant du lobe frontal vers le lobe temporal pour "rapporter le souvenir".
Que nous apprennent ces observations sur le fonctionnement de la mémoire ? Tout se passe comme si les souvenirs étaient adressés à un bureau central localisé dans le lobe frontal, prêts à être extraits par celui-ci quand il le désire. Lorsque nous voulons nous rappeler une information, cette « volonté » est typiquement exercée par le lobe frontal. Mais l’observation de cette onde apporte un autre renseignement : il s’agit d’une propagation relativement lente, comparativement à d’autres phénomènes neuronaux qui peuvent atteindre la vitesse de 100 mètres par seconde (ou 360 km/h). Ces modes de conduction de l’information neuronale empruntent probablement des chemins de surface, le long des ramifications horizontales des neurones appelées dendrites, dont la conduction est lente, et non des voies profondes mobilisant les axones à conduction rapide.
Article rédigé par Georges Simmonds pour RT Flash
NYU
|
|
|
|
|
|
|
|
Chez certains patients atteints de la maladie de Parkinson, les traitements médicamenteux peuvent être complétés par la chirurgie, via une technique nommée "stimulation cérébrale profonde". Efficace mais lourde, cette opération est en passe de bénéficier de récentes avancées technologiques. Opéré il y a quatre ans, Jean-Louis Dufloux, 63 ans, président de France Parkinson, évoque une "résurrection" : « Je savais que je ne serais pas guéri car la maladie continue d'évoluer mais cela m'a permis de refaire les gestes de la vie courante ».
M. Dufloux fait partie des 10 % de patients atteints de la maladie de Parkinson – dont la journée mondiale s’est tenue récemment – qui sont réceptifs à une telle opération. Dans les années 1990, une équipe française de Grenoble découvrait que la stimulation profonde d’une zone du cerveau, le noyau subthalamique, avait un effet thérapeutique important contre les symptômes de cette maladie. Depuis, des centaines de milliers de patients ont été traités dans le monde, avec une amélioration considérable de leurs troubles : tremblements, rigidité, lenteur des mouvements...
Les études à long terme ont montré que l’effet bénéfique se maintenait au moins dix ans pour la plupart des malades. La technique consiste à implanter dans le cerveau deux électrodes qui vont stimuler les noyaux subthalamiques avec un faible courant électrique. Reliées à un boîtier contenant une batterie implantée sous la peau, elles envoient des impulsions qui restaurent le fonctionnement normal des réseaux de neurones dépendant de la dopamine, laquelle contrôle en particulier la motricité. L'opération ne guérit pas la maladie qui, selon l'Organisation mondiale de la Santé (OMS), frappait en 2019 plus de 8,5 millions de personnes dans le monde. Mais elle fait partie d'un arsenal crucial pour en réduire les symptômes.
Proposés en première intention, des médicaments agissent en palliant un déficit en dopamine. Mais au bout de cinq à dix ans, des complications surviennent, avec l'apparition de phases “on-off” : une efficacité du traitement qui varie au cours de la journée. C'est là que peut intervenir la stimulation cérébrale profonde. Chez les patients éligibles, elle peut restaurer l'efficacité des médicaments. Le candidat "idéal" doit être relativement jeune (moins de 70 ans), ne pas avoir de troubles cognitifs importants et des troubles qui répondent encore aux traitements.
Certes, « cette opération, proposée dans seulement 20 centres en France, est restée pendant longtemps une intervention chirurgicale très lourde », souligne Michel Lefranc, neurochirurgien au CHU d'Amiens (nord). Mais les avancées technologiques récentes sont en train de changer la donne : « les progrès réalisés dans le domaine du guidage par imagerie permettent de cibler de façon optimale le positionnement des électrodes », décrit-il. Dans son service, l'utilisation d'un logiciel créant un jumeau numérique du cerveau du patient rend aussi possible des simulations 3D en amont de l’intervention, ce qui épargne aux malades de longs tests moteurs éprouvants.
Au CHU d’Amiens, l’intervention dure désormais moins de 4 heures et est suivie d’une hospitalisation de 5 jours en moyenne, contre une chirurgie de 10 heures et une hospitalisation de 15 à 21 jours il y a quelques années. « L’intervention est réalisée sur un patient entièrement endormi, ce qui améliore grandement le confort de ce dernier », souligne Mélissa Tir, neurologue au centre expert Parkinson de cet établissement. Comme le souligne Marc Zanello, neurochirurgien à Sainte-Anne, à Paris, « Il faut maintenant parvenir à diffuser l'innovation dans tous les centres, ce qui permettra peut-être de traiter davantage de patients », dit-il. Aujourd'hui en France, environ 400 malades de Parkinson sont "implantés" chaque année sachant que, selon Santé publique France, 175.000 personnes étaient suivies pour cette maladie en 2020.
Des travaux sont aussi en cours pour permettre une stimulation qui serait déclenchée uniquement en fonction des besoins du patient. « Aujourd'hui, elle a lieu en continu, ce qui peut avoir pour effet de détériorer certaines fonctions, comme la parole ou la marche », explique Romain Carron, neurochirurgien à l'hôpital de La Timone (AP-HM) à Marseille. A l'avenir, « l'idée serait de pouvoir déclencher la stimulation électrique uniquement quand le patient n'arrive pas à initier un mouvement par exemple ou lorsqu’un tremblement est détecté », illustre-t-il.
Article rédigé par Georges Simmonds pour RT Flash
La Dépêche
|
|
|
|
|
|
|
|
Une étude de l’Université de Californie du Sud (USC) confirme et explique comment un régime de type jeûne intermittent réduit les facteurs de risque de maladie et l’âge "biologique" chez l’Homme. En pratique, un tel régime qui imite le jeûne et induit une forme spécifique de restriction alimentaire, permet de réduire la résistance à l’insuline, la graisse hépatique, le vieillissement du système immunitaire et l’âge biologique chez les humains. Ces conclusions, présentées dans la revue Nature Communications, viennent ajouter à la preuve de ce type de régime, de plus en plus largement recommandé par les médecins.
Il ne s’agit pas cependant de n’importe quel "jeûne intermittent" mais du "FMD" ou "fasting-mimicking diet", un régime sur 5 jours, riche en graisses insaturées et faible en calories, protéines et glucides. Développé dans le laboratoire du professeur Valter Longo, professeur à l’USC et auteur principal de l’étude, le FMD est conçu pour imiter les effets d’un jeûne mais tout en fournissant les nutriments nécessaires et en permettant une meilleure observance. Le FMD est composé de soupes à base de plantes, de barres énergétiques, de boissons énergisantes, de chips et de thé sur des séquences de 5 jours ainsi que d’un supplément apportant des niveaux élevés de minéraux, de vitamines et d’acides gras essentiels.
L’étude est la première à montrer qu’une intervention basée sur l’alimentation mais n’impliquant pas de modifications drastiques et chroniques du régime alimentaire ou d’autres facteurs de modes de vie -en d’autres termes "supportable"- peut véritablement permettre un rajeunissement ou à défaut une réduction du vieillissement biologique avec une réduction du risque des maladies liées à l’âge.
De précédentes études de la même équipe avaient déjà suggéré que de courtes périodes de jeûne sont associées à toute une gamme d’effets bénéfiques et peuvent favoriser la régénération des cellules souches, réduire les signes de démence, chez la souris, et enfin réduire les facteurs de risque de cancer, de diabète, de maladies cardiaques et d’autres maladies liées à l’âge chez l’Homme. Cette nouvelle analyse des effets du régime alimentaire est menée auprès de 2 groupes de participants, chacun composé d’hommes et de femmes âgés de 18 à 70 ans. Les participants ont été répartis pour suivre un régime imitant le jeûne sur 3 à 4 cycles par mois de FMD de 5 jours chacun, suivis de 25 jours de régime alimentaire habituel.
L’analyse d’échantillons de sang des participants révèle que les participants du groupe d’intervention (FMD) présentent une réduction des facteurs de risque de diabète, dont une moindre résistance à l’insuline et des niveaux plus faibles d’HbA1c. L’imagerie par résonance magnétique révèle une diminution de la graisse abdominale ainsi que de la graisse au niveau du foie, des améliorations qui sont associées à un risque réduit de syndrome métabolique ; les cycles de FMD semblent accroître les marqueurs d’un système immunitaire plus jeune. L’analyse statistique des données révèle que les participants du groupe d’intervention ont pu réduire leur âge biologique de 2,5 ans en moyenne.
Cet essai apporte ainsi, pour la première fois chez l’Homme, les preuves d’une réduction de l’âge biologique avec une seule intervention alimentaire. Au-delà de cet effet rajeunissement, un tel régime alimentaire pourrait être recommandé aux patients présentant des niveaux de facteurs de risque plus élevés de troubles cardio-métaboliques.
Article rédigé par Georges Simmonds pour RT Flash
Nature
|
|
|
|
|
|
|
|
Selon une étude finlandaise réalisée à partir de données collectées entre 1989 et 1990 (concernant 500 personnes nées entre 1910 et 1914) et de données collectées de 2017 à 2018 (concernant 726 personnes nées entre 1938 et 1943), la capacité fonctionnelle des personnes âgées est aujourd'hui meilleure par rapport à celle des personnes du même âge il y a trois décennies. L'étude a comparé les performances physiques et cognitives des personnes âgées de 75 à 80 ans avec celles des personnes du même âge dans les années 1990. « Les mesures basées sur la performance décrivent comment les personnes âgées gèrent leur vie quotidienne, et en même temps, les mesures reflètent l'âge fonctionnel de la personne », explique le chercheur principal de l'étude, le professeur Taina Rantanen.
Chez les hommes et les femmes de 75 à 80 ans, la force musculaire, la vitesse de marche, la vitesse de réaction, la fluidité verbale, le raisonnement et la mémoire de travail sont aujourd'hui nettement meilleures que chez les personnes du même âge nées plus tôt. Dans les tests de la fonction pulmonaire, cependant, aucune différence entre les cohortes n'a été observée. « Une activité physique plus élevée et une taille corporelle accrue expliquent la meilleure vitesse de marche et la force musculaire parmi la cohorte née plus tard », déclare un doctorant. Kaisa Koivunen, « alors que le facteur sous-jacent le plus important derrière les différences de cohorte dans les performances cognitives était une éducation plus longue ».
La cohorte des 75 et 80 ans nés plus tard a grandi et vécu dans un monde différent de celui de leurs homologues nés il y a trois décennies. Il y a eu de nombreux changements favorables. Ceux-ci comprennent une meilleure nutrition et une meilleure hygiène, des améliorations des soins de santé et du système scolaire, une meilleure accessibilité à l'éducation et une vie professionnelle améliorée.
Les résultats suggèrent que l'allongement de l'espérance de vie s'accompagne d'un nombre accru d'années vécues avec une bonne capacité fonctionnelle plus tard dans la vie. L'observation peut être expliquée par un taux de changement plus lent avec l'âge, un maximum à vie plus élevé en performance physique, ou une combinaison des deux. « Cette recherche est unique car il n'y a que quelques études dans le monde qui ont comparé des mesures maximales basées sur la performance entre des personnes du même âge à différentes époques historiques », déclare Rantanen. « Parmi la population vieillissante, deux changements simultanés se produisent : le maintien d'années en bonne santé à des âges plus élevés et des personnes très âgées qui ont besoin de soins externes ».
Article rédigé par Georges Simmonds pour RT Flash
UOJ
|
|
|
|
|
|
|
|
Traiter le cancer du sein par le froid, c’est ce que propose une nouvelle étude du Memorial Sloan Kettering Cancer Center de New York présentée lors du congrès annuel de la Society of Interventional Radiology, aux États-Unis. La technique utilisée s’appelle cryoablation. Concrètement, après avoir localisé la tumeur, les médecins – via des sondes – l'entourent d'un froid intense afin d’y former une boule de glace. Ce qui tue les cellules cancéreuses.
Lors de leurs travaux, les scientifiques ont suivi 60 patientes qui ont fait une cryoablation, soit parce qu’elles ne pouvaient pas bénéficier d’une opération chirurgicale, soit parce qu'elles l’avaient refusée après consultation avec un chirurgien (en raison de leur âge, de problèmes de santé, ou de traitements qu’elles avaient en parallèle…). La taille des tumeurs allait de 0,3 cm à 9 cm, avec une taille moyenne de 2,5 cm.
L'intervention a été réalisée en ambulatoire sous anesthésie locale ou sous sédation minimale. Il y a eu deux cycles, sur une même journée, de gel et dégel. Le premier durait 5 à 10 minutes, suivi de 5 à 8 minutes de décongélation. En tout, la procédure durait en moyenne trente minutes. « Pendant longtemps, la cryoablation a été utilisée pour traiter les tumeurs du sein plus petites (classées comme inférieures à 1,5 cm), mais cette étude montre que la cryoablation peut également être efficace pour les patientes présentant des tumeurs plus grosses », explique Yolanda Bryce, radiologue au Memorial Sloan Kettering Cancer Center, l’une des auteures de l'étude.
En effet, les résultats des chercheurs sont encourageants : associée à de l’hormonothérapie et à de la radiothérapie, la cryoablation a permis de détruire 100 % des tumeurs. De plus, pendant les seize mois de suivi, seules 10 % des participantes ont eu une récidive de cancer. « Lorsqu'elles sont traitées uniquement par radiothérapie et hormonothérapie, les tumeurs finissent par réapparaître », indique Yolanda Bryc. « Notre découverte d’un taux de récidive de 10 % est incroyablement prometteur ».
La technique est moins invasive qu’une opération chirurgicale, mais elle peut entraîner des brûlures de la peau. Toutefois, d’après les auteurs, les femmes qui ont connu cet effet secondaire ont été traitées grâce à une pommade et n'ont pas gardé de séquelles. « La chirurgie reste la meilleure option pour l'ablation d'une tumeur, mais des milliers de femmes ne peuvent pas subir d’opération pour diverses raisons », indique Yolanda Bryce. « Nous espérons que nos résultats pourront donner de l'espoir à davantage de femmes dans leur parcours de traitement ».
Article rédigé par Georges Simmonds pour RT Flash
PRN
|
|
|
|
|
|
|
|
Le Nigeria est devenu « le premier pays au monde » à introduire un nouveau vaccin "révolutionnaire" contre la méningite, le Men5CV, a annoncé l'Organisation mondiale de la santé (OMS). « La méningite est un ennemi ancien et mortel, mais ce nouveau vaccin pourrait changer le cours de la maladie, en empêchant de nouvelles épidémies et en sauvant de nombreuses vies », a déclaré le directeur général de l'OMS, le Docteur Tedros Adhanom Ghebreyesus, dans un communiqué.
L'arrivée de ce vaccin « au Nigeria nous rapproche de notre objectif d'éliminer la méningite d'ici 2030 », a-t-il ajouté. Selon l'OMS, ce « nouveau vaccin révolutionnaire offre une protection puissante contre les cinq principales souches de bactéries méningococciques (A, C, W, Y et X) en une seule injection ». Les experts sur les vaccins de l'OMS avaient donné leur feu vert à ce vaccin l'an dernier. Il « offre une protection plus large que le vaccin actuellement utilisé dans une grande partie de l'Afrique, qui n'est efficace que contre la souche A », précise l'OMS.
Plusieurs espèces de bactéries, virus, champignons ou parasites, peuvent provoquer une méningite, qui est une inflammation des tissus qui entourent le cerveau et la moelle épinière. La méningite bactérienne est la forme dangereuse la plus courante de la maladie, selon l'OMS. L'an dernier, le nombre de cas de méningite signalés en Afrique a augmenté de 50 %. Le risque de méningite est présent partout dans le monde mais c'est dans une région d'Afrique subsaharienne appelée "ceinture africaine de la méningite" que la charge de morbidité est la plus forte.
La campagne de vaccination dans ce pays – financée par l'alliance vaccinale Gavi – a été entreprise du 25 au 28 mars dans le pays pour toucher initialement plus d'un million de personnes âgées de 1 à 29 ans, après une épidémie mortelle qui a fait 153 décès entre le 1er octobre et le 11 mars, indique l'OMS. « Le nord du Nigeria, en particulier les Etats de Jigawa, Bauchi et Yobe, a été durement touché par l'épidémie mortelle de méningite, et ce vaccin fournit aux agents de santé un nouvel outil pour stopper cette épidémie », a déclaré le professeur Muhammad Ali Pate, du ministère nigérian de la Santé.
Article rédigé par Georges Simmonds pour RT Flash
OMS
|
|
|
|
|
|
|
|
Un premier essai sur l'homme pourrait bientôt permettre de faire évoluer des ganglions lymphatiques en foie. En cas de succès, la procédure pourrait réduire considérablement le nombre de personnes en attente d'une greffe de foie. Après plus d'une décennie de développement, le premier essai sur l'homme d'un traitement visant à lutter contre l'insuffisance hépatique en phase terminale (ESLD) en transformant des ganglions lymphatiques en foie a débuté.
« Nous avons administré à notre premier patient un traitement clinique utilisant ses propres ganglions lymphatiques comme bioréacteurs vivants pour régénérer un organe », a déclaré le Docteur Michael Hufford, cofondateur et PDG de LyGenesis, l'entreprise à l'origine du traitement. Le traitement consiste à prélever les principales cellules fonctionnelles d'un foie donné - les hépatocytes - et à les injecter dans les ganglions lymphatiques, ces petits organes en forme de haricot qui aident le système immunitaire en filtrant les particules étrangères (comme les virus à l'origine d'infections). Une fois dans les ganglions lymphatiques, les cellules hépatiques devraient se développer et se diviser, puis se connecter au système circulatoire en développant des vaisseaux sanguins. « Avec le temps, ce ganglion lymphatique disparaîtra et il ne restera plus qu'un organe miniature », explique Michael Hufford.
Transformer des ganglions lymphatiques en foie : une méthode déjà testée sur des animaux. Il s'agit d'une procédure qui a déjà donné de bons résultats chez certains animaux. Les chercheurs l'ont testée sur des porcs en modifiant chirurgicalement leur foie pour imiter une maladie hépatique humaine et en injectant dans les ganglions lymphatiques des hépatocytes provenant d'échantillons de foie sain. Les six porcs opérés ont développé un mini-foie et ont donc montré des signes de guérison de l'insuffisance hépatique. L'essai sur l'homme permettra de tester la sécurité, la tolérance et l'efficacité de cette thérapie cellulaire régénératrice sur 12 personnes atteintes d'ESLD.
En cas d’insuffisance hépatique en phase terminale, une transplantation est souvent nécessaire, mais un certain nombre de facteurs peuvent s'y opposer. Certains patients sont par exemple tout simplement trop malades pour être en mesure de subir une intervention chirurgicale. Cependant, l'un des principaux problèmes est la longueur de la liste d'attente pour une transplantation. À l'heure actuelle, près de 10.000 personnes aux États-Unis attendent un foie de donneur, et environ 12 % de ces personnes mourront dans l’année alors qu'elles sont sur la liste. En France, la moyenne de temps d'attente de la greffe hépatique est de 7 mois, parfois plus. « Si notre étude est concluante et que nous obtenons l'approbation de la FDA, notre thérapie cellulaire allogénique pourrait permettre à un foie donné de traiter plusieurs dizaines de patients atteints d'ESLD », estime pour finir Michael Hufford.
Article rédigé par Georges Simmonds pour RT Flash
Lygenesis
|
|
|
|
|
|
|
|
On savait que les molécules présentes dans les cellules nerveuses du cerveau durent toute une vie sans être renouvelées. Des neuroscientifiques de l'Université Friedrich-Alexander d'Erlangen-Nürnberg (FAU) ont démontré que c'est le cas en collaboration avec des chercheurs d'Allemagne, d'Autriche et des États-Unis. Les ARN sont généralement des molécules de courte durée qui sont constamment reconstruites pour s'adapter aux conditions environnementales. Avec leurs découvertes, ces chercheurs espèrent déchiffrer le processus complexe de vieillissement du cerveau et mieux comprendre les maladies dégénératives associées.
La plupart des cellules du corps humain se renouvellent régulièrement, conservant ainsi leur vitalité. Il existe cependant des exceptions : le cœur, le pancréas et le cerveau sont constitués de cellules qui ne se renouvellent pas tout au long de la vie et qui doivent pourtant rester en parfait état de fonctionnement. « Les neurones vieillissants sont un facteur de risque important pour les maladies neurodégénératives telles que Alzheimer », déclare le professeur Tomohisa Toda, professeur d'épigénomique neuronale à la FAU et au Centre Max Planck de physique et de médecine à Erlangen. « Une compréhension de base du processus de vieillissement et des composants clés impliqués dans le maintien de la fonction cellulaire est cruciale pour des concepts de traitement efficaces ».
Dans une étude conjointe menée avec des neuroscientifiques de Dresde, La Jolla (États-Unis) et Klosterneuburg (Autriche), le groupe de travail dirigé par Toda a identifié un élément clé du vieillissement cérébral : les chercheurs ont pu démontrer pour la première fois que certains types de ribonucléique acide (ARN) qui protègent le matériel génétique existent aussi longtemps que les neurones eux-mêmes. « C'est surprenant, car contrairement à l’ADN qui en règle générale ne change jamais, la plupart des molécules d'ARN ont une durée de vie extrêmement courte et sont constamment échangées », explique Toda.
Afin de déterminer la durée de vie des molécules d'ARN, le groupe Toda a travaillé en collaboration avec l'équipe du professeur Martin Hetzer, biologiste cellulaire à l'Institut des sciences et technologies d'Autriche (ISTA). « Nous avons réussi à marquer les ARN avec des molécules fluorescentes et à suivre leur durée de vie dans les cellules cérébrales de souris », explique Tomohisa Toda, qui possède une expertise unique en épigénétique et en neurobiologie et qui a reçu une ERC Consolidator Grant pour ses recherches en 2023. « Nous avons même été capables d’identifier les ARN marqués à longue durée de vie chez les animaux de deux ans, et pas seulement dans leurs neurones, mais également dans les cellules souches neurales somatiques adultes du cerveau ».
En outre, les chercheurs ont découvert que les ARN à longue durée de vie, qu’ils appellent en abrégé LL-ARN, ont tendance à être situés dans les noyaux des cellules, étroitement liés à la chromatine, un complexe d’ADN et de protéines qui forme les chromosomes. Cela indique que le LL-ARN joue un rôle clé dans la régulation de la chromatine. Afin de confirmer cette hypothèse, l’équipe a réduit la concentration de LL-ARN dans une expérience in vitro avec des modèles de cellules souches neurales adultes, avec pour résultat que l’intégrité de la chromatine a été fortement altérée. « Nous sommes convaincus que les LL-ARN jouent un rôle important dans la régulation à long terme de la stabilité du génome et donc dans la conservation des cellules nerveuses tout au long de la vie », explique Tomohisa Toda.
Article rédigé par Georges Simmonds pour RT Flash
FAU
|
|
|
|
|
|
|
|
On le sait, l’azote, est omniprésent dans les bases d’ADN et les acides aminés. Cet élément forme la clef de voute de la biochimie de tous les organismes vivants. Cependant, malgré sa prépondérance dans l’atmosphère sous forme de molécules de N2, l’azote est souvent une ressource limitée pour la plupart des organismes. En effet, les liens forts entre les atomes d’azote dans le N2 rendent cette forme d’azote inaccessible à la plupart des organismes. Ainsi, pour répondre à leurs besoins en azote, les organismes doivent recourir à des mécanismes sophistiqués de fixation et d’utilisation de cet élément vital.
Les plantes, en particulier les légumineuses, ont ainsi développé des stratégies de collaboration avec des bactéries fixatrices d’azote pour surmonter ces défis. Ces bactéries, logées dans les nodosités des racines des plantes, convertissent l’azote atmosphérique en une forme utilisable par la plante, permettant ainsi à ces dernières de prospérer dans des environnements où l’azote est rare. Cependant, pour d’autres organismes, la tâche est plus ardue. La plupart doivent compter sur des sources externes, telles que les sols riches en matière organique ou les engrais produits par l’Homme.
Des chercheurs de l'université de Californie ont fait une découverte révolutionnaire. Ils ont en effet récemment identifié un nouvel organite, le nitroplaste, qui semble être en train d’évoluer pour devenir un centre de fixation de l’azote. Notez qu’un organite est une structure spécialisée présente à l’intérieur des cellules qui remplit diverses fonctions essentielles à la vie de la cellule. Ces organites, tels que les mitochondries et les chloroplastes, sont souvent décrits comme les "organes" de la cellule en raison de leur importance vitale pour son fonctionnement. Cette découverte suscite donc un intérêt immense, car elle pourrait offrir un nouvel aperçu sur la manière dont les organismes s’adaptent et se spécialisent pour répondre à des besoins métaboliques spécifiques. De plus, la découverte de ce nitroplaste pourrait avoir des implications pratiques importantes, notamment dans le domaine de l’agriculture. Comprendre comment les plantes pourraient éventuellement évoluer pour intégrer des organites spécialisés dans la fixation de l’azote pourrait en effet ouvrir de nouvelles voies pour le développement de cultures plus résilientes et durables dans un monde où les ressources deviennent de plus en plus limitées.
Article rédigé par Georges Simmonds pour RT Flash
Science
|
|
^ Haut |
|
|
|
|
|
VOTRE INSCRIPTION |
|
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
|
|
|
|
|
|