|
|
|
|
|
NUMERO 1289 |
|
|
|
|
|
|
|
Edition du 20 Décembre 2024
|
|
|
|
|
Edito
L’Imagination, moteur de l’Intelligence humaine - Vers une théorie dynamique, globale et non linéaire de l'intelligence
CAMPAGNE de DONS 2024 :
Lecteurs et lectrices de RT Flash, vous êtes des gens formidables. Vous avez été des dizaines et des dizaines à répondre à mon appel de la semaine dernière. Nous ne sommes plus qu’à 398 euros de notre objectif. Je ne me fais plus de soucis. J’ai la conviction que ce dernier petit pas sera franchi avant la fin de l’année.
Un grand Merci. J’ai maintenant la conviction que nous pourrons mettre en ligne notre Lettre pendant toute l’année 2025.
Avant de vous quitter, je vous souhaite de belles fêtes de Noël et d’entrer avec Bonheur dans la nouvelle année.
Bien Cordialement René Trégouët Sénateur Honoraire
EDITORIAL :
L’Imagination, moteur de l’Intelligence humaine - Vers une théorie dynamique, globale et non linéaire de l'intelligence
Depuis l'Antiquité, philosophes et scientifiques ont été fascinés par le phénomène insaisissable de l'intelligence humaine. Pour Platon, il faut distinguer l'intelligence, "activité même de la connaissance", qui est une puissance, de la sensation, mais aussi de la réflexion qui relève de la volonté du sujet. Platon considère qu'on peut très bien être intelligent, sans pour autant être capable de réflexion et inversement. Aristote considère pour sa part que la pensée est une opération qui consiste à manier des concepts. Dans cette vision dynamique, l'intellect se manifeste tantôt comme une cause, tantôt comme une matière.
Il a fallu attendre le début du XXème siècle pour que la science valide les premiers outils de quantification de l'intelligence. Alfred Binet et Théodore Simon proposent ainsi en 1905, à la demande de l'Etat, un nouvel outil destiné à identifier les élèves les plus faibles sur le plan scolaire. Ce test de Binet-Simon sera repris en 1912 par l'Allemand William Stern qui va établir un rapport entre les résultats obtenus au Binet-Simon et l’âge réel, inventant alors le concept d'âge mental et la notion de "quotient intellectuel". En 1939, l'Américain Louis Léon Thurstone remet en cause l'hypothèse d'une corrélation forte entre les différentes aptitudes cognitives en isolant, parmi une multitude d'autre facteurs, 7 composantes majeures qui constituent l'intelligence : le facteur spatial (représentation dans l'espace des structures), le facteur perception (capacité d'extraire des détails dans une configuration), le facteur verbal (compréhension des données), le facteur lexical (richesse et utilisation adéquate du vocabulaire), le facteur mémoire (faculté de mémorisation), le facteur numérique (capacité de calculs et de compréhension des ordres de grandeur) et enfin le facteur raisonnement (définir des relations entre les éléments d'un ensemble). Thurstone émet l'hypothèse que ces sept facteurs sont largement indépendants et décorrélés et représentent donc des formes d’intelligence et n'ont pas de liens direct entre eux. Ce scientifique en déduit que le concept même d'intelligence générale, en tant que phénomène mesurable, ne repose pas sur des bases expérimentales solides et ne peut être quantifié de manière rigoureuse et définitive...
En 1983, le grand psychologue Howard Gardner, Professeur à Harvard, publie son célèbre essai sur la théorie des intelligences multiples, dans lequel il critique l'importance excessive accordée, selon lui, aux tests d'intelligence dans le cadre de l'orientation scolaire des enfants. Pour Gardner, les tests de QI ne peuvent évaluer que certaines formes d'intelligence, principalement logiques et mathématiques. Toutefois, ils restent impuissants à mesurer de nombreuses autres formes d'intelligence, pourtant aussi essentielles. Partant de ce constat, Gardner propose sa théorie des intelligences multiples qui comprend 8 formes d'intelligence non hiérarchisables et qui s'appuie sur la définition suivante : « L'intelligence est un ensemble d'aptitudes qui permet à une personne de résoudre des problèmes ou de concevoir des objets matériels ou immatériels qui sont importants dans un contexte culturel donné ». Selon Gardner, les 8 formes d'intelligence sont l'intelligence linguistique, l'intelligence logico-mathématique, l’intelligence spatiale, l'intelligence interpersonnelle, l'intelligence intrapersonnelle, l'intelligence corporelle, l'intelligence musicale et enfin l'intelligence naturaliste.
Depuis plus de 30 ans, le Professeur Olivier Houdé, qui dirige le laboratoire de psychologie expérimentale du CNRS à la Sorbonne, et dont les travaux sont mondialement reconnus, a élaboré, en s'appuyant sur les neurosciences, une nouvelle théorie originale et remarquable de la construction cognitive qui remet en cause de manière argumentée et féconde la théorie constructiviste de Piaget et vise à surmonter le "paradoxe Kahneman-Piaget". Pour Piaget, le développement de l’enfant se réalisait selon quatre stades : sensorimoteur chez le bébé, prélogique intuitif entre 2 et 7 ans, logique concret entre 7 et 12 ans, enfin rationnel et abstrait à partir de l’adolescence. Jean Piaget considérait que la pensée se développait chez l'enfant par étape, dans un processus "d'équilibration dynamique".
Mais au début de ce siècle, le psychologue américain Daniel Kahneman est venu bousculer ces certitudes et cette vision linéaire. Il a montré à quel point des éléments irrationnels interviennent, à tous les âges de la vie, dans la formation des décisions et jugements des différents acteurs économiques. Ses travaux lui vaudront le prix Nobel d’économie en 2002 et remettent en cause la rationalité des agents économiques et le vieux concept de l’Homo œconomicus, forcement logique et calculateur. Dans son essai "Système 1, système 2, les deux vitesses de la pensée", Kahneman soutient que le système 1 désigne les intuitions dites "heuristiques", c’est-à-dire des stratégies automatiques qu’on utilise le plus souvent pour trouver une solution à un problème. Le système 2, en revanche, mobilise la réflexion ; il est plus lent et analytique et correspond à la pensée logique de J. Piaget. Pour D. Kahneman, les deux systèmes coexistent, mais le système 1, plus rapide, domine, y compris chez l’adulte. Selon D. Kahneman, l'être humain, contrairement à ce que postule la théorie de Piaget, serait en fait dominé par ses intuitions, y compris lorsqu'il doit prendre des décisions de nature économique et commerciale.
S'appuyant sur les travaux de Kahneman, Olivier Houdé a montré que le développement de l’intelligence était dynamique, non linéaire, foisonnant, et finalement bien plus ambigu et complexe que ne le pensait Piaget, qui avait une conception linéaire et cumulative du processus de construction de l'intelligence chez l'enfant. Le Professeur Houdé montre que, lorsqu’on reproduit les expériences de Piaget sur les enfants, on s’aperçoit que la pensée intuitive perdure, même lorsqu’ils en ont dépassé le stade. Le véritable défi pour l’enfant serait en réalité d’inhiber une réponse spontanée immédiate (le système 1) pour privilégier une réponse à plus long terme, plus logique (le système 2). Selon Houdé, l’intelligence ne résiderait ni dans le système 1 ni dans le système 2, mais dans la capacité à arbitrer au bon moment entre ces deux systèmes, face à une situation nouvelle.
Dans la théorie de la connaissance patiemment construite par Olivier Houdé, il existerait trois systèmes fonctionnant en interaction et coordination dans l'élaboration de la pensée : l’intuition, la logique et la capacité d’inhibition qui permet d’éviter les erreurs et pièges de l’intuition. De manière passionnante, Houdé tente également d'articuler sa construction théorique aux différentes réflexions développées depuis l'antiquité par les philosophes sur la connaissance. Il souligne avec malice que la psychologie était déjà à l’œuvre dans la démarche philosophique des grands penseurs de l’Antiquité, notamment chez Platon, sans doute le premier grand philosophe à s’être posé des questions sur les origines et les mécanismes de la pensée.
Platon suppose que nos idées sont innées, et forment en quelque sorte une espèce de "réservoir" ou de "capital" cognitif, que le cerveau va chercher à réactiver par l’apprentissage et le travail mental. À l’époque des Lumières, Kant reprendra en l'enrichissant, cette conception platonicienne. Le grand philosophe allemand soutient que l'esprit humain est capable de connaître le monde parce qu'il possède en lui les notions d'espace et de temps, comme "formes a priori de la sensibilité". Pour Kant, la raison est donc capable de formuler des jugements synthétiques "a priori", c'est-à-dire qui ne reposent pas uniquement sur des expériences sensibles mais qui sont néanmoins universels.
Dans le domaine des sciences cognitives, la célèbre chercheuse en psychologie cognitive et comportementale Elizabeth Spelke, qui travaille à l’université de Harvard sur des programmes d’observation de très jeunes enfants, a montré de manière remarquable, que si l’on montre un objet à un bébé de quelques mois à peine, puis qu’on le dissimule, il va rechercher l’objet des yeux. Bien qu'il ne l'ait pas appris, le jeune enfant semble savoir que l’objet n'a pas disparu, qu’il existe toujours. On peut en conclure que la notion de permanence de l’objet est une forme de connaissance presque innée. Elisabeth Spelke montre que les nouveau-nés comprennent instinctivement que les objets sont indépendants les uns des autres. Si un objet est partiellement caché, le bébé cherchera à en découvrir la partie occultée : d’abord par le regard puis par le toucher. Encore plus étonnant, si le bébé a déjà vu, dans le passé, cette forme cachée, il est capable de l’imaginer dans le présent. Les nourrissons comprennent également qu’une chose ne peut pas en traverser une autre ou que deux objets ne peuvent pas occuper la même place en même temps. Ces expériences montrent également que les nouveau-nés sont capables d'estimer des quantités. C'est ainsi que, placés devant une boite remplie à 80 % de balles de ping-pong blanches et à 20 % de rouges, les bébés vont montrer leur étonnement si, en plongeant la main dans la boîte, un adulte en sort plus de rouges que de blanches.
Ces expérimentations, désormais célèbres de la Docteure Spelke, dont celles réalisées en 2014 en collaboration avec le CNRS et l'Inserm, ont montré que le bébé comprend et intègre les contraintes physiques spécifiques qui régissent le déplacement d'un objet dans le triptyque espace, temps, quantité, ce qui conforte de manière troublante la théorie de la connaissance de Kant (Voir Inserm). Ces découvertes ont des résonances philosophiques profondes, car elles montrent de manière solide que les bébés comprennent que les déplacements et les actions des humains sont sous-tendus par un but, mais pas les objets. Les bébés seraient donc capables de forger de manière innée le concept-clé, propre à l'être humain, d'intentionnalité. Il est intéressant de souligner que les découvertes d'Elisabeth Spelke rejoignent les travaux du chercheur Alain Berthoz, titulaire de la Chaire de Physiologie de la perception et de l'action au Collège de France, sur les bases cognitives de la perception de l'espace chez l'enfant (Voir HAL).
Olivier Houdé a identifié deux grandes conceptions de l'intelligence qui ont chacune leur pertinence : la première, innéiste, regroupe Platon, Descartes et Kant. La seconde, empiriste, est celle d'Aristote, dont le Traité de l’Âme peut être considéré comme le premier essai de psychologie. Pour ce grand penseur grec, les idées ne sont pas innées et il faut toujours construire un lien logique entre les choses et les mots. Olivier Houdé récuse l'enfermement du concept d'intelligence dans la seule vision chronologique. Il rappelle avec pertinence que certaines recherches en neurosciences portant sur les erreurs de jugement et sur le doute, s’appuient, sans toujours le savoir, sur des travaux de Descartes. Le Professeur Houdé reconnaît cependant l'apport considérable que représente la théorie de la connaissance de Piaget qui a tenté de comprendre comment se construisent progressivement les connaissances tout au long de la vie à partir d'un corpus d'informations présentes dès la naissance. Cette théorie constructiviste reste une avancée scientifique majeure car elle est la première à tenter une synthèse des deux grands courants de pensée, l’innéisme et l’empirisme. Reste que la théorie de Piaget, qui n'avait pas à sa disposition les extraordinaires outils dont disposent à présent les neurosciences pour voir en temps réel le fonctionnement du cerveau, mérite aujourd'hui d'être complétée et enrichie. Olivier Houdé souligne à cet égard qu'il faut prendre en compte cette compétition permanente bien réelle mais inconsciente qui est à l’œuvre dans nos processus cognitifs, chez l'enfant comme chez l'adulte, entre notre système intuitif rapide et automatique et notre système logique plus lent.
Olivier Houdé explique que le premier type d’apprentissage, l’automatisation par la pratique, correspond aux connaissances générales, apprises par la répétition, et qui font, en principe, partie d'un socle éducatif et culturel commun. Il s'agit là de l’intelligence issue de la culture. De manière complémentaire, le second type d’apprentissage, le contrôle par l’inhibition, fait appel à l’imagination, à la capacité à changer de stratégie de raisonnement en inhibant les automatismes habituels. Il s'agit alors d'un mode de plasticité cognitive qui permet à notre cerveau de résoudre un problème inédit. Dans cette théorie générale de la connaissance, on voit à quel point l'apprentissage, l'imagination et l'intelligence sont inextricablement liés.
Il est intéressant de souligner que cette nouvelle approche plus vaste, plus riche et plus ouverte de l'intelligence rejoint, en s'appuyant sur les avancées récentes des neurosciences et de l'imagerie cérébrale, la conception de l'intelligence qu'avaient déjà deux géants de la pensée, Einstein et Kant. Einstein avait en effet déclaré, en réponse à un journaliste, « La mesure de l'intelligence est la capacité de changer, c'est pourquoi le véritable signe d'intelligence n'est pas la connaissance mais l'imagination». Dans sa définition de l'intelligence, Einstein rejoignait Kant pour qui, « L'imagination c'est la faculté d'entendement sans objet », la faculté de rendre présent ce qui est absent ». Kant montre de manière remarquable que l'imagination nous permet de passer d'une perception d'un objet particulier au concept général et universel de cet objet. C'est pour cela que notre esprit parvient si facilement à reconnaître et à construire les multiples catégories d'objets, ou de phénomènes, qui constituent notre environnement. Par exemple, si je vois passer dans la rue un nouveau modèle de voiture très bizarre, ayant une forme sphérique et des ailerons, mon cerveau va immédiatement pouvoir classer dans la catégorie du concept "voitures", cet engin, dans la mesure où il possède quand même certaines caractéristiques essentielles qui le rattache à ce concept d'automobile (un moteur, 4 roues, un volant...). Kant, comme Einstein, considèrent donc, à juste titre, que l'imagination est bien une composante essentielle de l'intelligence, au même titre que la raison ou la connaissance. Pour Olivier Houdé, c'est cette faculté d'imagination qui devient en quelque sorte le moteur de l'intelligence humaine, en permettant à notre esprit, face à un problème jamais rencontré, de bifurquer au bon moment et de renoncer à une pensée instinctive, au profit d'un raisonnement plus profond et plus long.
Cette nouvelle conception de l'intelligence, sans renier complètement les acquis de la vision cumulative et linéaire de Piaget, nous offre une vision foisonnante de l'esprit humain, non réductible à la seule rationalité. Elle montre que nous possédons une faculté de compréhension logique de monde qui intègre non seulement les sensations mais aussi les sentiments, les émotions et la culture. C'est cette capacité cognitive plus large, plus riche et plus complexe, qui nous permet de comprendre le réel, de lui donner un sens et d'en extraire des lois universelles et partageables...
René TRÉGOUËT
Sénateur honoraire
Fondateur du Groupe de Prospective du Sénat
e-mail : tregouet@gmail.com
|
|
|
|
|
|
|
|
Matière |
|
|
Matière et Energie
|
|
|
|
|
|
|
|
|
Des chercheurs du MIT ont conçu un matériau capable de conduire l’électricité sans résistance et doté d’un comportement métallique inhabituel. Il est constitué de couches atomiques ultrafines de tantale, de soufre et de strontium, qui forment une structure ondulée. Ces motifs ondulés jouent un rôle clé dans le comportement du matériau. Au lieu de se déplacer de manière désordonnée comme dans un matériau classique, les électrons suivent en effet les ondulations formées par ces couches atomiques. Ils s’écoulent ainsi plus facilement dans les vallées des ondes où la résistance est plus faible et trouvent plus difficilement leur chemin lorsqu’ils doivent franchir les crêtes. Cela crée une conduction électrique plus contrôlée et orientée.
À certaines températures, ce matériau devient supraconducteur : les électrons circulent alors sans rencontrer aucune résistance. En plus de cet état exceptionnel, même en dehors de la supraconductivité, le matériau présente des propriétés métalliques inhabituelles, avec une conduction qui varie en fonction des reliefs atomiques internes.
Ce qui rend cette découverte encore plus exceptionnelle, c’est que bien qu’il soit constitué de couches atomiquement fines, ce cristal atteint une taille suffisamment grande pour être manipulé physiquement. Contrairement à d’autres matériaux supraconducteurs qui ne se forment qu’en petites quantités, celui-ci peut donc être produit en grandes dimensions, ce qui facilite ainsi son étude et rend son exploitation possible pour des applications concrètes dans l’avenir.
Les applications potentielles sont vastes, notamment dans le domaine de l’énergie et de l’électronique. Grâce à ses propriétés de supraconductivité, il pourrait notamment permettre la fabrication de câbles capables de transporter de grandes quantités d’électricité sans perte. Cela transformerait la manière dont nous distribuons l’énergie à grande échelle et améliorerait considérablement l’efficacité des réseaux électriques.
Le comportement métallique inédit de ce matériau pourrait également être exploité dans des dispositifs électroniques avancés. Par exemple, des puces informatiques utilisant de tels matériaux pourraient fonctionner plus rapidement avec une dissipation thermique réduite, ce qui ouvrirait la voie à des ordinateurs plus puissants et économes en énergie.
Article rédigé par Georges Simmonds pour RT Flash
Phys
|
|
|
|
|
|
|
|
L’amélioration du rendement des modules solaires figure parmi les priorités des ingénieurs. En effet, le Soleil est un puissant vecteur d’énergie durable qui peut nous permettre d’atteindre la neutralité carbone s’il est exploité de manière généralisée. Une équipe de recherche internationale dirigée par l’Université du Roi Khalid, en Arabie Saoudite, a alors développé une solution pour atténuer le reflet des panneaux solaires tout en optimisant leur rendement. Celle-ci consiste en un revêtement qui a la particularité de pouvoir être imprimé en 3D. Autant dire qu’il s’agit d’un dispositif qui s’annonce facile à fabriquer. Il est constitué d’un mélange de copolymère d’oléfine cyclique (COC) et de poudre d’oxyde d’aluminium (Al2O3).
À noter qu’une étude qui décrit cette percée a été mise en ligne dans le Journal of Materials Research and Technology. Selon les auteurs de l’article, la pose de matériaux antireflets sur les cellules solaires peut améliorer le rendement des panneaux photovoltaïques et réduire la réflexion de la lumière naturelle. Pour concevoir le revêtement, les scientifiques ont eu recours à l’impression 3D. Ils ont développé des filaments d’imprimante en chauffant le copolymère d’oléfine cyclique et la poudre d’oxyde d’aluminium. Au total, cinq filaments ont été créés avec différentes concentrations de COC. Les revêtements fabriqués ont ensuite subi des tests visant à évaluer leurs caractéristiques mécaniques et optiques, mais aussi leur efficacité quantique externe et leur efficacité quantique interne.
Le revêtement COCA, c’est-à-dire à base de copolymère d’oléfine cyclique et de poudre d’oxyde d’aluminium, le plus prometteur, a atteint une transmittance de 94,65 % et une réflectance de 5,35 % à 0 degré. Fait intéressant, les chercheurs ont constaté que la réflectance augmentait à des angles d’incidence plus élevés, atteignant 21,32 % à 80 degrés. Par ailleurs, l’équipe a relevé une amélioration de l’efficacité de conversion de puissance des cellules photovoltaïques couvertes. « L’efficacité de conversion de puissance des cellules photovoltaïques revêtues de COCA est passée de 13,74 % à 18,34 % dans des conditions contrôlées et de 12,88 % à 17,21 % à l’air libre jusqu’à une concentration de 3 % en poids d’alumine », ont expliqué les auteurs de l’étude.
En plus de ces valeurs, les scientifiques ont constaté que l’effet Hall augmentait progressivement à mesure que la résistance électrique diminuait dans la cellule recouverte de copolymère COC et d’Al2O3. Autant dire qu’il s’agit d’une découverte importante qui pourrait révolutionner le secteur de l’énergie solaire photovoltaïque. En effet, en fabriquant des panneaux solaires de plus en plus performants, nous devrions pouvoir augmenter la part des énergies renouvelables dans le mix énergétique mondial.
Article rédigé par Georges Simmonds pour RT Flash
Science Direct
|
|
|
|
|
|
|
|
L’écoquartier des Fabriques, lancé en 2020 sur Euroméditerranée, se vante déjà d’être « un modèle de la ville durable de demain ». Avec un argument pour défendre la sobriété énergétique de ses 2 200 logements : « La première centrale de production du réseau d’énergie renouvelable de France à l’échelle d’un quartier », grâce à l’eau de mer. En effet, cette petite station implantée dans une résidence est reliée au réseau de thalassothermie Massileo, lancé par Dalkia, filiale du groupe EDF, en 2017.
Sur le même principe qu’une pompe à chaleur, ce dispositif échange les calories de l’eau de mer pour chauffer les bâtiments en hiver et les rafraîchir en été. Il fournit également de l’eau chaude sanitaire. Habitants ou travailleurs, les usagers du quartier bénéficient ainsi « d’une énergie à 70 % renouvelable et locale », promettent Linkcity et UrbanEra, les concepteurs du quartier.
Côté puissance thermique, cette nouvelle centrale est capable de produire 3,9 mégawatts thermiques de chaleur et 3,3 mégawatts thermiques de froid, estime Dalkia. Au-delà de ces chiffres, la filiale d’EDF promet ainsi d’alimenter à terme 210 000 m² de logements et de bureaux dans le nouvel écoquartier des Fabriques. Pour cela, il a fallu tirer 9 kilomètres de canalisations spéciales pour relier la mer à la nouvelle station. Puis, créer 5 kilomètres de réseau pour connecter les immeubles.
« En fermant bien les fenêtres, on ressent bien la différence de température lors de l’activation du rafraichissement. C’est un vrai confort », témoigne Ahmed, nouveau résident du quartier. Si la production de froid n’est pas comparable à une climatisation classique, elle se démarque surtout par son bilan environnemental. Selon les concepteurs, « le recours à cette énergie plus durable, locale et inépuisable pour rafraîchir et réchauffer le quartier, permet un bilan plus vertueux. Avec 80 % de réduction des émissions de CO2 par rapport à une solution énergétique classique issue des énergies fossiles ».
Article rédigé par Georges Simmonds pour RT Flash
Made in Marseille
|
|
|
|
|
|
|
|
L’institut Fraunhofer veut développer un système de stockage d’électricité sous-marin équivalent à un système de pompage-turbinage (STEP). Cette fois au fond de la mer, le concept repose sur une grande sphère de béton emprisonnant de l’eau ou de l’air sous pression. L’institut Fraunhofer ambitionne la création d’un projet de stockage d’énergie sphérique sous-marin baptisé StEnSea. Après un premier test réussi dans le lac de Constance en Allemagne, le laboratoire prépare une expérimentation en conditions réelles au large de la Californie, en collaboration avec la start-up américaine Sperra et le fabricant d’équipements marins Pleuger Industries. Les dimensions donnent le vertige, notamment au regard de la modeste puissance et capacité de stockage (500 kW pour 400 kWh) : une sphère de 9 mètres de diamètre, 400 tonnes de béton, logée à 500 ou 600 mètres de profondeur.
Le principe de StEnSea s’inspire des centrales hydroélectriques de pompage-turbinage, où l’eau est pompée vers un réservoir en hauteur pour stocker l’énergie, puis relâchée pour générer de l’électricité. Dans le projet StEnSea, ce même concept est adapté au fond marin. Concrètement, en période de surplus d’électricité, une pompe expulse l’eau de la sphère contre la pression naturelle exercée par la colonne d’eau environnante, située au-dessus d’elle. À l’inverse, lorsque l’énergie doit être déstockée, une valve s’ouvre, laissant l’eau pénétrer dans la sphère. La force de l’eau entrant fait tourner une turbine, qui génère ainsi de l’électricité.
En termes de coûts, le Fraunhofer estime que cette technologie peut devenir compétitive avec les centrales de pompage-turbinage classiques, avec un coût estimé à 4,6 centimes par kilowattheure stocké. La sphère en béton devrait avoir une durée de vie de 50 à 60 ans, bien que les pompes et turbines doivent être remplacées tous les 20 ans environ. Les rendements globaux atteignent 75 à 80 %, légèrement en deçà des centrales de pompage terrestres, mais largement suffisants pour des applications où la régularité et la sécurité de l’approvisionnement sont primordiales.
Fraunhofer évalue le potentiel mondial de cette technologie à 817 000 gigawattheures (GWh), soit presque le double de la consommation nationale d’électricité en France. Les zones côtières telles que les côtes de Norvège, du Portugal ou encore du Japon, présentent un fort potentiel de développement pour ce type de stockage, tout comme certains lacs profonds. Avec cette première expérimentation en conditions offshore, le projet StEnSea entend démontrer la viabilité d’une version élargie du prototype. Il devra ainsi valider les procédés de fabrication, d’installation et de maintenance pour des sphères de 30 mètres de diamètre capables d’emmagasiner davantage d’énergie.
Article rédigé par Georges Simmonds pour RT Flash
Fraunhofer
|
|
^ Haut |
|
|
|
|
|
|
|
Espace |
|
|
Espace et Cosmologie
|
|
|
|
|
|
|
|
|
La mission Chang’e 8 représente une étape cruciale dans le programme spatial chinois qui s’inscrit dans une stratégie à long terme visant à établir une présence durable sur la Lune. Le pôle sud lunaire, une zone d’intérêt stratégique, sera au cœur des recherches. En effet, cette région abrite de l’eau glacée, un élément clé pour le futur de l’exploration spatiale, car l’eau pourrait être utilisée pour produire du carburant et soutenir la vie humaine.
Au-delà de cette simple exploration, la mission Chang’e 8 aura pour objectif de tester des technologies pour l’exploitation des ressources lunaires. Parmi ces innovations, l’équipe prévoit de développer des techniques de fabrication sur place, notamment l’impression 3D pour produire des briques à partir du régolithe lunaire (la poussière et les roches de la Lune). Ce test pourrait jeter les bases de la construction d’infrastructures sur la Lune pour de futures missions habitées ou la mise en place de bases permanentes. Un aspect particulièrement captivant de Chang’e 8 est l’éventuelle présence d’un robot humanoïde. Ce dernier est décrit comme étant doté d’une partie supérieure de forme humanoïde, tout en étant équipé de quatre roues pour se déplacer sur la surface lunaire.
Ce robot humanoïde polyvalent sera un auxiliaire précieux dans l’accomplissement d’activités complexes sur le terrain, comme récupérer des échantillons, aider à la mise en place d’infrastructures ou encore manipuler des instruments scientifiques. Il s’agit en effet de tâches qui seraient difficiles à réaliser pour les humains en raison des conditions extrêmes de la surface lunaire.
Chang’e 8 sera équipé de caméras, de télescopes et d'un sismomètre pour étudier la structure géologique de la Lune. Il sera également doté d’une grue permettant de déployer différents instruments et de placer les charges utiles sur la surface lunaire.
Le rover a six roues, ce qui est similaire à ceux utilisés dans les précédentes missions Yutu. Il aura pour mission de collecter des échantillons et de mener des analyses en profondeur. Il sera équipé d’un radar pénétrant lunaire, d’un spectromètre infrarouge et d’un dispositif d’analyse des échantillons. Ces outils permettront d’étudier la composition du sol lunaire, en particulier à la recherche de ressources exploitables pour de futures missions.
En plus de ces dispositifs, la mission Chang’e 8 marquera un progrès important dans l’utilisation des ressources lunaires. Des instruments embarqués pourront permettre des expérimentations pour transformer le régolithe en matériaux de construction utilisables. Cela pourrait constituer une avancée décisive pour la création d’une infrastructure lunaire permanente.
Chang’e 8 ne se limite pas à l’exploration lunaire ; elle s’inscrit dans une vision plus large de la Chine concernant l’exploration spatiale. Cette mission, en collaboration avec la Russie et potentiellement d’autres partenaires internationaux, constitue un test avant la construction d’une station internationale de recherche lunaire. Prévue dans les années 2030, cette station servira de base pour des missions habitées sur la Lune et d’autres explorations spatiales.
Article rédigé par Georges Simmonds pour RT Flash
Space
|
|
^ Haut |
|
|
|
|
|
|
|
Terre |
|
|
Sciences de la Terre, Environnement et Climat
|
|
|
|
|
|
|
|
|
Chaque année à travers le monde, plusieurs dizaines de séismes majeurs se produisent. Ces événements peuvent causer la mort de centaines de milliers de personnes, comme récemment en 2010 (226 000 décès) et 2004 (227 000 décès). Les tremblements de terre sont déclenchés lors d’un glissement abrupt le long d’une faille – une fracture – dans la croûte terrestre, c’est-à-dire les premiers kilomètres sous nos pieds. Ce glissement survient lorsque les contraintes sur la faille dépassent un seuil de rupture, notamment en raison des mouvements des plaques tectoniques. Mais depuis quelques années, un sujet de recherche émerge parmi la communauté scientifique : le changement climatique causé par les activités humaines pourrait-il influencer les séismes ?
« La perturbation causée par les activités humaines est tellement intense et étendue qu’elle est marquée à l’échelle de toute la planète, on parle même d’Anthropocène », souligne Christophe Larroque. « L’impact sur la sismicité nous questionne ». Marco Bohnhoff commente : « Le sujet est nouveau et il y a très peu de groupes de recherche qui travaillent dessus, mais l’attention est croissante ». En mai dernier, Marco Bohnhoff et ses collègues résument dans un article les connaissances actuelles : pendant plusieurs décennies et siècles, les activités humaines vont modifier l’horloge sismique des failles, déclenchant un nombre croissant de petits et grands tremblements de terre. En clair : sur les failles au bord de la rupture, prêtes à glisser et à générer un séisme, le changement climatique pourra être l’élément déclencheur, accélérant donc la survenue du séisme.
Il est désormais clair que la météo influence les séismes. En 2020, la France est balayée par la tempête Alex, qui génère de très importants cumuls de pluie dans le Sud-Est, jusqu’à 600 mm en moins de 24 heures. Dans les 100 jours suivants, 188 séismes de magnitude 2 au maximum – une magnitude trop faible pour être ressentie par la population – sont enregistrés dans la vallée de la Tinée, dans le parc national du Mercantour. « C’est une observation significative : en trois mois dans cette zone, nous avons enregistré autant de séismes que nous en avions eu en 5 ans », pointe Christophe Larroque.
Les premières observations de l’influence de la météo sur la sismicité remontent au début des années 2000. En France, en 2002, après des précipitations aussi intenses que lors de la tempête Alex, une augmentation de l’activité sismique est enregistrée dans les mois qui suivent dans l’ouest de la Provence. En 2005, une série inhabituelle de 47 séismes est enregistrée en l’espace seulement de 12 heures dans le centre de la Suisse, suite à des précipitations intenses (300 mm de pluie en 3 jours). Autre exemple : au Népal, une équipe relève un nombre de séismes plus faible en été (-37 %) qu’en hiver, suggérant ainsi un effet de la mousson sur la sismicité.
Les exemples concernent aussi d’autres événements météo. Par exemple, la Californie est marquée par une alternance de saisons sèches et humides lors desquelles la neige et l’eau s’accumulent dans les montagnes, les lacs et réservoirs. Il a été montré que cette saisonnalité modifie les taux de sismicité dans la région. Et en Turquie, les oscillations du niveau de la mer de Marmara – associées à la variation des saisons – sont aussi corrélées avec le nombre de séismes. « Jusqu’à présent, les séismes corrélés avec des événements météorologiques sont essentiellement de faible magnitude – cela n’exclut pas d’éventuels séismes de magnitude plus forte dans le futur », précise Christophe Larroque. « Cela pose de vrais challenges d’observation puisqu’il faut déployer un réseau d’enregistrement sismologique de bonne qualité pour enregistrer précisément ces petits séismes. Ces dernières années, l’amélioration et la multiplication des réseaux sismologiques a permis d’améliorer notre compréhension. »
Quels mécanismes expliquent cette corrélation entre la météo et la sismicité ? « Plusieurs processus sont en jeu, il est compliqué de les discriminer », répond Christophe Larroque. Concernant la tempête Alex, Christophe Larroque et ses collègues viennent de publier une analyse inédite, à la croisée de différentes disciplines. « Nous avons relocalisé précisément les séismes, retracé leur migration au cours du temps, et modélisé différentes hypothèses pour comprendre les processus en jeu », retrace Christophe Larroque. Ainsi, l’équipe montre que la pluie a généré une surpression de fluide qui s’est propagée en profondeur – on parle d’un front de pression – jusqu’à déstabiliser une faille déjà sous contrainte. La faille s’est alors mise à glisser (de façon asismique) jusqu’à déclencher de petits essaims de séismes.
Il faut bien comprendre que de petites variations des contraintes peuvent suffire à déclencher des séismes. Si le front de pression généré par la tempête Alex est à l’origine de la sismicité inhabituelle dans la région, les événements météorologiques peuvent modifier localement les contraintes par d’autres mécanismes. Une étude s’est intéressée aux effets du typhon Morakot à Taïwan en 2009. Les précipitations intenses ont provoqué plus de 10 000 glissements de terrain et un transport très important de roches et sédiments dans les rivières. Ces déplacements de masses en surface ont augmenté les contraintes sur les failles, expliquant la hausse importante de la fréquence des séismes superficiels durant deux ans et demi après le passage du typhon. Autre exemple : en Californie, les variations saisonnières de la sismicité sont liées principalement aux contraintes générées par le poids de l’eau accumulée en surface pendant la saison humide.
Or, tous ces événements météorologiques sont, et encore plus à l’avenir, influencés par le changement climatique lié aux activités humaines. La hausse des températures à la surface de la Terre provoque une fonte rapide des calottes glaciaires, augmente l’intensité des précipitations extrêmes et des cyclones, ainsi que le niveau global des mers. Tous ces changements de surface modifient localement les contraintes sur les failles.
Dans la péninsule coréenne, l’étude des tremblements de terre au cours des derniers 650 000 ans met en évidence une corrélation entre la sismicité et la fin des différentes périodes glaciaires : à chaque déglaciation, la fonte des glaces provoque une hausse rapide du niveau marin et une augmentation de l’activité sismique dans la région. Alors que le niveau marin global s’est déjà élevé de 0,2 m depuis 1901 et pourrait atteindre 1 m de plus d’ici 2100, les conséquences pourraient être importantes. Certains estiment qu’une hausse de 1 m pourrait augmenter la pression sur l’ensemble des océans (soit 70 % de la surface du globe) de façon suffisante pour déclencher des séismes sur de nombreuses failles déjà proches de la rupture.
Article rédigé par Georges Simmonds pour RT Flash
Polytechnique
|
|
^ Haut |
|
|
|
|
|
|
|
Vivant |
|
|
Santé, Médecine et Sciences du Vivant
|
|
|
|
|
|
|
|
|
Des chercheurs britanniques travaillent sur l'élaboration d'un nouveau traitement contre l'asthme qui pourrait révolutionner les travaux sur la détresse respiratoire des 50 dernières années. En France, l'asthme tuerait près d'un millier de personnes par an. En cause : des symptômes incontrôlés qui peuvent, par leur fréquence ou leur gravité, mettre en danger la vie des patients.
« Cela pourrait changer la donne pour les personnes souffrant d'asthme et de bronchopneumopathie chronique obstructive (BPCO). Le traitement des exacerbations de l'asthme et de la BPCO n'a pas changé depuis cinquante ans, bien qu'il soit à l'origine de 3,8 millions de décès par an dans le monde », explique Mona Bafadhel, professeure au King's Centre for Lung Health.
À l'origine des essais cliniques, la scientifique confie qu'il s'agirait là du « premier nouveau traitement efficace face aux crises d'asthme depuis 50 ans ». En effet, des chercheurs ont montré que l'utilisation d'un médicament, le benralizumab, déjà utilisé dans des cas particulièrement graves, pourrait améliorer la vie des patients souffrant d'asthme et de bronchopneumopathie chronique obstructive (BPCO), une maladie chronique inflammatoire des bronches.
Le traitement consiste en l'injection d'une forte dose de benralizumab au moment de la crise. Le benralizumab, qui est un anticorps monoclonal cible des globules blancs spécifiques appelés éosinophiles afin de réduire la pneumonie. Une telle injection s'avèrerait plus utile que le traitement actuel, et unique, à base de comprimés de stéroïdes. Elle réduit également de 30 % la nécessité d'un traitement supplémentaire.
Article rédigé par Georges Simmonds pour RT Flash
The Lancet
|
|
|
|
|
|
|
|
Un cancer du sein fait suite à un dérèglement de certaines cellules. Celles-ci se multiplient et forment une masse que l’on appelle "tumeur". « Il en existe différents types qui n’évoluent pas de la même manière. Certains sont "agressifs" et évoluent très rapidement, d’autres plus lentement » indique l’Institut national du Cancer. Les cellules cancéreuses peuvent rester dans la zone du sein mais peuvent aussi se propager à d’autres organes, ce qui rend le cancer encore plus menaçant. Dans la majorité des cas, le développement d’un cancer du sein se fait sur plusieurs mois, voire sur plusieurs années. Il s’agit d’un cancer le plus fréquent chez la femme.
L’anomalie est souvent découverte lors d’un examen de dépistage ou lorsque la personne ressent des symptômes spécifiques. Plusieurs examens doivent alors être réalisés. Enfin, différents types de traitements existent pour traiter ce type de cancer : la chirurgie, la radiothérapie, l’hormonothérapie, la chimiothérapie et les thérapies ciblées. Récemment, des chercheurs du Memorial Sloan Kettering Cancer Center de New York ont présenté leur étude lors du congrès annuel de la Société Américaine de Radiologie. Ils y ont exposé une méthode thérapeutique visant à traiter certains cancers du sein, la cryoablation.
Ainsi, une nouvelle technique s’est révélée efficace pour certaines patientes atteintes d’un cancer du sein présentant de grosses tumeurs. Cette technique utilise de la glace pour geler et détruire les tumeurs cancéreuses. « Pour les patientes qui ont des tumeurs plus grosses mais qui ne peuvent pas subir une intervention chirurgicale, cette approche pourrait être plus efficace que la norme de soins actuelle pour les patients qui ne sont pas candidats à une intervention chirurgicale », a déclaré Yolanda Bryce, radiologue interventionnelle au Memorial Sloan Kettering Cancer Center. L’expert explique que lorsqu’elles sont traitées par radiothérapie et hormonothérapie, les tumeurs risquent de réapparaître. Avec ce nouveau traitement, les scientifiques constatent un taux de récidive de 10 %, ce qu’ils jugent “incroyablement prometteur”.
Est-ce que je peux me faire dépister du cancer du sein si j'ai moins de 50 ans ? Concrètement, la cryoablation est un traitement peu invasif qui utilise un guidage par imagerie pour localiser les tumeurs. Un radiologue interventionnel insère une petite sonde en forme d’aiguille dans le sein pour créer une boule de glace autour de la tumeur, tuant ainsi les cellules cancéreuses. Associée à l’hormonothérapie et à la radiothérapie, cette technique permet de détruire près de 100 % des tumeurs. Ce type de traitement est utilisé sur des tumeurs inférieures à 1,5 cm.
Article rédigé par Georges Simmonds pour RT Flash
Medical Xpress
|
|
|
|
|
|
|
|
Des chercheurs américains ont découvert une manière inattendue pour les cellules cancéreuses d’échapper au système immunitaire, ce qui rend plus difficile l’efficacité des traitements. L'étude explique comment un type de mort des cellules cancéreuses peut en réalité accélérer la croissance des tumeurs en désactivant la capacité du système immunitaire à combattre le cancer.
Ces chercheurs du réputé Moffitt Cancer Center, en Floride, se sont concentrés sur une forme de mort cellulaire appelée nécroptose. On pensait auparavant qu'elle aidait le système immunitaire à combattre le cancer, mais les chercheurs ont découvert que lorsque les cellules cancéreuses meurent de cette manière, elles peuvent libérer une molécule appelée interleukine-1α. Cette molécule aide à créer un environnement dans la tumeur qui affaiblit la réponse immunitaire, empêchant ainsi les cellules T d’attaquer le cancer. « Nous pensions que la nécroptose aiderait le système immunitaire à combattre le cancer, mais au lieu de cela, elle semble aggraver les choses en aidant les tumeurs à se développer », a déclaré Brian Ruffell, auteur principal de l'étude. Notre étude montre que l'interleukine-1α est la clé de ce processus et qu'en la bloquant, nous pourrions être en mesure d'aider le système immunitaire à faire son travail ».
L'étude a également révélé que l'interleukine-1α est libérée par les cellules cancéreuses répondant à la chimiothérapie, ce qui pourrait expliquer pourquoi certains traitements ne fonctionnent pas aussi bien que prévu. Mais il y a une bonne nouvelle : en bloquant l’interleukine-1α, les chercheurs ont pu améliorer la réponse immunitaire et rendre les traitements contre le cancer comme la chimiothérapie et l’immunothérapie plus efficaces sur des modèles animaux. « En bloquant les actions de l'interleukine-1α, nous pourrions rendre les traitements actuels contre le cancer plus efficaces », a déclaré Ruffell. « De plus, cibler l'interleukine-1α peut réduire la toxicité associée à la chimiothérapie, ce qui signifie que cette approche pourrait aider les patients à répondre et à mieux tolérer le traitement ».
Les chercheurs ont également découvert que des niveaux plus faibles d’interleukine-1α sont associés à de meilleurs résultats, en particulier chez les patients traités par chimiothérapie. Cela suggère que l’interleukine-1α pourrait être utilisée comme marqueur pour prédire l’efficacité des traitements contre le cancer chez différents patients.
Article rédigé par Georges Simmonds pour RT Flash
Moffitt
|
|
|
|
|
|
|
|
Entre 15 et 20 % de la population traverse, à un moment ou un autre de sa vie, un épisode dépressif, à savoir « un état de profonde détresse qui dure ». Cependant, 30 % des patients souffrant de dépression sont résistants aux traitements médicamenteux classiques que sont les antidépresseurs. Pour mettre au point de nouvelles thérapies, il est donc indispensable de mieux connaître les mécanismes sous-jacents à l’état dépressif, notamment ceux qui induisent un "biais de négativité". En effet, la dépression conduit les patients à percevoir le monde et l’ensemble des stimuli sensoriels de façon excessivement négative – les stimuli agréables deviennent moins attrayants et les stimuli désagréables plus aversifs –, ce qui favorise le développement et le maintien des symptômes dépressifs.
« On sait aujourd’hui que l’amygdale est impliquée dans l’appréciation de la valeur émotionnelle des stimuli environnementaux, qui entraîne l’attraction ou la répulsion, mais aussi qu’elle joue un rôle dans la dépression », rappelle Mariana Alonso, co-auteure principale de cette étude et chef du groupe Circuits émotionnels, au sein du laboratoire Perception et action à l’Institut Pasteur. « Plus récemment, le rôle de certains circuits de neurones spécifiques de l’amygdale dans la perception positive ou négative des stimuli environnementaux a été mis en évidence, mais nous n’avions encore jamais observé l’altération de ces circuits lors d’un épisode dépressif ». Pour en savoir plus sur l’implication de ces circuits dans le biais de négativité, des chercheurs de l’Institut Pasteur et du CNRS, en collaboration avec des psychiatres du GHU Paris Psychiatrie et Neurosciences, de l’Inserm et du CEA, ont donc décidé d’étudier l’activité de l’amygdale chez un modèle murin de la dépression. Comme chez les patients bipolaires dépressifs, ces modèles murins manifestent un comportement dit d’anxiété et de stress (négligent leur toilette, rasent les murs, se réfugient dans le noir) et répondent à des stimuli olfactifs avec un biais de valence négative (sont très peu attirés par des odeurs d’urine femelle d’ordinaire attractives pour les souris males et très fortement repoussés par des odeurs de prédateur).
« Pour étudier le fonctionnement de l’amygdale lors de la dépression, nous avons mesuré l’activité de certains réseaux de neurones impliqués dans l’interprétation plus ou moins négative des stimuli olfactifs », précise Mariana Alonso. Les scientifiques ont alors pu mettre en évidence que dans un état dépressif, les neurones préférentiellement impliqués dans le codage des stimuli positifs sont moins actifs que d’ordinaire, tandis que les neurones préférentiellement impliqués dans le codage des stimuli négatifs sont fortement sollicités. Autrement dit, la dépression semble induire un dysfonctionnement des circuits de l’amygdale impliqués dans le codage des stimuli environnementaux, qui lui-même favoriserait le biais de valence négative caractéristique de la dépression.
Ces données sont extrêmement précieuses pour mettre au point de nouveaux traitements pour les personnes dépressives mais aussi les personnes atteintes de troubles bipolaires, qui connaissent des variations de l’humeur qui sont disproportionnées dans leur durée et leur intensité. « Nous avons réussi à inverser, au moins partiellement, le biais émotionnel négatif induit chez la souris, et le comportement dépressif associé, en suractivant les neurones impliqués dans le codage positif des stimuli environnementaux. C’est une piste intéressante à explorer pour la mise au point de nouveaux traitements », souligne Mariana Alonso. « Nous explorons maintenant chez l’homme, si la guérison d’un épisode dépressif dépend de la restauration de l’activation de ces réseaux neuronaux », conclut Chantal Henry, professeure de psychiatrie à l'université de Paris.
Article rédigé par Georges Simmonds pour RT Flash
CNRS
|
|
|
|
|
|
|
|
La plupart des raisons pour lesquelles nous souffrons de troubles cognitifs comme la maladie d'Alzheimer sont dues à des facteurs que nous ne pouvons pas contrôler, comme les gènes dont nous héritons. Mais il y a également des facteurs de risque sur lesquels on peut intervenir comme la régularité du sommeil par exemple, ou le soin des gencives. Et selon les scientifiques australiens, qui viennent de publier une nouvelle étude sur le sujet, de simples contrôles réguliers du cholestérol pourraient aider à prédire la démence jusqu'à 6 ans avant un diagnostic.
Après avoir suivi près de 10 000 personnes âgées de plus de 70 ans, les chercheurs ont en effet découvert que celles qui avaient un taux de cholestérol qui restait stable avait une probabilité “significativement” plus faible de recevoir un diagnostic ou de présenter des signes de déclin cognitif. Ils suggèrent donc de repérer les patients qui présentent des taux de cholestérol fluctuants, afin d'être traités plus tôt. Au cours d'une période de suivi de 6 ans, les scientifiques ont constaté que 509 personnes avaient développé une démence et que 1760 autres avaient développé un déclin cognitif sans démence. En outre, les personnes présentant les plus grandes fluctuations de cholestérol étaient 60 % plus susceptibles de recevoir un diagnostic de démence.
« Les personnes âgées dont le taux de cholestérol fluctue, sans rapport avec le fait qu'elles prennent ou non des médicaments hypolipémiants (comme les statines), pourraient nécessiter une surveillance plus étroite et des interventions préventives » souligne le Professeur Zhen Zhou de l'Université de Brisbane, en Australie, et auteur principal de l'étude.
Article rédigé par Georges Simmonds pour RT Flash
Circulation
|
|
|
|
|
|
|
|
Des chercheurs de l'École de Médecine de l'Université de Washington à Saint-Louis (Missouri) ont annoncé des résultats encourageants pour les patientes atteintes d'un cancer du sein triple négatif qui ont reçu un vaccin expérimental conçu pour prévenir la récidive des tumeurs. Cet essai est le premier à rapporter des résultats pour ce type de vaccin – ; connu sous le nom de vaccin à ADN néoantigène – ; pour les patientes atteintes d'un cancer du sein.
L'essai clinique de phase I – ; menée au Siteman Cancer Center, basé à l'hôpital Barnes-Jewish et à WashU Medicine – ; impliquait 18 patientes diagnostiquées avec un cancer du sein triple négatif non métastatique, c'est-à-dire qu'il ne s'était pas propagé à d'autres organes. Chaque patient a reçu les soins standards et trois doses d'un vaccin personnalisé adapté pour cibler les mutations clés de sa tumeur spécifique et entraîner les cellules immunitaires à reconnaître et à attaquer toutes les cellules portant ces mutations. Après le traitement, 14 des 18 patientes ont présenté une réponse immunitaire au vaccin et, après trois ans, 16 patientes n'avaient plus de cancer.
Bien que l'essai à un stade précoce ait été conçu pour évaluer la sécurité du vaccin et n'incluait pas de groupe témoin pour déterminer l'efficacité, les chercheurs ont analysé les données historiques de patientes atteintes d'un cancer du sein triple négatif traitées uniquement avec les soins standard. Dans ce groupe, en moyenne, environ la moitié des patientes n’avaient plus de cancer trois ans après le traitement. « Ces résultats étaient meilleurs que prévu », a déclaré l'auteur principal William E. Gillanders, professeur à WashU Medicine, qui traite les patients de Siteman.
Article rédigé par Georges Simmonds pour RT Flash
WashU
|
|
|
|
|
|
|
|
Des ingénieurs du MIT ont découvert que la contraction des muscles pendant un exercice physique conduit à la libération de signaux biochimiques appelés myokines. Et ces derniers favorisent le développement des neurones. Souhaitant déterminer si l'exercice physique avait un effet direct sur la croissance des neurones, les chercheurs ont fait pousser des cellules musculaires de souris en longues fibres. En parallèle, ce “muscle” créé a été modifié génétiquement pour se contracter en réponse à la lumière.
« Grâce à cette modification, l'équipe a pu faire clignoter une lumière à plusieurs reprises, provoquant ainsi la contraction du muscle en réponse, d'une manière qui imitait le fait de faire de l’exercice », précise le communiqué. L'équipe a ensuite récupéré le liquide dans lequel ces cellules musculaires se trouvaient, et qui contenait les myokines sécrétées lors des contractions. Cette solution a été transférée dans une boîte contenant des motoneurones, c'est-à-dire les cellules nerveuses présentes dans la moelle épinière qui contrôlent les muscles impliqués dans les mouvements volontaires.
L’équipe a observé que ces neurones, exposés aux myokines, grandissaient quatre fois plus vite que les neurones qui n’avaient pas reçu la solution biochimique. « Ils poussent beaucoup plus loin et plus vite, et l’effet est assez immédiat », explique Ritu Raman du MIT. Les scientifiques ont ensuite fait une analyse génétique, en extrayant l’ARN des neurones pour voir si les myokines induisaient un changement dans l’expression de certains gènes neuronaux. « Nous avons constaté que de nombreux gènes régulés à la hausse dans les neurones stimulés par l’exercice n’étaient pas seulement liés à la croissance des neurones, mais aussi à leur maturation, à leur capacité à communiquer avec les muscles et les autres nerfs, et à la maturité des axones », explique l’experte. « L’exercice semble avoir un impact non seulement sur la croissance des neurones, mais aussi sur leur maturité et leur bon fonctionnement ».
Les chercheurs se sont demandé si la croissance des neurones pouvait aussi être liée aux forces mécaniques de l’exercice. Pour répondre à leur question, ils ont fait pousser des neurones moteurs sur un tapis de gel dans lequel ils ont intégré de minuscules aimants. Ils ont ensuite utilisé un aimant externe pour faire bouger le tapis – et les neurones – d’avant en arrière. Ils ont ainsi « fait faire de l’exercice » aux neurones pendant 30 minutes par jour. Les résultats ont révélé que l’activité mécanique stimulait la croissance des neurones tout autant que celle des neurones en contact avec la myokine, et qu’ils poussaient beaucoup plus loin que les neurones n’ayant reçu aucune forme d’exercice. « C’est un bon signe, car cela nous indique que les effets biochimiques et physiques de l’exercice sont tout aussi importants », ajoute Ritu Raman.
Article rédigé par Georges Simmonds pour RT Flash
MIT
|
|
|
|
|
|
|
|
Des chercheurs de l’université de Californie, aux Etats-Unis, ont mis au point un test qui a démontré durant sept ans d’étude clinique son efficacité pour diagnostiquer indifféremment toutes les maladies infectieuses du système nerveux central. Il a ensuite été adapté et accéléré pour les infections respiratoires pour en faire un atout en contexte pandémique. Les infections du système nerveux central (SNC) peuvent être très graves voire mortelles. Généralement elles évoluent rapidement en dégradant l’état du patient et elles sont souvent difficiles à diagnostiquer en raison du chevauchement des symptômes cliniques. Ces infections nécessitent donc un diagnostic et une prise en charge aussi rapides que précis. Le diagnostic de ces maladies se base généralement sur le cumul de plusieurs tests : sérologiques, de culture, d’amplification ciblée des acides nucléiques… Il reste à ce jour coûteux, chronophage et d’une relative efficacité (exemple : 50 % d’échec pour le diagnostic de la méningo-encéphalite). Pour tenter de remédier à cette situation, une équipe de chercheurs de l’université de Californie à San Francisco (UCSF), aux Etats-Unis, a mis au point un nouveau type de test métagénomique. Il s’agit d’un test métagénomique par séquençage de nouvelle génération (ou mNGS pour “metagenomic next-generation sequencing”). Selon les chercheurs, ce test permet de diagnostiquer indifféremment toutes les infections du SNC, tous types d’agents pathogènes compris (virus, bactéries, champignons, parasites).
D’autres méthodes, basées notamment sur les technologies moléculaires comme les tests PCR (Polymerase Chain Reaction) ou le séquençage de nouvelle génération, sont actuellement développées mais présentent des limites principalement liées au coût et à l’expertise technologique. Des méthodes alternatives, comme les tests de diagnostics rapides ou les biosenseurs connectés aux smartphones, émergent également pour répondre aux besoins des environnements à faibles ressources, malgré leur relatif manque de précision.
Les chercheurs Charles Chiu, Joe DeRisi, Michael Wilson et Steve Miller de l’UCSF avaient commencé à développer le test mNGS dès le début des années 2010, dans le but d’analyser le liquide céphalo-rachidien à la recherche d’infections du SNC graves et difficiles à diagnostiquer. Le test a par la suite été réalisé sur des milliers de patients présentant des symptômes neurologiques sérieux et inexpliqués dans divers hôpitaux américains, dont celui de l’université de Californie. Ainsi, entre juin 2016 et avril 2023, 4828 échantillons de LCR ont été soumis au test mNGS qui a montré un taux de sensibilité de 86 %, et qui a permis de révéler que 14,4 % des échantillons présentaient une infection du SNC, en identifiant avec précision l’agent pathogène, qu’il soit virus (71,9 %), bactérie (16,6 %), champignon (8,5 %) ou parasite (2,9 %).
Dès ses débuts, le test mNGS avait déjà marqué les esprits aux Etats-Unis, en faisant les premiers titres en 2014 suite au diagnostic en moins de 48 heures de la mystérieuse infection d’un jeune garçon du Wisconsin, gravement malade et admis aux soins intensifs depuis des semaines, sans que les médecins puissent aboutir à un diagnostic. Il a ainsi été sauvé in extremis en découvrant qu’il était atteint d’une forme grave de la leptospirose, une maladie inflammatoire d’origine bactérienne pouvant atteindre le cerveau et provoquer une encéphalite dans ses formes les plus graves. Les médecins avaient ainsi pu sauver le jeune garçon en lui administrant en urgence un traitement à base de pénicilline.
Pour aboutir à des résultats aussi performants, le test mNGS utilise une technique de séquençage génomique qui, au lieu de chercher un seul pathogène à la fois, permet d’analyser tous les acides nucléiques, ARN et ADN, présents dans un échantillon. Ainsi, après le prélèvement et la préparation de l’échantillon, l’ensemble du matériel génétique qui s’y trouve (qu’il soit humain ou microbien) est extrait. Le séquençage de nouvelle génération (NGS) permet alors de lire toutes les séquences génétiques présentes. Ensuite, des algorithmes bio-informatiques permettent de séparer les séquences humaines des autres et comparent ces dernières à des bases de données de millions de séquences d’agents pathogènes connus.
Cette technique de séquençage permet ainsi de diagnostiquer rapidement et précisément des infections complexes sans hypothèse préalable, mais aussi de détecter des pathogènes rares ou émergents. Son utilisation semble déjà de plus en plus pertinente, en particulier pour les infections du système nerveux central, mais aussi les infections pulmonaires à plus grand risque épidémique. L’approche métagénomique clinique basée sur le séquençage de nouvelle génération (NGS) est développée dans plusieurs laboratoires de recherche à travers le monde, dont le laboratoire de découverte de pathogènes de l’Institut Pasteur, dirigé par Nolwenn Dheilly, et qui s’appuie sur cette technologie notamment pour détecter, découvrir et caractériser de nouveaux pathogènes.
Cette technologie, dans ses deux versions cérébrale et respiratoire, a reçu en 2023 la désignation de "dispositif révolutionnaire" par l’agence américaine du médicament, la FDA (Food and Drug Administration). D’ailleurs, en juin 2023, le groupe de chercheurs à l’origine de son développement a contribué à créer la compagnie Delve Bio en partenariat avec l’UCSF dans le but de continuer à développer les tests mNGS et d’en élargir l’accès au-delà du périmètre de la recherche universitaire. Aujourd’hui, les chercheurs se projettent déjà et avancent sur la base des résultats de leur étude, quatre indications cliniques pour le test mNGS : la détection d'organismes non cultivables et difficiles à diagnostiquer, le diagnostic général des infections virales, l'identification d'infections rares et inattendues, ainsi que l'aide aux enquêtes de santé publique sur les épidémies.
Article rédigé par Georges Simmonds pour RT Flash
Nature
|
|
|
|
|
|
|
|
L’étude Doxorubicin–Trabectedin with Trabectedin Maintenance in Leiomyosarcoma, promue par Gustave Roussy sous la direction de la Dr Patricia Pautier, responsable du comité de cancérologie gynécologique de l’Institut, a évalué l’ajout d’une nouvelle molécule au traitement standard prescrit aux patients atteints d’un léiomyosarcome métastatique ou non-opérable. Les résultats définitifs, publiés dans The New England Journal of Medicine, montrent une amélioration significative de la survie sans progression de la maladie et de la survie globale dans le groupe de patients ayant reçu cette nouvelle approche thérapeutique.
Depuis 50 ans, aucune étude scientifique n’avait été en mesure de prouver l’efficacité d’une nouvelle molécule en association à la doxorubicine dans le traitement de première ligne des sarcomes des tissus mous. Les sarcomes, qui totalisent environ 5 000 nouveaux cas chaque année en France, sont constitués d’une très grande hétérogénéité de tumeurs, qui ont pour point commun de se développer au niveau des tissus de soutien de l’organisme. Environ 3 000 sarcomes détectés chaque année en France sont dits « des tissus mous ». Ils s’attaquent aux cellules présentes dans les muscles, la graisse (tissus adipeux), ou encore les nerfs. Les léiomyosarcomes constituent l’un des sous-groupes histologiques les plus courants des sarcomes des tissus mous, et prennent naissance dans les muscles lisses, que l’on peut notamment retrouver dans les muscles des membres ou la paroi utérine. Détectés à un stade avancé, ils présentent un pronostic défavorable.
« Identifier de nouvelles voies thérapeutiques dans les sarcomes est un véritable défi. Il est difficile de recruter des cohortes suffisantes de patients pour mener des essais cliniques, du fait de la rareté de la maladie. La doxorubicine est la chimiothérapie standard depuis des décennies. Nos travaux montrent que l’ajout de trabectidine à cette chimiothérapie, une molécule synthétisée à partir d’une éponge marine, suivi par un traitement de maintenance par la trabectedine seule, permet de doubler la survie sans progression de la maladie des patients atteints d’un léiomyosarcome avancé », détaille la Docteure Patricia Pautier.
Une étude de phase II, promue également par Gustave Roussy, avait été publiée dans The Lancet Oncology en 2015. Elle avait montré des résultats thérapeutiques intéressants concernant l’association doxorubicine-trabectedine sur la survie des patients atteints d’un léimyosarcome avancé. L’étude de phase III qui vient d’être publiée dans le New England Journal of Medicine et réalisée par le Groupe Sarcome Français, s’inscrit dans la continuité de ces travaux, en y ajoutant un traitement de maintenance par trabectedine.
Dans cette étude de phase III, 150 patients, tous atteints d’un léiomyosarcome avancé (des tissus mous ou utérins) ou inopérable, ont été randomisés en deux groupes. Ceux inclus dans le premier groupe ont reçu six cycles de doxorubicine, soit le traitement de première ligne standard dans cette indication. Les patients inclus dans le second groupe ont reçu six cycles de doxorubicine couplée à de la trabectedine, suivi par un traitement de maintenance à base de trabectedine pour ceux dont la maladie ne progressait pas. La chirurgie était autorisée dans les deux groupes après les six cycles de chimiothérapie pour retirer la maladie résiduelle. Le critère d’évaluation principale était la survie sans progression de la maladie, et la survie globale était le critère d’évaluation secondaire.
Les résultats publiés dans le New England Journal of Medicine prouvent l’efficacité thérapeutique de la combinaison doxorubicine-trabectedine puis trabectedine en maintenance. La survie globale des patients ayant suivi ce schéma thérapeutique s’élève à 33 mois, contre 24 mois pour le groupe de patients ayant reçu 6 cycles de doxorubicine seule. Les résultats sont encore plus encourageants concernant la survie sans progression de la maladie. Elle passe de 6 mois dans le groupe doxorubicine seule, à 12 mois dans le groupe doxorubicine-trabectedine puis trabectedine en maintenance.
« Par ses résultats positifs, cette étude est ‘practice-changing’, ce qui signifie qu’elle va modifier la prise en charge à l’échelle mondiale de l’ensemble des patients atteints d’un léiomyosarcome avancé. Elle ouvre de nouvelles perspectives de recherche, notamment dans les liposarcomes, un autre sous-groupe histologique des sarcomes des tissus mous, dans lequel la trabectidine a déjà montré des signes d’efficacité thérapeutique, mais aussi dans les traitements adjuvants ».
Article rédigé par Georges Simmonds pour RT Flash
NEJM
|
|
^ Haut |
|
|
|
|
|
VOTRE INSCRIPTION |
|
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
|
|
|
|
|
|