|
|
Edito
L’ordinateur photonique pourrait bien concurrencer l’ordinateur quantique…
Il y a quelques semaines, Apple a annoncé la commercialisation, pour ses stations de travail, d’une puce baptisée M1MAX, qui ne compte pas moins de 114 milliards de transistors, c’est-à-dire 50 millions de fois plus que le premier microprocesseur d’Intel, sorti en 1971, qui en intégrait…2200. En laboratoire, IBM est déjà capable de graver des puces en 2 nanomètres qui promettent une autonomie quatre fois supérieure à celle des puces actuelles. Quant à Intel, il prévoit lui aussi de passer à la gravure à 1,8 nanomètre en 2025, puis de descendre à 1,4 nanomètre en 2029, ce qui correspond à seulement cinq atomes de cuivre et à une réduction d’un facteur 100 de la finesse de gravure en 25 ans… Mais si la loi de Moore, qui prévoit que le nombre de transistors intégrés sur une puce double tous les deux ans, a été globalement respectée depuis presque 60 ans, nous allons bientôt atteindre, en descendant sous le nanomètre, les limites autorisées par les lois de la physique, en matière de miniaturisation électronique. Pour surmonter cette barrière, chercheurs et ingénieurs s’orientent principalement dans deux voies de recherche que j'ai régulièrement évoquées dans mes éditos : l’informatique quantique et l’informatique photonique, qui utilise la lumière pour aller toujours plus vite.
A l'occasion du récent « Think Boston », IBM a dévoilé sa nouvelle feuille de route pour l'informatique quantique. Celle-ci vise un processeur quantique universel à 1000 qubits en 2023, un processeur à 1386 qubits en 2024, puis des processeurs quantiques apportant une puissance de calcul de plus de 4158 qubits en 2025 (Voir IBM).
IBM entend bien rendre l’informatique quantique accessible à tous les domaines d’activités, à commencer par ceux qui ont un besoin urgent de dépasser les limites actuelles en matière de puissance de calcul, et sont prêts à payer très cher ce nouvel avantage compétitif. Selon Capgemini, 23 % des entreprises dans le monde étudient ou prévoient d'étudier l’exploitation des technologies quantiques de nouvelle génération. 43 % s’attendent à ce que les nouvelles technologies quantiques permettent d’aboutir à de premiers usages commerciaux d’ici cinq ans. Les firmes les plus demandeuses de cette rupture quantique appartiennent principalement à trois secteurs, les télécoms (41 %), les transports (36 %), et les sciences de la vie (30 %). Mais, comme l’explique fort bien Frédéric Magniez, directeur de recherche à l’Institut de recherche en informatique fondamentale, « L’informatique quantique, en raison de son mode particulier de fonctionnement, va rester cantonnée pendant plusieurs années dans des domaines d’application précis, là où elle peut vraiment apporter un avantage en terme de calcul. En outre, pour que les ordinateurs quantiques déploient toutes leurs potentialités, il faudra d’abord réécrire les programmes et déterminer pour quels types de calcul ces programmes vont vraiment apporter un avantage significatif, par rapport aux superordinateurs classiques ».
On le voit, l’ordinateur quantique universel, capable de traiter tout type de problème, n’est pas encore pour demain, et les obstacles matériels (réduction du taux d’erreur provoqué par la décohérence) et logiciels (optimisation des algorithmes) pour parvenir à une telle machine s’avèrent plus coriaces que prévu. Profitant de ces difficultés, l’ordinateur optique, ou photonique, compte bien s’imposer dans les domaines qui requièrent une très grosse puissance de calcul. Au Japon, l’équipe de Hiroyuki Tamura (société technologique japonaise NTT), travaille sur une solution optique spécialement conçue pour résoudre les problèmes d’optimisation qui consistent à trouver la meilleure solution parmi d’innombrables options possibles, par exemple dans le domaine logistique, en programmant des livraisons dans une ville, ou énergétique, en calculant en temps réel le meilleur mix énergétique, en fonction de la demande et des capacités de production des différentes sources d’énergie.
Le prototype développé génère 100 000 impulsions optiques dans une bobine de fibre optique. Chaque impulsion reçoit une valeur positive ou négative et le programme lui indique avec quelles autres impulsions elle doit interagir. Ces impulsions circulent ensuite autour de la bobine et interagissent les unes avec les autres jusqu’à ce qu’elles atteignent un état stable qui représente la meilleure solution. Après avoir construit une première version qui comprime 2000 impulsions dans une fibre d’un kilomètre de long, ces chercheurs en ont construit une autre qui permet d’insérer 100 000 impulsions dans une fibre de 5 kilomètres de long. Avec cette nouvelle machine, en cours d’expérimentation, cette équipe japonaise pense pouvoir optimiser en quelques semaines des problèmes complexes qui nécessiteraient des siècles de calcul, avec des ordinateurs conventionnels, même très puissants.
Cet ordinateur de NTT contenant une fibre d’un kilomètre de long a été testé contre le D-Wave, le premier ordinateur quantique commercial, sur une série de problèmes expérimentaux d’optimisation. Alors que le D-Wave a mieux réussi à résoudre les petits problèmes, l’appareil de NTT a fait beaucoup mieux pour les problèmes plus importants, qui nécessitent plus d'interconnexions, et sont plus proches des problèmes du monde réel (Voir Science Advances). Cette différence tient au fait que le D-Wave utilise des qubits qui sont des équivalents quantiques des bits "classiques" dans un ordinateur. En revanche, la machine optique de NTT peut relier chaque impulsion à toutes les autres, contrairement au D-Wave, qui ne peut relier qu’un nombre limité de ses qubits. C’est cette plus grande connectivité intrinsèque qui permet à l’ordinateur NTT de résoudre finalement des problèmes plus complexes. Comme le souligne le Professeur Tamura, « Les ordinateurs quantiques plus puissants sur lesquels travaillent Google et IBM finiront peut-être par surpasser notre ordinateur optique, mais sans doute pas avant des décennies. Notre ordinateur optique à 100 000 impulsions sera, lui, pleinement opérationnel dans deux ans ».
En octobre dernier, une autre équipe de recherche internationale dirigée par le Professeur Pavlos Lagoudakis, et associant Skoltech et IBM, a présenté un commutateur optique qui ne consomme pratiquement pas d’énergie et pourrait se substituer aux transistors électroniques. Ce commutateur n'a pas besoin de refroidissement et il est jusqu’à 1000 fois plus rapide que les meilleurs transistors commerciaux d’aujourd’hui (Voir Nature). « Si notre dispositif est si économe, c’est parce qu’il suffit de quelques photons pour commuter. En laboratoire, nous avons même montré qu’une commutation était possible avec un seul photon », précise le professeur Pavlos Lagoudakis.
Une équipe de recherche associant des scientifiques des universités Rochester (Etat de New York) et Friedrich-Alexander (Nuremberg) a réussi à créer des portes logiques optiques qui seraient un million de fois plus rapides que celles que l’on trouve actuellement dans nos ordinateurs (Voir University of Rochester). Le transistor, clé de voute de l’informatique, comporte 4 éléments : le canal, qui assure la circulation de l’électricité, la source et le drain, et la grille qui fait office d’interrupteur dans la circulation des électrons entre la source et le drain.
Cette nouvelle porte logique utilise l’énergie du laser pour guider le mouvement des électrons dans la matière. Concrètement, ces lasers produisent des salves d’énergie extrêmement brèves (environ une femtoseconde, c’est-à-dire un millionième de milliardième de seconde). Ces impulsions laser vont éclairer de minuscules fils à base de graphène reliant deux dispositifs en or, exciter les électrons du graphène et les guider dans une direction particulière, ce qui permet de générer un courant électrique. Ces recherches ont montré qu’en modifiant la forme de l’impulsion laser, il devenait possible de générer des courants dans lesquels seuls les porteurs de charge d’un seul type jouent un rôle, ouvrant ainsi la voie à un contrôle indépendant de ces deux types de courants. Avec de telles portes logiques, la commutation entre zéro et un peut se faire à une vitesse prodigieuse, jusqu’à un million de fois plus rapide que celle des puces actuelles. « Notre dispositif est un remarquable exemple de la façon dont la science fondamentale peut conduire à de nouvelles technologies », souligne Ignacio Franco, l’un des chercheurs qui a dirigé ces travaux.
En janvier dernier, une autre équipe de l’EPFL a également accompli un progrès majeur vers la réalisation de puces photoniques compactes et portables. Les chercheurs du laboratoire de systèmes photoniques, dirigés par la professeure Camille Brès, ont réussi à appliquer un nouveau principe pour induire de la non-linéarité optique du deuxième ordre à des puces en nitrure de silicium (Voir Nature Photonics). Ces recherches ont montré qu’il était possible d’intégrer cette fonctionnalité non-linéaire sur des puces photoniques qui peuvent être fabriquées avec les techniques standards développées pour l’électronique (CMOS), et utilisent des matériaux standards, tels que le silicium ou le nitrure de silicium.
On s’en doute, dans cette vive compétition pour maîtriser la construction d’un ordinateur entièrement photonique, les grands de l’électronique et de l’informatique redoublent d’effort. Il y a quelques semaines, une équipe associant l’EPFL, les universités d’Oxford, Münster, Exeter et Pittsburgh, ainsi que le laboratoire de recherche d’IBM de Zurich, a présenté une étude montrant qu’il était possible d’utiliser de multiples longueurs d’ondes pour réaliser des calculs en parallèle. Pour atteindre ce résultat très convoité, les chercheurs ont utilisé pour la première fois un "peigne de fréquences optiques" sur puce. Ce nouveau dispositif permet en effet de produire différentes longueurs d’ondes optiques, qui peuvent être traitées séparément les unes des autres, au sein d’une même puce photonique. Comme ‘explique Wolfram Pernice, de l’Université de Münster, « Les processeurs photoniques dédiés à l’accélération des tâches dans le domaine de l’apprentissage automatique permettent de traiter des tâches mathématiques complexes à grande vitesse et avec un rendement élevé. Cette méthode est bien plus rapide qu’avec les puces conventionnelles qui reposent sur le transfert électronique des données ».
Ces chercheurs ont pu montrer l’efficacité de ces puces photoniques en les testant sur un réseau neuronal capable de reconnaître les nombres écrits à la main. Dans cette tâche qui nécessite une grosse puissance de calcul, l’utilisation du multiplexage en longueur d’onde a permis d’atteindre des vitesses de données et des densités de calcul (nombre d’opérations par zone de processeur) encore jamais atteintes. Ces puces lumineuses pourraient avoir de multiples applications dans de nombreux domaines gourmands en calcul, santé, industrie, transports, énergie, bien avant que les premiers ordinateurs quantiques ne soient opérationnels. « Ce travail est exemplaire en matière de recherche collaborative européenne, car il a su fédérer les compétences très diverses de chaque groupe de travail », souligne David Wright de l’Université d’Exeter, directeur du projet européen FunComp, qui a financé les recherches.
En décembre dernier, la jeune société française LightOn a annoncé l'intégration d'un de ses coprocesseurs photoniques dans le supercalculateur Jean Zay, l’un des supercalculateurs les plus puissants au monde, actuellement classé 105ème au Top500. Cette machine unique en son genre est désormais le premier calculateur haute performance (HPC) à disposer d'un coprocesseur photonique, qui utilise la lumière à la place d’un courant d’électrons.
Fondée en 2016, LightOn est une startup française qui a su acquérir une réputation mondiale dans le développement d’ordinateurs photoniques destinés à l’Intelligence Artificielle. Cette société est convaincue que l’avenir de l’intelligence artificielle passera par le photon, qui détrônera l’électron. LightOn a réussi une véritable rupture technologique en concevant un nouveau mode de production de matrices aléatoires, un outil issu du calcul des probabilités, devenu indispensable au développement des algorithmes d'apprentissage profond, capables de traiter un grand nombre de données.
Concrètement, cette nouvelle approche consiste à utiliser un faisceau laser qui va être dispersé et altéré à travers différents composants optiques, formant ainsi une matrice de grande dimension de points lumineux. Cette matrice est alors captée par une caméra, puis reconvertie sous forme de signal numérique. Comme cette opération se fait à la vitesse de la lumière, elle s’avère bien plus rapide et bien moins coûteuse en énergie que si elle était effectuée par des composants électroniques. Grâce à sa technologie, LightOn atteint une vitesse de calcul sur des tâches de type Transfer Learning 5 fois supérieure aux GPU du marché et 200 fois supérieure à un CPU sur une analyse de série temporelle par un réseau de neurones récurrents. Quant à la consommation d’énergie, elle est, en moyenne, 30 fois moins importante que celle des classiques GPU. Selon LightOn, le calcul effectué dans l’OPU Aurora 1.5, son premier prototype photonique, permet de multiplier l’image initiale par une matrice comportant 170 milliards de coefficients, ce qui correspond à trois millions de milliards d’opérations par seconde, pour une consommation de seulement 30 watts. Le ratio énergie/puissance représenterait donc un gain de trois ordres de grandeur, par rapport aux meilleurs processeurs actuels…
Là encore, il est important de souligner que cette première mondiale, qui intègre une nouvelle technologie de calcul au sein de l'un des superordinateurs les plus puissants du monde n'aurait pas été possible sans une coopération exemplaire d’organismes et de structures visionnaires comme GENCI (Grand Equipement National de Calcul Intensif), l'IDRIS (Institut du développement et des ressources en informatique scientifique) et le CNRS (Centre National de la Recherche National).
Equipé de cette technologie photonique, le nouveau supercalculateur Jean Zay pourrait bien permettre des avancées majeures dans les domaines de l'apprentissage automatique, le traitement du langage naturel, ou de l'analyse d'imagerie satellitaire. « La technologie Optical Processing Unit développée à LightOn est fascinante. Elle va permettre d’effectuer une série de calculs stochastiques bien plus rapidement qu’avec les GPU, sur des données de plus grande taille, et avec une consommation électrique moindre. C’est une révolution dans notre domaine », souligne le Dr Maurizio Filippone, expert en apprentissage statistique à Eurecom.
Evoquons enfin la jeune mais talentueuse société Quandela, fondée en 2017 par trois chercheurs du CNRS, qui projette la mise à disposition, dès cette année, sur le cloud, de son ordinateur quantique photonique. Quandela est l’une des seules sociétés au monde qui va proposer à ses clients un ordinateur photonique quantique à six qbits, fonctionnant à température ambiante. Cette machine sera en mesure de résoudre en un temps record certains problèmes complexes aujourd’hui hors d’atteinte des ordinateurs classiques. Airbus ne s’y est pas trompé et va collaborer avec Quandela pour mettre au point de nouveaux matériaux plus résistants et plus légers, destinés aux avions du futur.
Si Quandela ambitionne la fusion des technologies quantiques et photoniques, ces deux approches restent néanmoins majoritairement distinctes et doivent être envisagées sur des échelles de temps différentes. Si des ordinateurs photoniques complets peuvent être envisagés assez rapidement, cela est beaucoup moins sûr pour des machines quantiques universelles, tant les obstacles techniques (matériels et logiciels) à surmonter restent grands. C’est pourquoi notre pays a raison de miser fortement sur les deux approches et de soutenir les recherches dans ces deux voies d’avenir. Une fois encore, ces ruptures technologiques, il faut le rappeler inlassablement, n’auraient pas été possibles sans une étroite et féconde coopération entre la recherche théorique très fondamentale et la recherche appliquée.
Mais, me direz-vous, à quoi va bien pouvoir servir cette puissance de calcul presque inimaginable que vont nous apporter les ordinateurs photoniques, dans un premier temps, puis les machines quantiques ? Et bien, à résoudre de manière plus efficace et plus rapide des problèmes absolument cruciaux pour l’avenir de l’humanité. Je pense en premier lieu à une meilleure connaissance du fonctionnement thermodynamique de la Terre, pour être plus efficace dans notre stratégie et nos actions visant à contrer le réchauffement climatique. Mais ce bond en avant dans la puissance de calcul disponible est également indispensable pour pouvoir enfin nourrir de manière saine et respectueuse de l’environnement tous les Humains, et concevoir plus rapidement les nombreuses molécules thérapeutiques, pour faire face aux immenses besoins médicaux qui s’annoncent, tant dans nos pays riches, avec leurs populations vieillissantes, que dans les pays en développement, encore confrontés à des épidémies régulières. Plus que jamais, nos sociétés vont avoir besoin de cette « puissance des nombres » dont parlait Aristote et qui nous permettra demain de relever les grands défis de notre siècle…
René TRÉGOUËT
Sénateur honoraire
Fondateur du Groupe de Prospective du Sénat
e-mail : tregouet@gmail.com
|
|
|
|
|
|
|
|
Matière |
|
|
Matière et Energie
|
|
|
|
|
|
|
|
|
Des ingénieurs du MIT et du National Renewable Energy Laboratory (NREL) ont conçu un moteur thermique sans pièces mobiles. Leurs nouvelles démonstrations montrent qu’il convertit la chaleur en électricité avec un rendement de plus de 40 % – un rendement supérieur à celui des turbines à vapeur traditionnelles. Le moteur thermique est une cellule thermophotovoltaïque (TPV), semblable aux cellules photovoltaïques d’un panneau solaire, qui capte passivement les photons à haute énergie d’une source de chaleur chauffée à blanc et les convertit en électricité. La conception de l’équipe peut générer de l’électricité à partir d’une source de chaleur de 1 900 à 2 400 degrés Celsius.
Les chercheurs prévoient d’intégrer la cellule TPV dans une batterie thermique à l’échelle du réseau. Le système absorberait l’énergie excédentaire provenant de sources renouvelables, comme le soleil, et la stockerait dans des bancs de graphite chauds fortement isolés. Lorsque l’énergie est nécessaire, par exemple par temps couvert, les cellules TPV convertissent la chaleur en électricité et l’acheminent vers un réseau électrique. Avec la nouvelle cellule TPV, l’équipe a maintenant démontré avec succès les principaux éléments du système dans des expériences séparées à petite échelle. Elle s’efforce d’intégrer ces éléments pour démontrer un système entièrement opérationnel. À partir de là, ils espèrent mettre le système à l’échelle pour remplacer les centrales électriques alimentées par des combustibles fossiles et permettre la mise en place d’un réseau électrique entièrement décarboné, alimenté entièrement par des énergies renouvelables.
Plus de 90 % de l’électricité mondiale provienent de sources de chaleur telles que le charbon, le gaz naturel, l’énergie nucléaire et l’énergie solaire concentrée. Depuis un siècle, les turbines à vapeur sont la norme industrielle pour convertir ces sources de chaleur en électricité. En moyenne, les turbines à vapeur convertissent de manière fiable environ 35 % d’une source de chaleur en électricité, avec un rendement d’environ 60 %, ce qui représente le meilleur rendement de tous les moteurs thermiques à ce jour. Mais ces machines dépendent de pièces mobiles dont la température est limitée. Ces dernières années, les scientifiques se sont penchés sur des solutions de rechange à l’état solide – des moteurs thermiques sans pièces mobiles, qui pourraient potentiellement fonctionner efficacement à des températures plus élevées.
Les cellules thermophotovoltaïques ont constitué une voie exploratoire vers les moteurs thermiques à l’état solide. Tout comme les cellules solaires, les cellules TPV pourraient être fabriquées à partir de matériaux semi-conducteurs présentant une bande interdite particulière, c’est-à-dire l’écart entre la bande de valence et la bande de conduction d’un matériau. Si un photon d’une énergie suffisamment élevée est absorbé par le matériau, il peut propulser un électron à travers la bande interdite, où l’électron peut alors conduire, et ainsi générer de l’électricité, et ce sans déplacer de rotors ou de pales.
À ce jour, la plupart des cellules TPV n’ont atteint qu’un rendement d’environ 20 %, le record étant de 32 %, car elles ont été fabriquées à partir de matériaux à faible bande interdite qui convertissent les photons à basse température et à faible énergie, et convertissent donc l’énergie moins efficacement.
Dans leur nouvelle conception de TPV, Henry et ses collègues ont cherché à capturer des photons à haute énergie à partir d’une source de chaleur à haute température, convertissant ainsi l’énergie plus efficacement. Pour ce faire, la nouvelle cellule de l’équipe utilise des matériaux à bande interdite plus élevée et des jonctions multiples, ou couches de matériaux, par rapport aux modèles TPV existants.
L’équipe a testé l’efficacité de la cellule en la plaçant au-dessus d’un capteur de flux thermique – un dispositif qui mesure directement la chaleur absorbée par la cellule. Ils ont exposé la cellule à une température élevée. Ils ont ensuite fait varier l’intensité de l’ampoule, ou la température, et ont observé comment l’efficacité énergétique de la cellule – la quantité d’énergie qu’elle produit par rapport à la chaleur qu’elle absorbe – changeait avec la température. Sur une plage de 1 900 à 2 400 degrés Celsius, la nouvelle cellule TPV a maintenu un rendement d’environ 40 %.
La cellule utilisée dans les expériences mesure environ un centimètre carré. Pour un système de piles thermiques à l’échelle d’un réseau, M. Henry prévoit que les cellules TPV devraient atteindre une surface d’environ 10 000 pieds carrés (environ un quart de terrain de football) et fonctionner dans des entrepôts à climat contrôlé pour tirer de l’énergie d’énormes banques d’énergie solaire stockée. Il souligne qu’il existe une infrastructure pour la fabrication de cellules photovoltaïques à grande échelle, qui pourrait également être adaptée à la fabrication de PVT. « La technologie est sûre, respectueuse de l’environnement et de la santé publique. Cette technologie est sûre, sans danger pour l’environnement pendant son cycle de vie, et peut avoir un impact considérable sur la réduction des émissions de dioxyde de carbone dues à la production d’électricité ».
Article rédigé par Georges Simmonds pour RT Flash
MIT
|
|
|
|
|
|
|
|
Aujourd’hui, le méthane est le deuxième gaz à effet de serre anthropique le plus abondant dans l’atmosphère, représentant environ 20 % des émissions mondiales. Dans les centrales actuelles au gaz, le méthane produit par les bactéries est converti en énergie électrique via la combustion. Mais la quantité maximale de méthane convertie y plafonne à moins de 50 %. Des chercheurs de l’Université de Radboud de Nimègue (Pays-Bas) veulent utiliser des bactéries AMNE pour cette conversion.
Il s’agit notamment d’une fascinante capacité découverte pour la première fois chez les bactéries Anammox (ou ANaerobic-AMMonium-Oxidation), qui consiste à oxyder l’ammonium en azote, et cela en l’absence d’oxygène (en utilisant le nitrite comme accepteur d’électrons au lieu de l’oxygène). Selon ces scientifiques, cette réaction chimique longtemps considérée comme impossible, est la même que celle qui se produit chez les ANME, où le méthane est transformé (au lieu de l’ammonium). Au cours de ce processus de transformation, les bactéries libèrent des électrons, qui peuvent être utilisés pour produire de l’électricité.
Pour effectuer leurs expériences, les auteurs de la nouvelle étude ont sélectionné le genre Candidatus Methanoperedens. Ensuite, « nous avons créé une sorte de batterie à deux bornes, l’une étant une borne biologique et l’autre une borne chimique », explique Heleen Ouboter, microbiologiste à l’Université Radboud et auteure principale de l’étude. Les bactéries sont donc cultivées sur l’électrode biologique et cèdent des électrons (issus de la conversion du méthane) à celui chimique.
Il faut également noter que les ANME utilisent des métaux et des métalloïdes extracellulaires insolubles ou des bactéries syntrophiques (présentes dans leur environnement) comme accepteurs d’électrons, et ce via un mécanisme appelé transfert d’électrons extracellulaire (EET). Le groupe de chercheurs a donc cultivé une population bactérienne à domination Candidatus Methanoperedens dans un environnement anaérobie et concentré en méthane.
Par ailleurs, l’anode biologique a également été réglée sur une tension nulle et placée dans une cellule électrochimique amorcée, pour pouvoir induire de l’électricité. Résultat : le courant électrique présent dans l’enceinte a atteint les 274 milliampères par mètre carré, dont les auteurs de l’étude attribuent plus d’un tiers à la conversion du méthane. Grâce au générateur, 31% du méthane ont alors pu être convertis en énergie électrique.
Article rédigé par Georges Simmonds pour RT Flash
RU
|
|
|
|
|
|
|
|
Une multitude d’équipements fonctionnent grâce au principe des cycles thermodynamiques. Ceux-ci reposent sur l’utilisation de fluides de travail capables de convertir une énergie thermique en une autre forme d’énergie utile comme de la chaleur, du froid ou un travail mécanique. Ces fluides peuvent par exemple être de l’eau, de l’air, mais aussi des hydrocarbures. Ils ont tous pour caractéristique commune d’être inertes, c’est-à-dire que les molécules qui les composent conservent la même structure moléculaire au cours du cycle. À Nancy, le LRPG (Laboratoire Réactions et Génie des Procédés) vient de démarrer un projet innovant, baptisé REACHER, qui vise à étudier une structure thermodynamique radicalement nouvelle résultant de l’utilisation de fluides de travail réactifs.
L’idée à l’origine de ce travail de recherche n’est pas nouvelle. Au milieu des années 1950, le mathématicien britannique Michael James Lighthill évoque l’hypothèse d’utiliser des molécules qui se dissocient et se réassocient au cours d’un cycle thermodynamique dans le but de profiter de l’énergie chimique produite au cours de la réaction. Celle-ci est obtenue grâce à une modification de la température et de la pression du fluide réactif. La Nasa et des chercheurs russes ont tenté de développer cette piste de recherche en utilisant le peroxyde d’azote (N2O4), une molécule qui possède la propriété de se dissocier en dioxyde d’azote (NO2) puis de se recomposer très rapidement. Mais leurs travaux n’ont pas abouti, et cette voie de recherche est restée depuis inexplorée, probablement en raison de la multidisciplinarité et de la complexité du problème.
« Nous avons réalisé des calculs mathématiques préliminaires qui démontrent que la conversion simultanée de l’énergie thermique et chimique des fluides réactifs peut conduire à l’intensification des processus de conversion énergétique », révèle Silvia Lasala, chercheuse au LRGP et lauréate d’une bourse ERC (European Research Council) pour financer ce projet. « L‘étude de l’impact de cette réaction sur les performances d’un cycle thermodynamique a montré que l’on pouvait multiplier par quatre le travail mécanique produit. C’est le cas par exemple en utilisant un fluide réactif avec une turbine et qu’on le détend. La réaction devient alors exothermique et libère encore plus d’énergie. Un compresseur doit être utilisé pour comprimer le fluide, mais la compression nécessitera moins d’énergie, car une réaction endothermique a lieu pendant sa compression ».
La chercheuse souhaite éviter d’employer des molécules polluantes et toxiques, comme l’est le peroxyde d’azote. Au-delà du fluide réactif, ce travail de recherche nécessitera également de revoir la conception de l’architecture du cycle thermodynamique. Actuellement, il faut savoir que les rendements des centrales thermiques s’élèvent entre 30 % et 47 %, et concernent par exemple les centrales à charbon. Les meilleures d’entre elles peuvent atteindre 60 % grâce à l’utilisation de cycles combinés, qui consistent à associer deux cycles à fluides inertes, comme des mélanges à base de CO2, d’autres à base de réfrigérants ou alors d’hydrocarbures. « Notre ambition est d’aller au-delà, tout en sachant qu’on ne peut pas dépasser le rendement maximal d’un cycle thermodynamique dicté par Carnot et qui dépend des températures de la source chaude et celles de la source froide », complète Silvia Lasala. L’étude REACHER doit s’étaler sur cinq ans. Si les résultats sont concluants, ils pourraient avoir des répercussions considérables sur toute l’industrie énergétique, en permettant une exploitation des chaleurs résiduelles disponibles et des sources d’énergie thermique renouvelables, dans de nouvelles installations, de taille largement inférieure aux technologies actuellement utilisées et bien plus efficaces.
Article rédigé par Georges Simmonds pour RT Flash
LRGP
|
|
^ Haut |
|
|
|
|
|
|
|
Espace |
|
|
Espace et Cosmologie
|
|
|
|
|
|
|
|
|
Transporter jusqu’à 100 kg de nano-satellites à 600 km d’altitude à l’aide d’un petit lanceur de 17 m de haut est le défi technologique que s’est lancé la jeune pousse française Venture Orbital Systems en 2019. Le siège de la société est à Poitiers et ses usines de montages sont installées dans la région de Reims. L’objectif de l’entreprise est de répondre à l’importante production d’appareils orbitaux pas plus gros qu’une boîte à chaussures.
Actuellement, ces microsatellites restent à quai pendant des mois, avant de pouvoir embarquer à bord de charters coûteux, dans des lanceurs gigantesques, complètement inadaptés à leur taille. Avec des "moteur-fusée" entièrement imprimés en 3D métal, le mini-lanceur Zéphyr permettra, dès 2024, de réduire les coûts et les délais de l’acheminement en orbite basse terrestre de ces nano-satellites, nous précise Stanislas Maximin, PDG et co-fondateur de Venture Orbital Systems.
« Pour répondre à la demande croissante des envois de nano-satellites nous avons développé le mini-lanceur Zéphyr qui est adapté à leurs petites tailles », explique Stanislas Maximin. « Avec cette fusée, nous serons en capacité de réaliser plus 50 lancements par an. Nos mini-lanceurs sont des fusées qui sont à la fois très simples et très complexes. Tous les lanceurs, petits ou grands, sont constitués principalement par ce que l’on nomme un moteur-fusée. Cette pièce centrale va permettre d’accélérer des gaz, en l’occurrence pour le Zéphyr, ils proviennent des réservoirs d’oxygène liquide et de kérosène liquéfié également. Des gaz qui passeront par le moteur à des vitesses très élevées et à de très fortes températures afin de créer la poussée permettant à la fusée de s’arracher du sol ».
Puis il ajoute : « La configuration d’une fusée est toujours la même, on peut la résumer ainsi : un moteur surmontant deux gros réservoirs. Mais comme vous opérez à des vitesses assez extraordinaires et dans des environnements extrêmes qui sont ceux de l’espace, l’engin est bardé d’électronique pour éviter notamment les pannes du moteur et assurer son vol en automatique. C’est là où se situe toute la difficulté pour concevoir un lanceur efficace », détaille Stanislas Maximin. « Nos développements technologiques ont permis de réduire amplement la complexité d’un moteur-fusée, qui est habituellement constitué de milliers de pièces. Nous l’imprimons en 3D métal en seulement 3 composants à assembler. Cette méthode nous permet de réduire considérablement les coûts de sa fabrication et donc les délais de lancements. Le premier envoi orbital est programmé fin 2024, mais nous allons mener d’ici là toute une batterie de tests et des essais au sol sur le mini-lanceur Zéphyr pour valider tous les composants de la fusée », affirme le PDG.
Avec le lancement de milliers de nano-satellites à usages commerciaux, les entreprises pourront accéder à une abondance de données provenant de l’espace. Ces mini-satellites à tout faire permettront de créer de nouveaux services de communication de type internet, de concevoir des applications innovantes de collecte et de traitement des informations récupérées. La production en série de mini-lanceurs adaptés aux nano-satellites assurera le déploiement rapide des constellations orbitales des systèmes GPS, afin que nos smartphones profitent pleinement d’une géolocalisation sans faille.
Article rédigé par Georges Simmonds pour RT Flash
RFI
|
|
^ Haut |
|
|
|
|
|
|
|
Vivant |
|
|
Santé, Médecine et Sciences du Vivant
|
|
|
|
|
|
|
|
|
Une des causes de cette affection est la mutation du gène ADCY5, débutant principalement pendant l’enfance. Ces mouvements anormaux sont souvent exacerbés lors de crises qui peuvent survenir le jour, mais aussi la nuit. Malgré de nombreuses explorations des bénéfices potentiels de traitements médicamenteux aucun traitement n’a jusqu’à récemment confirmé son efficacité dans cette pathologie. Il y a un peu plus de deux ans, un travail de longue date du Professeur Emmanuel Flamand-Roze et du Docteur Aurélie Méneret a mis en lumière le bénéfice de la caféine sur les symptômes d’un enfant atteint de dyskinésie associée à la mutation du gène ADCY5.
Afin de confirmer ces résultats, l’équipe de l’Institut du Cerveau, du département de neurologie de l’hôpital de la Pitié-Salpêtrière AP-HP et de l’Inserm, a conduit une étude rétrospective à l’échelle mondiale. Les chercheurs ont ainsi pu recueillir les données de 30 patients touchés par cette affection rare et qui avaient consommé ou consommaient toujours du café pour leur dyskinésie.
Leurs résultats montrent qu’au-delà d’une bonne tolérance de la prise de caféine, y compris chez les enfants, 87 % des patients rapportaient une amélioration claire de leurs symptômes moteurs. La consommation de café réduisait non seulement la fréquence et la durée des crises, mais diminuait également leurs troubles du mouvement hors crises, ainsi que d’autres symptômes comme les troubles de la marche, de l’attention, de la concentration, certaines douleurs ou encore l’hypotonie, avec une amélioration notable de la qualité de vie des patients. Cette étude rétrospective confirme ainsi le potentiel de la caféine comme traitement de première ligne dans cette forme de dyskinésie.
L’efficacité du café peut s’expliquer par le fait que la caféine vient se fixer sur des récepteurs à l’adénosine qui modifient le fonctionnement de la protéine malade (ADCY5). Cette dernière est fortement présente au niveau du striatum dans le cerveau, impliqué dans le contrôle moteur. Les chercheurs et cliniciens de l’Institut du Cerveau explorent actuellement l’intérêt de la voie de l’adénosine monophosphate cyclique (AMPc) comme cible thérapeutique dans cette maladie et plus largement dans les pathologies associées à des mouvements hyperkinétiques.
Article rédigé par Georges Simmonds pour RT Flash
ICM
|
|
|
|
|
|
|
|
Selon l’OMS, un tiers des adultes âgés de 65 ans et plus souffrent d'apnée du sommeil. En langage médical, on parle plutôt de "syndrome d'apnées du sommeil" ou de "syndrome d'apnées-hypopnées obstructives du sommeil" : il s'agit d'interruptions répétées et incontrôlées de la respiration pendant le sommeil.
À l'heure actuelle, le traitement de référence de l'apnée du sommeil est la ventilation nocturne en pression positive continue (PPC) : concrètement, le patient dort avec un masque sur le nez et celui-ci insuffle en continu de l'air dans les voies respiratoires. Des chercheurs de la University of Gothenburg (en Suède) proposent un nouveau traitement contre l'apnée du sommeil : l'anhydrase carbonique.
Naturellement présente dans l'organisme (et déjà utilisée dans certains traitements contre l'épilepsie et le glaucome), cette enzyme sert notamment au maintien de l'équilibre entre le dioxyde de carbone et l'acide carbonique dans le corps. Les chercheurs suédois ont réalisé une expérience avec 59 volontaires souffrant d'apnée du sommeil modérée ou sévère : ceux-ci ont été divisés en 3 groupes, recevant soit 200 mg, 400 mg ou 0 mg d'anhydrase carbonique (sulthiame) par jour pendant 4 semaines.
Verdict ? Les scientifiques ont constaté que, chez les volontaires ayant reçu quotidiennement 400 mg de la molécule, le nombre de "pauses respiratoires" pendant la nuit était réduit de 20 en moyenne. Du côté des effets secondaires, les chercheurs évoquent des maux de tête et des essoufflements, surtout chez les participants traités avec la dose la plus forte. Ils estiment donc que l'anhydrase carbonique pourrait être une option thérapeutique pour les personnes atteintes d'apnée du sommeil.
Article rédigé par Georges Simmonds pour RT Flash
AJRCCM
|
|
|
|
|
|
|
|
Une nouvelle étude de l’Inserm portant sur les mécanismes impliqués dans cette relation suggère que le rôle que joue l’exercice dans le maintien des niveaux d’insuline et d’indice de masse corporelle peut aider à protéger le volume cérébral et ainsi aider à éviter la démence. « Ces résultats peuvent nous aider à comprendre comment l’activité physique affecte la santé du cerveau, ce qui peut nous guider dans l’élaboration de stratégies pour prévenir ou retarder le déclin lié à l’âge de la mémoire et des capacités de réflexion », a déclaré l’auteur de l’étude Géraldine Poisnel, du Centre de recherche Inserm de Caen. « Les personnes âgées qui sont physiquement actives bénéficient d’avantages cardiovasculaires, ce qui peut entraîner une plus grande intégrité structurelle du cerveau ».
En revanche, les chercheurs ont découvert que la relation entre l’exercice et le métabolisme du glucose dans le cerveau n’était pas affectée par les niveaux d’insuline ou d’indice de masse corporelle (IMC). Une réduction du métabolisme du glucose dans le cerveau peut être observée chez les personnes atteintes de démence. L’étude a porté sur 134 personnes d’une moyenne d’âge de 69 ans qui n’avaient aucun problème de mémoire. Les personnes ont rempli des sondages sur leur activité physique au cours de la dernière année. Ils ont subi des scintigraphies cérébrales pour mesurer le volume et le métabolisme du glucose. Des informations ont été recueillies sur l’IMC et les niveaux d’insuline ainsi que sur le cholestérol, la tension artérielle et d’autres facteurs.
Les personnes ayant le plus d’activité physique avaient un volume total de matière grise plus élevé dans leur cerveau que les personnes ayant le moins d’activité physique, avec une moyenne d’environ 550 000 millimètres cubes (mm³) contre environ 540 000 mm³. Lorsque les chercheurs n’ont examiné que les zones du cerveau touchées par la maladie d’Alzheimer, ils ont trouvé les mêmes résultats.
Ceux qui avaient le plus d’activité avaient également un taux moyen de métabolisme du glucose dans le cerveau plus élevé que ceux qui avaient le moins d’activité. « Le maintien d’un IMC plus bas grâce à l’activité physique pourrait aider à prévenir les perturbations du métabolisme de l’insuline qui sont souvent observées dans le vieillissement, favorisant ainsi la santé du cerveau », souligne la Docteure Poisnel.
Article rédigé par Georges Simmonds pour RT Flash
Science Daily
|
|
|
|
|
|
|
|
Le tabagisme favorise le vieillissement prématuré des tissus et augmente le risque de développer un cancer. Il dégrade aussi la santé cardiovasculaire en favorisant l’augmentation de la rigidité vasculaire et l’épaississement de la paroi de vaisseaux sanguins clés comme l’artère carotide. Si les conséquences de la consommation de tabac sont bien connues, les mécanismes biologiques à l’œuvre ne sont pas encore bien décrits. Aussi, une équipe lorraine est partie à la recherche de biomarqueurs présents dans le sang qui pourraient faire le lien entre le tabagisme et ses répercussions cliniques.
Pour cela, Tripti Rastogi et ses collègues ont utilisé les données issues de la cohorte Stanislas (pour Suivi temporaire annuel non invasif de la santé des Lorrains assurés sociaux) : mise en place en 1993, celle-ci comprend 1 006 familles nancéiennes composées de 2 parents et d’au moins 2 enfants biologiques, qui ne présentaient pas de maladie chronique au moment de leur recrutement. « L’objectif est d’étudier l’évolution de la santé de ces personnes sur le long terme », explique la chercheuse. Dans ce but, les participants ont régulièrement bénéficié de visites médicales. Ils ont en outre passé différents types d’examens : analyses sanguines et urinaires, électrocardiogramme, échocardiographie…
Les participants ont tout d’abord été classés selon leur statut vis-à-vis du tabagisme : fumeur, non-fumeur ou ancien fumeur. Les chercheurs ont alors constaté que l’âge moyen des personnes du premier groupe (36 ans) était bien plus bas que celui des deux autres groupes (respectivement 55 et 58 ans). Malgré cette différence, les examens menés chez les fumeurs ont mis en exergue des altérations habituellement liées au vieillissement : « Les fumeurs montraient par exemple un épaississement de l’artère carotide et une rigidité accrue des artères, deux facteurs qui favorisent généralement l’hypertension artérielle et/ou la formation de plaques d’athérome lors du vieillissement », précise la chercheuse.
Sur le plan biologique, Tripti Rastogi a identifié vingt protéines sanguines associées au vieillissement prématuré, dont la concentration sanguine chez les fumeurs actifs est différente de celle observée chez les non-fumeurs. Certaines sont impliquées dans des processus pro-inflammatoires (TNFSF13B, CCL11), d’autres sont connues pour être augmentées lorsque les fonctions vasculaires sont altérées (EDIL‑3), ou ont été associées à des processus qui favorisent la mort cellulaire ou bien au développement d’un cancer (KIT, EDIL‑3). Par ailleurs, les concentrations de protéines importantes pour la régulation de l’inflammation (IL-12) ou le métabolisme des lipides (PLTP) étaient diminuées chez les fumeurs. Ces différences persistent même lorsqu’on prend en compte tous les paramètres propres aux participants (sexe, âge, indice de masse corporelle, pression artérielle, comorbidités et utilisation de médicaments antihypertenseurs ou hypolipémiants), suggérant que ces modifications seraient bien liées au tabagisme.
« Nous avons aussi observé des différences entre les fumeurs et les anciens fumeurs, ainsi qu’entre les anciens fumeurs et ceux qui n’avaient jamais fumé », ajoute Tripti Rastogi. À caractéristiques sociodémographiques égales, les anciens fumeurs présentaient par exemple plus souvent une hypertension artérielle ou une dyslipidémie que ceux qui n’avaient jamais fumé. Ils présentaient aussi 11 protéines dont la concentration sanguine était modifiée par rapport aux non-fumeurs, dont 6 communes avec les fumeurs actifs. « Cela suggère que, en dépit de l’ancienneté de l’arrêt de la consommation (14 ans en moyenne), certaines modifications biologiques induites par le tabac persistent ».
Ce travail a ainsi permis de décrire plusieurs biomarqueurs qui pourraient être décisifs pour le pronostic clinique des fumeurs. « Nous voulons maintenant conduire une analyse rétrospective pour évaluer la trajectoire de ces biomarqueurs au cours du temps, via les bilans de santé réalisés depuis la constitution de la cohorte. Cela nous permettrait de suivre les dynamiques de chacun d’entre eux, depuis le début du tabagisme pour certains des participants. » Ces éléments pourraient être utiles pour développer une approche préventive de l’inflammation et/ou du vieillissement prématuré associés à la consommation de tabac. « Les traitements anti-inflammatoires ou antioxydants qui ont été testés jusqu’à présent n’ont pas montré de véritable efficacité dans la prise en charge du risque cardiovasculaire. Mais ce travail a permis d’identifier un nombre restreint de marqueurs protéiques qui pourraient constituer de nouvelles cibles thérapeutiques. » Une perspective encourageante, même si la meilleure des approches consiste à réduire l’attrait du tabac et à aider ceux qui fument à arrêter le plus tôt possible.
Article rédigé par Georges Simmonds pour RT Flash
Inserm
|
|
|
|
|
|
|
|
En décembre 2017, le programme de rééducation fonctionnelle SIROCCO, dédié aux patients parkinsoniens, recevait le 1er prix Hélioscope, décerné par la Fondation des Hôpitaux et la GMF. Conçue par les HCL (labellisés centre expert interrégional pour la maladie de Parkinson avec ses hôpitaux Pierre Wertheimer et Henry Gabrielle), cette prise en charge novatrice vient de franchir un nouveau palier dans la lutte contre la maladie avec la publication d'une étude aux résultats spectaculaires. « Nous avons constaté, chez les pratiquants du programme SIROCCO que nous avons étudiés, qu’il y avait une nette modification de fonctionnement cérébral, dans le sens inverse de ce que l’on voit habituellement dans le vieillissement. Sur les patients SIROCCO, nous avons vu ces mécanismes s’inverser, comme si les patients avaient quelques années de moins, voire 10 ou 15 ans de moins. Ces résultats s’avèrent extrêmement impressionnants », décrit le Docteur Teodor DANAILA, neurologue à l’hôpital Pierre Wertheimer, responsable du centre expert Parkinson des HCL et coauteur de cette étude.
Débuté fin 2014, le programme SIROCCO, basé sur une approche multidisciplinaire, consiste en un stage intensif d’activités physiques, afin de stimuler la production de dopamine, neurotransmetteur victime de dégénérescence chez les personnes atteintes de Parkinson. Pendant cinq semaines, du lundi au vendredi, les stagiaires, accueillis par groupes de sept ou huit au sein de l’hôpital Henry Gabrielle, pratiquent 5 à 6 heures de rééducation par jour.
Les bienfaits de cette méthode inventive ont rapidement pu être observés, avec des patients retrouvant des aptitudes perdues : monter à nouveau les escaliers, répondre au téléphone, aller au supermarché… En moyenne, un an après leur stage, 75 % des participants, quel que soit leur âge, continuent à en ressentir les effets positifs. En 2019, les docteurs DANAILA et CHEMINON ont voulu aller au-delà de ces observations en cherchant à comprendre le fonctionnement cérébral des patients SIROCCO.
Forte de ces premières conclusions, l’équipe médicale des HCL souhaite désormais les confirmer au plus vite, en lançant une nouvelle étude, portant cette fois sur 60 patients. Divisés en deux groupes, 30 patients participeront au stage SIROCCO tandis que les 30 autres effectueront une rééducation simple, à domicile. Les médecins compareront les différences, en termes de métabolisme cérébral, de fonctionnement et de connectivité cérébrale, entre les deux types de rééducation, à l’aide de technologies de pointe : spectroscopie infrarouge (fNIRS), IRM fonctionnelle et PET (technique d'imagerie médicale), notamment.
« A l’heure actuelle, certains traitements arrivent à cacher les symptômes, mais aucun ne permet de ralentir l’évolution de Parkinson. Si nous parvenions à démontrer que notre programme SIROCCO freine les anomalies cérébrales qui s’installent avec la maladie, ce serait exceptionnel. Ce serait un vrai message d’espoir pour les patients. Si nous prouvons qu’une activité intensive agit contre Parkinson, cela pourrait même constituer un levier contre le vieillissement de l’ensemble de la population », conclut le Docteur DANAILA.
Article rédigé par Georges Simmonds pour RT Flash
HCL
|
|
|
|
|
|
|
|
L’adénocarcinome pancréatique est l’une des tumeurs solides les plus agressives et mortelles, avec un taux de survie à 5 ans inférieur à 10 %. Un des facteurs qui contribuent à ce sombre pronostic est que ces cancers sont dans 95 % des cas déclenchés par l’activation de KRAS, un oncogène contre lequel il n’existe toujours pas de traitements spécifiques.
L’impact de cet oncogène est particulièrement dévastateur, car son activation reprogramme complètement le métabolisme de la cellule pour soutenir la croissance incontrôlée des cellules et assurer leur survie. En absence d’agents thérapeutiques spécifiques à KRAS, de nombreux efforts ont été consacrés au développement de médicaments dirigés contre d’autres enzymes cibles importantes qui participent à la croissance cellulaire stimulée par l’action de cet oncogène (comme l’enzyme MEK).
Malheureusement, ces enzymes jouent également des rôles très importants dans les cellules normales et leur blocage entraîne donc d’importants effets secondaires qui limitent l’utilisation de ces médicaments. En attendant l’arrivée d’anticancéreux capables de bloquer directement l’activité du gène KRAS, il devient donc extrêmement important d’améliorer la spécificité de ces médicaments.
Une étude récente suggère qu’un des moyens de cibler plus spécifiquement les cellules transformées par l’action de KRAS serait de tirer profit de la dépendance de ces cellules à la présence de fer. On sait depuis quelques années que le métabolisme du fer est complètement modifié dans les cellules cancéreuses contenant KRAS, avec notamment une hausse importante de l’ion ferreux, et que la présence de cet ion métallique semble représenter un facteur important pour la croissance et la survie des cellules cancéreuses ainsi que leur résistance à la chimiothérapie. Pour cibler spécifiquement les cellules cancéreuses contenant l’ion ferreux, une équipe de chercheurs a eu la brillante idée de modifier la structure chimique d’un médicament développé contre la MEK (le cobimetinib) en y ajoutant une petite molécule sensible à l’ion Fe2+.
En conditions normales, la présence de ce senseur inactive le médicament en l’empêchant d’interagir avec sa cible ; cependant, lorsque le conjugué pénètre dans une cellule cancéreuse contenant des quantités élevées d’ions ferreux, le senseur est détruit et le médicament ainsi libéré peut alors exercer son action inhibitrice. Autrement dit, cette approche devrait permettre de cibler spécifiquement la MEK présente dans les cellules cancéreuses transformées par KRAS et non celle retrouvée par les cellules normales, limitant ainsi les effets secondaires.
Et c’est exactement ce que les chercheurs ont observé : l’administration du conjugué à des animaux porteurs de tumeurs humaines a révélé que la molécule inhibait la kinase stimulée par le KRAS oncogénique seulement dans les cellules cancéreuses pancréatiques, sans aucun effet sur les cellules normales, et était donc beaucoup mieux tolérée que le médicament d’origine. Le ciblage spécifique du médicament vers les cellules cancéreuses a également permis aux chercheurs de combiner le médicament avec d’autres agents anticancéreux et d’ainsi améliorer l’efficacité du traitement, tout en minimisant les effets secondaires indésirables. Il s’agit donc d’une approche fort prometteuse, qui pourrait réduire substantiellement les ravages produits par les cancers causés par l’activation des oncogènes KRAS.
Article rédigé par Georges Simmonds pour RT Flash
Pubmed
|
|
|
|
|
|
|
|
Plusieurs études populationnelles ont observé une association entre la consommation régulière de café et une réduction du risque de mortalité prématurée, en particulier la mortalité liée aux maladies cardiovasculaires. Par exemple, une étude italienne a récemment montré que les personnes qui consommaient trois tasses de café espresso par jour (30 ml par tasse) avaient un risque de mortalité cardiovasculaire réduit d’environ 40 % comparativement à celles qui n’en buvaient jamais.
Le café contient plus d’un millier de composés distincts, le plus connu étant certainement la caféine, un alcaloïde qui induit une augmentation des niveaux de dopamine dans le cerveau ainsi qu’une stimulation de l’activité nerveuse. Des études récentes indiquent cependant que la caféine exerce des effets additionnels, non stimulants, qui pourraient jouer un rôle important dans l’impact positif de cette boisson sur la santé cardiovasculaire. On a notamment observé que la caféine bloque l’activité d’un complexe moléculaire impliqué dans la production de molécules inflammatoires (l’inflammasome NLRC4) et que cet effet anti-inflammatoire a des répercussions positives sur la fonction des vaisseaux sanguins.
Selon une étude récente, l’action cardioprotectrice de la caféine impliquerait également une réduction des taux de cholestérol-LDL. Il est clairement établi que des niveaux élevés de cholestérol-LDL dans la circulation sanguine favorisent le développement de plaques d’athérosclérose sur la paroi des vaisseaux sanguins et augmentent du même coup le risque d’accidents cardiovasculaires comme l’infarctus du myocarde et l’accident vasculaire cérébral.
La réduction des taux de cholestérol-LDL, que ce soit par des changements d’ordre alimentaire (l’adoption du régime méditerranéen, par exemple) ou par des médicaments (la classe des statines), représente en conséquence un aspect incontournable de la prévention des maladies cardiovasculaires.
L’étude suggère que la caféine pourrait contribuer à cette réduction du cholestérol-LDL en bloquant une protéine clé du métabolisme du cholestérol, la PCSK9 (Proprotéine Convertase Subtilisine Kexine 9). Cette enzyme, découverte en 2003 par le groupe du Docteur Nabil Seidah de l’Institut de recherche clinique de Montréal, dégrade les récepteurs qui captent les particules de cholestérol-LDL présentes dans le sang et les éliminent de la circulation. En bloquant l’activité de la PCSK9, la quantité de ces récepteurs augmente et entraîne donc une réduction des taux de cholestérol sanguin.
Cette stratégie semble prometteuse, car des anticorps récemment développés contre PCSK9 permettent d’obtenir des réductions très importantes (entre 60 et 70 %) du cholestérol-LDL et une diminution du risque d’accidents cardiovasculaires. Ces anticorps sont cependant extrêmement dispendieux et leur usage est surtout réservé aux patients atteints d’hypercholestérolémie familiale. Les résultats de cette recherche suggèrent que la caféine pourrait représenter une alternative intéressante pour réduire l’activité de la PCSK9. Les chercheurs ont en effet observé que la caféine empêche la transcription du gène codant pour cette enzyme, ce qui entraîne une diminution des taux sanguins de PCSK9, une augmentation des niveaux de récepteurs du cholestérol et une diminution conséquente des taux de cholestérol-LDL.
De plus, l’administration à des volontaires de 400 mg de caféine, ce qui correspond à la quantité présente dans un peu moins de deux tasses de café filtre ou de trois tasses d’espresso, provoque une diminution d’environ 25 % des taux plasmatiques de PCSK9 dans les 4 heures suivantes. Il est donc probable que la diminution de PCSK9 entraînée par la consommation régulière de caféine se traduise par une réduction des taux de cholestérol-LDL et que ces phénomènes contribuent aux bénéfices cardiovasculaires du café observés dans les études populationnelles.
Article rédigé par Georges Simmonds pour RT Flash
Le Journal de Quebec
|
|
|
|
|
|
|
|
Une étude du Centre Anderson contre le cancer (Université du Texas) a montré que la vitamine E stimulait l’activité des cellules dendritiques, c’est-à-dire des cellules immunitaires qui sont impliquées dans le déclenchement des réponses immunitaires de l’organisme. C’est ce phénomène qui améliorerait l’efficacité de l’immunothérapie.
Pour parvenir à leurs résultats, les scientifiques ont analysé les données de santé de patients qui étaient sous immunothérapie pour soigner un mélanome, une tumeur au niveau de la peau. Ils ont découvert que les personnes qui prenaient de la vitamine E avaient un meilleur taux de survie que celles qui n’en prenaient pas. Ils ont ensuite mené d’autres expériences et observé les mêmes résultats avec les cancers du sein, du côlon et du rein… Mais uniquement pour l’immunothérapie, jamais pour la chimiothérapie.
Dans notre système immunitaire, il existe plusieurs cellules, dont celles appelées T qui aident notre organisme à combattre les infections et à détruire les cellules anormales, y compris celles qui sont cancéreuses. En temps normal, notre système immunitaire les empêche de s’attaquer aux cellules normales en utilisant des protéines appelées "points de contrôle". Autrement dit, ces protéines "points de contrôle" canalisent l’action des cellules T.
Mais certaines cellules cancéreuses peuvent envoyer des signaux qui embrouillent les cellules T et les empêchent de fonctionner. In fine, cela permet au cancer de proliférer plus facilement dans l’organisme. Ainsi, pour traiter certains cancers, des inhibiteurs du "point de contrôle" immunitaire sont utilisés. Il s’agit d’anticorps qui bloquent certaines protéines spécifiques des "points de contrôle" et permettent ainsi aux cellules immunitaires d’attaquer et de détruire les cellules cancéreuses.
« Cette étude améliore notre compréhension des facteurs qui peuvent augmenter l’efficacité de l’immunothérapie. Nous avons démontré que la vitamine E peut renforcer l’action des cellules dendritiques en inhibant la protéine de point de contrôle SHP1 », a expliqué Dihua Yu, l’un des auteurs de l’étude. En effet, les scientifiques viennent de découvrir que la vitamine E bloquait justement l'activité d’une protéine de "point de contrôle" appelée "SHP1" dans les cellules dendritiques, ce qui améliore l’efficacité des cellules immunitaires T des patients.
« SHP1 pourrait ainsi être une cible thérapeutique intéressante pour renforcer l’action des cellules dendritiques et améliorer l’efficacité de l'immunothérapie. Nos travaux fournissent d’importantes informations sur l'interaction entre la vitamine E et le SHP1 qui nous aideront à développer des inhibiteurs spécifiques à SHP1 », a assuré Xiangliang Yuan, l’un des auteurs. Une stratégie thérapeutique intéressante sur laquelle les scientifiques comptent travailler lors de prochaines recherches.
Article rédigé par Georges Simmonds pour RT Flash
Cancer Discovery
|
|
|
|
|
|
|
|
Des chercheurs saoudiens de l’Université AlMaarefa ont montré qu’une forme de vitamine K pourrait contribuer à protéger contre la « détérioration cognitive ». La démence « est un terme général désignant la perte de la mémoire, du langage, de la capacité à résoudre des problèmes et d’autres capacités de réflexion, qui est suffisamment grave pour interférer avec la vie quotidienne. » On pense que la maladie d’Alzheimer est le résultat de l’accumulation de protéines anormales dans le cerveau, appelées plaques amyloïdes. Celles-ci peuvent empêcher les cellules du cerveau de se signaler aussi bien qu’avant et les endommager. Il existe d’autres types de démence, et on pense que la démence vasculaire est causée par une diminution du flux sanguin vers le cerveau, ce qui peut également endommager les cellules cérébrales.
Il est important d’absorber de nombreux types de vitamines et de minéraux pour rester en bonne santé. Une vitamine qui joue un rôle-clé dans la santé du cerveau et des os est la vitamine K, que l’on trouve souvent dans les légumes à feuilles vertes. Le processus de vieillissement est associé à la détérioration des fonctions cérébrales. La vitamine K est une vitamine naturelle liposoluble, elle protège le cerveau du développement de la maladie d’Alzheimer.
Il existe une quantité quotidienne recommandée pour la vitamine K qui varie selon l’âge. Consommer des quantités adéquates de légumes et de fruits est satisfaisant pour maintenir des niveaux normaux de vitamine K. Cependant, des compléments sont également disponibles pour remplacer les sources naturelles en cas d’incapacité à les consommer.
Comme la vitamine K peut affecter le fonctionnement du cerveau, les chercheurs de cette étude ont voulu voir comment elle affecte le fonctionnement cognitif chez les rats. Les chercheurs ont mené un essai de 17 mois sur des rats. Un groupe a reçu un supplément de vitamine K, et l’autre non. Les chercheurs ont administré de la ménaquinone-7 (MK-7), qui, selon les auteurs, « est une forme importante de vitamine K2 ». Les rats ont subi une série de tests de fonctionnement cognitif tout au long de l’étude. Selon les auteurs, ils ont été testés « pour évaluer le niveau cognitif, l’anxiété et le comportement de type dépressif ».
À la fin de l’étude, les rats ayant reçu les suppléments de vitamine K présentaient des niveaux réduits de déficience cognitive, de dépression et d’anxiété. De plus, les auteurs notent que ces rats ont connu « une amélioration de la mémoire spatiale et de la capacité d’apprentissage ».
La vitamine K2 a démontré un impact très prometteur en entravant les changements comportementaux, fonctionnels, biochimiques et histopathologiques liés au vieillissement dans le cerveau sénile vieillissant », déclare les auteurs de l’étude. Ils concluent également que « Les implications les plus importantes sont de prêter attention à la vitamine K dans la population âgée et à sa relation avec la maladie d’Alzheimer et d’autres maladies neurodégénératives liées à l’âge ».
Article rédigé par Georges Simmonds pour RT Flash
EB
|
|
|
|
|
|
|
|
Le cerveau des mammifères entrepose un souvenir précis dans un système complexe de neurones qui s'étend dans de nombreuses régions cérébrales, plutôt qu'en un seul ou quelques endroits, montrent les travaux de scientifiques américains du Massachusetts Institute of Technology (MIT). Le neuroscientifique Dheeraj Roy et ses collègues pensent apporter la preuve la plus complète et la plus rigoureuse à ce jour que les engrammes, les ensembles de neurones qui conservent par des changements physiques ou chimiques la mémoire d’un souvenir précis, sont interconnectés dans plusieurs régions.
Plusieurs régions du cerveau d'une souris sont impliquées dans l’encodage d’un souvenir précis. Elles sont également impliquées dans le rappel du souvenir lors de la réactivation. Jusqu’à maintenant, l’entreposage de la mémoire était surtout associé à l'hippocampe, l'amygdale ou le cortex. Il y a plus d'un siècle, le biologiste évolutionniste allemand Richard Semon avait émis l’hypothèse de l’existence de systèmes unifiés d'engrammes, mais il demeurait impossible de la vérifier en raison de contraintes technologiques.
Afin de vérifier quelles régions du cerveau étaient impliquées dans le rappel des souvenirs, l’équipe du MIT a réalisé une série novatrice d'expériences sur des souris. Elle a analysé 247 régions du cerveau des rongeurs, qui ont été déplacés de leur cage d'origine vers une autre cage où ils ont été exposés à une petite mais mémorable décharge électrique. Dans un premier groupe, les neurones des souris ont été modifiés pour devenir fluorescents lorsqu'ils exprimaient un gène nécessaire au codage de la mémoire, c'est-à-dire à l’entreposage de l'information sous forme de souvenir. Dans un deuxième groupe, les cellules activées par le souvenir de la décharge électrique ont été marquées par fluorescence. Les deux groupes de rongeurs ont été comparés à des congénères d’un groupe contrôle. Les neurones activés dans les deux groupes, soit par l'encodage de la mémoire ou par le rappel de la décharge, ont ainsi pu être observés au microscope.
En comparant les cerveaux de souris des deux groupes, les chercheurs ont pu écarter certaines régions et établir une carte de 117 régions ayant une forte probabilité d'être impliquées dans la mémoire. Les expériences ont non seulement révélé une réactivation significative des engrammes dans les régions connues de l'hippocampe et de l'amygdale, mais également montré une réactivation dans de nombreuses autres structures, écrivent les auteurs. En utilisant un ordinateur pour compter les cellules fluorescentes dans chaque échantillon, les chercheurs ont produit des cartes à l'échelle du cerveau des régions présentant une activité apparemment importante d'encodage ou de rappel de la mémoire.
Les scientifiques estiment qu’en stockant un seul souvenir dans un système complexe de neurones aussi étendu, le cerveau rend la mémoire plus efficace et plus résistante. Ils ont aussi établi que le rappel de la mémoire ou d’un souvenir est plus puissant lorsque plusieurs régions d’entreposage de la mémoire sont réactivées, plutôt qu'une seule. Ces nouvelles connaissances laissent croire qu’il serait possible de traiter les troubles de la mémoire.
Si certains troubles de la mémoire sont dus à un dysfonctionnement de l'hippocampe ou du cortex, pourrions-nous cibler des cellules liées à des engrammes dans d'autres régions ? Et une telle manipulation pourrait-elle rétablir certaines fonctions de la mémoire ? s’interroge Dheeraj Roy, coauteur principal de cette étude.
Article rédigé par Georges Simmonds pour RT Flash
Nature
|
|
|
|
|
|
|
|
Une équipe de neurologues et de rhumatologues de l’Université de Pennsylvanie ouvre une toute nouvelle piste de traitement de la dystrophie musculaire ou myopathie de Duchenne : une protéine, Piezo1, est démontrée ici comme essentielle pour rassembler les cellules souches musculaires. Cependant, la protéine n’est présente qu’à des niveaux insuffisants chez les patients atteints de dystrophie musculaire de Duchenne. L’étude montre ainsi, in vivo et dans la revue Science Advances, que la réactivation de Piezo1 permet aux cellules souches musculaires de retrouver leur état normal et de réparer les muscles dystrophiques.
La dystrophie musculaire de Duchenne est une maladie génétique caractérisée par une dégradation progressive des muscles et donc un besoin constant de réparation. L’étude révèle que les souris modèles de dystrophie présentent des niveaux nettement inférieurs de Piezo1 dans leurs cellules souches musculaires. La réponse des cellules souches musculaires aux blessures est alors retardée, voire inexistante.
Cette découverte du rôle de Piezo1 ouvre la voie à une thérapie au niveau moléculaire capable de ralentir, voire même stopper la progression de la dystrophie musculaire. L’auteur principal, le Docteur Foteini Mourkioti, professeur de Chirurgie orthopédique explique que « les cellules souches musculaires présentent toute une série d’extensions utilisées pour détecter leur environnement et répondre aux blessures et que toutes ces extensions sont contrôlées par la protéine Piezo1 ».
La protéine Piezo1 a été identifiée il y a une petite dizaine d’années, cependant sa fonction dans les muscles squelettiques restait mal connue. Si on sait que les cellules souches musculaires sont mobilisées par le corps pour réparer les dommages musculaires, on connait encore mal les mécanismes sous-jacents à la réparation musculaire. C’est en l’étudiant dans les cellules souches musculaires que les chercheurs de la Penn ont découvert son implication dans la formation des cellules musculaires et dans la coordination de leur réponse aux blessures ou lésions musculaires.
L’étude menée chez la souris révèle que les cellules souches musculaires présentent des saillies ou extensions qu’elles utilisent pour communiquer entre elles et qui les font ressembler à des neurones (cellules nerveuses). Plus la cellule est active, moins elle est susceptible des présenter ces extensions, ainsi les cellules souches sensorielles présentent généralement plus de saillies. En cas de blessure, les cellules souches musculaires donnent lieu à une réaction rapide principalement de leurs cellules réactives ; en cas de blessure importante, les cellules intermédiaires et, éventuellement, les cellules sensorielles, participent également à la réparation des dommages et ajustent alors leur forme en conséquence.
En effet, sans un général compétent à sa tête, l’armée des cellules souches musculaires part en déroute, en particulier parce qu’elle est submergée par le volume de réponses nécessaires pour réparer les dommages infligés par la myopathie de Duchenne. Une clé pour inverser la tendance ? Grâce au traitement avec une petite molécule connue sous le nom de Yoda1, les chercheurs parviennent à réouvrir les canaux de Piezo1 chez des animaux modèles de dystrophie musculaire. Les cellules souches musculaires reprennent alors une structure et une fonction normales, et la régénération musculaire est rétablie.
Article rédigé par Georges Simmonds pour RT Flash
Science Advances
|
|
^ Haut |
|
|
|
|
|
VOTRE INSCRIPTION |
|
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
|
|
|
|
|
|