|
|
|
|
|
NUMERO 967 |
|
|
|
|
|
|
|
Edition du 21 Septembre 2018
|
|
|
|
|
Edito
L’énergie nucléaire a-t-elle encore un avenir ?
Contrairement à ce que prévoyaient certain scenarios vertueux il y a encore une dizaine d’années, les principaux organismes de prospective s’accordent pour dire que la consommation mondiale d’énergie va, sous l’effet de la croissance démographique mondiale et du fort développement économique en Asie, croître fortement au cours des prochaines décennies : l’AIE prévoit une hausse de 37 % de cette demande mondiale d’énergie et l'EIA américaine estime même que cette hausse pourrait atteindre 48 % à cette échéance.
Selon les derniers chiffres disponibles, la part du nucléaire reste stable depuis plusieurs années et représente aujourd’hui environ 5 % de la production primaire mondiale d’énergie (13,5 gigatonnes-équivalent-pétrole en 2017) et un peu moins de 11 % de la production mondiale d’électricité. Cette dernière représente elle-même à présent 18 % de la production mondiale d’énergie, une part qui a doublé en 40 ans…
On voit donc que, même si le nucléaire est à présent derrière les énergies renouvelables au niveau mondial (celles-ci représentent au total 20 % de la capacité énergétique mondiale et un quart de la production mondiale d’électricité), son rôle est loin d’être marginal dans le mix énergétique mondial. Et il faut rappeler que, contrairement à ce qu’on peut entendre ici ou là, l’énergie nucléaire n’est pas en déclin au niveau planétaire : il y a aujourd’hui 448 réacteurs nucléaires en service dans le monde et 57 nouveaux réacteurs sont en construction dans 15 pays, sans compter les 158 réacteurs planifiés à plus long terme. Au total, la capacité nucléaire de production d’énergie devrait donc augmenter d’au moins 46 % d’ici 2040, ce qui veut dire que la part globale du nucléaire dans le mix énergétique mondiale, en dépit d’une forte hausse de la demande mondiale d’énergie, ne devrait pas diminuer au cours des vingt prochaines années… En Asie, par exemple, l’Inde compte 20 réacteurs nucléaires et en construit actuellement cinq nouveaux. La Chine, pour sa part, compte 38 réacteurs nucléaires mais en construit dix-neuf autres. Enfin le Japon, en dépit de la catastrophe de Fukushima, a dû se résoudre à relancer le nucléaire pour répondre aux besoins énergétiques du pays et la part de ce dernier dans la production électrique devrait passer de 20 à 22 % d’ici 2030.
Le réacteur pressurisé européen, EPR (European Pressurized Reactor, puis Evolutionary Power Reactor) représente la nouvelle génération de réacteur nucléaire actuellement en développement dans le monde. Il est à la fois plus puissant, plus sobre et plus sûr que les réacteurs de génération précédente. Chaque réacteur EPR peut produire, avec 17 % de combustibles nucléaires en moins, et en générant 20 % de déchets radioactifs en moins, une puissance électrique de l'ordre de 1 600 MW, supérieure de 22 % à celle des réacteurs de la génération précédente. Mais surtout l’EPR dispose pour la première fois d’un système de récupération du corium, qui permet, en cas de fonte du cœur, la collecte des matériaux fondus s’écoulant de la cuve après sa percée. Ce système permet également de maintenir le confinement des produits radioactifs en cas d’accident grave.
Bien que la mise au point de l’EPR se soit avérée nettement plus complexe, plus coûteuse et plus longue que prévue (10,5 milliards d’euros pour l’EPR de Flamanville et 7 ans de retard), le réacteur EPR chinois Taishan 1 a été mis en service il y a quelques semaines, devenant ainsi le premier EPR au monde à produire de l'électricité. Les autres réacteurs EPR en construction en France, en Finlande, en Grande-Bretagne et en Chine, devraient être mis en service progressivement, entre 2019 et 2025. Un accord de principe a par ailleurs été conclu entre Paris et New Dehli pour la mise en chantier fin 2018 de 6 réacteurs EPR en Inde.
Mais, outre les problèmes de sécurité, de stockage et de retraitement des déchets radioactifs, l’humanité trouvera-t-elle les ressources primaires nécessaires pour poursuivre à long terme l’utilisation de l’énergie nucléaire ? Peu abordée, cette question mérite pourtant d’être posée. On estime en effet que, sur l’ensemble de la planète, les ressources d’uranium prouvées s’élèvent à environ six millions de tonnes, de quoi assurer à peine un siècle de consommation au rythme actuel. Certes, l’Agence internationale de l’énergie atomique (AIEA), l’Organisation de coopération et de développement économiques (OCDE) et l’Agence pour l’énergie nucléaire (AEN) estiment dans leur rapport conjoint « Uranium 2014 » que le sous-sol pourrait receler jusqu’à 7,7 millions de tonnes supplémentaires (hors États-Unis), mais ces réserves supplémentaires ne sont pas prouvées et il n’est pas du tout certain qu’elles soient économiquement exploitables.
Face à cette situation, EDF réutilise, après retraitement, une fraction du combustible usé dans 20 des 58 réacteurs nucléaires actuellement en fonctionnement en France. Grâce à l’emploi de ce combustible, appelé MOX, EDF parvient ainsi à économiser 900 tonnes d’uranium naturel par an sur les 8 400 consommées, ce qui devrait permettre de gagner une quarantaine d’années de consommation de combustible pour notre parc nucléaire.
Mais pour pouvoir continuer d’utiliser l’énergie nucléaire à long terme, une rupture technologique majeure est nécessaire, comme le souligne le Forum international génération IV, qui regroupe 13 pays (Argentine, Brésil, Canada, Chine, Corée du Sud, Russie, France, Japon, Afrique du Sud, Suisse, Royaume-Uni, États-Unis, Union européenne), qui s’est engagé sur la voie de réacteurs de quatrième génération à l’horizon 2040. Contrairement aux réacteurs actuels, qui consomment exclusivement de l’uranium 235, ces réacteurs de 4ème génération seront conçus de manière à utiliser de l’uranium 238 qui entre pour plus de 99 % dans la composition de l’uranium naturel et permet une régénération du plutonium. Ainsi, il suffira d’une tonne de combustible, au lieu de 200 aujourd’hui, pour produire un gigawatt (GW), ce qui éloignerait définitivement toute perspective de pénurie de ressources. Reste que ces futurs réacteurs, de type surgénérateurs, sont d’une extrême complexité de fonctionnement et présentent l’inconvénient majeur de nécessiter de grandes quantités de sodium, un liquide hautement inflammable au seul contact de l’eau.
C’est pourquoi la recherche s’oriente également vers un autre type de réacteur nucléaire, le réacteur nucléaire à sels fondus (RSF) (en anglais, molten salt reactor : MSR). Ce type de réacteur nucléaire utilise un combustible liquide, dissous dans du sel fondu (600 à 900°C) qui assure à la fois le rôle de modérateur, de caloporteur et de barrière de confinement. Contrairement à l’uranium, les réserves estimées de thorium sont suffisantes pour assurer la totalité des besoins énergétiques de l'humanité pendant plus de cinq siècles. Il est vrai qu’une tonne de thorium peut produire autant d’énergie que 200 tonnes d'uranium ou que 3,5 millions de tonnes de charbon. En outre, un réacteur au thorium brûle, 99,9 % de son carburant et les déchets les plus radioactifs qu’il génère ne restent dangereux que trois siècles au maximum (10 ans pour la majorité de ses déchets), ce qui n’a évidemment rien à voir avec le plutonium 239 de nos centrales actuelles qui reste dangereux pendant 24 000 ans… Enfin, ce réacteur à sel fondu est intrinsèquement bien plus sûr que les réacteurs actuels : aucune explosion interne de vapeur n’est possible, à cause de sa basse pression de fonctionnement et son cœur ne peut pas entrer en fusion, comme à Fukushima, car son combustible est déjà fondu.
Il faut enfin évoquer l’autre grande voie de recherche qui pourrait faire de l’énergie nucléaire un élément essentiel d’une production d’énergie totalement décarbonnée dans la seconde moitié de ce siècle : la fusion thermonucléaire contrôlée, qui consiste à reproduire de manière artificielle ce qui se passe naturellement au cœur de notre soleil, lorsque les atomes d’hydrogène fusionnent, sous l’effet d’une chaleur et d’une pression immenses, dégageant d’énormes quantité d’énergie. En Juin dernier, l’entreprise britannique Tokamak Energy a créé l’événement en annonçant avoir atteint une température du plasma de 15 millions de °C, dans son prototype de réacteur à fusion nucléaire ST40. Cette société vise la maitrise de la fusion à l’aide d’un tokamak, une chambre de confinement magnétique capable de piéger des plasmas extrêmement chauds. Dans cet essai, elle a réussi à confiner un plasma à très haute température à l’aide d’aimants supraconducteurs très puissants. Avec son ST40, Tokamak Energy vise à présent un nouvel objectif : atteindre rapidement les 100 millions de °C d’ici fin 2018.
Il faut souligner que le projet anglais mené par Tokamak energy entre en concurrence avec au moins deux autres projets d’envergure, et visant également à atteindre la maîtrise de la fusion thermonucléaire contrôlée, comme source d’énergie sûre, propre et quasiment inépuisable, le projet international ITER et le projet américain SPARK.
C’est en 2006 que l’accord d’ITER a été conclu pour la mise en place de ce projet novateur. Au total, 35 pays se sont engagés. Ils représentent à eux seuls près de 50 % de la population mondiale et ont décidé de s’allier pour partager les coûts de recherches, de développement et de démantèlement des installations une fois que le projet serait terminé. Au rang des participants, en premier lieu l’Union européenne (principal investisseur du projet à hauteur de 45 %), la Chine, l’Inde, les Etats-Unis, le Japon, la Russie et la Corée du Sud. Le projet ITER vise à atteindre une réaction de fusion thermonucléaire positive (c’est-à-dire qui produise plus d’énergie que celle nécessaire à son fonctionnement) d’ici 2040. En décembre 2016, le CEA a annoncé que le réacteur expérimental West avait produit, dans le cadre de ce projet ITER, son premier plasma, chauffé à près de 100 millions de degrés, à Cadarache, dans les Bouches-du-Rhône. Cette avancée majeure a été saluée par la communauté scientifique internationale.
Pendant qu’ITER poursuit sa progression, le CEA et le Japon travaillent ensemble sur un prototype connexe de réacteur industriel pour la production d'électricité. Baptisé Demo, ce programme a franchi une étape importante, avec la récente validation des dernières bobines supraconductrices de champ toroïdal construites par le CEA, et dédiées à la réalisation du tokamak japonais JT-60S. Dix d’entre elles, soit la moitié de leur nombre total, ont été fabriquées sous la responsabilité du CEA par GE Power à Belfort. Elles sont arrivées en février dernier à Naka, au Japon, et vont intégrer la structure du tokamak nippon. La mise en service de JT-60SA est prévue pour l’été 2020. Il deviendra, alors le plus grand tokamak au monde en fonctionnement, jusqu’au démarrage d’Iter.
Mais outre-Atlantique, les Américains développent également leur propre projet de recherche dans cette course technologique mondiale. Le Massachusetts Institute of Technology (MIT) et la société Commonwealth Fusion Systems (CFS) se sont en effet fixés comme but de développer un réacteur à fusion nucléaire fonctionnel dans les 15 années à venir, afin d’offrir une nouvelle source d’énergie potentiellement inépuisable, sans carbone et sans déchets. Baptisé SPARC, ce réacteur compact sera capable de fournir une puissance de 100 MW (200 MW à terme). Son rendement devrait être deux fois plus important que l’énergie utilisée pour chauffer le plasma.
Les températures extrêmement élevées générées dans ce processus de fusion, de l’ordre de plusieurs centaines de millions de degrés Celsius, nécessitent l’isolation de ces températures afin de protéger la structure du réacteur. Pour ce faire, les physiciens du MIT utilisent, comme dans le projet ITER, des tokamaks, c’est-à-dire des enceintes toriques générant des champs magnétiques pour confiner le plasma chaud produit lors de la réaction. Ces scientifiques espèrent également développer d’ici trois ans les aimants supraconducteurs les plus puissants du monde. Ceux-ci s’appuieront sur des matériaux supraconducteurs récents à base d’oxyde mixte de baryum de cuivre et d’yttrium (YBCO). Ils devraient générer des champs magnétiques 4 fois plus puissants que ceux actuellement générés dans les autres tokamaks, autorisant ainsi une production d’énergie 10 fois plus importante qu’un tokamak de même taille.
Outre sa prodigieuse efficacité énergétique, la fusion nucléaire, si elle parvient à être contrôlée, supprimera le problème de la rareté des ressources. Pour obtenir le deutérium et le tritium nécessaires au fonctionnement d’un réacteur à fusion, les seules matières premières nécessaires sont en effet l’eau et le lithium, dont les réserves revues à la hausse devraient assurer au moins 400 ans de consommation. Mais les deux immenses avantages du réacteur à fusion nucléaire sont qu’il ne peut pas s’emballer spontanément et qu’il ne produit pas, contrairement aux actuels réacteurs à fission nucléaire, de déchets radioactifs à très longue vie (plusieurs dizaines de milliers d’années) mais uniquement de l’hélium et du tritium qui perd l’essentiel de sa radioactivité au bout de 60 ans.
A la lumière de cette évolution et des avancées scientifiques que j’ai rappelées, on voit donc que l’énergie nucléaire peut avoir un avenir dans nos sociétés, mais à trois conditions : la première est d’organiser au plus vite la mutation technologique vers une énergie nucléaire de prochaine génération, réacteurs à sel fondu ou mieux encore, fusion contrôlée, intrinsèquement bien plus efficace, sûre et propre que les réacteurs actuels. La deuxième est d’instaurer une véritable transparence dans les informations et les projets concernant l’énergie nucléaire et d’associer étroitement tous nos concitoyens et le monde associatif aux décisions politiques prises dans ce domaine, en créant les véritables conditions d’un débat démocratique honnête et réel, qui intègre toute la complexité de cette question de l’avenir du nucléaire, notamment au regard de l’enjeu climatique. Enfin, la troisième condition est de sortir des postures idéologiques stériles, pour cesser de considérer de manière simpliste et erronée que le développement de ce nucléaire de nouvelle génération et l’essor considérable des énergies renouvelables auquel nous assistons sont incompatibles.
Rien n’est plus faux et je pense, pour ma part, que si l’on veut se donner les moyens de réduire massivement et rapidement nos émissions de gaz à effet de serre, ce qui est le seul moyen de parvenir à limiter les effet dévastateurs du réchauffement climatique en cours, les économies d’énergie ne suffiront malheureusement pas, compte tenu de l’essor démographique et économique de la planète. Nous aurons donc besoin de développer conjointement toutes les énergies qui n’émettent pas de CO2, l’ensemble des énergies renouvelables bien sûr (éolien solaire, biomasse, énergies des mers) mais également cette énergie nucléaire de nouvelle génération, infiniment plus sûre et plus respectueuse de l’environnement.
Espérons que, dans le cadre d’un débat démocratique approfondi et serein ou tous les enjeux seront expliqués clairement à nos concitoyens, nous aurons la sagesse de considérer que la priorité absolue doit être donnée à la question climatique et à la réduction de nos émissions de CO2. Or, ces deux défis de civilisation ne pourront être affrontés efficacement, sinon résolus, qu’en acceptant d’intégrer une part de nucléaire dans le paysage énergétique mondial qui émergera au cours de la seconde moitié de ce siècle.
René TRÉGOUËT
Sénateur honoraire
Fondateur du Groupe de Prospective du Sénat
|
|
|
|
|
|
|
|
Avenir |
|
|
Nanotechnologies et Robotique
|
|
|
|
|
|
|
|
|
L'identification et la traçabilité des implants biomédicaux sont devenues un enjeu majeur de santé publique, surtout depuis la découverte de plusieurs scandales sanitaires sur des dispositifs médicaux, qui ont montré la nécessité pour des patients de pouvoir remonter l'origine d'implants frelatés responsables de complications cliniques. Toutefois, si l'emballage n'est pas conservé, il est assez délicat d'authentifier un implant, surtout s'il est resté plusieurs années dans un organisme. Dans ce contexte, des équipes de l'Institut Charles Sadron du CNRS, du Laboratoire de recherche vasculaire translationnelle (Université Paris 13/Inserm/Université Paris Diderot) et de l'Institut de Chimie Radicalaire (CNRS/Aix-Marseille Université) viennent de développer une solution innovante permettant « d'étiqueter » chimiquement un implant à l'échelle moléculaire. Pour cela, les chercheurs ont utilisé des polymères, de grandes molécules composées de deux types de sous-unités de base dont l'enchaînement constitue un code, à l'image des suites de 0 et de 1 en informatique. En déterminant la masse de chaque fragment du polymère par une méthode d'analyse chimique appelée spectrométrie de masse, il est possible de remonter jusqu'au code de la molécule, et donc de la décrypter à la manière d'un code-barres. Les étiquettes moléculaires ont été incorporées en toute petite quantité dans des implants modèles, qui ont été implantés dans des rats. Après trois mois, les implants ont été extraits des animaux et l'analyse par spectrométrie de masse a alors montré que les polymères d'identification peuvent être décodés sans ambiguïté. Ces résultats constituent une avancée majeure dans le domaine de la lutte anti-contrefaçon et de la traçabilité de matériaux pour la santé. La spectrométrie de masse étant déjà employée dans le milieu hospitalier et dans de nombreux laboratoires d'analyse, cette méthode d'identification pourrait être facilement étendue à d'autres domaines.
Article rédigé par Georges Simmonds pour RT Flash
CNRS
|
|
^ Haut |
|
|
|
|
|
|
|
Matière |
|
|
Matière et Energie
|
|
|
|
|
|
|
|
|
La société Enerkem, en pointe mondiale dans la production de biocarburants et de produits chimiques renouvelables faits à partir de matières résiduelles non-recyclables, a annoncé avoir réussi à produire un bio-diméthyle éther (bio-DME) propre et renouvelable, dérivé du biométhanol, qui pourrait contribuer efficacement à la lutte contre le changement climatique en remplaçant le carburant diesel utilisé dans le secteur des transports.
Mettant à contribution la technologie thermochimique exclusive de l'entreprise, son groupe d'innovation a mis à l'essai et a validé la production de bio-DME de grade combustible produit à partir de matières résiduelles non récupérables et riches en carbone. Plus de 1 000 heures de production ont été cumulées à son centre d'innovation à Westbury, au Québec.
"Les carburants diesel sont trois fois plus polluants que ne l'est un carburant DME produit à partir de déchets", a affirmé Stéphane Marie-Rose, directeur du centre d'innovation d'Enerkem à Westbury. Selon le rapport de synthèse du Groupe d'experts intergouvernemental sur l'évolution du climat (GIEC), plus de sept gigatonnes d'équivalent CO2 sont générées par le secteur des transports à l'échelle mondiale.
"En remplaçant le carburant diesel par un biocarburant propre et renouvelable comme le bio-DME, nous pourrions réduire les émissions de gaz à effet de serre de façon importante et instantanée". En moyenne, l'indice de cétane associé au bio-DME est de 20 % plus élevé que celui associé aux carburants diesel ou biodiesel (l'indice de cétane est au moteur diesel ce que l'indice d'octane est au moteur à essence). De plus, la combustion de DME ne produit pas d'oxydes de soufre (SOx) ou de particules fines et contribue à réduire les émissions d'autres polluants résiduels nocifs comme les oxydes d'azote (NOx), qui sont principalement générés par la combustion de sources fossiles.
Outre les divers avantages environnementaux et économiques, le biocarburant DME produit à partir de déchets offre de nombreuses applications potentielles. Par exemple, il pourrait être utilisé pour remplacer les carburants diesel utilisés pour propulser les voitures, les camions, les trains ou même les bateaux, tout en offrant une combustion plus efficace et plus propre. Enerkem a l'intention de perfectionner et d'optimiser cette plus récente innovation tout en évaluant ses applications commerciales potentielles.
Article rédigé par Georges Simmonds pour RT Flash
Newswire
|
|
|
|
|
|
|
|
Des chercheurs de l’EPFL ont réussi à rendre un matériau opaque parfaitement transparent, du moins pour les ondes acoustiques. Grâce à des relais acoustiques disposés à des endroits stratégiques, le son a pu se propager avec une amplitude constante, malgré la présence d’obstacles sur son chemin. A terme, cette technique pourrait être utilisée pour rendre indétectables des objets, tels que les sous-marins, avions ou drones.
La plupart des matériaux naturels présentent une structure atomique désordonnée, qui perturbe la propagation des ondes. A leur contact, les ondes (acoustiques ou électromagnétiques) se dispersent, ricochent et l’énergie se diffuse selon un schéma extrêmement complexe, perdant en intensité. A cause de ce phénomène, on ne peut pas exploiter pleinement le potentiel des ondes pour transmettre de l’information ou de l’énergie à travers des milieux multidiffusants.
Les systèmes de localisation des smartphones sont par exemple moins performants à l’intérieur des bâtiments, où les ondes radiofréquences ricochent dans toutes les directions. De même, en termes d’imagerie biomédicale ou de prospection géophysique, il y a un besoin réel de solutions pour transmettre des ondes à travers des milieux fortement désordonnés.
A l’EPFL, une équipe de chercheurs a montré que des ondes acoustiques pouvaient traverser des systèmes désordonnés, et en ressortir intactes. Cela grâce à de petits haut-parleurs utilisés comme relais acoustiques, qui compensent les ricochets des ondes. Leur théorie a été validée expérimentalement sur un système acoustique réel.
La méthode des chercheurs repose sur l’utilisation de haut-parleurs relais, permettant d’amplifier, d’atténuer et de déphaser le son. Ces outils contrebalancent les effets indésirables dus à la diffusion sonore sur de nombreux obstacles, préservant le son intact d’un bout à l’autre du milieu.
Mais comment cela fonctionne-t-il ? « Pour contrecarrer le désordre, nous nous sommes aperçus que les relais devaient être capable de modifier l’amplitude et la phase de l’onde en des points stratégiques du milieu, soit pour l’amplifier, soit pour l’atténuer », explique Romain Fleury, directeur du Laboratoire d'Ingénierie des Ondes (LWE).
Pour réaliser une structure fortement désordonnée, les chercheurs de l’EPFL ont utilisé un tube rempli d’air d’environ 3,5 mètres de long, dans lequel ils ont placé des obstacles de diverses natures (murs, matériaux poreux, chicanes, etc). Cela afin qu’aucune transmission sonore ne soit possible. Ils ont ensuite disposé des haut-parleurs entre ces obstacles, dont ils ont adapté les propriétés acoustiques par contrôle électrique.
Ce type de contrôle acoustique actif, similaire à celui utilisé dans les casques anti-bruit, est potentiellement applicable aux sons riches en fréquences de notre environnement. La technologie pourrait donc servir à supprimer les échos lorsqu’une onde percute un objet comme un sous-marin, le rendant indétectable aux sonars.
Article rédigé par Georges Simmonds pour RT Flash
EPFL
|
|
|
|
|
|
|
|
Après quatre ans d’expérimentation, l’hydrolienne fluviale de la société Hydroquest a été retirée mardi 26 juin 2018. "L’objectif était de valider le fonctionnement de notre système et son impact environnemental", rappelle Jean-François Simon, président de la société grenobloise fondée en 2010. "Et c’est un succès. Nous ne sommes plus en phase de recherche et développement mais en phase commerciale". Baptisée Hydroquest River et disponible dans deux versions à 40 kW et 80 kW de puissance nominale, l’hydrolienne fluviale est à axe de rotation vertical et repose sur une barge flottante amarrée au fond du fleuve.
Celle installée à Orléans avait une puissance de 40 kW. La période de tests a permis de valider la robustesse de l’installation, la faisabilité de la maintenance et la conversion électrique. "Ce sont les trois aspects critiques pour les exploitants", affirme M. Simon. En effet, le matériel doit résister à tout ce que charrie le fleuve : troncs, branches, feuilles…
Il doit être simple et robuste pour faciliter la maintenance. "La barge permet de sortir la turbine et de travailler dessus à sec", poursuit M. Simon. "De plus, elle est truffée de capteurs". Enfin, le flux de l’eau n’étant pas régulier, les machines tournent à une vitesse variable.
Maintenant que la phase de R&D est terminée, Hydroquest envisage de déployer son système dans le cadre de fermes. Deux projets sont d’ailleurs en cours. L’un porte sur quatre hydroliennes de 80 kW, en cours de fabrication, qui devraient être installées à Caluire-et-Cuire (69), près de Lyon, dans ces prochaines semaines. L’autre projet devrait aboutir en 2019 à l’installation d’un mix de trente-neuf hydroliennes de 40 kW et 80 kW sur le Rhône entre Lyon et Genève pour une puissance totale de 2 MW pour le compte de la Compagnie nationale du Rhône.
Article rédigé par Georges Simmonds pour RT Flash
Industrie & Technologies
|
|
^ Haut |
|
|
|
|
|
|
|
Vivant |
|
|
Santé, Médecine et Sciences du Vivant
|
|
|
|
|
|
|
|
|
Un nouveau centre de traitement et de recherche dédié à l’hadronthérapie, baptisé Cyclhad, a été inauguré à Caen et marque une nouvelle étape vers l'accès à une nouvelle forme de radiothérapie permettent de traiter bien plus efficacement certains cancers graves.
Chaque année, le cancer touche 384 000 nouveaux patients en France. Parmi eux, 150 000 sont traités par radiothérapie, seule ou associée à la chimiothérapie ou à la chirurgie. Ces traitements permettent déjà une rémission complète dans une majorité de cas. Mais une technique en plein essor laisse espérer de nouveaux progrès : l’hadronthérapie. « Celle-ci est particulièrement indiquée pour les tumeurs résistantes à la chimio- et à la radiothérapie, ou inopérables du fait de leur localisation près de tissus vitaux : tumeurs cérébrales, du crâne, de la face ou du cou, près du cœur ou de l’œil, etc. », détaille Jacques Balosso, cancérologue et radiothérapeute au CHU de Grenoble. Au total, ce traitement pourrait concerner 15 000 patients chaque année.
De fait, l’hadronthérapie est une nouvelle forme de radiothérapie : comme la radiothérapie conventionnelle, elle consiste à irradier les cellules tumorales avec un faisceau de particules pour les détruire. Mais alors que la première utilise des photons de haute énergie (ou rayons X), « l’hadronthérapie repose, elle, sur des ions chargés positivement, notamment des ions hydrogènes ou “protons” – c’est la protonthérapie –, et des ions carbone – c’est la carbonethérapie », explique Daniel Cussol, physicien nucléaire au Laboratoire de physique corpusculaire de Caen.
Constitués de protons et de neutrons – des particules élémentaires appartenant à la famille des hadrons, d’où le nom de la technique –, ces ions sont accélérés dans des appareils énormes, de quelques mètres à une vingtaine de mètres de diamètre : des synchrotrons ou des cyclotrons. Et ce, à des vitesses vertigineuses… pouvant atteindre 73 % de la vitesse de la lumière, soit 219 000 kilomètres par seconde ! Puis ils sont concentrés en un faisceau de moins d’un millimètre de diamètre permettant d’irradier les tumeurs.
Comparés aux rayons X, les faisceaux d’hadronthérapie sont en théorie plus précis. Concernant spécifiquement les ions carbone, ils seraient aussi plus efficaces. Mais surtout, « les ions chargés délivrent la majorité de leur énergie au niveau de la tumeur visée. Ce qui permet de maximiser les dégâts au niveau de la tumeur, tout en préservant au mieux les cellules saines autour », précise Daniel Cussol.
Article rédigé par Georges Simmonds pour RT Flash
CNRS
|
|
|
|
|
|
|
|
On sait depuis près d'un siècle que le froid appliqué directement dans les zones du cerveau à l'origine de l'épilepsie permet de réduire la fréquence et l'intensité des crises. L'idée de refroidir très localement les centres épileptogènes a depuis fait son chemin, mais se heurte à un problème de taille : évacuer localement la chaleur dans ces zones cérébrales le plus souvent fonctionnelles et profondes.
Le projet Epicool, mené conjointement par le CHU de Grenoble et le centre de recherche biomédicale Clinatec (Leti, CEA Tech), a pour but de développer un dispositif médical implantable pour le traitement des épilepsies résistantes aux traitements médicamenteux classiques. Le principe repose sur une technologie en cours d'émergence. La première phase du projet a consisté à adapter cette technologie à l'application visée, en identifiant les composants critiques les plus appropriés et en mettant au point un banc de refroidissement à l'échelle du laboratoire.
Cette première phase étant achevée avec succès, les étapes suivantes consisteront à miniaturiser le dispositif, à adapter son fonctionnement à des conditions comparables à celles de l'environnement cérébral (pression, température, etc) et à concevoir un packaging adapté. Ensuite seulement pourront commencer les essais chez l'animal prévus fin 2018.
Article rédigé par Georges Simmonds pour RT Flash
CEA
|
|
|
|
|
|
|
|
Une étude réalisée par des chercheurs du California Institute of Technology (Caltech) a montré comment l'isolement social peut transformer le cerveau et entraîner l'agressivité et la peur. Ces recherches ont montré, chez la souris, que l'isolement social provoque l'accumulation de ce composé particulier dans le cerveau, la neurokinine mais aussi que le blocage de ce neuropeptide élimine les effets négatifs de l'isolement. Donc des applications potentielles pour le traitement des troubles de santé mentale chez les humains.
Ces travaux montrent également qu’un isolement social prolongé conduit à un large éventail de changements comportementaux, dont une agressivité accrue envers les souris non familières, une peur persistante et une hypersensibilité aux stimuli menaçants. Des souris isolées sur une longue durée restent comme figées, durant un long laps de temps, lorsqu’elles sont exposées à un stimulus menaçant.
La même équipe, lors de travaux précédents sur la mouche Drosophile, avait identifié le rôle clé d’une tachykinine neurochimique dans la promotion de l'agressivité chez des mouches « socialement isolées ». La tachykinine est un neuropeptide libéré par certains neurones lorsqu'ils sont activés.
L'équipe a donc regardé si la tachykinine jouait un rôle similaire chez la souris isolée et montre que le gène de la tachykinine Tac2 code pour un neuropeptide appelé neurokinine B (NkB). Tac2 / NkB est produit par des neurones dans des zones spécifiques du cerveau des souris dont l'amygdale et l'hypothalamus, des zones connues comme impliquées dans le comportement émotionnel et social. Ici, l'isolement chronique entraîne chez la souris une augmentation de l'expression du gène Tac2 et de la production de NkB dans le cerveau.
Cependant, l'administration d'un médicament qui bloque chimiquement les récepteurs spécifiques de NkB, en éliminant les effets négatifs de l'isolement social, permet aux souris stressées de retrouver un comportement normal. À l'inverse, l'augmentation artificielle des niveaux de Tac2 et l'activation des neurones correspondants chez les animaux normaux non stressés conduit à des comportements de souris isolées. Enfin, en inhibant la fonction de Tac2 et de ses récepteurs dans plusieurs zones cérébrales spécifiques, les chercheurs peuvent associer la voie biologique de la peur à l'amygdale et de l’agressivité à l'hypothalamus.
Comme les humains ont un système de signalisation Tac2 analogue, ces recherches pourraient avoir, à terme, des implications thérapeutiques, notamment en permettant un ciblage moléculaire plus précis dans le cerveau, pour le traitement de certaines pathologies psychiatriques.
Article rédigé par Georges Simmonds pour RT Flash
Cell
|
|
|
|
|
|
|
|
Pour traiter le plus efficacement possibles les cancers du sein, il faut prendre en compte de nombreux indicateurs cliniques, comme l’âge de la patiente ou la taille de la tumeur. Mais depuis peu, la médecine dispose également de nouveaux outils prédictifs, sous forme de kits de diagnostic in vitro qui permettent de connaître les caractéristiques génétiques de la patiente et le profil génomique de la tumeur.
C'est ainsi que, pour identifier quelles tumeurs peuvent récidiver dans le cancer du sein, la société néerlandaise Mammaprint analyse l’expression des gènes des patientes. Après avoir séquencé leur ADN, des algorithmes ont permis de mettre en évidence environ 70 gènes-clés qui sont des marqueurs prédictifs. Grâce à ce test, il devient donc possible de classer les patientes en différentes catégories, selon leur risque de récidive. A terme, ce test pourrait notamment permettre de ne plus proposer une hormonothérapie - qui comporte d'importants effets secondaires - aux 15 % de patientes qui présentent un très faible risque de récidive.
Une autre firme biomédicale, Oncotype, a récemment démontré que 70 % des chimiothérapies pouvaient être évitées dans le cancer du sein. Son étude Taylor X, qui utilise un test de signature génomique, a permis d’identifier les patientes qui tiraient vraiment un bénéfice du traitement ou non. Selon un test de probabilité, Tailor X a démontré que sous un certain score de probabilité de récidive, la chimiothérapie s’avère inutile.
Article rédigé par Georges Simmonds pour RT Flash
L'Usine Nouvelle
|
|
|
|
|
|
|
|
Une équipe de chercheurs italiens et américains a découvert l'existence "d'un plateau dans la mortalité humaine". Rompant avec la théorie dominante depuis deux siècles, ils assurent qu’à partir de 105 ans, le risque de mourir cesse d’augmenter pour devenir constant.
Pour en mesurer l’ampleur, il faut savoir qu’en 1825, le mathématicien britannique Benjamin Gompertz a modélisé le taux de mortalité humaine. Selon sa loi, le risque de mourir suit une fonction exponentielle. Autrement dit, plus on avance en âge, plus ce risque augmente. Ce modèle a servi aux démographes, mais aussi aux assureurs ou encore aux médecins travaillant sur la croissance des tumeurs. Pourtant, depuis quelques années, ce principe a été sérieusement remis en cause. Des biologistes ont en effet découvert que des levures, des vers ou encore des insectes ne semblaient pas suivre cette distribution. Qu’en était-il alors des humains ?
Ces chercheurs se sont appuyés sur les données italiennes. Ils ont analysé la trajectoire individuelle des 3 836 personnes âgées d’au moins 105 ans, observées entre 2009 et 2015. Près des trois quarts d’entre elles sont mortes pendant l’étude, un quart étaient encore vivantes au 31 décembre 2015. Les hommes ne constituaient que 12 % de l’échantillon.
Les scientifiques ont mis en évidence l’augmentation de la taille des cohortes au fur et à mesure que les années passaient, ce qui confirme la croissance du nombre de centenaires ou de super-centenaires (110 ans). Ils concluent qu’à partir de 105 ans la probabilité de mourir dans l’année plafonne à 0,475. Autrement dit, à partir de cet âge, un vivant garde 47,5 % de chances de mourir dans les douze mois. Son espérance de vie, au lieu de diminuer chaque année, semble donc se stabiliser à 1,55 ans…
Article rédigé par Georges Simmonds pour RT Flash
Science
|
|
|
|
|
|
|
|
Des ingénieurs biomédicaux de l'Université de Columbia ont mis en évidence une nouvelle caractéristique fondamentale des oscillations cérébrales : elles se déplacent de manière rythmique à travers le cerveau, reflétant les modèles d'activité neuronale qui se propagent à travers le cortex. L'étude, présentée dans la revue Neuron apporte des données fondamentales pour une meilleure compréhension de la mémoire et de la cognition.
Car la coordination de l'activité neuronale dans les réseaux cérébraux est essentielle pour la cognition humaine. Or les chercheurs constatent que ces ondes mobiles se déplacent de manière plus fiable lorsque les sujets se comportent bien tout en effectuant une tâche de mémoire de travail. Ces observations suggèrent que les ondes progressives sont importantes pour la mémoire et la cognition et que leurs oscillations sont un mécanisme clé de la coordination cérébrale à grande échelle dans le cerveau humain.
Il s’agit de l’analyse des enregistrements cérébraux directs de 77 patients atteints d'épilepsie, « équipés » d’électrodes placées dans des zones étendues du cerveau pour la cartographie de leurs crises. Pour l'étude, ces patients ont été invités à effectuer une tâche de mémoire. En examinant les enregistrements cérébraux de ces patients, les chercheurs ont trouvé de grandes zones cérébrales présentant des oscillations « thêta » et « alpha », qui sont liées à la cognition, à des fréquences spécifiques entre 2 et 15 Hz. Ces oscillations indiquent que les neurones de cette région s'activent en rythme pour soutenir la cognition.
Les chercheurs ont ensuite mesuré des oscillations individuelles simultanément à partir de plusieurs électrodes puis analysé le mouvement de chaque onde en déplacement. Ils constatent alors que ces oscillations sont en fait des ondes qui se déplacent à travers le cortex à 0,25-0,75 m / s. « La propagation de ces ondes semble corrélée avec les tâches en cours et plus cohérente lorsque les sujets effectuent correctement la tâche », expliquent les chercheurs.
Le cerveau utilise ces oscillations neuronales pour propager l'information dans différentes zones et, en organisant les processus neuronaux à travers l'espace et le temps, les ondes progressives jouent un rôle important dans le soutien de la connectivité cérébrale. Ainsi, les modèles d'ondes progressives pourraient permettre de caractériser la connectivité cérébrale d'un individu et pourraient, également, fournir un nouveau type de signal utilisable dans le développement d’interfaces cerveau-ordinateur.
Article rédigé par Georges Simmonds pour RT Flash
Cell
|
|
|
|
|
|
|
|
Des chercheurs des services d’hépatologie, d’anesthésie-réanimation et d’anatomo-pathologie de l’hôpital Beaujon AP-HP, de l’Université Paris Diderot et de l’Institut Cochin (UMR 1016,Inserm–Université Paris Descartes), en collaboration avec l’équipe « Inflammation et stress dans les maladies du foie » du Centre de Recherche sur l’Inflammation (UMR 1149-Inserm-Université Paris Diderot), ont démontré qu’une population particulière de lymphocytes T, appelée « MAIT », jouait un rôle majeur dans l’inflammation et la fibrose associées aux maladies chroniques du foie. Ces cellules pourraient ainsi représenter une stratégie antifibrogénique intéressante pour développer de nouvelles approches thérapeutiques des maladies chroniques du foie.
La cirrhose représente le dernier stade évolutif de la fibrose associée aux maladies chroniques du foie quelle que soit leur cause (principalement abus d’alcool, hépatites virales chroniques et stéatopathie métabolique). On estime qu’en France 200 000 à 500 000 individus sont atteints de cirrhose et que plus de 170 000 décès par an sont liés à cette maladie en Europe. A terme, la cirrhose aboutit à une insuffisance hépatique dont le seul traitement curatif est la transplantation hépatique. En effet, il n’existe à ce jour aucune molécule dont l’effet antifibrosant ait été validé en pratique clinique.
Les maladies chroniques du foie sont caractérisées par une inflammation persistante qui contribue à leur progression vers des stades plus sévères. Elles peuvent évoluer vers une fibrose du foie et une cirrhose, et alors nécessiter une transplantation de foie. Un traitement permettant une régulation de cette réponse inflammatoire pourrait constituer une approche anti-fibrogénique intéressante.
L’équipe du Docteur Sophie Lotersztajn (centre de recherche sur l’inflammation Inserm-Université Paris Diderot), en collaboration avec les services d’anesthésie-réanimation (Docteur Emmanuel Weiss), d’anatomo-pathologie (Professeur Valérie Paradis) et d’hépatologie (Professeur Pierre-Emmanuel Rautou) de l’hôpital Beaujon AP-HP et une équipe de l’Institut Cochin – Université Paris Descartes (Docteur Agnès Lehuen) se sont intéressées au rôle des lymphocytes T invariants associés aux muqueuses (MAIT) dont la fonction commence juste à être décryptée.
Ces travaux montrent qu’au cours de la cirrhose, les cellules MAIT du foie et du sang sont activées et qu’elles s’accumulent dans le foie au contact des cellules fibrogéniques dans les septa fibreux. Dans un modèle de souris enrichies en cellules MAIT, la fibrose est exacerbée. Cette étude met donc en évidence le rôle des cellules MAIT dans l’inflammation et la fibrose associés aux maladies chroniques du foie et suggère que cibler ces cellules pourrait constituer une approche thérapeutique antifibrogénique innovante.
Article rédigé par Georges Simmonds pour RT Flash
Inserm
|
|
^ Haut |
|
|
|
|
|
VOTRE INSCRIPTION |
|
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
|
|
|
|
|
|