|
|
|
|
|
NUMERO 781 |
|
|
|
|
|
|
|
Edition du 09 Janvier 2015
|
|
|
|
|
Edito
Hydrates de méthane océaniques : une nouvelle révolution énergétique se prépare !
En moins de 50 ans, la consommation mondiale d’énergie a pratiquement triplé et devrait atteindre environ 13 gigatonnes en 2015, soit près de 2 tonnes équivalent-pétrole par an, pour chaque terrien ! Et cette soif mondiale d’énergie n’est pas près de s’éteindre car le monde comptera deux milliards d’habitants en plus d’ici 2050 et le développement économique mondial, notamment en Asie, rend probable l’hypothèse d’une consommation d’énergie planétaire supérieure à 20 gigatonnes équivalent pétrole à l’horizon 2050.
Même si nous avons tendance à l’oublier, il est toujours bon de rappeler, qu’en dépit de la très forte montée en puissance des énergies renouvelables, l’ensemble des énergies fossiles -pétrole, gaz et charbon- qu’elles soient conventionnelles ou non, représente encore aujourd’hui les trois quarts de la production énergétique mondiale.
Il reste que cette utilisation massive et persistante des énergies fossiles que nous utilisons actuellement va se heurter inexorablement à un problème incontournable : celui de leur épuisement inévitable lié au caractère fini et non renouvelable des quantités physiques disponibles de ces sources d’énergie fossile. Pour le pétrole, les réserves mondiales prouvées de pétrole sont de 1.481 milliards de barils (un baril représente 159 litres de pétrole brut), selon les dernières estimations de l’OPEP qui incluent les réserves des sables bitumineux de l’Alberta (Canada) ou de l’Orénoque (Venezuela). Les estimations annuelles de la revue hebdomadaire américaine « Oil and Gas Journal » estiment pour leur part que les réserves mondiales prouvées de pétrole brut au 1er janvier 2014 atteignent 224 milliards de tonnes, ce qui représente environ 60 années, au rythme actuel de la production.
Les réserves de gaz (réserves conventionnelles et non conventionnelles) et de charbon pourraient, quant à elles, permettre de répondre à la demande pendant environ 120 ans mais elles finiront également par s’épuiser. En outre, ces deux sources d’énergie, si elles devaient continuer à être utilisées massivement, vont entraîner un coût social et environnemental de plus en plus important, surtout quand on sait que les gaz non-conventionnels, comme le gaz de schiste, représentent déjà, au niveau mondial, un tiers de la production de gaz naturel et 10 % de la production de pétrole…
Même si l’on admet que l’ensemble des énergies renouvelables à faible émission de gaz à effet de serre (nucléaire non compris ), parviennent à représenter la moitié du mix énergétique mondial à l’horizon 2050, ce qui est loin d’être assuré, et en supposant que la part du nucléaire dans le mix énergétique mondial se stabilise à environ deux gigatonnes par an, cela signifie qu’il faudra encore trouver environ huit gigatonnes par an pour « boucler » le bilan énergétique mondial, ce qui représente plus de 60 % de toute la production énergétique actuelle de la planète…
Ces huit gigatonnes ne pourront donc être issues des seules énergies fossiles. Le paysage énergétique mondial, déjà profondément transformé par l’exploitation massive récente du gaz et du pétrole non conventionnel, pourrait être totalement bouleversé par l’exploitation à grande échelle d’une nouvelle ressource énergétique présente en quantité phénoménale dans les fonds marins et les pergélisols : les hydrates de méthane.
Ces hydrates de méthane, issus de la décomposition de matière organique, sont des réserves de gaz naturel contenues dans des poches de glace. Ces poches glacées se forment uniquement à basse température et à forte pression, raison pour laquelle on retrouve uniquement les hydrates de méthanes dans certains fonds marins et pergélisols. Elle contient du méthane en grande quantité, ainsi que du sulfure d’hydrogène et du dioxyde de carbone. Toutefois, si les conditions physico-chimiques se modifient (augmentation de la température, diminution de la pression), les hydrates de méthane deviennent instables et les gaz se libèrent de leur enveloppe de glace.
À l’instar des océans, des forêts et des sols, ces hydrates de méthane sont des puits de carbone qui absorbent naturellement le CO2. Mais surtout, compte tenu de la forte pression à laquelle ils sont soumis au fond des océans, ils contiennent de très grandes quantités de gaz concentrés dans un tout petit volume puisqu’un m3 seulement d’hydrates de méthane représente environ l’équivalent énergétique de 168 m3 de gaz naturel !
Ces hydrates de méthane possèdent donc de remarquables propriétés énergétiques et, à condition bien sûr de savoir les récupérer et les exploiter industriellement, ils peuvent être utilisés très facilement pour produire de l’énergie et de l’électricité, au même titre que le gaz naturel. Bien qu’il soit très difficile d’estimer précisément au niveau mondial les réserves de gaz naturel contenues dans les hydrates de méthane, la communauté scientifique s’accorde sur le fait que ces réserves sont absolument colossales : sans doute plus de 10.000 milliards de tonnes, soit le double des réserves restantes cumulées de pétrole, de gaz naturel et de charbon…
En théorie, ces réserves phénoménales représentent plusieurs siècles de consommation énergétique, même en anticipant l’augmentation prévisible de la demande. Mais dans la réalité, il n’est ni possible ni envisageable, pour des raisons à la fois économiques et technologiques, d’exploiter l’ensemble des sites contenant des hydrates de méthane. En outre, l’extraction et la récupération à grande échelle de l’énergie contenue dans ces hydrates de méthane est une opération délicate et complexe qui n’a rien à voir avec un simple forage gazier ou pétrolier. Il est notamment capital de parvenir à extraire l’énergie contenue dans ces hydrates de méthane de manière parfaitement contrôlée, afin d’éviter toute fuite de méthane dans l’atmosphère car ce gaz à effet de serre est 20 fois plus puissant, à volume égal, que le CO2 et de telles fuites pourraient accélérer dangereusement le réchauffement climatique déjà préoccupant résultant de l’augmentation considérable des émissions humaines de gaz à effet de serre.
Un pays a cependant décidé de relever ce défi scientifique, économique et écologique : le Japon. Disposant de très peu d’énergie fossile sur son territoire et confronté à l’arrêt de sa production électronucléaire depuis la catastrophe de Fukushima, le Japon a décidé de mettre en œuvre une politique énergétique ambitieuse et volontariste reposant sur une diversification des sources énergétiques et un très fort développement de l’ensemble des énergies renouvelables. Dans cette « panoplie » énergétique, l’exploitation industrielle des hydrates de méthane est appelée à tenir une place de choix. Il est vrai que ce pays a entrepris depuis 15 ans un vaste inventaire géologique destiné à identifier ces ressources sous-marines.
En mars 2013, la société JOGMEC (Japan Oil, Gas and Metals National Corporation) a réalisé une première mondiale en annonçant avoir extrait avec succès du gaz d’un gisement d’hydrate de méthane situé en mer profonde (plus de 500m) au large d’une des grandes îles constituant le Japon, l’île de Shikoku. Les forages et l’extraction ont été effectués à partir d’un navire spécialisé, le Kikuyu. Les travaux préparatoires ont été menés à l'aide du navire scientifique de forage Chikyu. Celui-ci a foré par 1 000 mètres de profondeur pour atteindre le dépôt d'hydrates de méthane situé à 300 mètres sous le plancher de la mer.
Un puits de production et deux puits de contrôle ont été creusés. Le gaz extrait durant une dizaine de jours n’a pas été récupéré, il a été brûlé à bord du navire pendant que l’on procédait à de nombreuses mesures. Pour extraire le gaz de sa cage de glace, la société japonaise a choisi le procédé de la dépressurisation. Il s’agit de poser par forage un tube dans le gisement d’hydrate et de pomper le liquide en excès. La pression s’abaisse alors et l’hydrate de méthane se dissocie en glace et gaz. Fort de ce succès, le Japon est bien décidé à devenir, d’ici une dizaine d’années, le premier pays au monde capable de récupérer et d’utiliser massivement ces nouvelles ressources énergétiques sous-marines.
Mais ce calendrier prévisionnel nippon pourrait bien être bouleversé par plusieurs ruptures technologiques récentes qui rendent l’exploitation massive de ces hydrates de méthane océaniques moins complexe et plus rentable.
En avril dernier, des chercheurs de l'Université d'Okayama, dirigés par les Professeurs Yagasaki et Hideki Tanaka, spécialiste en chimie moléculaire, ont réussi à modéliser les différents changements de phase des hydrates de méthane en ayant recours au supercalculateur "informatique K" de l’Institut national Riken à Kobe.
L’énorme puissance de calcul de ce supercalculateur a permis aux chercheurs de simuler les mouvements et les réactions de toutes les molécules d'hydrate de méthane cristallisés. Cette modélisation a permis de simuler l'attraction et la répulsion naturelle qui se produit au niveau atomique pendant les transitions de phase. Commentant le résultat de ces recherches de pointe, Hideo Narita, directeur du Centre de recherche sur les hydrates de méthane de l'Institut national pour la science et la technologie, a déclaré : « Ces travaux alliant physique, informatique et mathématiques ont permis de simuler avec une précision sans précédent le comportement et l’évolution des molécules d'hydrate de méthane et ces modélisations ont bien confirmé qu’il était possible d’exploiter de façon durable et sûre les hydrates de méthane sous-marins à des fins énergétiques ».
Autre signe que les choses s’accélèrent dans ce domaine stratégique, il y a quelques jours, les autorités japonaises et notamment l'Agence des ressources naturelles et de l'Énergie, ont annoncé qu’ils étaient parvenus à récupérer des échantillons d’hydrates de méthane sous le plancher océanique au large de Niigata, Akita et Yamagata. Selon ce communiqué nippon, il y aurait suffisamment d'hydrates de méthane sous les eaux territoriales japonaises pour répondre aux besoins en gaz naturel de l’archipel pendant au moins un siècle (Voir The Japan Times).
Enfin, il y a trois semaines, une équipe franco-allemande regroupant des chercheurs de l'Université de Göttingen et de l'Institut Laue Langevin (ILL) a annoncé la découverte d'une nouvelle forme de glace qui pourrait permettre d’avancer vers de nouvelles solutions pour la production, le transport et le stockage de l'énergie. Baptisée « glace XVI », cette glace est la moins dense de toutes les formes de glace connues et possède une structure fortement symétrique, formant des cages. Grâce à ses propriétés tout à fait particulières, cette glace peut piéger des molécules gazeuses pour former des composés appelés clathrates ou hydrates de gaz (Voir Nature).
Or, ce sont précisément ces clathrates qui renferment d'énormes quantités de méthane et d'autres gaz, situées dans le permafrost et dans de vastes couches sédimentaires à des centaines de mètres au fond des océans. Ces chercheurs ont notamment réussi à obtenir le premier clathrate vide, c’est-à-dire une structure de molécules d'eau dont toutes les molécules hôtes ont été retirées. Pour produire ce premier échantillon de glace XVI, les chercheurs ont synthétisé un clathrate rempli de molécules de néon, qu'ils ont ensuite enlevées en les pompant délicatement à basse température.
Pour réussir cet exploit technologique, les chercheurs ont pompé le clathrate de néon dans des conditions très particulières de froid et de température et ont eu recours au diffractomètre de pointe D20 de l'ILL de Grenoble qui a confirmé que le clathrate obtenu avait bien été entièrement vidé.
Thomas Hansen, l'un des auteurs de l'étude : « Nos travaux ont montré qu’il était possible de former des clathrates avec du dioxyde de carbone, qui est stable dans les conditions des fonds océaniques. Cela signifie qu'il est bel et bien possible d'extraire le méthane de son hydrate pour le transformer en énergie utile, en le remplaçant par le CO2 ». Helmut Schober, Directeur scientifique de l'ILL, souligne pour sa part que "Depuis des années, les clathrates vides font l'objet d'un intense questionnement scientifique. Cette découverte met un terme aux spéculations et ajoute un nouveau joyau dans la fascinante malle aux trésors des phases de la glace. Cette avancée considérable nous laisse aussi espérer des progrès dans les questions connexes liées à l'énergie."
A court terme, ces avancées dans la compréhension fine des clathrates devraient avoir des retombées très concrètes en matière d’entretien des pipelines acheminant le gaz sous haute pression et basses températures. Ces conditions extrêmes peuvent en effet provoquer la production d'hydrates de gaz dans les conduits et entraîner ainsi des bouchons dangereux dont la prévention par des moyens classiques coûte actuellement un demi-milliard de dollars par an à l’industrie gazière.
On le voit, ces récentes découvertes et avancées scientifiques et techniques courantes ouvrent véritablement la voie vers une exploitation massive, économiquement rentable et respectueuse de l’environnement, de l’immense gisement énergétique que représentent les hydrates de méthane océaniques. Sans constituer une panacée à l’insatiable soif d’énergie de la planète, que la pression démographique et le développement économique ne peuvent qu’augmenter, la perspective d’une exploitation industrielle à moyen terme de ces hydrates de méthane marins pourrait tout de même profondément bouleverser la donne énergétique mondiale en substituant cette nouvelle énergie issue des fonds sous-marins à une part importante des énergies fossiles conventionnelles actuellement consommées dans le monde. Cette arrivée plus massive et plus rapide que prévu des hydrates de méthane dans le paysage énergétique mondial pourrait notamment permettre de diminuer beaucoup plus rapidement l’utilisation du charbon et du pétrole -des sources d’énergie fortement émettrices de gaz à effet de serre- au niveau mondial.
Combinées avec la montée en puissance très forte de l’ensemble des énergies renouvelables mais également avec l’arrivée, à l’horizon 2050 de la fusion thermonucléaire contrôlée et l’exploitation massive de nouvelles sources d’énergie propre, comme l’hydrogène gazeux issu des entrailles de la terre, la récupération et l’exploitation propres de ces hydrates de méthane pourrait donc permettre à l’Humanité de faire face à ses besoins accrus en énergie, tout en respectant l’objectif d’une réduction drastique d’au moins 50 % des émissions humaines de CO2 d’ici le milieu de ce siècle. L’enjeu économique, écologique, scientifique et technologique que constitue la maîtrise d’une exploitation propre de ces hydrates de méthane est donc absolument capital pour notre Planète mais également pour l’Europe et la France.
Souhaitons que notre Pays qui a la chance de posséder l’un des plus grands domaines maritimes du monde - 11 millions de kilomètres carrés - et d’être en pointe dans ce domaine de recherche scientifique, se donne les moyens dans la durée de faire partie des nations qui seront les premières à conduire cette révolution économique, scientifique et énergétique qui est en train de naître sous nos yeux.
René TRÉGOUËT
Sénateur Honoraire
Fondateur du Groupe de Prospective du Sénat
|
|
|
|
|
|
|
|
Avenir |
|
|
Nanotechnologies et Robotique
|
|
|
|
|
|
|
|
|
C'est une première mondiale qui fait entrer la médecine dans une nouvelle ère : un Américain amputé de ses deux bras à la hauteur de ses épaules a retrouvé l'usage de ses membres grâce à une prouesse médicale et technologique réalisée à l'hôpital de Johns Hopkins, aux États-Unis.
Des résultats prometteurs et spectaculaires comme le montre la vidéo de cet exploit médical mise en ligne par le laboratoire de physique appliquée de cette Université du Maryland.
Les Baugh avait perdu ses deux bras il y a 40 ans dans un terrible accident électrique. Aujourd'hui, il arrive à faire fonctionner les deux prothèses révolutionnaires simplement avec la pensée. Une nouvelle vie s'ouvre à lui. Il parvient à effectuer des tâches impensables jusque-là, comme bouger les doigts individuels de ses bras bioniques, prendre un gobelet et surtout coordonner parfaitement ses deux "membres" artificiels.
Avant de pouvoir réaliser cette prouesse, qui ouvre de grandes espérances à de nombreux amputés, Les Baugh a dû subir une opération de réinnervation musculaire ciblée au niveau des épaules. Les deux prothèses ont été équipées de capteurs capable de transcrire les impulsions neurologiques des muscles et des nerfs vers les bras mécaniques par la seule force de sa pensée. En seulement dix jours d'entraînement, les résultats sont jugés extrêmement positifs.
L'équipe médicale de l'hôpital de Johns Hopkins espère que cette nouvelle technologie sera une aide inestimable pour les soldats et les victimes d'accidents qui ont été amputés. "Je pense que nous ne faisons que commencer à découvrir les possibilités de la bionique au service de l'humain", souligne Mike McLoughlin qui dirige ce rogramme de recherche.
Article rédigé par Georges Simmonds pour RT Flash
The Johns Hopkins University Applied Physics Laboratory
|
|
^ Haut |
|
|
|
|
|
|
|
Matière |
|
|
Matière et Energie
|
|
|
|
|
|
|
|
|
Dans le cadre de l'initiative sur le stockage ("Speicher-Initiative") du Ministère des Affaires économiques du Brandebourg, l'entreprise Belectric GmbH a mis en oeuvre une nouvelle technologie de stockage de l'électricité pour sa centrale solaire "Alt Daber" de Wittstock (Brandebourg). Celle-ci devient la première en Europe à fournir de l'énergie de manière analogue à une centrale conventionnelle et participe ainsi à l'équilibre du réseau.
Dans ce système de stockage, dénommé "Energy Buffer Unit", Belectric GmbH utilise une batterie solaire du type "Tensor" de l'entreprise GNB Industrial Power. Cette batterie plomb-acide modulaire est spécialement optimisée pour des applications de stockage cyclique. Grâce à la nouvelle technologie "Tensor", l'énergie électrique peut être directement stockée sur le site des grandes centrales solaires (de l'ordre du mégawatt). Les accumulateurs sont situés dans un conteneur de plus de 10 mètres et peuvent fournir une puissance de un mégawatt instantanément et de 0,8 mégawatt en continu pendant 30 minutes.
Le système est composé d'une installation modulaire fractionnée dont le bac contient les batteries. Celles-ci peuvent absorber et libérer des courants électriques d'intensité élevée, ce qui permet de lisser efficacement la production des énergies renouvelables fluctuantes. Ces batteries peuvent être recyclées à presque 100 % à la fin de leur vie dans des usines de recyclage mises en place par l'entreprise, puis réutilisées pour construire de nouvelles batteries.
Article rédigé par Georges Simmonds pour RT Flash
Energie
|
|
|
|
|
La plus grande centrale solaire du monde a été connectée au réseau électrique en Californie, avec assez d'énergie pour alimenter 160 000 foyers. D'une surface de 9,5 miles carrés (25 kilomètres carrés) - un tiers de la taille de Manhattan - la ferme solaire Topaz se compose de neuf millions de panneaux solaires et a une capacité de 550 mégawatts.
Cette installation solaire hors norme constitue une étape importante vers les objectifs de cet État visant à fournir 33 % de l'électricité domestique à partir de sources d'énergies renouvelables d'ici 2020. Cette centrale solaire devrait en outre éviter l'émission d'environ 370 000 tonnes de dioxyde de carbone par an. Un rapport commandé par le gouvernement américain montre que le kWh solaire pourrait devenir moins cher que le kWh produit avec du gaz d'ici 2018.
Article rédigé par Georges Simmonds pour RT Flash
The Daily Mail
|
|
|
|
|
|
|
|
En matière de panneaux solaires photovoltaïques, le taux de conversion de la lumière en électricité constitue un facteur-clé en matière de développement et de rentabilité. Ce seuil maximum était de 44,7 % mais il vient de passer à 46 %, nouveau record mondial ! Ce taux a été atteint par une cellule solaire développée conjointement par le CEA-Leti, l'entreprise française Soitec et l’Institut Fraunhofer pour les Systèmes Energétiques Solaires (ISE) en Allemagne.
Contrairement aux panneaux photovoltaïques utilisés actuellement, cette cellule à très haut rendement n'est pas fabriquée à partir de silicium. "Nous utilisons d'autres semi-conducteurs, des matériaux dits III-V", classés dans les 3e et 5e colonnes du tableau périodique de Mendeleïev. ces matériaux ont un rendement meilleur que le silicium", précise Thomas Signamarcheix, responsable du laboratoire des substrats avancés du CEA-Leti.
Ainsi, le capteur solaire ayant atteint le taux de conversion de 46 % est constitué d'un empilement de plusieurs couches - ou "jonctions" - dont chacune réagit à la lumière dans une certaine longueur d'onde.
Autre avantage, la cellule solaire qui a produit ce taux de conversion a été fabriquée à l'aide d'une technologie - consistant à coller les couches les unes sur les autres par de l'adhésion moléculaire - parfaitement maîtrisée par l'industrie depuis 20 ans. Le dispositif aux semi-conducteurs III-V devrait donc pouvoir être utilisé par exemple dans les "fermes solaires", ces grandes centrales solaires installées dans les régions qui bénéficient d’un ensoleillement direct élevé.
En utilisation réelle, sur le terrain, le rendement sera toutefois légèrement inférieur mais devrait tout de même dépasser les 40 %, contre 36,7 % pour les meilleurs cellules actuellement. Mais ce supplément représente, à grande échelle, un gain tout à fait substantiel en terme énergétique et économique, surtout si on le compare au rendement moyen sur le terrain, environ 25 %, des cellules au silicium actuelles.
article rédigé par Georges Simmonds pour RT Flash
Soitec
|
|
^ Haut |
|
|
|
|
|
|
|
Espace |
|
|
Espace et Cosmologie
|
|
|
|
|
|
|
|
|
Le robot Curiosity qui explore actuellement la surface de Mars vient de révéler la présence de dégazage de méthane à la surface de Mars.
Cette molécule organique (c'est-à-dire contenant du carbone C et de l'hydrogène H) peut être produite par des êtres vivants (plus de 90 % du méthane est d'origine biologique sur Terre) ou par de simples réactions chimiques entre de l'eau et des carbonates ou des silicates.
Les chercheurs ont donc analysé une douzaine de mesures effectuées par l'instrument SAM, s'étalant sur une période de 20 mois. Pour la plupart d'entre elles, les mesures effectuées sont en dessous du seuil de sensibilité de l'instrument de Curiosity. Autrement dit, s'il y a du méthane, c'est dans des quantités trop faibles pour être détectées.
Toutefois, certaines de ces mesures présentent des résultats étonnants. Quatre d'entre elles, effectuées entre la fin 2013 et le début 2014, font état d'un rapport moyen de 7 parties par milliard (ppbv) pour le méthane, chiffre le JPL. Autrement dit, dans un milliard de molécules gazeuses à la surface de Mars (essentiellement du CO2 et de l'azote), sept étaient des molécules de méthane (CH4).
Cela peut paraître peu, mais pour les chercheurs c'est une incroyable nouvelle. "Les observations effectuées par la sonde Mars Express en 2004 indiquaient au départ la présence de méthane dans l'atmosphère de la planète Rouge ainsi que de grandes variations dans la répartition de ce méthane", nous a rappelé François Forget chercheur au Laboratoire Atmosphères, Milieux, Observations Spatiales (LATMOS / INSU-CNRS). "Mais la découverte de ces émanations de méthane remet en selle des hypothèses que la communauté scientifique pensait invalides. C'est une découverte très intéressante !" s'enthousiasme François Forget.
Le méthane issu du sous-sol remonte à travers la croûte du sol martien et s'y stocke sous forme d'hydrate de méthane solide. Parfois, il s'échappe sous forme gazeuse lors de dégazages semblables à ceux rencontrés par Curiosity. Une autre source de méthane évoquée est le dépôt de ces molécules organiques par des comètes, des astéroïdes, ou de la poussière venue de l'Espace.
Mais en effectuant un forage sur un site appelé "Cumberland", Curiosity a également découvert des molécules organiques sous le sol de la planète Rouge. Les chercheurs ne sont toutefois pas encore en mesure d'en préciser la nature ou la complexité et il est impossible de savoir si ces molécules organiques trouvées à quelques centimètres sous le sol martien ou sous forme de méthane dans l'atmosphère ont été synthétisées via une activité biologique présente ou passée.
Un mois après la découverte de molécules organiques à la surface de la comète Tchouri par le robot Philae, cette découverte extraordinaire relance plus que jamais l'hypothèse d'une possible vie martienne…
Article rédigé par Georges Simmonds pour RT Flash
Science
|
|
^ Haut |
|
|
|
|
|
|
|
Terre |
|
|
Sciences de la Terre, Environnement et Climat
|
|
|
|
|
|
|
|
|
Selon une étude parue dans la revue "Nature Climate Change", le réchauffement climatique multiplie par dix le risque d'étés extrêmement chauds en Europe, alors que le risque était seulement doublé il y a dix ans. Statistiquement, un tel événement - des températures dépassant de 1,6°C la moyenne constatée sur la période juin-août de 1961 à 1990 - interviendrait tous les 52 ans, c'est-à-dire deux fois par siècle.
Dans la nouvelle étude, la même équipe de scientifiques a modifié le scénario, à la lumière du réchauffement climatique intervenu depuis et en utilisant de meilleurs modèles informatiques. Dans les conditions actuelles de réchauffement climatique, on enregistrerait deux vagues de chaleur tous les dix ans, et non plus deux par siècle, ont-ils constaté. L'étude s'est concentrée sur la France, l'Allemagne et l'Italie, les pays les plus touchés en 2003 par l'été le plus chaud jamais enregistré en Europe.
Dans leur évaluation de 2004, les experts britanniques avaient montré que, statistiquement, un événement comme la canicule de 2003 - un dépassement de 2,3°C des températures moyennes à long terme - avait une probabilité de se répéter tous les mille ans, ou plus. Désormais, ils estiment cette probabilité à quasiment une fois par siècle (tous les 127 ans). Durant la décennie 2003-2012, les températures en Europe occidentale ont dépassé de 0,81°C celles observées durant la période 1990-1999. Même dans l'hypothèse la plus optimiste, "d'ici aux années 2040, un été aussi chaud que celui de 2003 sera très banal", estiment les chercheurs.
Article rédigé par Georges Simmonds pour RT Flash
The Carbon Brief
|
|
|
|
|
|
|
|
Selon une nouvelle étude réalisée par des chercheurs de l'Institut Carnegie pour les sciences, aux Etats-Unis, il ne faudrait que 10 ans pour qu'une émission de dioxyde de carbone (CO2) atteigne son effet maximal de réchauffement sur la Terre, ce qui remet en cause l'idée largement admise selon laquelle les principaux effets de réchauffement d'une émission de CO2 ne seraient pas ressentis pendant plusieurs décennies.
Pour parvenir à ce résultat plutôt inquiétant, les chercheurs ont combiné des données sur le cycle de carbone de la planète Terre, et particulièrement sur la vitesse à laquelle l'océan et la biosphère absorbent une importante émission de CO2 dans l'atmosphère, grâce à des données sur le système climatique de la Terre. Les données ont été reprises d'une série de modèles climatiques utilisés lors des dernières évaluations du Groupe d'experts intergouvernemental sur l'évolution du climat (GIEC).
Les résultats montrent que le temps médian entre une émission de CO2 donnée et le réchauffement maximum est de 10,1 ans et confirment que la plus grande partie du réchauffement persiste pour plus d'un siècle. Ce temps de latence est dû au fait que les couches supérieures de l'océan mettent plus de temps à se réchauffer que l'atmosphère. Alors que les océans absorbent de plus en plus de chaleur et causent le réchauffement de l'ensemble du climat, les effets de réchauffement des émissions de CO2 commencent en fait à diminuer car le CO2 est au bout du compte retiré de l'atmosphère. Cette étude montre également que les bénéfices des réductions des émissions seront ressentis par la génération qui aura mis en œuvre cette diminution et pas seulement par les générations futures.
Article rédigé par Georges Simmonds pour RT Flash
ERL
|
|
|
|
|
|
|
|
Des chercheurs des universités de Stanford et de Berkeley ont analysé et comparé des images satellites, des recensements agricoles et des données socio-économiques sur la population. Selon eux, il existe beaucoup d’études de cas précis sur l’agriculture urbaine, mais il n'y avait pas d'évaluation globale.
Résultat : il y aurait 67 millions d’hectares cultivés pour l’alimentation à l'intérieur des villes (dont 24 millions de terres irriguées), soit 5,9 % du total des terres cultivées dans le monde. Si on ajoute les zones périurbaines, dans un rayon de 20 km autour des villes, on monte à 456 millions d’hectares (dont 130 millions de terres irriguées), donc près de 40 % des cultures mondiales, une part sans doute sous-estimée, car l’étude considère seulement les villes de plus de 50.000 habitants.
L’étude conclut ainsi qu’il va être de plus en plus justifié d’étudier « l’impact de la production agricole urbaine et périurbaine sur la gestion des ressources en eau, sur les moyens de subsistance et la sécurité alimentaire dans le monde ».
Article rédigé par Georges Simmonds pour RT Flash
ERL
|
|
|
|
|
|
|
|
Selon une étude conjointe de l'Université Irvine de Californie et de la NASA, la vitesse de fonte des glaciers dans la région de l'Antarctique où elle est la plus forte a été multipliée par trois depuis dix ans.
« Les glaciers dans l'échancrure de la mer d'Amundsen, dans l'ouest de l'Antarctique, perdent de la glace plus rapidement que partout ailleurs sur le continent et sont les plus grands contributeurs à la montée du niveau des océans », rappellent ces chercheurs de l'Université de Californie à Irvin et au Jet Propulsion Laboratory de la Nasa.
Deux recherches publiées en mai dernier concluaient que la fonte des grands glaciers de l'ouest de l'Antarctique, qui contiennent assez d'eau pour faire monter les océans d'au moins un mètre, s'accélère sous l'effet du réchauffement.
Cette dernière étude est la première à évaluer et à réconcilier les observations faites à partir de quatre techniques de mesure de la fonte de ces glaciers et permet de produire une estimation du volume et du rythme de perte de glace sur deux décennies, expliquent ces scientifiques.
"La perte de masse de ces glaciers s'accélère à un rythme surprenant", souligne Isabella Velicogna, une scientifique de l'Université de Californie à Irvin (UCI) et au JPL, co-auteur de la recherche, qui ajoute "Le volume total de glace perdu depuis 1992 a été en moyenne de 83 milliards de tonnes par an, soit plus de la moitié de la masse total de l'Everest !"
Le rythme de la perte de ces glaces s'est aussi accéléré en moyenne de 6,1 milliards de tonnes chaque année depuis 1992 et de 2003 à 2009, quand les quatre techniques ont été utilisées simultanément, le rythme de fonte des glaciers s'est accru de 16,3 milliards de tonnes annuellement, soit près d'un triplement comparativement à l'ensemble de la période de 21 ans.
Article rédigé par Georges Simmonds pour RT Flash
NASA
|
|
^ Haut |
|
|
|
|
|
|
|
Vivant |
|
|
Santé, Médecine et Sciences du Vivant
|
|
|
|
|
|
|
|
|
Selon une étude américaine publiée dans le JAMA, les deux-tiers des femmes atteintes d'un cancer précoce du sein aux Etats-Unis font l'objet de radiothérapies trop longues (six à sept semaines de radiothérapie).
Cette étude montre en effet qu'une durée de trois semaines est suffisante avec la technique dite de radiothérapie hypofractionnée. Celle-ci consiste à administratrer des doses plus élevées de radiations par séance pendant une durée deux fois plus courte. "Cette approche est tout aussi efficace pour traiter un cancer du sein tout en étant plus pratique et moins coûteuse", expliquent ces chercheurs.
Une étude réalisée par Unicancer, un groupement de centres anticancer privés, prévoit qu'en 2020, 50 % des cancers du poumon passeront de 30 à 5 séances (de un quart d'heure à environ une heure) et 45 % des traitements des cancers du sein de 30 à 20 séances.
La radiothérapie hypofractionnée n'est pas sufisamment utilisée pour les femmes souffrant d'un cancer précoce du sein alors qu'elle est aussi efficace que le traitement classique et coûte moins cher", explique le Docteur Justin Bekelman, professeur adjoint de radiologie du cancer à la faculté de médecine de l'université de Pennsylvanie, principal auteur de cette étude.
Article rédigé par Georges Simmonds pour RT Flash
MNT
|
|
|
|
|
|
|
|
Selon une étude néerlandaise, l'aspirine prise régulièrement serait bénéfique aux femmes de plus de 65 ans, car il diminuerait le risque d'infarctus, d'AVC et de cancer. Pour les femmes plus jeunes en revanche (45-65 ans), cette prise d'aspirine n'est pas recommandée, car elle entraîne des effets indésirables importants (hémorragies intestinales) qui dépassent les bénéfices du médicament, précise l'équipe de recherche.
Pour parvenir à ces conclusions, les chercheurs ont travaillé sur près de 30 000 participantes en bonne santé, âgées d'au moins 45 ans. Ces femmes ont été réparties en deux groupes : l'un prenant chaque jour 100 mg d'aspirine, l'autre du placebo, sans en être informées préalablement. Leur risque d'attaque cardiaque, d'AVC et de cancer a ensuite été évalué.
Durant les essais cliniques qui ont duré 10 ans, 4401 personnes (environ 15 % de l'échantillon de départ) ont été affectées par un cancer ou une maladie cardio-vasculaire. Comparé au placebo, le traitement à l'aspirine s'est tout de même révélé bénéfique sur le risque cardiaque, le risque d'AVC et de cancer de l'intestin, chez les femmes âgées de 65 ans et plus.
Cette étude montre que les bénéfices de l'aspirine sont supérieurs aux risques lorsque la femme dépasse les 65 ans. 65 ans serait donc l'« âge charnière », où il devient plus bénéfique de prendre de l'aspirine que de ne pas en prendre, alors que c'est totalement l'inverse avant cette limite d'âge.
Cette étude confirme une autre recherche publiée en août 2014 par des chercheurs de l'Université Queen Mary de Londres qui ont constaté que la prise quotidienne d'aspirine réduirait de 30 à 40 % les risques de développer un cancer de l'intestin. « Une dose quotidienne de 75 mg d'aspirine suffit pour obtenir ces effets positifs » explique professeur Jack Cuzick, co-auteur de l'étude.
Grâce à ce médicament, les taux de cancer de l'œsophage et de l'estomac ont été aussi réduits de 30 % et les décès de 35 % et 50 % respectivement. Les chercheurs ont aussi remarqué que l'aspirine avait un impact sur le taux de cancer du sein en le diminuant de 10 %. Ce traitement a également permis une diminution de 18 % du risque de crise cardiaque.
Selon cette étude, 130 357 décès dus aux cancers pourraient être évités grâce à l'aspirine en 20 ans et 9 473 décès liés à des crises cardiaques mortelles. En revanche, la prise quotidienne d'aspirine causerait environ 18 000 morts au cours de la même période, principalement dues aux hémorragies internes et aux accidents vasculaires cérébraux, deux des principaux effets secondaires de la prise régulière de ce médicament.
Article rédigé par Georges Simmonds pour RT Flash
hNewsmax Health
|
|
|
|
|
|
|
|
Des chercheurs suisses et espagnols ont testé avec succès un médicament contre le cancer du sein pour traiter une leucémie incurable. Le syndrome myéloprolifératif est une maladie du sang causée par une mutation génétique dans les cellules souches hématopoïétiques et leur descendance. Il est plus fréquent chez l'homme que chez la femme et peut évoluer en leucémie.
L'équipe de Jürg Schwaller et Radek Skoda, de l'Hôpital universitaire de Bâle, a constaté que le tamoxifène, un médicament largement utilisé contre le cancer du sein, parvient à stopper le processus chez des souris mâles leucémiques. Dans le cas du cancer du sein, le tamoxifène inhibe les effets de l'hormone sexuelle féminine oestrogène, mais il semble que dans les cellules sanguines, il imite leur action. Un autre point positif est que les cellules sanguines saines ne sont pratiquement pas affectées par le traitement. Les scientifiques espèrent que ces résultats pourront être rapidement mis en pratique car le tamoxifène est bien supporté dans les doses prescrites.
Article rédigé par Georges Simmonds pour RT Flash
Science Codex
|
|
|
|
|
Selon le rapport annuel de l'Organisation mondiale de la santé (OMS), entre 2000 et 2013, la mortalité liée au paludisme a diminué de 47 % dans le monde et de 54 % dans la région Afrique, permettant de sauver l'équivalent de 4,3 millions de vies. Mondialement, ce sont 198 millions de cas de paludisme pour 584.000 décès qui ont été recensés l'an dernier (soit respectivement 4,3 % et 6,9 % de moins qu'en 2012), avec 90 % des morts dénombrés en Afrique, essentiellement des enfants de moins de cinq ans.
Cette baisse des cas en Afrique s'explique, d'une part, par des mesures de prévention mieux appliquées avec près de la moitié de la population à risque qui, en 2013, avait accès à une moustiquaire imprégnée d'insecticide (contre seulement 3 % en 2004) et d'autre part, par une généralisation des tests de diagnostic ayant permis à 62 % des patients suspectés de paludisme d'être traités dans un établissement de santé publique.
Article rédigé par Georges Simmonds pour RT Flash
OMS
|
|
|
|
|
|
|
|
Le géant japonais Toshiba a annoncé le développement d'une nouvelle technologie qui utilise l'énergie solaire pour produire des composés de carbone à partir du dioxyde de carbone et de l'eau, et fournir une charge d'alimentation chimique viable ou du combustible potentiellement utilisable par l'industrie.
La technologie de photosynthèse artificielle développée par Toshiba convertit l'énergie en composés de carbone à partir du dioxyde de carbone avec une efficacité de 1,5 %, le niveau le plus élevé jamais enregistré . La lumière solaire convertit le dioxyde de carbone et l'eau en monoxyde de carbone, une source de production de méthanol, qui peut servir de substitut pour l'essence et de charge d'alimentation dans la fabrication de produits divers, y compris des adhésifs, médicaments et bouteilles en PET.
La technologie de Toshiba utilise un nano-catalyseur à l'or qui absorbe la lumière dans la plage visible avec une haute efficacité d'utilisation de la lumière. L'objectif à long terme des travaux de recherche est de développer une technologie compatible avec les systèmes de capture du dioxyde de carbone installés dans des installations telles que les usines et les stations d'énergie thermique, en utilisant le dioxyde de carbone pour fournir une énergie stockable et transportable.
Article rédigé par Georges Simmonds pour RT Flash
Yahoo
|
|
|
|
|
|
|
|
Dans le but de mieux comprendre les maladies du cerveau, des chercheurs de l'Université de Rochester (Etats-Unis) ont injecté des cellules de fœtus humain à des souris. Selon le Professeur Steve Goldman qui a mené ces recherches, "Les effets sont énormes".
Les souris qui ont subi ces injections seraient devenues quatre fois plus intelligentes que leurs congénères et semblent également avoir une bien meilleure mémoire. "C'est comme augmenter la puissance de votre ordinateur", assure le professeur Goldman. D'autres scientifiques se sont étonnés de tels effets alors que les injections n'ont commencé que depuis un an.
Néanmoins, ces expériences soulèvent des questions éthiques. Le professeur Goldman s'est défendu de vouloir rendre "humain" une souris. Il reconnaît toutefois qu'avec ses équipes, il n'a pas souhaité mener ce type d'injections sur des singes en raison des problèmes éthiques que cela pouvait soulever.
"Que des cellules puissent s'adapter à des espèces différentes, c'est incroyable", assure de son côté le professeur Wolfgang Enard de l'Université de Munich (Allemagne).
Article rédigé par Georges Simmonds pour RT Flash
New Scientist
|
|
^ Haut |
|
|
|
|
|
VOTRE INSCRIPTION |
|
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
|
|
|
|
|
|