|
|
Edito
L'humanité ne doit pas consommer plus du quart des réserves fossiles et doit réduire ses émissions de GES de 70 % pour sauver le climat
L'humanité ne pourra consommer qu'un quart à peine des réserves d'énergies fossiles (pétrole, gaz, charbon) connues d'ici 2050 et devra diminuer de 70 % ses émissions de GES à cette échéance si elle veut limiter le réchauffement climatique à 2°C maximum, selon deux études internationales publiées en avril 2009. La première étude, réalisée par une équipe de recherche internationale - Royaume-Uni, Suisse et Allemagne - dont les travaux ont été publiés dans la revue scientifique britannique Nature le 29 avril, a tenté d'estimer pour la première fois quel volume d'émissions de gaz à effet de serre peut être injecté dans l'atmosphère d'ici la moitié du siècle pour garder un climat gérable. La communauté internationale s'est accordée sur un maximum de 2°C supplémentaires par rapport aux niveaux pré-industriels, mais pour les petits états insulaires, menacés par la montée du niveau des océans, il faudrait limiter la hausse à +1,5°C. "Si vous voulez réellement limiter le risque d'excéder les 2°C de réchauffement mondial, le volume total de CO2 pouvant être relâché dans l'atmosphère au cours de la première moitié du siècle doit rester sous les 1.000 milliards de tonnes", a expliqué le Dr Malte Meinshausen, du Postdam Institute for Climate Impact Reasearch. Pour l'ensemble des gaz à effet de serre couverts par le Protocole de Kyoto, ceci représente environ 1.500 milliards de t équivalent CO2, précise-t-il. "Cela peut sembler beaucoup, mais nous avons déjà émis un tiers de ce volume en neuf ans, entre 2000 et 2009", rappelle-t-il. Sans accord climatique fort, les 2°C supplémentaires auront été atteints dès le milieu du siècle, selon les auteurs. Si les émissions dépassent ces 1.500 milliards de t de CO2eq d'ici 2050, la probabilité de limiter le réchauffement à +2°C sera d'une sur quatre, "quoi que vous fassiez ensuite" pour limiter les émissions, insiste le Dr Meinshausen. La conclusion de cette étude s'adresse en priorité aux négociateurs de l'accord de Copenhague, qui doit être conclu en décembre afin de garantir une suite au Protocole de Kyoto dont les premiers engagements expirent en 2012. Selon cette étude, si aucune politique énergique de réduction des GES n'est mise en application (rouge) et la température moyenne mondiale dépassera à coup sur les deux degrés d'ici 2050. Deuxième scénario : une l'action forte est entreprise pour réduire des émissions (bleues) et le risque de dépasser les deux degrés est réduit à 25 %. L'étude montre qu'il est absolument indispensable de limiter à 1000 milliards de tonnes la quantité de CO2 émise d'ici 2050 et de tendre ensuite vers leur suppression progressive d'ici la fin du siècle. Cela suppose une réduction des émissions de gaz à 'effet de serre de 70 % d'ici 2050, par rapport au niveau de 1990. Une autre étude américaine du NCAR (National Center for Atmospheric Research), publiée le 14 avril, vient confirmer qu'une réduction de 70 % des émissions de gaz à effet de serre, et surtout de CO2, durant ce siècle, serait suffisante pour sauver les glaces de l'Arctique et éviter les conséquences les plus désastreuses du réchauffement climatique. Le réchauffement dans l'Arctique serait ainsi réduit quasiment de moitié, ce qui aiderait à préserver les pêcheries et les populations d'oiseaux marins et d'animaux polaires, comme les ours blancs, notamment dans le nord de la mer de Béring, estiment ces chercheurs. Bien que la température continuerait d'augmenter, les aspects potentiellement les plus dangereux du changement climatique (fonte de la calotte glaciaire, réduction du permafrost, montée du niveau des océans) pourraient être partiellement évités, explique Warren Washington, chercheur au NCAR (National Center for Atmospheric Research), principal auteur de cette étude. "Ces travaux montrent que nous ne pouvons plus éviter un réchauffement important de la planète au XXIe siècle", relève Warren Washington, qui s'est basé sur plusieurs modèles informatiques. "Mais si le monde parvenait à réduire les émissions de gaz à effet de serre dans cette proportion (70 %), nous pourrions stabiliser la menace présentée par le changement climatique et éviter une catastrophe", juge-t-il. La température moyenne du globe a grimpé de près d'un degré Celsius depuis l'ère pré-industrielle (milieu du XIXe siècle). Ce réchauffement est notamment dû aux émissions de gaz à effet de serre, et surtout au dioxyde de carbone (CO2), rappelle l'étude. Les gaz à effet de serre dans l'atmosphère sont par ailleurs passés de 284 parties par million (ppm, une unité de mesure) au milieu du XIXe siècle, à plus de 380 ppm aujourd'hui. Les dernières recherches indiquent qu'un accroissement supplémentaire d'un degré Celsius de la température pourrait déclencher un changement climatique dangereux. Pour leur étude, ces climatologues ont retenu l'hypothèse que le taux de CO2 dans l'atmosphère pourrait être plafonné à 450 ppm à la fin du siècle, un niveau réalisable si les mesures d'économie d'énergie et le développement de technologies vertes sont rapidement mis en oeuvre. Les résultats de leur recherche montrent qu'avec un taux de CO2 limité à 450 ppm, les températures augmenteraient en moyenne de 0,6 degré Celsius au-dessus de leur niveau actuel d'ici la fin du siècle. En revanche, si rien n'est fait, la concentration de CO2 atteindra 750 ppm d'ici 2100, selon les projections, avec des conséquences dramatiques (Voir étude UCAR). Les simulations informatiques du NCAR montrent en effet l'évolution des températures moyennes sur Terre entre les périodes 1980-1999 et 2080-2099 si les émissions de gaz à l'effet de serre continuent à progresser au rythme actuel ou si l'on parvient à réduire ces émissions de 70 %. Dans le premier scénario, le réchauffement moyen dépasse les 3°, avec des conséquences désastreuses pour la planète. Dans le scénario d'une baisse de 70 % des GES, le réchauffement est contenu en dessous des 2°. Ces deux études remarquables par leurs résultats convergents montrent qu'il va falloir diviser au moins par trois nos émissions mondiales anthropiques de GES d'ici 2050 et passer de 9 gigatonnes à 2,7 gigatonnes de carbone par an d'ici 2050, si nous voulons éviter un dérèglement irréversible et catastrophique du climat de la planète. Compte tenu de l'évolution démographique mondiale (nous allons passer de 6,7 à 9 milliards de terriens d'ici 2050), cela signifie que chaque terrien va devoir diviser par quatre ses émissions de GES d'ici le milieu du siècle et par cinq d'ici 2100. Le défi est immense pour l'humanité mais pas hors de portée : comme l'ont montré plusieurs études récentes privées émanant à la fois des meilleurs cabinets privés et des instances internationales et européennes, nous pouvons y parvenir, en y consacrant entre 0,5 et 1 % du produit mondial brut par an -de l'ordre de 200 à 300 milliards de dollars par an- et en utilisant simplement toutes les technologies disponibles aujourd'hui, combinées avec une mutation de nos sociétés en matière d'efficacité énergétique et d'organisation socio-économique et à l'émergence de nouvelles instances de gouvernance mondiale. Le « paquet climat-énergie », adopté en décembre 2008 par l'Union européenne et le changement de politique de l'administration Obama représentent des avancées majeures et porteuses d'espoir vers une prise de conscience planétaire mais il faudra bien d'autre pas similaires et surtout des modifications profondes de nos modes de vie pour éviter à notre planète une catastrophe climatique aux conséquences inimaginables. Si nous le voulons et si nous parvenons à vaincre les égoïsmes et les conservatismes de toute nature, nous pourrons, tous ensemble, surmonter ce défi sans précédent dans notre longue histoire. René Trégouët Sénateur honoraire Fondateur du Groupe de Prospective du Sénat
|
|
|
|
|
|
|
|
TIC |
|
|
Information et Communication
|
|
|
|
|
|
|
|
|
Le ministre de l'Education nationale, Xavier Darcos, a inauguré ce 19 mai le premier des 5 000 projets d'« écoles numériques rurales » prévus dans le cadre du plan de relance de l'économie du gouvernement. Sont concernées les villes de moins de 2 000 habitants. L'idée consiste à développer les usages d'Internet et des outils informatiques et à y familiariser des élèves qui n'y ont pas forcément accès. Le gouvernement a conçu un cahier des charges précis et prévoit un investissement maximal de 10 000 euros (pour le matériel et les logiciels) par établissement, sachant que cette somme peut faire partie d'un budget total plus élevé selon les projets. Dans ces cas-là, le reste doit être fourni par les communes. A Vermenton, c'est NextiraOne qui a remporté le marché et conçu le projet en agrégeant des solutions de divers fournisseurs (Microsoft, Acer, Dell, SFR, Samsung). Conformément au cahier des charges, l'école est dotée d'un tableau blanc numérique interactif, de deux PC pour les enseignants (dont l'un contrôle le tableau), de huit ordinateurs pour les élèves et d'une imprimante. Détail pédagogique important, les ordinateurs sont rangés dans un chariot ambulant. « Le cahier des charges impose une classe mobile, explique Anne Le Port, directrice du marketing et de la communication de NextiraOne, c'est-à-dire une valise ou un chariot où sont stockés les ordinateurs afin de les déplacer dans les classes, pour éviter que ce soient les classes qui se déplacent vers les ordinateurs. » Le chariot est lui-même équipé de deux prises réseau, dont une pour l'imprimante. L'établissement a également été connecté - à ses frais - au réseau de SFR et équipé de bornes Wi-Fi pour connecter le tableau blanc et les ordinateurs des élèves lors des cours. NextiraOne s'est également chargé du paramétrage des ordinateurs et de la mise en conformité avec le réseau de l'Education nationale (pare-feu, filtrage d'URL, etc.). Les contenus pédagogiques, eux, sont définis et fournis par le ministère, qui y consacre 1 000 euros par établissement sur l'ensemble de la subvention. Dans le cas de Vermenton, le projet a été mis en place en un mois et demi. D'autres ne devraient pas tarder. « D'ici l'été, nous prévoyons que les 5 000 écoles du plan auront été sélectionnées, affirme-t-on au ministère. La réalisation va s'échelonner d'ici à la fin de l'année civile. » C'est aux mairies et aux écoles de présenter leur candidature à leur académie. Celle-ci sélectionne en définitive les établissements qui bénéficieront du plan. OINet
|
|
^ Haut |
|
|
|
|
|
|
|
Avenir |
|
|
Nanotechnologies et Robotique
|
|
|
|
|
|
|
|
|
La Conférence internationale sur la robotique et l'automatisation (IEEE), qui se tient cette année à Kobe au Japon, présente une grande première : un robot qui grimpe aux arbres. Cette réalisation mise au point par l'université de Pennsylvanie est en fait une structure équipée de quatre jambes, capable de se déplacer à l'horizontale. Mais elle est également capable de mouvements verticaux grâce à des pinces lui permettant d'agripper un tronc d'arbre ou un poteau. Selon les données de l'université américaine, elle peut grimper au sommet d'un poteau téléphonique standard à la vitesse respectable de 21 centimètres par seconde. Les applications de ce robot grimpeur se situent essentiellement dans le domaine de la surveillance. L'appareil doté d'une caméra de surveillance peut être posté à plusieurs mètres de hauteur pour observer une scène et assurer des tâches de reconnaissance. Ce robot, baptisé Rise, est une extension d'une machine mise au point pour des besoins militaires par la firme américaine Boston Dynamics. Les robots mobiles tiennent la vedette cette année à l'IEEE. Une autre université américaine (Minnesota) présente un engin de petite taille qui se déplace en basculant sur lui-même grâce à des bras d'une douzaine de centimètres. Ce mode de locomotion original est, selon ses promoteurs, très économe en énergie. Son faible encombrement (de la taille d'un Caméscope) lui permet d'explorer des zones peu accessibles. La palme de l'originalité revient à une machine mise au point par l'université de Munich. Ce robot sait s'orienter dans une ville tout simplement en demandant son chemin. Il interroge les passants et réussit à se guider dans une ville grâce à sa cartographie intégrée (sans GPS). Les Echos
|
|
|
|
|
|
|
|
Fukitorimushi (« l'insecte essuyant ») est un prototype de robot conçu par Panasonic qui nettoie les sols en rampant et se déplaçant en ondulant comme une chenille. Il est entouré d'un tissu high-tech hyperabsorbant, créé par le fabricant de textile Teijin dans une matière en nano fibres. Celui-ci lui permet de retenir les poussières et résidus microscopiques que les aspirateurs n'arrivent pas à avaler. Pour nettoyer les pièces, pas besoin de systèmes d'aspiration : la 'chenille' de Panasonic se contente de se déplacer, recueillant sur son ventre les particules de saleté. Un capteur avec une longueur d'onde dans les bleus scanne le sol en permanence devant le robot, à la recherche de débris minuscules de matière. S'il repère une zone plus sale, sa lumière passe au rouge, et il passe et repasse sur l'endroit jusqu'à ce que le nano-tissu ait tout absorbé. Une fois la pièce nettoyée, Fukitorimushi revient à sa base recharger automatiquement ses batteries. Le tissu spécial développé par Teijin porte le nom de Nanofront. Il est constitué de fibres de filaments de polyester mesurant 700 µm de diamètre, soit environ 7 500 fois plus fines qu'un cheveu humain. Ces nanofibres augmentent sa surface et sa porosité, lui permettant d'absorber même de l'huile et des particules de poussière ultra-fines d'un diamètre inférieur à un micro. Au bout d'un certain temps variant suivant le degré de saleté des lieux, il faut changer le tissu qui recouvre l'automate. EN
|
|
|
|
|
|
|
|
Ce « bras intelligent » constitue un énorme progrès dans le monde des prothèses puisque son mouvement est contrôlé par les influx nerveux qui agissaient auparavant sur le bras. L'utilisateur de cette prothèse accède à sept degrés de liberté et peut donc réaliser de nouvelles activités. Par rapport aux anciennes prothèses, il n'est pas nécessaire de penser plusieurs fois à la même action pour que la prothèse convertisse la pensée de l'action en mouvement, y penser une seule fois suffit. L'installation de cette prothèse nécessite au préalable une opération de chirurgie pour déplacer les nerfs sélectionnés. Cette lourde intervention permet aux électrodes de la tête de la prothèse de répondre aux signaux transmis par ces nerfs. Lorsque l'utilisateur envoie un signal de circulation, une analyse électronique complexe permet de convertir ces signaux et de les transformer en mouvements. La société Otto Bock est spécialisée dans le développement de produits permettant d'offrir plus d'indépendance aux personnes handicapées. Elle est la seule entreprise en Europe à prendre part à un projet américain sur le développement d'une prothèse de bras à vingt-deux degrés de liberté. Les systèmes développés en Autriche sont aussi utilisés outre-Atlantique. Christian Kandlbauer, jeune Autrichien, est la première personne à bénéficier de cette prothèse en dehors des USA. Ms
|
|
^ Haut |
|
|
|
|
|
|
|
Matière |
|
|
Matière et Energie
|
|
|
|
|
|
|
|
|
"Le solaire photovoltaïque connaît en France un véritable décollage avec la multiplication du parc par 2,5 en un an" en 2008, souligne M. Borloo, qui participait à Chambéry (Savoie), à l'occasion des Journées européennes du solaire. "Fin En métropole, le parc a été multiplié par près de 3,5, avec les régions Languedoc-Roussillon, Rhône-Alpes et Pays-de-la-Loire qui se distinguent en totalisant plus de 60% des nouvelles puissances raccordées en métropole, précise le ministère de l'Ecologie, dans un communiqué. Le ministre a lancé un appel d'offres pour la construction d'ici 2011 d'au moins une centrale solaire dans chaque région française, estimant que "nous sommes maintenant entrés dans une phase de mise en oeuvre très opérationnelle du Grenelle environnement", pour le plan de développement des énergies renouvelables de la France". "Cet appel d'offres, qui porte sur 300 MW, permettra à lui seul de multiplier par cinq le parc en quelques mois et représente un investissement de 1,5 milliard d'euros", ajoute-t-il. L'objectif de 300 MW se repartira en 27 tranches sur quatre zones géographiques, avec pour la zone 1 dans chacune des régions Aquitaine, Auvergne, Languedoc-Roussillon, Limousin, Midi-Pyrénées, Poitou-Charentes, Provence-Alpes-Côte-d'Azur, Rhône-Alpes) deux projets de 10 MW. Dans la zone 2, dans chacune des régions Alsace, Basse-Normandie, Bourgogne, Bretagne, Centre, Franche-Comté, Pays-de-la-Loire, un projet de 10 MW. AP
|
|
|
|
|
|
|
|
Au fond des océans, à haute pression et basse température, la formation d'hydrate de méthane, composé solide instable, résulte essentiellement de la décomposition de matières organiques. Il prend la forme d'une "cage de glace" dans laquelle le méthane reste piégé. Il est considérés comme une source d'énergie de prochaine génération. Sur notre planète, les fonds marins et pergélisols contiendraient quelque 10.000 milliards de tonnes d'hydrate de méthane, soit deux fois les réserves de pétrole, gaz naturel et charbon confondus. Comme il est dispersé dans les sédiments, il ne peut pas être extrait par forage conventionnel, et les techniques d'exploitation et d'acheminement doivent encore être développées. On estime que la quantité de cette ressource dans la mer autour du Japon équivaut à 100 années de consommation nationale de gaz naturel. Dans le cadre du "Programme de promotion de l'exploitation de l'hydrate de méthane", soutenu depuis 2001 par le METI (Ministère Japonais de l'Industrie), l'AIST (National Institute of Advanced Industrial Science and Technology) et la JOGMEC (Japan Oil, Gas and Metals National Corporation) se lanceront prochainement dans des expériences en mer d'extraction de ce composé organique. La première phase de ce programme de recherche (2001-2008) avait pour objectif d'identifier des champs sous-marins potentiels et d'évaluer leurs ressources. Pendant la deuxième phase (qui durera sept ans à partir de 2009) deux expériences en mer sont prévues en 2012 et en 2014. Elles auront lieu dans la zone du "Nankai Trough", une zone de subduction qui s'étend au large de la région de Tokai et celle de Miyazaki (dans le Pacifique, au Sud du Japon) et qui a été identifiée comme en contenant une grande quantité. En préparation de ces expériences, l'AIST a mis en place, le 1er avril de cette année, un nouveau Centre de Recherche de l'Hydrate de méthane, qui regroupe le MHL du Centre de Hokkaido et le Centre de Tsukuba. Il a pour mission la recherche et le développement d'une technologie d'extraction sûre et stable de gaz naturel en grande quantité à partir d'hydrate de méthane, afin d'atteindre le niveau de commercialisation. La JOGMEC, quant à elle, est un leader en matière de technologies liées à l'extraction de l'hydrate de méthane. Elle avait réussi, en 2008, une extraction continue sur le continent grâce à un procédé qui consiste à réduire la pression du puits d'hydrate de méthane pour obtenir du méthane de façon efficace. Elle envisage de confirmer ses technologies en mer et de mettre au point une méthode qui empêche le dégagement de méthane dans l'air lors de l'extraction, car ce gaz a un effet de serre plus grand que celui du CO2. BE
|
|
|
|
|
|
|
|
La région Poitou-Charentes a inauguré le 18 mai, dans la Vienne, un site innovant de production d'agrocarburants de 3e génération, à partir de la culture de micro-algues. En lieu et place des graines, sucres, céréales ou encore plantes terrestres, déchets agricoles et forestiers, dits de 2e génération, le site du Vigeant en Poitou-Charente, utilisera des micro-algues, une biomasse originale et prometteuse. Innovante, l'unité pilote du Vigeant dans la Vienne représenterait même « le premier site au monde à expérimenter ce procédé à partir de biogaz », à en croire le communiqué de la Région Poitou-Charentes. Si dans un premier temps, le site ne devrait produire que 4.500 litres, à titre expérimental, l'unité est prévue pour sortir 20.000 litres d'éthanol par hectare, soit l'équivalent de 30 tonnes de biomasse sèche à l'hectare. La culture des algues sera favorisée par la chaleur et le CO2 issus de la combustion du biogaz du centre de valorisation de déchets ménagers de Séché Environnement. Partenaire de cette unité, Séché Environnement valorisait jusqu'à présent les déchets ménagers collectés sur son site pour la production d'électricité et de chaleur. A l'avenir, la chaleur produite par le centre servira à chauffer les bassins de culture des algues, et le CO2 des gaz émis sera utiliser dans l'eau pour favoriser leur développement. Enviro2b
|
|
^ Haut |
|
|
|
|
|
|
|
Espace |
|
|
Espace et Cosmologie
|
|
|
|
|
|
|
|
|
Jeudi 14 mai, le lanceur Ariane 5 a décollé avec à son bord Herschel, le plus grand télescope infrarouge jamais construit. Fruit d'une collaboration internationale au sein de laquelle le CEA a eu un rôle prépondérant, le télescope permettra aux astronomes de dévoiler la formation des étoiles et des galaxies. Herschel a été embarqué à bord d'Ariane 5 en tandem avec le télescope Planck, dédié à la cartographie du rayonnement fossile de l'Univers. Ce lancement marque le début des deux dernières missions de l'Esa dans le cadre de son programme « Horizon 2000 », mis en place en 1985 pour couvrir le domaine de la science spatiale. Prévu pour une mission de trois ans, Herschel a deux objectifs majeurs reliés à la question des origines de l'Univers : - Dans le milieu proche, il sondera les nuages moléculaires, véritables « nurseries » de jeunes étoiles, pour identifier les premiers stades de la formation stellaire et tenter d'expliquer pourquoi toutes les étoiles ne naissent pas avec la même masse ; - Dans l'univers lointain, il scrutera des champs profonds pour y relever les populations de galaxies à l'époque de leur formation, apportant ainsi des éléments cruciaux pour tenter d'établir un scénario d'évolution de l'Univers, de la formation des premières structures à nos jours. Herschel est le fruit d'une collaboration internationale au sein de laquelle le CEA a eu un rôle prépondérant, notamment dans la réalisation des deux caméras infrarouges Spire et Pacs. CEA
|
|
^ Haut |
|
|
|
|
|
|
|
Terre |
|
|
Sciences de la Terre, Environnement et Climat
|
|
|
|
|
|
|
|
|
Le président américain a annoncé, le 19 mai, un plan d'une ampleur sans précédent aux Etats-Unis visant à réduire de 30 % les émissions de gaz d'échappement et à mettre en place des normes fédérales, harmonisées entre tous les états, en matière d'émission de gaz carbonique et de consommation de carburants par les automobiles. Barack Obama souhaite parvenir, d'ici 2012, à une consommation moyenne d'un gallon (3,78 litres) pour une distance de 35,5 miles (56 km) pour tous les véhicules neufs. « Soit un gain de dix miles », selon un haut responsable de l'administration américaine. Actuellement, le parc automobile américain consomme en moyenne 25 miles au galon. Le plan permettrait de réduire les émissions de gaz à effet de serre de 900 millions de tonnes - 3 % des émissions mondiales en 2008 - et d'économiser 1,8 milliards de barils de pétrole jusqu'en 2016. Selon un responsable de la Maison Blanche, ces mesures équivaudraient à la suppression de 177 millions de véhicules ou de 194 centrales au charbon. Le gouvernement fédéral suit le chemin tracé par l'état de Californie, qui dès 2002, a voté une loi imposant aux constructeurs automobiles de réduire de 30 % d'ici à 2016 les émissions de CO2, pour revenir à un niveau comparable à celui de 1990. Des constructeurs, américains ou étrangers, qui ont salué l'annonce de nouvelles normes de consommation et de pollution. « La sécurité énergétique et le changement climatique représentent des priorités nationales exigeant une initiative fédérale », a expliqué le nouveau directeur général de General Motors, Fritz Henderson. Le nouveau plan devrait aussi mettre un terme aux litiges existant entre les Etats et les constructeurs automobiles quant aux règles à appliquer. L'administration Obama dévoile son plan à un moment où les élus démocrates tentent de faire adopter par le Congrès une ambitieuse nouvelle législation contre le réchauffement climatique, l'"American Clean Energy and Security Act". Ce projet de loi sur le climat et l'énergie prévoit une réduction des émissions de gaz à effet de serre aux Etats-Unis --les plus élevées du monde par habitant-- de 17 % d'ici 2020 par rapport à 2005, 42 % en 2030 et 80 % avant 2050. Cette loi va également rendre obligatoire pour les compagnies électriques de produire au moins 15 % de leur production à partir de sources renouvelables d'énergie, telles que l'énergie solaire ou l'énergie éolienne. Enfin, dernier volet de cette nouvelle politique américaine de lutte contre le réchauffement climatique : la Maison Blanche veut mettre en place un marché fédéral de droits d'émissions contre le réchauffement climatique mais aussi lever ainsi des fonds pour financer le développement des énergies propres et créer des millions d'emplois dans les "clean tech". Le président américain espère en retirer quelque 80 milliards de dollars de recettes par an dès 2012. 15 milliards seraient affectés à des investissements pour les énergies propres et 63 milliards seraient redistribués sous forme de crédits d'impôt aux familles, communautés et entreprises pour les aider dans la transition vers une économie dé carbonée. Enfin, le secrétaire américain à l'Energie, Steven Chu, a évoqué clairement l'instauration d'une taxe sur les émissions de gaz carbonique, un sujet qui était jusqu'à présent tabou dans le débat politique américain. On voit donc que les Etats-Unis veulent à présent faire au moins jeu égal avec l'Europe en matière de lutte contre le dérèglement climatique et arriver en position de force à Copenhague, fin 2009, dans la dernière étape des négociations du futur traité international qui va succéder au protocole de Kyoto en 2013. Article @RTFlash
|
|
|
|
|
|
|
|
Le réchauffement climatique pourrait avoir des conséquences sérieuses sur l'activité touristique de la France. Une étude menée par la Direction du tourisme, le cabinet de consultants TEC et publiée par l'Insee ("Le tourisme en France - Édition 2008") montre qu'un réchauffement du climat de 3 à 4°C, à l'horizon 2100, pourrait faire disparaître les stations de montagne en dessous de 1.800 mètres et mettre en péril la gestion de l'eau. En se basant sur les projections scientifiques du GIEC (Groupe d'experts intergouvernemental sur l'évolution du climat), qui prévoit une augmentation de la température de la planète de 3 à 4°C d'ici 2100, la Direction du tourisme, TEC et l'Insee prévoient : "L'enneigement diminuerait et les stations de ski situées en dessous de 1.800 mètres seraient en péril." Les montagnes françaises seront donc les premières exposées par le réchauffement. Au-dessus de 2.500 mètres, l'enneigement serait retardé et la fonte des neiges un peu plus précoce. Résultat, il faudrait compter sur une douzaine de jours d'enneigement en moins à l'horizon 2100. À 1.500 mètres, le scénario est encore plus sévère. Il n'y aurait plus que quatre mois d'enneigement dans les Alpes du Nord, contre cinq aujourd'hui, deux mois (contre trois) dans les Alpes du Sud et les Pyrénées. L'érosion du littoral entraînerait aussi un changement de l'activité balnéaire. Les auteurs de l'étude indiquent qu'actuellement, "20 % des communes touristiques françaises ont leurs plages atteintes par l'érosion", un phénomène qui devrait s'accélérer avec la montée des eaux. L'Insee évoque aussi les problèmes liés à la gestion de l'eau. Le tourisme est "consommateur d'eau", que ce soit pour l'entretien des espaces verts ou même l'approvisionnement des piscines. "Choisira-t-on de préserver l'irrigation des golfs ou celle du maïs ?", s'interrogent les auteurs. Insee
|
|
^ Haut |
|
|
|
|
|
|
|
Vivant |
|
|
Santé, Médecine et Sciences du Vivant
|
|
|
|
|
|
|
|
|
Il y a presque 4 milliards d'années, au moment où la vie commençait à apparaître sur Terre, une molécule capable de stocker des informations génétiques, une molécule cruciale pour l'évolution du monde vivant, se serait formée spontanément. Depuis une vingtaine d'années, l'ARN semble être un candidat crédible à ce poste, notamment à cause de sa capacité à se reproduire tout seul (autocatalyse). Cependant aucune expérience n'avait jusqu'à présent permis de montrer que les briques de base de l'ARN, les ribonucléotides, pouvaient se former spontanément. Des chimistes britanniques ont peut-être trouvé une solution : en reproduisant en laboratoire des conditions qui ont pu prévaloir il y a plus de 3,5 milliards d'années, ils montrent qu'une réaction chimique peut expliquer la formation de ribonucléotides. Petit retour en arrière : après l'apparition des premiers composés organiques, dont des acides aminés (cf l'expérience de Miller), vient la formation des premiers polymères, lorsque les composés monomères s'assemblent en chaîne complexe. C'est à ce moment-là que serait apparu les ribonucléotides. Ils sont composés de trois éléments : un sucre (ribose), une base azotée ou nucléobase (guanine, cytosine, adénine..) et un groupe phosphate. Comment ces trois ingrédients ont-ils pu s'assembler spontanément ? Jusqu'à présent les chimistes n'ont pas réussi à lier la nucléobase et le sucre. John Sutherland et ses collègues de l'université de Manchester ont pris un chemin différent : au lieu de partir d'un sucre d'un côté et d'une base de l'autre, ils les font émerger d'un précurseur commun. De plus, au cours de leurs expériences, les trois chercheurs ont découvert que le phosphate jouait un rôle crucial de contrôle et de régulation des réactions chimiques. Dernier acte : l'action des ultra-violets, qui détruisent certains produits dérivés de la réaction qui permettent la formation d'une seconde nucléobase. Même s'ils ne répondent pas à toutes les inconnues, ces travaux relancent l'intérêt des chercheurs pour l'hypothèse d'un monde d'ARN qui serait aux origines de l'évolution du vivant. S&A
|
|
|
|
|
|
|
|
Un virus très répandu responsable d'une hypertension artérielle ? S'ils divisent la communauté scientifique, les résultats très étonnants d'une nouvelle étude américaine suggèrent une nouvelle fois que les virus jouent un rôle dans l'apparition de maladies cardio-vasculaires. Réalisée par des chercheurs de Harvard, l'étude ne concerne pour l'heure que les souris. Et cette pathologie asymptomatique est si répandue chez l'homme qu'apporter la preuve de l'action du virus chez l'homme s'avère difficile. "Il va probablement y avoir un scepticisme considérable à ce propos dans la communauté médicale", reconnaît le directeur de recherche, le Dr Clyde Crumpacker, spécialiste des maladies infectieuses au centre médical Beth Israel Deaconess de Boston. Mais "notre hypothèse de départ est que oui, une infection persistante des vaisseaux sanguins pourrait faire le lit d'une hypertension artérielle". En jeu, le cytomégalovirus, ou CMV. Plus de la moitié des adultes américains en sont infectés avant 40 ans, selon les Centres de contrôle et de prévention des maladies (CDC). C'est une infection à vie, mais qui passe inaperçue dans la plupart des cas. Toutefois, le CMV entraîne des problèmes importants pour certains groupes de population : les femmes infectées pendant leur grossesse peuvent parfois transmettre le virus au foetus, et 8.000 enfants chaque année souffrent de handicap, notamment mental, auditif et visuel. Plus dangereux encore chez les gens dont le système immunitaire est insuffisant, le CMV entraîne aussi une forme de cécité chez les patients souffrant de Sida et l'on a établi un lien avec les problèmes que rencontrent les transplantés cardiaques. Pour la nouvelle étude, le Dr Crumpacker a fait équipe avec des cardiologues qui ont pu introduire des tubes très fins directement dans une artère vitale du cou de la souris, afin de mesurer exactement les répercussions sur la tension artérielle. Le Dr Crumpacker a commencé avec des souris en bonne santé, certaines soumises pendant un mois à un régime alimentaire de rongeur normal, et d'autres à un régime riche en cholestérol pendant la même période. Les chercheurs ont ensuite injecté le CMV dans la cavité abdominale de la moitié des souris de chaque groupe. Au bout de quelques semaines, la tension artérielle avait fait un bond chez toutes les souris infectées par le CMV, mais pas chez les autres, a constaté le chercheur. C'est chez les souris dont le régime était riche en cholestérol que la tension artérielle a le plus augmenté, et quelques-unes des bêtes ont même développé des plaques d'athérome, écrit-il dans le journal "PLoS Pathogens", une publication de la Public Library of Science. En examinant attentivement dans les artères carotidiennes des rongeurs, les chercheurs ont remarqué que le CMV infectait leurs parois. En étudiant les artères plus en profondeur, le Dr Crumpacker a alors infecté in vitro les cellules de souris et les cellules humaines, et découvert que le CMV stimulait l'augmentation de la production d'une enzyme, la rénine, connue pour activer une voie moléculaire qui peut conduire à une tension artérielle très élevée. Près d'un adulte américain sur trois, soit 72 millions de personnes, et près d'un milliard dans le monde souffrent d'hypertension artérielle. C'est un facteur de risque majeur d'infarctus et d'accident vasculaire cérébral. Une mauvaise alimentation et le manque d'exercice en sont les principaux facteurs de risque, mais les médecins ne comprennent pas tous les éléments déclenchants de l'hypertension, notamment pourquoi des gens qui restent affalés n'en souffrent jamais, alors que d'autres, minces et en bonne forme, sont touchés. "C'est un article intrigant", qui exige des recherches supplémentaires, a estimé le Dr Cheryl McDonald, de l'Institut national du coeur, du poumon et du sang qui a financé l'étude. Le Dr McDonald a souligné qu'il faudrait des années avant de mener une étude sur les humains. AP
|
|
|
|
|
|
|
|
Les vaccins sont lents à produire car les virus doivent incuber, puis le vaccin doit être longuement fabriqué et purifié avant d'être mis sur le marché. Mais en cas d'alerte épidémique imprévue, l'industrie pharmaceutique n'est pas en capacité de répondre rapidement à la demande d'un vaccin en grande quantité. Le projet européen Fluvacc, dirigé par le Dr Muster de l'université de Vienne, a pour but de mettre au point un système de production rapide d'un vaccin ciblé en cas de pandémie. « Théoriquement, avec Fluvacc, ces délais de production pourraient être ramenés à quelques jours, deux ou trois semaines tout au plus, à partir du moment où nous disposons de la souche virale », explique le Dr Muster. Au lieu de la technique d'incubation habituelle, le nouveau système utiliserait la génétique, à partir d'un virus vivant auquel on enlève un facteur pathogène cultivé en laboratoire en quelques jours. « Il ressemble comme deux gouttes d'eau au virus en circulation et une fois administré par spray nasal aux personnes à protéger, il induit une bonne réponse immunitaire. Ce vaccin offre aussi une protection élargie face à diverses variantes du virus d'origine. En d'autres termes, si le virus mute, la protection offerte par le vaccin de nouvelle génération concerne aussi les mutants », ajoute le Dr Muster. Ce nouveau vaccin a déjà été testé sur quarante-huit volontaires adultes et les résultats sont concluants. Le produit a pu montrer son efficacité sur le système immunitaire et contre des virus mutants. Le Dr Muster attend désormais un échantillon du virus de la grippe A/H1N1 pour montrer la capacité d'action en temps réel de sa technique. Ms
|
|
|
|
|
|
|
|
Boire jusqu'à un demi-verre de vin par jour peut prolonger l'espérance de vie de cinq ans chez les hommes, selon une étude néerlandaise publiée par une revue spécialisée. Consommer jusqu'à 20 grammes d'alcool, quel qu'il soit, par jour permet de vivre environ deux ans de plus, selon cette étude de l'université de Wageningen (Pays-Bas) publiée par le Journal of Epidemiology and Community Health. Au-delà de cette quantité, l'espérance de vie commence à diminuer. Les hommes qui ne boivent que du vin (l'étude ne précise pas de couleur), à condition de ne pas dépasser un demi-verre par jour, voient leur espérance de vie prolongée d'environ deux ans et demi par rapport à ceux qui consomment régulièrement de la bière ou d'autres alcools. Mais ils peuvent espérer vivre cinq ans de plus que ceux qui ne boivent pas d'alcool du tout, a conclu cette étude menée auprès de près de 1.400 hommes suivis sur quatre décennies, entre 1960 et 2000. Les chercheurs de l'université néerlandaise ont analysé le type d'alcool consommé, la quantité, le poids et la consommation éventuelle de tabac des hommes étudiés, tous styles de vie, origine sociale et habitudes alimentaires confondues. La consommation de vin permet notamment de réduire les risques de maladies coronariennes ou cérébrovasculaires, a conclu cette étude. Les recherches ont également permis de constater que la proportion des hommes buvant de l'alcool avait presque doublé sur les 40 ans de l'étude, passant de 45 % en 1960 à 86 % en 2000. La proportion des consommateurs de vin est passée de deux à 44 % sur la même période. LP
|
|
|
|
|
|
|
|
Nos capacités mathématiques s'appuient-elles sur des régions cérébrales liées à l'attention spatiale ? Cette question est soulevée dans une étude menée par des chercheurs du CEA, de l'Inserm, de l'Inria, de l'Université Paris-Sud au sein de l'unité Inserm/CEA « Neuroimagerie cognitive », à NeuroSpin. Grâce à l'imagerie cérébrale par résonance magnétique à 3 Teslas de NeuroSpin, ces équipes viennent de mettre en évidence un rapprochement inattendu entre les représentations des nombres et celles de l'espace dans le cerveau. Ces travaux, qui sont publiés dans Science Express, pourraient avoir des conséquences importantes pour l'enseignement de l'arithmétique. André Knops a enregistré l'activité du cerveau au moyen d'un appareil d'imagerie par résonance magnétique (IRM) de 3 Teslas, alors que des adultes volontaires effectuaient soit des additions et des soustractions mentales, soit des mouvements des yeux vers la droite ou vers la gauche de l'écran. Un logiciel de traitement du signal a ensuite permis d'identifier des régions du cerveau impliquées dans les mouvements des yeux, et d'en déduire un algorithme qui, à partir de l'activité cérébrale, dévoile un aspect du comportement des sujets. À partir des images IRM de haute résolution obtenues, les chercheurs ont été en mesure de déduire, essai par essai, si la personne avait orienté son regard vers la droite ou vers la gauche, avec un taux de succès de 70 %. Plus surprenant, cette classification s'est étendue au calcul mental : les chercheurs ont ainsi observé la même distinction entre l'activité cérébrale évoquée pendant les mouvements à gauche ou à droite et pendant les opérations de soustraction ou d'addition - que ces opérations soient réalisées avec des ensembles concrets d'objets (calcul non symbolique) ou avec des nombres symboliques (calcul symbolique) présentés sous formes de chiffres arabes. Ils en ont conclu que le calcul mental ressemblait à un déplacement spatial. Par exemple, dans une certaine mesure, lorsqu'une personne qui a appris à lire de gauche à droite, calcule 18 + 5, son attention se déplace « vers la droite » de 18 à 23 dans l'espace des nombres, comme si les nombres étaient représentés sur une ligne virtuelle. En mettant en évidence l'interconnexion entre le sens des nombres et celui de l'espace, ces résultats éclairent l'organisation de l'arithmétique dans le cerveau. Ils sont compatibles avec l'hypothèse, développée par Stanislas Dehaene, que les apprentissages scolaires entraînent un recyclage neuronal de régions cérébrales héritées de notre évolution et dédiées à des fonctions proches. Chez les enfants en difficultés, l'utilisation de jeux qui insistent sur la correspondance entre les nombres et l'espace, tels que le jeu des « petits chevaux », peut conduire à des améliorations prononcées des compétences en mathématiques. Sur ce principe, un logiciel ludo-pédagogique en libre accès, « La course aux nombres », a été développé par le même groupe afin de faciliter l'apprentissage de l'arithmétique. Inserm
|
|
^ Haut |
|
|
|
|
|
|
|
Recherche |
|
|
Recherche & Innovation, Technologies, Transports
|
|
|
|
|
|
|
|
|
Pour aller loin avec sa voiture, vaut-il mieux alimenter son moteur avec un agrocarburant ou avec une batterie chargée par de l'électricité obtenue à partir d'une biomasse équivalente ? Il fallait bien que des scientifiques finissent par se poser cette question impertinente. Et que leur réponse, comme souvent, n'aille pas dans le sens gouvernemental. La France, l'Union européenne, les Etats-Unis... On ne compte plus les pays qui ont réagi à la hausse vertigineuse des cours du pétrole, l'an dernier, en boostant leur politique en faveur des agrocarburants. Vert, renouvelable, plus propre, produit sur place... le nouveau «pétrole» fabriqué à partir de maïs, canne à sucre ou betterave semblait avoir tous les avantages. Ce discours simpliste a déjà été critiqué. Le risque de concurrence entre productions alimentaires et industrielles ou l'encouragement à détruire de nouvelles zones forestières a été particulièrement souligné. Pour éviter cette critique, il est possible d'utiliser la voie du bioéthanol, dit cellulosique, qui est fabriqué à partir de la lignocellulose des végétaux (bois, paille de riz ou de blé, déchets forestiers ou agricoles), qui enveloppe les cellules et non de l'amidon qu'elles contiennent. Cette idée, qui participe aux biocarburants de deuxième génération, connaît des premières réalisations industrielles et reçoit un soutien financier massif des gouvernements, en particulier aux Etats-Unis. Trois scientifiques américains viennent de publier une analyse qui prend le problème par un autre bout. Comparons, se sont-ils dits, l'efficacité technique et écologique de deux solutions partant d'une même biomasse. La première consiste à fabriquer le carburant que vous mettez dans votre voiture à moteur thermique ; la seconde à brûler la biomasse pour produire de la vapeur, faire tourner une turbine et, in fine, produire de l'électricité que vous stockez dans une batterie, laquelle fournira la puissance d'un moteur électrique d'une voiture. Afin de balayer l'ensemble du problème, les trois chercheurs sont partis de deux plantes : le maïs et une grande céréale sauvage, le panic érigé (panicum virgatum). Cette dernière, dont se nourrissaient les bisons des grandes plaines américaines, porte les espoirs des partisans de carburants alternatifs. Ces deux exemples permettent de tester agrocarburants de première comme de deuxième génération au regard de la solution «électrique». Les chercheurs ont ensuite étudié de nombreuses hypothèses (petites, moyennes et grandes voitures, conduite en ville et sur autoroute) ; analysé les cycles complets de production des plantes et de vie des véhicules ; étudié le bilan en gaz à effet de serre des cultures - mauvais pour le maïs (sa culture émet du gaz carbonique), positif pour le panic érigé, qui stocke le carbone de l'air grâce à son vaste système racinaire. Le tout grâce à des études préexistantes mais jamais mises en relation. Le résultat peut sembler étrange. En effet, il vaut mieux brûler ces plantes et générer de l'électricité avec la chaleur obtenue, et ceci dans tous les cas de figure. Rapporté à l'hectare, une voiture électrique va rouler plus longtemps et émettre moins de gaz à effet de serre que si elle était alimentée aux biocarburants. Un résultat qui doit beaucoup à la grande efficacité du moteur électrique. La version éthanol classique (au maïs) se retrouve avec un bilan catastrophique. Le panic érigé présente, lui, une efficacité presque deux fois supérieure, en termes de kilomètres parcourus et d'émissions évitées, lorsqu'il est brûlé pour générer de l'électricité. Libé
|
|
|
|
|
|
|
|
Une autoroute à hydrogène de plus de 500 kilomètres, reliant Oslo à Stavanger, a été inaugurée en Norvège. Pour l'occasion, une douzaine de voitures fonctionnant uniquement à l'aide de ce carburant du futur ont participé à un rallye. Équipées de piles à hydrogène, les voitures vertes de Norvège pourront emprunter la nouvelle autoroute qui relie Oslo à Stavanger, la capitale de l'industrie pétrolière du pays. De nombreuses stations à hydrogène ont été implantées par la compagnie pétrolière, et désormais hydrogénique, StatoilHydro, le long de cette route afin que les véhicules puissent recharger leurs piles comme on fait le plein d'essence. "Nous devons chercher de nouvelles sources de carburant pour l'avenir et nous pensons que l'hydrogène est une bonne option, surtout dans la mesure où il a les caractéristiques d'un carburant qui n'émet pas d'émissions, et aussi parce qu'on peut produire de l'hydrogène à partir de multiples sources" explique Ulf Hafseld, directeur du développement de l'hydrogène de la compagnie. De telles autoroutes ont déjà été construites au japon ou en Californie et la Norvège a l'intention de prolonger la sienne afin de la relier à celle du nord de l'Allemagne. Si la voiture à hydrogène a longtemps été considérée comme le plus grand espoir d'alternative au pétrole, son coût et celui des infrastructures nécessaires à son développement sont encore beaucoup trop élevés et la voiture électrique lui est désormais préférée. MS
|
|
^ Haut |
|
|
|
|
|
VOTRE INSCRIPTION |
|
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
|
|
|
|
|
|