|
|
|
|
|
NUMERO 481 |
|
|
|
|
|
|
|
Edition du 03 Juillet 2008
|
|
|
|
|
Edito
Cancer : la révolution thérapeutique des thérapies ciblées est en marche
Un vent d'optimisme a soufflé à l'occasion du grand congrès mondial de cancérologie qui vient de se tenir à Chicago (Asco). Au cours de cette manifestation, les scientifiques ont présenté des études très encourageantes sur les résultats des nouvelles thérapies ciblées. Pour le cancer du colon, ces thérapies sont à l'origine de survies qui peuvent dépasser les deux ans chez des patients non opérables et l'arrivée des anticorps monoclonaux a révolutionné la prise en charge du cancer du colon, un fléau qui touche environ 37.000 nouveaux cas et entraîne plus de 16.500 décès par an en France. Une panoplie de thérapies ciblées est désormais sur le marché et une vingtaine de biomédicaments, majoritairement des anticorps monoclonaux, sont actuellement expérimentés sur l'homme. Ces molécules agissent comme des interrupteurs. Elles bloquent la cascade d'informations qui se propagent à l'intérieur d'une cellule malade pour d'atteindre l'ADN logé dans le noyau. Pour le cancer du sein, qui touche plus de 40.000 femmes par an en France, les progrès sont également remarquables. C'est un autre anticorps monoclonal qui est à l'origine de ces avancées : l'Herceptin. « Le blocage du récepteur Her 2 est un élément clef dans le contrôle de la maladie. En Europe, près d'une femme sur neuf croisera le cancer du sein dans sa vie et environ 25 % d'entre elles surexpriment ce récepteur spécifique. La Commission européenne vient d'autoriser la mise sur le marché du lapatinib (Tyverb®, GSK) contre les cancers du sein avancés métastatiques sur-exprimant les récepteurs HER-2, caractéristiques des cellules tumorales qui gouvernent la formation de métastases. Le lapatinib est le premier traitement ciblé par voie orale dans le cancer du sein métastatique. Autre avancée remarquable, une équipe du Fred Hutchinson Center de Seattle est parvenue à traiter avec succés un patient atteint de mélanome malin métastasé avec des lymphocytes CD4+ autologues. Deux mois après le traitement, un nouveau bilan d'extension (par scanner et TEP scan) a montré une disparition complète des métastases ganglionnaires et pulmonaires sans apparition de nouvelles localisations. Avec un recul de 26 mois, le patient demeure en rémission complète sans aucun autre traitement. Résultat de ces avancées : les classifications de malades en sous-groupes se multiplient, chacun correspondant à un traitement spécifique et la plupart des cancérologues estiment que les protocoles vont devoir être complètement revus d'ici à 2010, pour prendre en compte l'arrivée de ces thérapies innovantes. « L'avenir de la cancérologie est dans l'association de plusieurs anticorps monoclonaux ciblés », n'hésite pas à dire Joseph Gligorov, de l'hôpital Tenon à Paris, qui prévoit la disparition, à terme, des chimiothérapies traditionnelles. Mais les anticorps monoclonaux ne sont qu'un des nouveaux angles d'attaque contre le cancer et d'autres approches très prometteuses sont également à l'étude. Par exemple, une molécule découverte par des chercheurs du Centre national de la Recherche Scientifique (CNRS) parvient à bloquer à la fois la multiplication des cellules cancéreuses et la formation des vaisseaux qui nourrissent la tumeur. Cette molécule baptisée HB-19 cible spécifiquement une protéine nécessaire à la croissance des tumeurs appelée "nucléoline de surface", mais s'attaque aussi à l'"angiogénèse", en d'autres termes la formation de nouveaux vaisseaux sanguins indispensables qui apportent de la "nourriture" à la tumeur. Résultat, ce traitement expérimental a entraîné chez l'animal une "inhibition significative de la progression de tumeurs. Le CNRS dispose d'un brevet protégeant cette découverte et développe une famille de composés de deuxième génération plus efficaces encore qu'HB-19 qui devrait faire l'objet d'une étude clinique préliminaire (dite de phase 1) dès 2009. Dans la lutte contre le cancer, les chercheurs mobilisent également toutes les ressources de la physique. Une équipe de chercheurs travaille à Bordeaux sur une nouvelle technique déjà employée avec succès contre certains cancers de la prostate pour combattre le cancer du sein par les ultrasons. Ce traitement sera testé d'ici la fin de l'année sur une dizaine de patientes. Sur le plan fondamental, la compréhension des mécanismes cellulaires complexes liés au cancer fait également des progrès constants. Une équipe de chercheurs de l'Université de Duke School of Medicine vient ainsi de découvrit pourquoi les cellules cancéreuses ont autant d'affinité avec le sucre. Jonathan Coloff et Jeffrey Rathmell ont en effet démontré que le maintien du métabolisme du glucose dans les cellules tumorales leur permettait d'éviter d'entrer dans le processus d'apoptose. Pour maintenir ce taux, les cellules tumorales utiliseraient la protéine Akt, influençant ainsi le fonctionnement de toute une famille de protéines essentielles pour la survie des cellules. Selon les chercheurs, Akt empêcherait l'action de Mcl-1 et Puma qui sont des protéines activées lors du processus de l'apoptose en absence de facteurs de croissance. Cette dépendance au glucose chez les cellules cancéreuses pourrait permettre de découvrir, dans des recherches futures, une voie métabolique alternative pour le traitement du cancer. Par ailleurs, un nouveau mécanisme de communication des cellules tumorales vient d'être mis à jour par l'équipe du Docteur Janusz Rak de l'Institut de recherche du Centre Universitaire de Santé McGill (CUSM), en collaboration avec le Docteur Guha de l'Université de Toronto. Ainsi, les cellules cancéreuses peuvent communiquer avec d'autres cellules, saines ou moins malignes, en émettant des vésicules. Ces structures en forme de bulles contiennent des protéines oncogènes (qui causent le cancer) qui peuvent déclencher des mécanismes spécifiques à l'intérieur des cellules avec lesquelles elles fusionnent. Ces découvertes pourraient mener à des innovations cliniques majeures. Cette découverte montre que le cancer est un processus multicellulaire et remet en question la vision traditionnelle d'une unique cellule « mutée » qui se multiplie de façon incontrôlée jusqu'à former une tumeur. Elle ouvre de nouvelles perspectives thérapeutiques très intéressantes. Enfin, une récente étude réalisée par l'Université de San Francisco vient de montrer qu'une modification du mode de vie comprenant un changement d'alimentation et la pratique régulière d'exercices physiques pouvait avoir un impact sensible et très positif en ralentissant ou inhibant l'expression d'une multitude de gènes, dont certains (RAN et Shoc2) sont fortement impliqués dans le déclenchement de plusieurs types de cancers. Même si nous devons rester prudents et ne pas donner de faux espoirs aux malades nous pouvons affirmer que nous vivons véritablement un tournant dans la lutte mais aussi la prévention active contre le cancer. C'est pourquoi nous devons poursuivre l'effort de recherche et de coordination des soins relancé par le plan "cancer" de Jacques Chirac et nous fixer, au niveau national et européen, de nouveaux objectifs ambitieux visant à mobiliser toutes les ressource de l'intelligence humaine pour amplifier ces avancées sur tous les fronts et vaincre cette maladie à l'horizon 2030. René Trégouët Sénateur honoraire Fondateur du Groupe de Prospective du Sénat
|
|
|
|
|
|
|
|
TIC |
|
|
Information et Communication
|
|
|
|
|
|
|
|
|
La ministre de la Santé Roselyne Bachelot a présenté son plan de relance du dossier médical personnel (DMP). Basé sur le volontariat, le DPM devrait être opérationnel dès 2009. Le coût du lancement entre 2009 et 2012 est estimé à 900 millions d'euros, et devrait atteindre 100 millions d'euros par an à compter de 2012. Dès 2009, chaque individu doté d'un numéro d'identification pourra, s'il le souhaite, ouvrir un DMP via Internet, la ministre s'étant engagée à "supprimer les sanctions financières prévues dans la loi de 2004 pour les patients qui ne l'ouvriraient pas". Un portail de confiance assurant un accès sécurisé, un identifiant national de santé pour chacun, un hébergement national des données : une fois le cadre national du DMP posé, il appartiendra au médecin consulté d'entrer les informations médicales avec l'accord de son patient. Le dossier s'enrichira au fur et à mesure de données essentielles, notamment des médicaments délivrés (grâce au dossier pharmaceutique et au webmédecin), des comptes rendus de radiologie, des résultats des analyses de biologie et des comptes rendus hospitaliers. En région Picardie, le dossier médical personnel (DMP) est déjà une réalité. Rebaptisé Dossier santé Picardie (DSP), ce projet est à la pointe des expérimentations actuellement menées en France pour tester la viabilité du DMP. Ici, on ne s'embarrasse pas des atermoiements qui ont marqué le pilotage du projet national. Le DSP, qui regroupe les données de santé d'un patient sur un site sécurisé, est d'abord conçu comme un outil de partage de l'information entre médecins. Cinq mille dossiers informatiques sont ouverts aujourd'hui, trente mille prévus à la rentrée de septembre. Regroupant huit établissements hospitaliers publics et privés, quatre laboratoires, deux réseaux de santé et 300 professionnels de santé (150 médecins et 150 infirmières libérales), le projet s'est déployé, depuis janvier, par le biais des guichets d'accueil des hôpitaux. Les patients, lors de leur hospitalisation, se voient proposer d'ouvrir un DSP, présenté comme un outil "favorisant la coordination, la qualité et la continuité des soins". La démarche est gratuite. Le coût du dispositif, 2,5 millions d'euros, est partiellement pris en charge par l'Etat. Pour l'hôpital, l'intérêt du DSP est de réunir toutes les données concernant un patient (analyses, radiologies, comptes rendus opératoires...) sur une plate-forme informatique unique, consultable par tous les praticiens. "On évite ainsi le syndrome spaghetti, avec la multiplication de dossiers de patients, service par service, non connectables", affirme le docteur Christine Boutet, directrice médicale du projet DMP Picardie. Puis ces informations sont reversées dans un bunker informatique, gardé secret par le gestionnaire du DSP, la société Santéos.Les médecins libéraux accèdent ensuite à ces données par un simple clic sur leurs ordinateurs. "On a ainsi une bien meilleure vision de l'état de santé de nos patients, assure le docteur Gilles Revaux, médecin généraliste à Amiens. Le DSP permet d'éviter les doublons dans la prise de médicaments, qui peuvent être très dangereux, particulièrement pour les personnes âgées." LM
|
|
|
|
|
|
|
|
Des chercheurs de l'Institut Hasso Plattner de technique des systèmes software (HPI), rattaché à l'Université de Potsdam, travaillent à la mise en place d'un système de transmission de données permettant d'améliorer la qualité des soins aux personnes atteintes de pathologies cardiovasculaires dans les régions rurales. Leur travail se concentre pour l'instant sur le nord du Land de Brandebourg, zone peu densément peuplée. Le projet, piloté par le Professeur Andreas Polze du département "systèmes d'exploitation et intergiciels" a été sélectionné dans le cadre de l'initiative "Régions médicales du futur" du Ministère fédéral de l'enseignement et de la recherche (BMBF). "Certains des patients atteints de pathologies cardio-vasculaires doivent se rendre quotidiennement chez le médecin pour faire contrôler certains paramètres. Dans les régions rurales en particulier, ceci est souvent fatigant et coûteux", explique le Professeur Polze. "Avec notre projet, nous développons un système qui transmet automatiquement ces données par téléphone portable ou par Internet". Ainsi, les visites chez le médecin peuvent n'avoir lieu qu'hebdomadairement, voire encore moins souvent. Une société basée à Oranienburg, regroupant le HPI ainsi que des entreprises comme getemed Medizin- und Informationstechnik AG (Teltow), B.R.A.H.M.S. AG (Hennigsdorf), BIOTRONIK (Berlin), T-Mobile et Robert Bosch GmbH, souhaite développer ce système. BE
|
|
|
|
|
|
|
|
Des chercheurs de Stanford University ont développé une nouvelle méthode chimique pour produire des nanorubans de graphène (Graphene nano ribbons, GNR) pour fabriquer des transistors à effet de champ fonctionnant à température ambiante. Ces transistors pourraient bien être utilisés dans les ordinateurs hautes performances, plus rapides et dégageant moins de chaleur. Au fur et à mesure que la finesse de gravure des circuits en silicium se rapproche de quelques nanomètres, les effets quantiques apparaissent. Les électrons se comportent différemment à cette échelle et compromettent les qualités semi-conductrices du silicium : le graphène a de fortes chances d'être le successeur du silicium. Le graphène a émergé il y a 4 ans comme un matériau très prometteur pour ses applications électroniques, grâce notamment la grande mobilité des porteurs. Des théories récentes ont prédit que le confinement quantique et les effets de bords confèrent aux GNR suffisamment étroits une bande interdite qui leur permet d'être semiconducteurs. Pour fabriquer ces rubans, l'équipe a exfolié du graphite extensible, chauffé à 1000°C pendant une minute dans de l'argon avec 3% hydrogène. Le graphite exfolié est décomposé dans une solution chimique à ultrasons pendant 30 minutes, et par centrifugation les substrats formés pendant le bain à ultrasons sont récupérés. La microscopie à force atomique met en évidence de nombreux GNR d'une seule couche de 50nm à moins de 10nm de large, et de longueur 1micro-m environ. Les transistors FET GNR ont été fabriqués avec du palladium pour les contacts métalliques de la source et du drain. Les transistors délivrent jusqu'à 200micro-A/micro-m (pour une longueur de 200 à 300nm) à 0.5V en tension drain-source. Les chercheurs pensent améliorer ces performances déjà prometteuses en optimisant les contacts et en réduisant la longueur du canal. BE
|
|
^ Haut |
|
|
|
|
|
|
|
Matière |
|
|
Matière et Energie
|
|
|
|
|
|
|
|
|
Le coût de production de l'électricité solaire devrait baisser dans les dix années à venir jusqu'à devenir équivalent à celui de l'énergie produite à partir de combustibles fossiles, montre une étude réalisée par des partisans des énergies renouvelables."Le prix de l'énergie solaire décline alors que les coûts du pétrole, du charbon, du gaz naturel et des centrales nucléaires augmentent. Le point de rencontre (entre les coûts de production) devrait être atteint en 2015", estiment dans un communiqué les auteurs de ce rapport, le groupe Clean Edge et l'association de défense de l'environnement Co-op America. Selon le texte, l'énergie solaire pourrait représenter 10 % de l'énergie consommée aux Etats-Unis d'ici à 2025. Pour atteindre cet objectif, les auteurs de l'étude estiment qu'il faudra investir entre 450 et 560 milliards de dollars (entre 290 et 360 milliards d'euros), soit entre 26 et 33 milliards de dollars par an. Le coût moyen du kWh photovoltaique devrait passer, selon ce rapport de 25 cents en 2008, à 12 cents en 2015 puis 6 cents en 2025. Cleanedge
|
|
|
|
|
|
|
|
Le Centre des énergies renouvelables Britannique vient d'autoriser la société OpenHydro à fournir au réseau national de l'électricité produite avec des hydroliennes. Dans la course pour réaliser l'objectif européen des 20 % d'énergies renouvelables, la Grande-Bretagne s'intéresse de près à l'énergie hydrolienne. Le pays de Galles, l'Irlande et l'Écosse offrent en effet les meilleurs sites d'Europe pour exploiter la force des courants marins, une ressource propre, inépuisable, et prévisible. Début avril 2008, Seagen, la première ferme hydrolienne à vocation commerciale, d'une capacité de 1,2 MW, était installée dans le détroit de Strangford, en Irlande du Nord. Elle devrait entrer en service durant l'été. De son côté, Open Hydro teste ses hydroliennes depuis 2006 sur le site de Fall of Warness, en Écosse. Le 26 mai 2008, la connexion au réseau Britannique d'une « Open-Centre Turbine » de 250 KW, installée au Centre européen de l'énergie marine d'Orkney, marque le lancement de l'exploitation commerciale de l'hydrolien. OpenHydro a investi 35 millions de livres (44,2 millions d'euros) pour atteindre cette phase du projet. La société entend développer son activité avec une ferme de turbines de 1 MW dans les Channel Islands, dès 2009. On est pourtant encore loin d'une exploitation industrielle de l'énergie des courants marins, faute de fonds. Les acteurs du secteur et le Centre des énergies renouvelables Britannique lancent donc un appel aux capitaux. Ce dernier évalue le potentiel énergétique hydrolien à 20 % des besoins du pays. DD
|
|
^ Haut |
|
|
|
|
|
|
|
Terre |
|
|
Sciences de la Terre, Environnement et Climat
|
|
|
|
|
|
|
|
|
Selon les scientifiques du centre national océanique et atmosphérique des Etats-Unis (le NOAA), pour la seule année 2007, le niveau mondial de dioxyde de carbone dans l'atmosphère, le facteur numéro un du changement climatique, a augmenté de 0,6 %, soit 19 milliards de tonnes. En outre, le méthane a augmenté de 27 millions de tonnes après environ 10 ans de stabilisation. La combustion des énergies fossiles, est la première source d'augmentation des émissions de dioxyde de carbone. Les océans, la végétation et les sols absorbent la moitié de ces émissions. L'autre moitié reste dans l'air pour des siècles ou plus. On s'attend à ce que 20 % des émissions de combustibles fossiles utilisés en 2007 restent dans l'atmosphère pour des milliers d'années, selon le groupe d'experts intergouvernemental sur l'évolution du climat L'augmentation du dioxyde de carbone émis l'an passé signifie que 2,4 molécules de gaz ont été ajoutées à chaque million de molécules d'air, ce qui a fortement augmenté la concentration mondiale jusqu'à 385 parties par million (ppm). Les niveaux de dioxyde de carbone pré-industriel oscillaient aux alentours de 280 ppm depuis 1850. Le taux d'augmentation des concentrations du dioxyde de carbone s'est accéléré au cours des dernières décennies en même temps que les émissions d'énergies fossiles. Depuis 2000, des augmentations de 2 ppm ou plus sont courantes, alors qu'elles n'étaient que de 1,5 ppm par an dans les années 80 et moins de 1 ppm par an dans les années 60. Les niveaux de méthane ont augmenté l'année dernière pour la première fois depuis 1998. Le méthane est 25 fois plus puissant en tant que gaz à effet de serre que le CO2, mais il est beaucoup moins présent dans l'atmosphère - environ 1 800 parts par milliard. En matière de changement climatique, l'impact total du méthane est presque deux fois moins important que celui du dioxyde de carbone. La croissance industrielle rapide en Asie et l'augmentation des émissions des zones humides en Arctique et sous les tropiques sont les causes les plus probantes de l'augmentation récente du méthane, selon le laboratoire de Recherche Earth System du NOAA. ESRL
|
|
|
|
|
|
|
|
L'équipe internationale de chercheurs, à laquelle participent les paléoclimatologues français du LSCE (Laboratoire des sciences du climat et de l'environnement regroupant le CEA, le CNRS et l'Université de Versailles Saint-Quentin-en-Yvelines), a analysé les carottes extraites lors du forage profond du NorthGrip (North Greenland ice core project) et mis en évidence que de brusques changements climatiques ont été provoqués par des modifications radicales de la circulation atmosphérique. Un premier réchauffement rapide s'est produit il y a 14.700 ans, la température du Groenland augmentant alors de 10°C. Cette période particulièrement douce est appelée par les scientifiques le Bølling, et correspond à l'époque où les premiers humains de l'âge de pierre se sont installés en Europe et en Scandinavie. Mais 1.800 ans plus tard, soit vers 12.900 ans, le climat refroidit soudain et un nouvel épisode glaciaire s'engage, soumettant les peuples à des conditions très sévères. Celles-ci durent peu et 1.200 ans plus tard, soit vers 11.700 ans, un nouveau réchauffement rapide intervient. Celui-là marquera définitivement la fin de la période glaciaire en cours. A ce scénario connu, les auteurs de l'étude ajoutent un coup de théâtre surprenant : il semble à présent établi que le basculement de l'âge glaciaire au climat interglaciaire tempéré que nous connaissons actuellement s'est produit en une seule année ! « Nous avons analysé la transition entre la dernière période glaciaire et notre période interglaciaire chaude actuelle. Les renversements climatiques se produisent aussi abruptement que si quelqu'un avait soudain appuyé sur un bouton » résume dans Science Dorthe Dahl-Jensen, coordinatrice du projet NorthGrip et professeur au Centre d'étude de la glace et du climat à l'institut Niels Bohr de l'Université de Copenhague. Cette précision est rendue possible par l'étude spécifique de chaque couche annuelle de la glace, qui apporte des informations spécifiques sur sa période. Les résultats de cette analyse découlent de l'examen des poussières, de l'oxygène et de l'hydrogène contenus dans ces couches glaciaires. Un climat froid favorise la concentration de poussières atmosphériques en provenance des zones arides, qui se déposent ensuite au-dessus de la calotte glaciaire du Groenland. L'abondance de l'isotope 18 de l'oxygène trahit des précipitations plus élevées, donc un climat plus chaud. Enfin, un excès de deutérium témoigne d'une élévation de la température des eaux de l'océan. Les résultats de cette étude se révèlent d'une importance capitale pour mieux utiliser les modèles climatiques et mieux prévoir l'évolution future du climat. Futura
|
|
|
|
|
|
|
|
Le gouvernement allemand a adopté le second volet d'un plan ambitieux de lutte contre le réchauffement climatique, censé réduire de 40 % d'ici à 2020 les émissions de gaz à effet de serre en Allemagne. Les mesures décidées en conseil des ministres visent en priorité des économies d'énergie. Parmi elles : le relèvement du péage autoroutier pour les poids lourds les plus polluants, un renforcement des normes relatives à la consommation d'énergie dans les habitations, le développement du réseau électrique pour faire fonctionner des futurs parcs éoliens offshore, et l'introduction de compteurs électriques "intelligents". Ceux-ci permettent par exemple de déclencher les machines à laver pendant la nuit, aux heures de basse consommation. A l'avenir, les frais de chauffage facturés par les propriétaires aux locataires devront être basés à 70 % sur la consommation réelle, contre 50 % jusqu'à présent, afin d'inciter davantage les citoyens à réduire leur consommation d'énergie. Le cabinet a également adopté les grandes lignes d'une loi modifiant la taxe automobile. A partir de 2010, les voitures seront taxées en fonction de leurs émissions de CO2, et non plus de la cylindrée du moteur. La première partie du plan de lutte contre le réchauffement climatique, contenant des dispositions encourageant la "cogénération", système permettant la production simultanée de chaleur et d'électricité, ainsi que le développement des énergies renouvelables, avait été adoptée par le Bundestag le 6 juin. Le ministre allemand de l'Environnement, Sigmar Gabriel, en revanche, a affirmé qu'elles constituaient "le plan sur le climat et l'énergie le plus ambitieux au monde" et allaient créer plus de 500.000 emplois supplémentaires d'ici à 2020. Romandie
|
|
|
|
|
|
|
|
Poweo a remporté un projet dans l'est de la France, à Novillars dans le Doubs. L'opérateur de gaz et d'électricité dotera le site de la Papeterie du Doubs, filiale du groupe Otor, 2e fabricant français d'emballages en carton ondulé, d'une centrale à biomasse d'une puissance électrique de 16 mégawatts. L'investissement est de l'ordre de 48 millions d'euros et génèrera une quinzaine d'emplois à sa mise en service, courant 2010. Le papetier qui utilise aujourd'hui uniquement du fioul lourd, pense réduire ses rejets annuels de CO2 de 250 000 tonnes. L'installation satisfera la totalité de ses besoins en vapeur. Les 126 millions de kWh d'électricité produits en parallèle et revendus à EDF, équivalent à la consommation énergétique de 51 000 foyers. La majeure partie de l'approvisionnement en biomasse évalué à 190 000 tonnes par an proviendra des rémanents forestiers, résidus de l'exploitation forestière aujourd'hui non valorisés. Il sera complété par 10 000 tonnes de taillis à très courte rotation, cultivés en Franche-Comté sur des terres en jachère. UN
|
|
|
|
|
|
|
|
Le Groenland maigrit et sa calotte réagit aux changements climatiques plus fortement que n'importe quel autre coin du globe. Sous son bonnet de fourrure à la Davy Crockett et sa barbe givrée, Konrad Steffen ne cache pas son inquiétude. Voilà bientôt 20 ans que ce Zurichois de 57 ans, qui dirige aujourd'hui le CIRES à Boulder (Colorado), un des plus gros instituts de recherches en sciences environnementales du monde, a fait du Groenland son terrain de recherches. Comme nombre de glaciologues, il souhaite comprendre comment la cryosphère réagit à la fièvre climatique. Les scientifiques y remarquent que la vitesse d'écoulement de la glace augmente fortement lors de la période de fonte, les mois d'été. Ils postulent alors que l'eau de surface, qui coule en de puissantes rivières nommées bédières, s'infiltre dans la calotte par des puits naturels appelés moulins, et finit par atteindre le socle rocheux, quelques centaines de mètres plus bas. Là, elle joue le rôle d'un lubrifiant entre le lit rocheux et l'épaisse couche de glace. Avec pour effet d'accélérer la ruée de la calotte vers la mer. «La vitesse de glissement, habituellement de quelques dizaines de centimètres par jour, peut jusqu'à doubler», précise le chercheur. Ce phénomène de lubrification a été décrit sur les glaciers alpins au XIXe siècle déjà. Mais on était loin de penser qu'il pouvait aussi s'appliquer aux calottes polaires. Cette observation chamboule le grand tableau des changements climatiques. Dans le premier jet de son rapport publié en mars 2007, le Groupe d'experts intergouvernemental sur l'évolution du climat (GIEC) estimait que le niveau des eaux augmenterait de 18 à 59 cm d'ici à 2100 suite à la fonte des glaces polaires. Plusieurs scientifiques, dont Steffen, se sont offusqués en soulignant que cette estimation n'incluait pas les calottes polaires. «Or les processus décrivant leur fonte sont encore si mal connus qu'il est impossible de déterminer la valeur supérieure de la fourchette.» Si les glaces du Groenland venaient à disparaître, c'est de 7 mètres que les mers augmenteraient, submergeant de nombreuses zones côtières habitées. Couplées aux observations par satellites (GRACE ou ICESat), toutes ces stations ont permis aux chercheurs de se faire une image un peu plus précise de la dynamique des glaces du Groenland. Depuis 15 ans, la température moyenne en hiver y a ainsi augmenté de 5°C, et de 3°C au printemps et en automne. L'air, plus chaud, peut alors contenir plus d'humidité. Ce qui génère davantage de précipitations neigeuses au coeur de l'île. «Le sommet de la calotte, situé à 3030 m, croît de 5 cm par an. Le poids accru soumet alors les bords de la calotte à une plus grande pression latérale», précise Koni. Or, simultanément, ce réchauffement amplifie la fonte de la zone d'ablation, près des côtes. Les glaciers avancent plus vite et se fragmentent davantage en icebergs dans la mer selon un processus appelé «vêlage», qui correspond à une perte nette de glace. Le plus célèbre d'entre eux, le Sermeq Kujalleq (ou Jakobshavn Isbrae) a vu sa vitesse augmenter de 5,7 km/an en 1992 à 12,6 km/an en 2003. Autant dire qu'il progresse à vue d'oeil ! Pour livrer une vision générale de la situation, les scientifiques utilisent le terme de balance. «En 1990, le Groenland recevait 555 gigatonnes d'eau sous forme de neige, et en perdait 350 par la fonte et 200 à travers le vêlage des glaciers. La balance était donc quasi neutre. Aujourd'hui, la balance est négative : selon les estimations les plus courantes, la calotte perd chaque année 200 gigatonnes de glaces supplémentaires - soit deux fois l'équivalent du volume total des glaces des Alpes ! -, par un vêlage des glaciers accru autant que par une fonte qui s'amplifie. Par ailleurs, la température moyenne de l'atmosphère augmentant, des flaques de plus en plus grandes se forment en surface. Or, même turquoises, elles sont plus sombres que la neige et absorbent ainsi davantage d'énergie solaire incidente. Celle-ci va faire fondre encore plus de neige et de glace. Tout est donc lié à l'eau qui s'infiltre dans la glace, la tempère, et la rend plus plastique.» De quelle manière ? «L'eau est plus lourde que la glace, et exerce sur elle une pression. Nous pensons qu'elle descend plus ou moins directement vers le sol, en petits escaliers. Ce qui justifierait de si brusques changements de la vitesse de glissement de la calotte durant l'été, la surface lubrifiée sous la glace pouvant ainsi être plus grande.» En 2006, une équipe de l'Université de Washington a pu observer le processus en direct, non loin du Swiss Camp. Elle l'a décrit en avril dernier dans la revue Science. En quatre semaines, l'eau de fonte a rempli un lac de 4 km de long sur 8 m de profond. La pression du liquide sur la glace a fini par ouvrir d'énormes moulins. Le niveau du lac a alors baissé, d'abord à raison de 1,5 cm par heure, puis de plus en plus vite. En 90 minutes, 44 millions de m3 d'eau se sont engouffrés dans les brèches. Soit avec un débit de 8700 m3 par seconde - c'est plus qu'aux chutes du Niagara ! La calotte s'est soulevée de 1,2 mètre et a glissé de 80 cm. Les chercheurs estiment donc qu'en été le glissement de la calotte a augmenté de 48 % à cet endroit. Quant à l'impact à terme sur le niveau des océans : «Loin des 58 centimètres d'abord proposés par le GIEC, je pencherais pour une augmentation d'un bon mètre d'ici à 2100.» souligne Konrad Steffen. LT
|
|
|
|
|
|
|
|
Afin de compléter la directive européenne 2000/60, dite directive-cadre sur l'eau (DCE), le Parlement européen a adopté le 17 juin 2008 un nouveau texte qui arrête des normes de qualité environnementale (NQE). Il s'agit de la Proposition de directive du Parlement européen et du Conseil, du 17 juillet 2006, établissant des normes de qualité environnementale dans le domaine de l'eau. Ce texte ne concerne que 33 agents polluants (pesticides, métaux lourds et autres) qualifiés de « substances dangereuses prioritaires »au titre de la décision n° 2455/2001/CE. Cette directive "fille à la directive DCE sera mise en oeuvre au plus tôt en 2010. Après de nombreux débats avec le Parlement et le Conseil, le nouveau texte adopté définit des normes de qualité de l'eau qui prennent la forme de concentrations maximales admissibles et de valeurs moyennes annuelles. Ces normes visent à atteindre le bon état écologique des masses d'eau d'ici 2015 comme le demande la DCE mais elles ne devront être respectées que d'ici 2018. Le texte adopté ne porte donc que sur ces 33 polluants mais les députés invitent dès à présent la Commission à faire une proposition envisageant la possibilité d'identifier 13 substances supplémentaires dont les dioxines, les PCB et le bisphénol comme des substances prioritaires ou des substances dangereuses prioritaires. La décision de classer ces 13 nouvelles substances devra être prise par la Commission en 2011 et des normes devront être définies en 2013. Cette nouvelle directive prévoit par ailleurs que les Etats membres mettent en place en 2009 un inventaire, comprenant si possible des cartes des rejets, des émissions et des pertes de toutes les substances prioritaires ainsi que des polluants pour chaque district hydrographique y compris les concentrations de ces substances dans le sédiment et le vivant (faune et flore). PE
|
|
|
|
|
|
|
|
Une étude de l'Institut de veille sanitaire (INVS) conduite dans neuf villes établit clairement le lien entre pollution aux particules et augmentation du nombre de décès, en particulier chez les plus de 65 ans et les personnes souffrant de troubles cardiaques et cardio-vasculaires. "L'excès de risque de décès est de 2,2 % pour une augmentation de 10 microgrammes/m3 des niveaux de particules PM2,5 et PM10", écrit l'Institut. "Pour la première fois, nous avons été capables de quantifier les effets aigüs, c'est-à-dire le jour même ou le lendemain, qui font suite à un épisode de pollution aux particules", explique Agnès Lefranc, coordinatrice de l'étude conduite de 2000 à 2004 à Bordeaux, Lille, Lyon, Marseille, Paris, Rouen, Le Havre, Strasbourg et Toulouse. "C'est un excès de risque relativement faible, par rapport au tabagisme par exemple. Mais si on peut décider ou pas de fumer, ce qui ne concerne qu'une fraction de la population, les 11 millions de citadins des neuf villes étudiées sont exposés aux particules : à moins de s'arrêter de respirer, ils n'ont aucun moyen de les éviter, même enfermés chez eux fenêtres fermées", relève-t-elle. Les particules PM10 - d'une taille inférieure à 10 microgrammes - et les PM2,5 (moins de 2,5 microgrammes, capables de s'infiltrer profondément dans les voies respiratoires) sont principalement composées de sulfates, nitrates, ammonium, chlorure de soldium, carbone, matières minérales ou eau. Elles proviennent de multiples sources locales ou très éloignées, comme les véhicules (surtout au diesel), les industries, le chauffage au bois, l'érosion des chaussées ou l'agriculture (engrais et élevage). L'étude de l'INVS s'est concentrée sur la mortalité liée aux particules à tous âges et sur la population de plus de 65 ans ; elle laisse volontairement de côté les très jeunes, compte tenu de leur faible taux de mortalité. "D'autres études ont cependant montré les effets de la pollution atmosphérique sur la mortalité post-natale, sur la santé respiratoire des enfants et sur la santé du foetus", indique Mme Lefranc. "Que la pollution aux particules soit liée à la mortalité n'est pas un scoop ; ce qui est innovant c'est la quantification précise de leurs effets" souligne-t-elle. "Et on montre aussi que la fraction dite grossière de ces particules, d'une taille entre 2,5 et 10 microgrammes, est également liée à la mortalité et devra être prise en compte dans un cadre réglementaire." Seules les PM10 et PM2,5 sont actuellement soumises à réglementation européenne : depuis 2005, les PM10 ne doivent pas dépasser une valeur limite de 50 mg/m3 plus de 35 jours par an. Pour les PM2,5 - objet d'une directive adoptée en décembre et applicable depuis le 11 juin - l'UE institue une valeur cible de 25 microg/m3 à atteindre d'ici 2010, date à laquelle elle deviendra valeur limite, et ensuite un plafond à 20 microg en 2015. Selon l'organisme de surveillance de la qualité de l'air francilien Airparif, le dépassement de la valeur limite pour les PM10 a augmenté en 2007 par rapport à 2006 de près de 8 %, alors que leur niveau, en baisse depuis dix ans, était stabilisé depuis 2000 (+11% pour les PM2,5). INVS
|
|
^ Haut |
|
|
|
|
|
|
|
Vivant |
|
|
Santé, Médecine et Sciences du Vivant
|
|
|
|
|
|
|
|
|
Des chercheurs du Centre national de la Recherche Scientifique (CNRS) ont mis au point une molécule synthétique capable de bloquer la croissance des cellules tumorales et de stopper la formation de vaisseaux sanguins autour des tumeurs. La molécule découverte pourrait bloquer à la fois la multiplication des cellules cancéreuses et la formation des vaisseaux qui nourrissent la tumeur. De nouvelles perspectives sont ainsi ouvertes par une telle découverte. En effet, les qualités de la molécule baptisée HB-19, sont multiples. Cette molécule cible spécifiquement une protéine nécessaire à la croissance des tumeurs appelée "nucléoline de surface", mais s'attaque aussi à l'"angiogénèse", en d'autres termes la formation de nouveaux vaisseaux sanguins indispensables qui apportent de la "nourriture" à la tumeur. Outre cette double-caractéristique très encourageante, elle ne serait pas toxique, contrairement aux traitements utilisés jusqu'alors par la médecine. Pour parvenir à ces conclusions, les trois directeurs de l'étude, Ara Hovanessian, Jean-Paul Briand et José Courty, tous trois chercheurs au CNRS, ont procédé à des expériences sur des souris et sur plusieurs types de cellules cancéreuses humaines (cancer de la prostate, du sein, du colon ou le mélanome). La molécule a été introduite par injection sous la peau ou dans la cavité abdominale de souris auxquelles avaient été greffées des cellules tumorales d'origine humaine, à 2-3 jours d'intervalle pendant un mois. Résultat, ce traitement expérimental a entraîné une "inhibition significative de la progression de tumeurs, voire même dans plusieurs cas l'éradication de cellules tumorales", selon les scientifiques. La cellule, efficace, peut enfin être produite à l'échelle industrielle. Le CNRS dispose d'un brevet protégeant cette découverte, et c'est la société ImmuPharma qui a obtenu la licence d'exploitation exclusive. Elle a développé une famille de composés de deuxième génération plus efficaces encore qu'HB-19 (une moléécule nommée « NUCANT » (pour NUcléoline ANTagoniste), cinq à dix fois plus puissante que HB-19) et espère pouvoir commencer une étude clinique préliminaire (dite de phase 1) dès 2009. PLoS
|
|
|
|
|
|
|
|
Des médecins américains ont pour la première fois traité avec succès un patient atteint d'un mélanome, cancer de la peau le plus grave, avec des cellules clonées de son système immunitaire. Il s'agit de la première thérapie utilisant seulement des lymphocytes T du malade reproduits à de nombreux exemplaires en laboratoire, pour traiter un mélanome avancé et ayant produit une longue rémission, explique le Docteur Cassian Yee, du Centre de recherche sur le cancer Fred Hutchinson, principal auteur de cette étude parue dans le New England Journal of Medicine daté du 19 juin. Le Docteur Yee et ses associés ont prélevé des lymphocytes T de type CD4+, des cellules clés du système immunitaire, chez un homme de 52 ans atteint d'un mélanome avancé s'étant propagé dans une des glandes lymphatiques de l'aine et d'un des poumons. Ces lymphocytes T ciblant spécifiquement le mélanome ont été clonées en très grand nombre en laboratoire, avant d'être injectées dans le corps du patient sans autre traitement complémentaire. Deux mois après, des examens au scanner et tomographique par émission de positons (TEP), qui permet d'obtenir des images tridimensionnelles d'un organe, n'ont révélé aucune tumeur, explique le Docteur Yee. Ce malade reste sans symptôme ou signe du cancer depuis deux ans, précise-t-il. C'est le premier cas à montrer l'inocuité et l'efficacité d'une thérapie utilisant seulement des cellules clonées du système immunitaire du malade, ajoute-t-il. "Nous avons été surpris par les effets anti-tumeur de ces cellules T CD4 et de la durée de leur réponse contre le cancer", poursuit-il. "Nous avons eu un succès avec ce malade mais il faut encore confirmer l'efficacité de cette thérapie dans une étude plus étendue", souligne le médecin. Si l'efficacité de cette approche se confirme chez un plus grand nombre de patients, cette thérapie pourrait être utilisée dans 25% des cas de mélanome avancé en utilisant le même type de cellules du système immunitaire et d'antigène de la tumeur. Le patient objet de cette étude a reçu une dose contenant cinq milliards de cellules T (CD4) clonées ciblant l'antigène NY-ESO-1 lié au mélanome, précisent ces chercheurs. Certaines de ces cellules ont subsisté au moins 80 jours dans l'organisme du malade et bien que seulement 50 à 75 % des cellules de la tumeur du patient réagissaient à l'antigène NY-ESO-1, la totalité du cancer a régressé après l'injection. Le mélanome touche surtout la peau mais peut affecter l'oeil et l'intestin. C'est l'une des tumeurs de l'épiderme la plus rare mais elle est responsable de la plupart des décès liés au cancer de la peau. Le seul traitement efficace est l'ablation chirurgicale de la tumeur avant que le cancer ne se soit propagé. Environ 160.000 nouveaux cas de mélanome sont diagnostiqués dans le monde annuellement. Ce cancer est plus fréquent chez les hommes blancs, surtout ceux vivant dans des régions très ensoleillées. Selon l'Organisation Mondiale de la Santé (OMS), ce cancer est responsable de quelque 48.000 décès par an. NEJM
|
|
|
|
|
|
|
|
Le tabac écourte la vie des hommes et des femmes d'au moins cinq ans, selon une nouvelle charte des risques de mortalité publiée aux Etats-Unis dans le Journal of the National Cancer Institute. Pour les hommes qui fument, le risque de décéder d'un cancer du poumon est plus élevé au-delà de 60 ans que celui de mourir d'une maladie cardio-vasculaire, indique la charte. En revanche, pour ceux qui n'ont jamais fumé, la probabilité de décéder d'une maladie cardio-vasculaire surpasse à tout âge le risque de mourir d'un cancer du poumon, du colon ou de la prostate. Par ailleurs, la probabilité est dix fois plus grande pour ces fumeurs de mourir d'un cancer de la prostate et du colon, selon cette recherche conduite par la Dr Lisa Schwart du Centre médical du ministère américain des anciens combattants (Department of Veterans Affairs Medical Center). Chez les femmes qui fument, les risques de décéder d'un cancer du poumon ou de maladies cardio-vasculaires sont plus élevés jusqu'à 40 ans que la probabilité de mourir d'un cancer du sein, alors que chez les non-fumeuses le risque de décéder de maladies cardio-vasculaires est équivalent à celui de succomber à un cancer du sein, en tout cas jusqu'à 60 ans. Toutefois, à tout âge, les hommes ont un plus grand risque de mortalité, toutes causes confondues, que les femmes, relève cette étude. JNCI
|
|
|
|
|
|
|
|
Longtemps accusé de tous les maux, le café serait finalement plutôt bon pour la santé ! Des chercheurs espagnols ont mené une grande étude pour savoir si la consommation de café pouvait avoir un effet sur la mortalité. Ils ont montré que ceux, et surtout celles, qui boivent jusqu'à six tasses de café par jour avaient moins de risque de mourir d'une maladie cardiovasculaire. Le docteur Esther Lopez-Garcia et ses collègues de l'université de Madrid ont suivi plus de 42.000 hommes et 84.000 femmes qu'ils ont interrogés sur leurs habitudes de vie, notamment leur consommation de café, tout en surveillant la mortalité dans ces deux groupes. Les chercheurs ont ensuite voulu savoir s'il existait un lien entre la mortalité et la consommation de café. Verdict : il semblerait bien que les amateurs d'arabica et robusta en tout genre vivent plus longtemps que ceux qui ne s'adonnent pas au petit noir. Cette relation est particulièrement marquée chez les femmes : celles qui boivent 2 ou 3 tasses de café par jour avaient 25 % de risque en moins de mourir d'une maladie cardiovasculaire. Une bonne nouvelle quand on sait qu'en outre, selon une étude américaine publiée en 2004, la consommation régulière de café réduit sensiblement les risques de diabète de type 2 (de 30 à 50 %). Il semble également que, selon plusieurs études récentes, la consommation régulière de café réduise les risques de cancer du foie. SD
|
|
|
|
|
|
|
|
Grâce à de petites caméras de la taille d'un bonbon qui sont "avalées" par le patient, il est possible de réaliser des clichés à l'intérieur du corps humain. Pratiques pour l'inspection de l'intestin, ces caméras voient en revanche leur efficacité remise en question lors d'examens de l'oesophage ou de l'estomac. En effet, la caméra n'a besoin que de 3 à 4 secondes pour traverser l'oesophage - par seconde, elle est capable de réaliser 2 à 4 clichés - et avec un poids de 5 grammes, elle tombe assez rapidement dans la paroi inférieure de l'estomac. La caméra est donc trop rapide pour permettre la réalisation de clichés d'une qualité suffisante. C'est également pour cette raison qu'à l'heure actuelle, l'endoscopie est encore la technique privilégiée pour ce type d'examen. Cependant, des chercheurs de l'Institut Fraunhofer des techniques biomédicales (IBMT) de Saint-Ingbert (Sarre) ont développé en commun avec l'entreprise Given Imaging, l'hôpital israélien de Hambourg et l'Université britannique Imperial College London, un nouveau système permettant de contrôler et de diriger la pilule-caméra. Selon le Docteur Frank Volke, responsable d'équipe à l'IBMT : "les médecins pourront à l'avenir arrêter la caméra dans l'oesophage, la faire monter ou descendre ainsi que la faire tourner afin de choisir ainsi l'angle de vue." Afin de diriger la caméra, les chercheurs ont réalisé un appareil magnétique qui, pas plus épais qu'une tablette de chocolat, est déplacé sur le corps du patient. La caméra suit ensuite exactement le déplacement de l'appareil magnétique, lui même dirigé par le médecin. Ce dernier peut ainsi obtenir l'angle de vue recherché lors des prises. BE
|
|
|
|
|
|
|
|
À l'heure actuelle, la maladie d'Alzheimer, pour laquelle il n'existe aucun traitement, représente la forme de démence la plus répandue, avec plus 5 millions de personnes atteintes en Europe et plus de 24 millions dans le monde entier. Et d'après les estimations, ce nombre devrait doubler d'ici 20 ans. Pour redonner espoir aux malades et freiner les symptômes d'Alzheimer, l'Union européenne finance un nouveau programme de recherche destiné au développement d'outils de diagnostic précoce. Baptisé « PredictAD », le projet bénéficie d'une enveloppe d'environ 3 millions d'euros et de partenaires dans six pays. Objectif : mettre au point des indicateurs qui permettront de diagnostiquer la maladie d'Alzheimer grâce à l'étude de biomarqueurs d'imagerie, lesquels mesurent l'activité électrique cérébrale, ainsi que de marqueurs sanguins mais aussi développer de nouvelles façons d'associer les données à partir de différents biomarqueurs. Le projet sera opérationnel de juin 2008 à mai 2011, date à laquelle de premiers résultats sont attendus « Le diagnostic précoce jouera un rôle important dans le traitement efficace de la maladie d'Alzheimer, particulièrement à l'avenir lorsque la nouvelle génération de traitements sera à disposition des patients » estime le Docteur Jyrki Lötjönen, coordinateur scientifique de PredictAD. JDE
|
|
|
|
|
|
|
|
A l'heure actuelle, il n'existe pas de traitements pour La maladie d'Alzheimer mais certains médicaments peuvent freiner son évolution à condition qu'ils soient administrés dès l'apparition des premiers symptômes. Malheureusement, il n'existe pas non plus d'examens permettant d'affirmer la réalité de la maladie,c'est pourquoi l'Europe a décidé de lancer un vaste programme de recherche sur le diagnostic précoce de cette maladie (Voir article précédent sur le prograzmme PredictAD ») Seule l'étude anatomo-pathologique du cerveau après le décès conduit à un diagnostic définitif. Les médecins s'appuient donc sur un faisceau d'indices pour la dépister. Cette situation conduit souvent à des retards dans la prise en charge puisque le diagnostic dépend de l'efficience du médecin. C'est dans ce contexte que des chercheurs du Laboratoire de neurosciences cognitives et d'imagerie cérébrale ont mis au point, en collaboration avec des équipes de l'Inserm à l'hôpital de la Salpetrière, un remarquable logiciel permettant de mesurer le volume de l'hippocampe, une structure du cerveau dévolue aux processus mémoriels et dont la taille diminue aux premiers stades de la maladie. Cette mesure n'est aujourd'hui pratiquement jamais réalisée car elle est longue et délicate. Le logiciel permet, à partir d'une IRM (imagerie par résonance magnétique), de reconstruire des structures cérébrales et de calculer leur volume. « Grâce à cette méthode, le médecin peut obtenir en une dizaine de minutes une mesure de la volumétrie hippocampique. Il dispose ainsi d'un indice supplémentaire pour établir son diagnostic » précise Olivier Colliot, spécialiste en traitement d'image au CNRS. Les tests effectués sur des patients malades ont permis de confirmer le diagnostic d'Alzheimer chez la grande majorité d'entre eux. Selon, O.Colliot, avec un partenariat industriel, cette méthode pourrait avoir une application pratique dans les centres d'imagerie dans les deux ou trois à venir. Ce logiciel devrait permettre un diagnostic plus précoce de la maladie d'Alzheimer et une meilleure prise en charge des malades. On mesure mieux l'intérêt d'une telle avancée quand on sait qu'il y a en France environ 800 000 personnes qui souffrent de cette maladie et qu'il y en aura 1,3 millions en 2020 et 2,1 millions en 2040 Inserm Radiology
|
|
^ Haut |
|
|
|
|
|
|
|
Recherche |
|
|
Recherche & Innovation, Technologies, Transports
|
|
|
|
|
|
|
|
|
Le plus grand constructeur automobile japonais de la planète, Toyota, a admis qu'il n'arrive plus à répondre à la demande pour ses voitures hybrides, au moment où son principal rival, Honda, lançait sur le marché une première voiture à hydrogène. Le vice-président exécutif de Toyota, Takeshi Uchiyamada, a expliqué que le constructeur n'arrive pas à produire suffisamment des batteries qui sont au coeur même de ses voitures hybrides. Cette pénurie devrait perdurer toute l'année, prévient-il, parce que Toyota ne sera pas en mesure de gonfler sa production avant l'an prochain. Des voitures hybrides comme la Prius consomment moins de carburant que des voitures traditionnelles comparables en alternant entre un moteur à combustion interne conventionnel et un moteur électrique. Toyota a écoulé environ 1,5 million de voitures hybrides depuis le lancement de la Prius il y a 10 ans. Le géant japonais a annoncé la semaine dernière que sa coentreprise avec Matsushita Electric Industrial entreprendra l'an prochain la production de la prochaine génération de la batterie au lithium-ion, avant de lancer une production à grande échelle en 2010. Toyota a aussi fait savoir qu'il créait une nouvelle section de recherche qui aura comme objectif de développer une batterie encore plus performante. De son côté, Honda a présenté, la FCX Clarity, sa nouvelle voiture à hydrogène, non polluante, qui est destinée au marché californien. La Clarity, qui fonctionne à l'hydrogène et à l'électricité, n'a comme seule émission que de l'eau. Honda affirme qu'elle est deux fois moins énergivore que les voitures hybrides électricité-essence, et trois fois moins que les voitures conventionnelles. Honda prévoit de louer quelques dizaines de ces voitures cette année et environ 200 d'ici trois ans. En Californie, un bail de trois ans entraînera des paiements mensuels de 600 $ US. La Clarity est alimentée par une réaction chimique entre l'hydrogène et l'oxygène de l'air ambiant, ainsi que par des batteries au lithium-ion. Elle a une autonomie de 435 kilomètres par réservoir d'hydrogène et peut atteindre une vitesse de pointe de 160 km/h. Canoe
|
|
^ Haut |
|
|
|
|
|
VOTRE INSCRIPTION |
|
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
|
|
|
|
|
|