RTFlash

RTFLASH Recherche & Technologie
NUMERO 578
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 16 Décembre 2010
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
La baisse du prix des livres numériques en bonne voie
Bouygues Telecom et SFR s'entendent sur la fibre optique
Avenir
Des infirmières robots aux urgences
Matière
Biocarburants à base d'algues : l'effet catalyseur du bicarbonate de sodium
Terre
Cancun ouvre la voie vers un nouveau traité international sur le climat
Se chauffer au bois ou au charbon augmenterait le risque de cancer du poumon
Vivant
Une souris issue de deux parents mâles !
Traitement de lésions de la moëlle épinière chez le ouistiti par greffe de cellules IPS humaines
Lire les gènes du foetus dans le sang maternel
Sclérose en plaques : Une découverte ouvre la voie de la réparation des nerfs atteints
Méningite : un "vaccin révolutionnaire" pour l'Afrique
Les vertus du vin liées au mode de consommation
Cancer : les bienfaits de l'aspirine se confirment
Cancer du sein débutant : le pronostic amélioré par l'association de deux médicaments
De nouveaux marqueurs génétiques pour identifier les victimes potentielles de crises cardiaques
Chez la souris, l'inhibition d'une molécule cérébrale supprime les douleurs persistantes
Recherche
Premier réseau de livraisons urbaine par camions électriques
Edito
2020 : l'odyssée du superordinateur exaflopique



Le 25 novembre 2010, le CEA a inauguré, à Bruyères-le-Châtel, en banlieue parisienne, .le plus puissant supercalculateur européen et le sixième ordinateur le plus puissant au monde derrière deux supercalculateurs chinois, classés 1er et 3ème, deux américains, 2ème et 5ème, et un japonais.

Construit par Bull, le Tera 100 affiche des performances exceptionnelles, consacrées par une récompense à la récente conférence Supercomputing. La machine du CEA, qui occupe une pièce de 600 m2, comprend plus de 17 480 processeurs représentant 140 000 unités de calcul. Sa puissance défie l'entendement puisqu'elle dépasse pour la première fois la barre du million de milliard d'opérations par seconde (pétaflops) en Europe et lui permet de réaliser davantage d'opérations à la seconde que ne le ferait l'intégralité de la population mondiale en 48 heures, à raison d'une opération par seconde.

Mais cette machine dispose également d'une mémoire vive phénoménale qui atteint 300 téraoctets, l'équivalent d'environ un million de PC traditionnels. Sa capacité de stockage atteint les 20 pétaoctets, soit plus de 20 millions de gigaoctets, ce qui lui permettrait de stocker 25 milliards de livres.

Sa vitesse de transferts de données est également impressionnante puisqu'il transfère l'information à une vitesse de 500 gigaoctets par seconde, ce qui reviendrait à remplir un disque dur d'un PC moderne en moins de deux secondes. Cette machine de tous les superlatifs tourne avec des logiciels libres sous Linux.

On mesure mieux les progrès accomplis en matière de puissance de calcul quand on sait que le Cray-1, le « must » des supercalculateurs des années 1980, était moins puissant qu'un ordinateur portable de 2010.

Depuis l'Antiquité, l'homme n'a cessé d'inventer des machines pour mieux compter mais c'est l'avènement des premiers calculateurs informatiques dans les années 40 qui a donné à l'espèce humaine une puissance de calcul inimaginable et celle ci a augmenté en moyenne d'un facteur mille tous les 10 ans depuis la naissance de l'informatique.

Mais à quoi peut servir la puissance d'une machine comme le Tera 100 ? A faire gagner du temps et donc de l'argent dans tous les domaines scientifiques et industriels : climatologie, biologie, médecine, économie, énergie, conception de matériaux...

Le Tera 100, ordinateur à vocation militaire, sera surclassé dès 2011, dans le cadre de l'accord Prace (Partnership for advanced computing in Europe), par « Curie », un supercalculateur civil, qui aura une puissance de calcul de 1,5 pétaflop. Sur un parc mondial de sept machines vraiment opérationnelles, l'Europe disposera alors de deux ordinateurs "pétaflopiques ». Mais elle prépare déjà la prochaine génération de superordinateurs "exaflopiques", mille fois plus rapides, pour 2018.

Avec ces futures machines qui pourront travailler à plus de 1000 milliards de milliards d'opérations par seconde, le saut ne sera pas seulement quantitatif mais qualitatif et conceptuel car les chercheurs disposeront alors d'une capacité de calcul leur permettant de modéliser et de simuler la complexité inouïe du vivant. Ils pourront par exemple concevoir et tester de manière entièrement virtuelle de nouvelles molécules complexes à visée thérapeutique et décrypter l'ensemble des interactions entre gènes et protéines.

Dans tous les domaines industriels, énergie, nouveaux matériaux, transports, électronique, ces monstres de calcul permettront également des avancées majeures et permettant des modélisations au niveau atomique de phénomènes complexes. On peut donc se réjouir que la France et l'Europe soient, pour l'instant, à la pointe mondiale dans ce domaine stratégique des superordinateurs.

René Trégouët

Sénateur honoraire

Fondateur du Groupe de Prospective du Sénat


TIC
Information et Communication
La baisse du prix des livres numériques en bonne voie
Vendredi, 17/12/2010 - 00:00

C'est une bonne surprise pour le monde de l'édition. Contre toute attente, le taux de la TVA appliquée au livre numérique devrait être ramené en 2011 de 19,6 % à 5,5 %, comme c'est déjà le cas pour les ouvrages imprimés. La mesure fait partie du projet de loi de finances 2011, grâce à un amendement introduit par la commission de la culture du Sénat, et ce contre l'avis du gouvernement. Du moins jusqu'il y a peu de temps.

François Baroin, porte-parole du gouvernement et ministre du Budget, a lui-même annoncé ce revirement. « Nous ne reviendrons pas sur cet amendement », a-t-il déclaré, selon des propos rapportés par l'AFP, à l'issue du conseil des ministres du 8 décembre, estimant désormais que cela « s'inscrit pleinement dans la politique de défense d'une certaine exception française en matière culturelle ». La disposition devra être définitivement adoptée par une commission mixte paritaire composée de députés et de sénateurs dans les prochains jours.

Pour les sénateurs, la différence de TVA entre le livre numérique et sa version papier n'a aucune raison d'être. La sénatrice Catherine Morin-Desailly estime qu'elle risque même d'introduire une distorsion de concurrence entre la France et les pays exerçant un dumping fiscal sur les biens distribués en ligne.

Un argument auquel s'est rallié le gouvernement. François Baroin a ainsi annoncé que Jacques Toubon, ancien ministre de la Culture, serait chargé de mener au nom de la France une concertation afin d'uniformiser les taux de TVA sur le livre électronique dans l'Union européenne.

OINet http://www.01net.com/editorial/524565/la-baisse-du-prix-des-livres-numeriques-en...

Bouygues Telecom et SFR s'entendent sur la fibre optique
Vendredi, 17/12/2010 - 00:00

Le déploiement de la fibre optique va-t-il s'accélérer ? C'est ce que l'on peut espérer après l'accord annoncé vendredi 10 décembre par Bouygues Telecom et SFR. Les deux opérateurs vont cofinancer l'installation de la fibre optique dans certaines grandes villes de France. Ils partageront l'infrastructure, mais continueront de proposer leurs offres commerciales en toute indépendance.

Cette mutualisation permet à chacun de réduire ses investissements et d'accélérer le déploiement de son réseau. L'initiative a été saluée par l'Arcep qui souhaite favoriser ce type d'accord. L'Autorité doit d'ailleurs prochainement rendre public un nouveau cadre réglementaire favorisant la mutualisation, cette fois-ci dans les zones peu denses. Tout le territoire français pourra ainsi en bénéficier et pas seulement les zones fortement urbanisées.

Car l'annonce de Bouygues et SFR s'applique uniquement à certaines zones très denses, telles que définies par l'Arcep. Au plus, ce sont donc environ 150 agglomérations, dont la liste est publiée en ligne en annexe de ce [document PDF, NDLR], qui sont concernées. Les deux opérateurs ouvriront ces nouvelles infrastructures courant 2011.

Pour SFR, cette initiative s'inscrit dans la continuité, l'opérateur ayant commencé à déployer son réseau FTTH (Fiber to the Home) depuis plusieurs mois. Pour Bouygues, en revanche, c'est une grande première. L'opérateur, qui vient tout juste de lancer son offre très haut débit, s'appuyait jusqu'à présent sur le réseau de Numericable. En signant avec SFR, il franchit un nouveau pas en déployant ses propres infrastructures. Une décision indispensable pour devenir un acteur national sur le marché du très haut débit.

IONet

^ Haut
Avenir
Nanotechnologies et Robotique
Des infirmières robots aux urgences
Vendredi, 17/12/2010 - 00:00

Les infirmières en charge de l'accueil dans les services d'urgences aux États-Unis pourraient se voir bientôt remplacées par des robots appelés TriageBots, enfin, c'est ce qu'ont imaginé des ingénieurs informatiques à l'Université Vanderbilt au Tennessee. Un communiqué publié le 6 décembre explique que la mise en place de TriageBots devrait arriver d'ici cinq ans.

Les chercheurs ont donc imaginé des robots qui se déplaceront pour la prise en charge de patients dans les salles d'attente, mais aussi des kiosques électroniques munis d'écrans tactiles et de messages vocaux pré-enregistrés. Des douleurs dans la poitrine ? Le kiosque alertera immédiatement le personnel hospitalier. Sinon, il évaluera vos signes vitaux, vous fera remplir des documents et vous indiquera dans quel service patienter.

Selon les chercheurs, environ 40 % des patients des services d'urgences arrivent avec des symptômes qui peuvent engager leur pronostic vital. Les TriageBots peuvent prendre en charge les 60 % restant, et réduire ainsi les temps d'attente et accroître l'efficacité des hôpitaux, toujours selon l'étude.

L'équipe de chercheurs a fait un présentation de son travail à la conférence robotique Humanoid à Nashville, le 6 décembre.

Mais les robots dans les centres hospitaliers, ça n'a rien de nouveau, surtout au Japon où un robot réceptionniste, non-androïde, à l'hôpital Aizu Central au nord de Tokyo, accueille les visiteurs et répond aux questions posées oralement. Une infirmière-androïde, appelée Actroid F, a aussi été présentée il y a quelques mois au Japon.

Un autre robot, le RIBA (Robot Assistance for Interactive Body) créé par l'institut japonais de recherche physique et chimique, rend service aux patients des hôpitaux en les aidant à se lever de leur lit. Par ailleurs, une troupe de robots-ménagers officie dans les hôpitaux britanniques : ils transportent les déchets et les draps à nettoyer, pendant que d'autres livrent les plateaux-repas et les médicaments.

Canoe

^ Haut
Matière
Matière et Energie
Biocarburants à base d'algues : l'effet catalyseur du bicarbonate de sodium
Vendredi, 17/12/2010 - 00:00

Les biocarburants à base d'algues apparaissent comme une alternative prometteuse aux carburants d'origine fossile. Cependant, quelques problèmes restent à surmonter : la faisabilité en termes de productivité, les procédés en aval (récolte, extraction des composés)... Le principal obstacle à leur développement est la rentabilité économique du procédé permettant leur obtention. Ainsi, fin juin 2010, l'administration Obama annonçait un financement de 24 millions de dollars pour la recherche sur le sujet.

Cette somme a bénéficié à 3 groupes de recherche travaillant sur la production de biocarburants à base d'algues : le Sustainable Algal Biofuels Consortium dans l'Arizona ; le Consortium for Algal Biofuels Commercialization en Californie et Cellana, LLC Consortium à Hawaï. Dans ce contexte, des chercheurs de Montana State University (MSU) ont mis en évidence un composé présentant la propriété d'augmenter considérablement la production algale d'huiles précurseures à la synthèse de biocarburant : le bicarbonate de sodium.

Ce composé si communément utilisé en cuisine, serait la clé que les scientifiques cherchent depuis le début des années 1990. Si l'on ajoute ce composé à un moment précis du cycle de croissance des algues, il permet la production de 2 à 3 fois plus d'huile et ce en deux fois moins de temps que pour les modèles de croissance et de production conventionnels. Ces résultats ont été observés pour trois espèces d'algues différentes : 2 espèces d'algues brunes, appartenant à la classe des Phaeophyceae, et une espèce d'algue verte.

Les chercheurs de Montana State ayant réalisé ces travaux sont : Keith Cooksey, professeur émérite en microbiologie ; Brent Peyton, professeur en génie chimique et biologique et directeur du Thermal Biology Institute. Ils font tous trois partie du Algae Biofuels Group à MSU, un groupe de recherche interdisciplinaire.

Le Algae Biofuels Group fait partie du Energy Research Institute de MSU qui rassemble environ 35 enseignants-chercheurs travaillant dans des disciplines variées. MSU consacre environ 15 millions de dollars chaque année pour la recherche sur l'énergie.

Ce groupe de recherche sur les algues est également très impliqué dans l'Algal Biomass Organization. Le professeur Peyton y a d'ailleurs présenté les résultats de leurs travaux lors de leur quatrième sommet annuel qui s'est tenu à Phoenix, Arizona du 28 au 30 septembre 2010.

La Algal Biomass Organization (ABO) est une organisation à but non lucratif dont la mission est de promouvoir le développement de marchés commerciaux viables pour les produits dérivés d'algues. Selon le professeur Cooksey, l'une des explications de l'effet catalytique du bicarbonate de sodium serait sa capacité à permettre aux algues d'assimiler plus de dioxyde de carbone, et ce à un moment clé de son cycle de vie.

Rappelons que les algues photosynthétiques, sont capables, sous certaines conditions de stress, comme une forte intensité lumineuse ou une faible concentration en nutriments, d'accumuler de grandes quantités de triacylglycérols (TAG) (30 à 60 % de la matière sèche). Ce composé lipidique qui, chez certaines algues, est synthétisé naturellement constitue un important précurseur potentiel pour la production de biocarburants. D'un point de vue métabolique, les mécanismes de répartition du carbone entre les lipides et/ou les glucides sont mal connus chez les algues.

La réduction du temps nécessaire pour la production d'huile présente d'une part un avantage certain pour les industriels et d'autre part, limite les risques de contamination des milieux de culture des algues. Par ailleurs, les 3 espèces d'algues avec lesquelles ces résultats ont été répétés n'étant pas proches d'un point de vue phylogénétique, selon les chercheurs, cela élargirait les applications possibles à d'autres espèces d'algues.

Les scientifiques cherchent désormais des entreprises pour développer une licence pour cette technologie. Plusieurs articles scientifiques ont été rédigés sur ces travaux dont un qui devrait paraître dans le Journal of Phycology prochainement.

Selon Keith Cooksey, la filière des biocarburants produits à partir d'algues est en plein essor, comme en témoigne l'intérêt et le soutien des plus grands consommateurs de carburants au monde : la Défense et les compagnies aériennes commerciales.

Selon un rapport de Pike Research, la production de biocarburants à partir d'algues devrait connaître une croissance rapide durant la prochaine décennie pour atteindre les 61 millions de gallons de production annuelle. Ceci représenterait une valeur marchande de 1,3 milliards de dollars d'ici 2020, ce qui est à peu près comparable aux premiers développements de l'industrie des biodiesel.

BE

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
Cancun ouvre la voie vers un nouveau traité international sur le climat
Vendredi, 17/12/2010 - 00:00

Aprés 12 jours de négociations, une page de Copenhague s'est tournée le 11 décembre à Cancún alors que près de 200 pays rassemblés au Mexique ont adopté plusieurs mécanismes - bien qu'embryonnaires - afin de lutter contre le changement climatique.

Accueilli par une ovation, l'accord prévoit la création d'un Fonds vert pour aider les pays en développement à faire face au réchauffement climatique et lance un mécanisme pour lutter contre la déforestation.

L'objectif de ce rendez-vous mexicain était d'abord de redonner un souffle au processus de négociation onusien, fortement ébranlé par l'immense déception née du sommet de Copenhague.

Mission accomplie, selon les délégations réunis en plénière pour adopter le texte. Avec cet accord, «on sauve de la faillite le système multilatéral de négociations sur le changement climatique», a déclaré la ministre française de l'Écologie, Nathalie Kosciusko-Morizet.

Le texte adopté à l'issue de 12 journées de négociations intenses et parfois tendues «ouvre une nouvelle ère pour la coopération internationale sur le climat», a assuré la ministre mexicaine des Affaires étrangères, Patricia Espinosa, qui présidait les débats.

Quelques heures plus tôt, le texte de compromis mis sur la table par le Mexique avait reçu, au cours d'une séance plénière chargée d'émotion, le soutien très appuyé de l'écrasante majorité des 194 pays de la convention de l'ONU sur le climat.

Ce texte «ne va pas évidemment pas résoudre la question du changement climatique, mais je pense que c'est un véritable pas en avant», a estimé le principal négociateur américain, Todd Stern.

La principale vertu du texte, adopté en dépit de l'opposition de la Bolivie, est d'inscrire de nombreux points de l'accord politique de Copenhague, qui n'a jamais été adopté par la convention de l'ONU. Et surtout de le décliner de façon plus précise.

C'est en particulier le cas de l'objectif de limiter la hausse de la température moyenne de la planète à 2°C au-dessus des niveaux pré-industriels. «Les parties doivent agir de manière urgente pour atteindre cet objectif à long terme», selon l'accord.

Le texte permet aussi de désamorcer, au moins temporairement, à la faveur d'une formule ambiguë, la «bombe»de l'avenir du protocole de Kyoto, seul traité juridiquement contraignant sur le climat existant à ce jour qui menaçait l'issue des discussions à Cancún.

Un sujet qui ressurgira immanquablement lors du prochain grand rendez-vous climat fin 2011 à Durban (Afrique du Sud).

Les pays développés ont promis à Copenhague de mobiliser 100 milliards de dollars par an à partir de 2020. Le Fonds vert, qui verra transiter une partie importante de ces fonds, aura un conseil d'administration avec représentation équitable entre pays développés et en développement.

Les nombreuses interrogations sur la façon dont ce fonds sera alimenté restent cependant sans réponse.

Le texte pose par ailleurs les bases d'un mécanisme visant réduire la déforestation à l'origine d'environ de 15 % à 20 % des émissions globales de GES. Bangladesh, Guyane, Zambie, Suisse, Brésil, États-Unis, Algérie, Union européenne, Chine, Maldives,

«L'accord donne un nouveau souffle aux négociations», s'est félicité Jeremy Hobbs, directeur exécutif d'Oxfam International, tout en appelant, comme nombre d'autres ONG, à travailler «en urgence» pour rendre plus ambitieux les engagements de réduction d'émissions de gaz à effet de serre.

L'accord sur le climat conclu entre les Etats à Cancun est "un pas important" vers un cadre global et légalement contraignant pour la lutte contre le réchauffement climatique, a indiqué le président de la Commission européenne, José Manuel Barroso.

Les principales avancées du sommet de Cancun

- Protocole de Kyoto

Le Protocole de Kyoto, signé en 1997, oblige une quarantaine de pays industrialisés à réduire leurs émissions de gaz à effet de serre de 5,2 % par rapport aux niveaux de 1990 durant une période de cinq années allant de 2008 à 2012.

Le Japon refuse de soutenir une simple prolongation de ce protocole et demande que les économies émergentes participent à l'effort collectif.

L'accord de Cancun dit que les pays tenteront «de mener à bien» les travaux sur la prolongation du Protocole de Kyoto «dans un avenir aussi proche que possible et dans un délai garantissant qu'il n'y ait pas d'interruption entre la première et la deuxième période d'engagement».

Cette recommandation s'appuie sur les prévisions de scientifiques qui estiment que les nations développées doivent réduire d'ici à 2020 leurs émissions de 25 à 40 % par rapport aux niveaux de 1990 pour éviter une aggravation de la situation.

- Action à long terme sur les émissions

L'accord «reconnaît que des réductions importantes des émissions de gaz à effet de serre sont exigées par les données scientifiques. (...) Cette réduction des GES doit être de nature à maintenir le réchauffement moyen de la planète en dessous de deux degrés Celsius par rapport aux niveaux pré-industriels».

L'accord admet également la nécessité de songer à un objectif plus ambitieux de 1,5 degré et de travailler à l'établissement «d'un objectif mondial pour une réduction substantielle des émissions globales d'ici à 2050».

De nombreux pays jugent que l'objectif de 1,5 degré est préférable à celui de deux degrés fixé à Copenhague en 2009. La Chine et l'Inde se montrent réticentes aux demandes d'un objectif mondial de réduction des émissions d'ici à 2050.

L'accord demande aux pays développés de montrer l'exemple car historiquement, ils sont les plus gros émetteurs. Les pays en voie de développement prendront «des dispositions appropriées nationalement» pour réduire leurs émissions d'ici à 2020 avec un soutien technologique et logistique.

- Finance, technologie

L'accord prévoit la création d'un «fonds vert» pour aider les pays en voie de développement. Ce fonds sera dirigé par un conseil d'administration de 24 membres dans lequel pays riches et pays pauvres seront représentés à parts égales.

Il est demandé à la Banque mondiale d'être l'administrateur provisoire de ce fonds. Une commission de 40 membres (15 de pays riches et 25 de pays pauvres) va travailler à sa constitution.

L'accord prend note de la promesse faite par les pays développés d'une aide de départ de 30 milliards de dollars pour la période 2010-2012. Les pays développés présenteront des rapports en mai 2011, 2012 et 2013 sur les ressources fournies.

Une aide de 100 milliards de dollars des pays riches est actée à partir de 2020, suivant l'engagement pris l'an dernier à Copenhague.

- Marchés du carbone

Lors de la réunion prévue l'année prochaine à Durban en Afrique du Sud, les pays travailleront sur «un ou plusieurs mécanismes de marché» pour aider à réduire les émissions. Un groupe de travail présentera un projet de décisions qui seront examinées lors des négociations.

Tous les pays sont appelés à soumettre de nouvelles idées avant le 21 février 2011. Les mécanismes existants, dont ceux contenus dans le Protocole de Kyoto, seront maintenus et serviront de base.

- Réduire la déforestation

L'accord affirme que les gouvernements «doivent collectivement travailler à ralentir et arrêter la déforestation et à inverser la tendance en tenant compte des circonstances nationales».

Il encourage chaque pays à trouver des moyens efficaces pour réduire la pression de l'homme sur la forêt et incite les pays en voie de développement à conserver leurs forêts.

Il demande aux pays développés d'aider les pays en voie de développement avec des ressources financières et un soutien technologique pour mettre sur pied des plans nationaux visant à contrôler le recul de la forêt.

- Aider les pays pauvres à s'adapter

L'accord établit un «cadre d'adaptation» pour aider les pays en voie de développement à s'adapter aux changements climatiques tels que les sécheresses, les inondations et la montée du niveau des océans.

Ces mesures incluent de meilleures prévisions météorologiques et une meilleure gestion des risques, et éventuellement une assurance face aux risques climatiques. Des idées peuvent être présentées jusqu'au 21 février 2011.

- Mesures, rapports, vérifications

La réduction des émissions de GES par les pays en voie de développement fera l'objet de mesures nationales et internationales, de rapports et de vérifications.

Ces rapports portant sur des analyses biennales seront établis de manière «non-intrusive, non-punitive et dans le respect de la souveraineté nationale».

Les mesures prises dans les pays développés seront vérifiées «nationalement» suivant les critères qui doivent être fixés dans la Convention de l'Onu sur le climat.

- Développement et transfert technologique

L'accord décide de créer un mécanisme technologique pour partager les nouveaux moyens de réduction des émissions. Seront créés une Commission exécutive technologique et un Centre et un réseau technologique sur le climat.

[UNFCC">...], les uns après les autres, les délégués ont pris la parole pour dire oui, avec force, à ce texte.

Si le processus onusien a d'incontestables lourdeurs, il permet aussi de faire émerger de nouveaux acteurs dans une négociation sans équivalent qui implique l'ensemble de la planète et touche à la transformation profonde des modes de vie.

Ainsi les petits Etats insulaires, menacés de disparition par la montée des eaux, réaffirment inlassablement que leur vulnérabilité est aussi celle de la planète.

Mais à Cancun, c'est l'Inde, troisième émetteur mondial de gaz à effet de serre, qui a été la principale force de proposition, et de mouvement. Pour la première fois, son ministre de l'Environnement, Jairam Ramesh, a affirmé que son pays pourrait envisager de signer un accord juridiquement contraignant.

Pour la ministre française de l'Ecologie, Nathalie Kosciusko-Morizet, cette approche "beaucoup plus ouverte et active" de l'Inde dans les négociations est "quelque chose de très nouveau et de très encourageant" pour la suite du processus onusien, qui reste indispensable à ses yeux.

«L'accord donne un nouveau souffle aux négociations», s'est félicité Jeremy Hobbs, directeur exécutif d'Oxfam International, tout en appelant, comme nombre d'autres ONG, à travailler «en urgence» pour rendre plus ambitieux les engagements de réduction d'émissions de gaz à effet de serre.

L'accord sur le climat conclu entre les Etats à Cancun est "un pas important" vers un cadre global et légalement contraignant pour la lutte contre le réchauffement climatique, a indiqué le président de la Commission européenne, José Manuel Barroso.

Les principales avancées du sommet de Cancun

- Protocole de Kyoto

Le Protocole de Kyoto, signé en 1997, oblige une quarantaine de pays industrialisés à réduire leurs émissions de gaz à effet de serre de 5,2 % par rapport aux niveaux de 1990 durant une période de cinq années allant de 2008 à 2012.

Le Japon refuse de soutenir une simple prolongation de ce protocole et demande que les économies émergentes participent à l'effort collectif.

L'accord de Cancun dit que les pays tenteront «de mener à bien» les travaux sur la prolongation du Protocole de Kyoto «dans un avenir aussi proche que possible et dans un délai garantissant qu'il n'y ait pas d'interruption entre la première et la deuxième période d'engagement».

Cette recommandation s'appuie sur les prévisions de scientifiques qui estiment que les nations développées doivent réduire d'ici à 2020 leurs émissions de 25 à 40 % par rapport aux niveaux de 1990 pour éviter une aggravation de la situation.

- Action à long terme sur les émissions

L'accord «reconnaît que des réductions importantes des émissions de gaz à effet de serre sont exigées par les données scientifiques. (...) Cette réduction des GES doit être de nature à maintenir le réchauffement moyen de la planète en dessous de deux degrés Celsius par rapport aux niveaux pré-industriels».

L'accord admet également la nécessité de songer à un objectif plus ambitieux de 1,5 degré et de travailler à l'établissement «d'un objectif mondial pour une réduction substantielle des émissions globales d'ici à 2050».

De nombreux pays jugent que l'objectif de 1,5 degré est préférable à celui de deux degrés fixé à Copenhague en 2009. La Chine et l'Inde se montrent réticentes aux demandes d'un objectif mondial de réduction des émissions d'ici à 2050.

L'accord demande aux pays développés de montrer l'exemple car historiquement, ils sont les plus gros émetteurs. Les pays en voie de développement prendront «des dispositions appropriées nationalement» pour réduire leurs émissions d'ici à 2020 avec un soutien technologique et logistique.

- Finance, technologie

L'accord prévoit la création d'un «fonds vert» pour aider les pays en voie de développement. Ce fonds sera dirigé par un conseil d'administration de 24 membres dans lequel pays riches et pays pauvres seront représentés à parts égales.

Il est demandé à la Banque mondiale d'être l'administrateur provisoire de ce fonds. Une commission de 40 membres (15 de pays riches et 25 de pays pauvres) va travailler à sa constitution.

L'accord prend note de la promesse faite par les pays développés d'une aide de départ de 30 milliards de dollars pour la période 2010-2012. Les pays développés présenteront des rapports en mai 2011, 2012 et 2013 sur les ressources fournies.

Une aide de 100 milliards de dollars des pays riches est actée à partir de 2020, suivant l'engagement pris l'an dernier à Copenhague.

- Marchés du carbone

Lors de la réunion prévue l'année prochaine à Durban en Afrique du Sud, les pays travailleront sur «un ou plusieurs mécanismes de marché» pour aider à réduire les émissions. Un groupe de travail présentera un projet de décisions qui seront examinées lors des négociations.

Tous les pays sont appelés à soumettre de nouvelles idées avant le 21 février 2011. Les mécanismes existants, dont ceux contenus dans le Protocole de Kyoto, seront maintenus et serviront de base.

- Réduire la déforestation

L'accord affirme que les gouvernements «doivent collectivement travailler à ralentir et arrêter la déforestation et à inverser la tendance en tenant compte des circonstances nationales».

Il encourage chaque pays à trouver des moyens efficaces pour réduire la pression de l'homme sur la forêt et incite les pays en voie de développement à conserver leurs forêts.

Il demande aux pays développés d'aider les pays en voie de développement avec des ressources financières et un soutien technologique pour mettre sur pied des plans nationaux visant à contrôler le recul de la forêt.

- Aider les pays pauvres à s'adapter

L'accord établit un «cadre d'adaptation» pour aider les pays en voie de développement à s'adapter aux changements climatiques tels que les sécheresses, les inondations et la montée du niveau des océans.

Ces mesures incluent de meilleures prévisions météorologiques et une meilleure gestion des risques, et éventuellement une assurance face aux risques climatiques. Des idées peuvent être présentées jusqu'au 21 février 2011.

- Mesures, rapports, vérifications

La réduction des émissions de GES par les pays en voie de développement fera l'objet de mesures nationales et internationales, de rapports et de vérifications.

Ces rapports portant sur des analyses biennales seront établis de manière «non-intrusive, non-punitive et dans le respect de la souveraineté nationale».

Les mesures prises dans les pays développés seront vérifiées «nationalement» suivant les critères qui doivent être fixés dans la Convention de l'Onu sur le climat.

- Développement et transfert technologique

L'accord décide de créer un mécanisme technologique pour partager les nouveaux moyens de réduction des émissions. Seront créés une Commission exécutive technologique et un Centre et un réseau technologique sur le climat.

[UNFCC

Se chauffer au bois ou au charbon augmenterait le risque de cancer du poumon
Vendredi, 17/12/2010 - 00:00

Selon les données 2004 de l'OMS, la pollution de l'air intérieur due aux combustibles solides, à laquelle sont exposés 3 milliards de sujets de par le monde, est responsable de 1,6 million de décès par an. Elle est associée en effet à de nombreux effets sanitaires nocifs, dont le cancer du poumon, et pèse lourd en terme d'années de vie perdues pour cause d'incapacité et décès. Le type de combustible solide utilisé pour se chauffer ou cuisiner varie selon les régions, le charbon, par exemple, étant surtout employé en Chine et le bois dans les pays occidentaux. Cependant, le Centre international de recherche sur le cancer a récemment reconnu que les émissions intérieures dues à la combustion domestique de charbon comme du bois étaient cancérogènes pour l'homme.

Afin de préciser l'association entre cancer du poumon et utilisation des combustibles solides, des équipes internationales de chercheurs de l'International Lung Cancer Consortium (ILCCO) ont effectué l'analyse poolée de sept études épidémiologiques de l'ILCCO, de type cas-témoins. Parmi ces études, trois provenaient d'Amérique du Nord (deux des États-Unis, une du Canada), trois d'Asie (deux de Chine, une de Singapour) et une d'Europe centrale et orientale ; quatre ont été menées en population générale, deux en milieu hospitalier, une à la fois en population générale et en milieu hospitalier, et cas et témoins ont été, dans toutes les études, appariés au moins pour l'âge et le sexe.

Les 11 640 sujets (5 105 cas et 6 535 témoins) inclus dans cette étude avaient été soumis à des questionnaires concernant les combustibles utilisés pour se chauffer et cuisiner. Ils ont été classés comme utilisant préférentiellement des combustibles solides (charbon, bois : 3 557 cas et 3 803 témoins) ou comme non utilisateurs de combustibles solides, recourant par exemple au fioul, gaz, électricité (1 548 cas et 2 732 témoins).

Parmi les utilisateurs de combustibles solides, 3 888 sujets employaient de façon prédominante le charbon, 2 252 le bois (non renseigné pour les autres). Les combustibles non solides produisant substantiellement moins de fumée et étant associés à moins d'effets indésirables sur la santé, les utilisateurs de ces derniers ont été considérés comme sujets non exposés.

Après ajustements (notamment sur l'âge, le sexe, le niveau d'éducation, l'ethnie, le tabagisme, le centre d'étude), une association a été retrouvée entre utilisation, à titre de combustible domestique, du charbon et du bois et risque accru de cancer du poumon.

En comparaison des sujets non exposés :

- l'odds ratio, OR, pour le risque de cancer du poumon associé à l'utilisation prédominante du charbon était de 1,64 (IC à 95 % 1,49-1,81), plus élevé en Asie (4,93 ; 3,73-6,52) ;- l'OR pour le risque de cancer du poumon associé à l'utilisation prédominante du bois dans les pays d'Amérique du Nord et d'Europe était de 1,21 (1,06-1,38).

Les associations persistaient après stratification selon les caractéristiques démographiques. Les résultats, notamment, se sont avérés semblables chez les femmes non fumeuses, population d'intérêt particulier parce qu'à forte probabilité d'exposition (elles cuisinent et effectuent les travaux domestiques...) et parce que le risque de confusion résiduelle à cause du tabagisme, entachant les résultats les intéressant, serait vraisemblablement minimal.

Cette analyse poolée, portant sur plus de 11 600 sujets de trois continents confirme l'association entre utilisation du charbon pour se chauffer et cuisiner et risque de cancer du poumon et plaide, en outre, pour un risque également accru de cancer du poumon chez les sujets utilisant le bois comme combustible domestique.

JIM

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Une souris issue de deux parents mâles !
Vendredi, 17/12/2010 - 00:00

Des généticiens américains ont réussi à obtenir, chez la souris, des individus - mâles aussi bien que femelles - génétiquement issus de deux parents mâles. "Notre étude exploite la technologie des cellules souches pluripotentes induites pour combiner des allèles de deux mâles et produire une progéniture mâle et femelle : c'est une nouvelle forme de reproduction pour les mammifères", résume l'équipe du Dr. Richard R. Berhringer du M.D. Anderson Cancer Center, au Texas.

A partir d'une culture de cellules souches IPS d'un embryon mâle, ils ont d'abord obtenu des cellules dites "XO", c'est-à-dire ayant spontanément perdu leur chromosome Y. Transférées dans le corps d'une mère porteuse, ces cellules ont engendré des souriceaux femelles ("chimères"), ayant le chromosome X de l'embryon mâle initial. Enfin, lesdites femelles - sortes de "clones" féminins de l'embryon mâle du début - ont été croisées avec des mâles normaux, donnant naissance à des rejetons des deux sexes, certains porteurs des chromosomes de l'embryon mâle de départ, ainsi, bien sûr, que de ceux de leur géniteur.

Les applications de cette technique ? Selon les auteurs : permettre aux éleveurs de produire des individus issus de deux mâles aux caractères physiques intéressants, sans interférence de gènes non souhaités (ceux issus de femelles n'ayant pas ces caractères recherchés) ; ensuite, permettre à un mâle seul de produire à la fois des ovocytes et des spermatozoïdes pour une "auto-fertilisation", dans le cas où une espèce rare n'aurait plus aucun représentant femelle.

BOR

Traitement de lésions de la moëlle épinière chez le ouistiti par greffe de cellules IPS humaines
Vendredi, 17/12/2010 - 00:00

Une équipe de chercheurs menée par le professeur Hideyuki OKANO de l'Université Keio est parvenue à utiliser des cellules souches pluripotentes induites (iPS) humaines pour traiter des primates paralysés par une lésion de la moëlle épinière. Ce résultat, qui ne fait pas encore l'objet d'une publication scientifique, a été annoncé le 7 décembre 2010 à la 32e réunion annuelle de la Société Japonaise de Biologie Moléculaire.

Après un premier succès obtenu en 2009 sur des souris, c'est la première fois que le potentiel thérapeutique des cellules iPS pour soigner une atteinte à la moëlle épinière est observé sur un primate, animal plus proche de l'homme.

Les chercheurs ont d'abord obtenu des cellules iPS à partir de cellules de peau humaine. Ils les ont ensuite fait se différencier en cellules précurseurs de neurones (c'est-à-dire capables de se différencier en cellules nerveuses).

Ces cellules précurseurs ont été implantées à des ouistitis qui étaient paralysés par une lésion à la moëlle épinière subie neuf jours auparavant. Selon les chercheurs, au bout d'environ six semaines, les ouistitis ont récupéré leurs fonctions motrices au point de pouvoir se redresser, de se déplacer et d'agripper des objets avec leurs membres antérieurs. Par ailleurs, 84 jours après la transplantation, ils n'avaient toujours pas développé de tumeurs (un risque associé aux greffes de cellules souches).

BE

Lire les gènes du foetus dans le sang maternel
Vendredi, 17/12/2010 - 00:00

Tout savoir du génome d'un foetus grâce à une simple prise de sang chez sa mère. C'est la prouesse technique réussie par l'équipe sino-américaine du Pr Dennis Lo (université chinoise de Hongkong), qui vient de publier un article dans la revue Translational Medicine.

Ces résultats, préliminaires puisqu'un seul profil génétique a été analysé, démontrent en tout cas, selon ces chercheurs, que «le génome foetal est intégralement présent dans le sang de la mère». De nombreuses maladies génétiques pourraient donc ainsi être recherchées de façon non invasive, assurent-ils.

Jusqu'à présent, en période prénatale, le diagnostic de certitude de ce type d'anomalies repose sur des prélèvements foetaux : biopsie de trophoblaste (ébauche du placenta) au premier trimestre, ou amniocentèse au deuxième trimestre. Mais ces techniques fiables sont responsables de fausses couches dans 1 % des cas.

En 1997, le Pr Dennis Lo s'était illustré en mettant en évidence de l'ADN circulant dans le sang maternel. Depuis, plusieurs équipes se sont lancées dans cette voie de recherche, pour mettre au point des tests dont le principe commun est d'analyser le matériel génétique foetal dans le sang maternel. Ces travaux, qui bénéficient des progrès des appareils de séquençage à haut débit, sont assez avancés dans certaines affections comme les trisomies.

Pour reconstituer un génome foetal, l'équipe du Pr Lo a étudié un couple qui consultait pour un diagnostic prénatal de bétathalassémie, une forme grave d'anémie liée à un défaut de synthèse de l'hémoglobine. Les deux futurs parents étant porteurs d'un gène muté, l'enfant à venir avait un risque sur quatre d'être malade. Parallèlement à la biopsie de trophoblaste, les chercheurs ont réalisé des analyses sanguines chez les deux membres du couple.

Grâce à des séquenceurs puissants, ils ont scruté pas moins de 4 milliards de molécules d'ADN chez la mère, dans le but d'identifier celles appartenant au foetus. En comparant les échantillons paternels et maternels en 900.000 points, le génome foetal a été reconstitué. « C'est une performance technique remarquable, obtenue par une équipe de pointe. Mais on est loin d'une application en routine», estime le Pr Yves Ville (hôpital Necker, Paris), dont l'équipe évalue actuellement une méthode de recherche de la trisomie 21 par analyse de l'ADN foetal dans le sang maternel.

LF

Sclérose en plaques : Une découverte ouvre la voie de la réparation des nerfs atteints
Vendredi, 17/12/2010 - 00:00

Les chercheurs des universités de Cambridge, en Angleterre, et d'Edimbourg, en Ecosse, ont identifié «un moyen par lequel les cellules souches du cerveau peuvent être encouragées à réparer» les séquelles provoquées par la maladie sur la gaine de myéline, a expliqué le professeur Robin Franklin, directeur du Centre pour la sclérose en plaques à l'Université de Cambridge.

La gaine de myéline est l'enveloppe protégeant les nerfs du cerveau et de la moelle épinière, que la sclérose en plaques dégrade, provoquant des paralysies. La méthode «ouvre la possibilité d'une nouvelle thérapie régénératrice de cette maladie», a-t-il ajouté.

«Il s'agit d'un des développements les plus intéressants de ces dernières années», a estimé Simon Gillespie, directeur de la «MS Society», société britannique pour la lutte contre la slérose en plaques, qui a participé au financement de l'étude. Selon la société, cette découverte pourrait mener à des essais cliniques dans les cinq ans à venir, et à un traitement d'ici à 15 ans.

Yahoo

Méningite : un "vaccin révolutionnaire" pour l'Afrique
Vendredi, 17/12/2010 - 00:00

Développé grâce à un partenariat public/privé le Projet Vaccins Méningite (PVM), ce vaccin était très attendu par les spécialistes. A l'image de Jean-Philippe Chippaux de l'Institut de Recherche pour le Développement (IRD). « Nous savions que ce vaccin conjugué était à l'étude depuis 2001. On nous annonçait effectivement un produit très efficace, et à faible coût. Nous attendions de voir si les promesses allaient être tenues, notamment en termes de coût ».

D'après l'OMS, tel est bien le cas. « A moins de 0,5 dollar américain la dose - soit 0,377 euro, n.d.l.r. - MenAfriVac apporte une solution très abordable à l'un des problèmes sanitaires les plus importants de l'Afrique ». Il s'adresse plus particulièrement aux pays de la « Ceinture de la méningite », une zone qui traverse le continent du Sénégal à l'Ethiopie.

Des flambées de méningite y surviennent régulièrement. Et chaque épidémie fait des milliers de victimes, notamment parmi les enfants et les jeunes adultes. La dernière date de 2009. Au total, 88 000 personnes avaient été touchées. Et 5 000 en sont mortes.

Le Burkina Faso sera le premier pays à expérimenter sur une grande échelle ce nouveau vaccin. D'ici la fin décembre, 12 millions de Burkinabés le recevront. Au total sur le continent africain, environ 150 000 jeunes vies pourraient être sauvées d'ici 2015 », a déclaré le Dr Margaret Chan, Directrice générale de l'OMS.

DS

Les vertus du vin liées au mode de consommation
Vendredi, 17/12/2010 - 00:00

Depuis des décennies, la question des bienfaits, en particulier pour le coeur, d'une consommation modérée de vin passionne les chercheurs. Et embarrasse les autorités sanitaires, d'autant que les effets délétères de fortes doses d'alcool sur l'organisme sont, eux, parfaitement établis. Une étude française publiée dans le British Medical Journal (BMJ) apporte une nouvelle pierre à l'édifice.

En comparant deux populations d'hommes quinquagénaires, en France et en Irlande du Nord, l'équipe du Pr Jean Ferrières (cardiologue, CHU de Toulouse) démontre qu'à dose égale la façon de consommer l'alcool compte pour beaucoup. Par rapport aux buveurs modérés et réguliers de vin (typiquement les Français), les adeptes des bitures express du week-end (typiquement les Irlandais) ont un risque doublé d'infarctus du myocarde. Dans les deux pays, le taux d'infarctus est nettement plus bas (d'environ 40 %) chez les buveurs de vin que chez les abstinents.

Dès 1991, le chercheur Serge Renaud avait émis l'hypothèse que le «paradoxe français» -apparente contradiction entre la faible mortalité cardio-vasculaire des Français et leur alimentation riche en graisses et en sauces- avait à voir avec leur goût pour le vin rouge. Depuis, des études épidémiologiques ont confirmé son intuition, tandis que des recherches fondamentales expliquaient pourquoi.

Les effets cardioprotecteurs d'une consommation modérée de vin rouge (de l'ordre de un à trois verres par jour) sont attribués en partie à la présence d'éthanol et de polyphénols. À dose modérée, moins de 30 g/jour, l'éthanol -commun à toutes les boissons alcoolisées- est antiathéromateux et antiagrégant plaquettaire.

Quant aux polyphénols, groupe complexe de composés dont le plus connu est le resvératrol, leurs vertus sont nombreuses : cardiovasculaires, anticancer, antivieillissement... Plusieurs études, dont une publiée en 2004 par le Pr Ferrières, suggèrent toutefois que les effets sont en partie indirects. Les consommateurs réguliers de vin auraient une hygiène de vie plus saine ; ils mangent davantage de fruits et légumes, sont plus actifs.

La nouvelle publication des chercheurs français, solide puisqu'elle inclut près de 10.000 hommes de 50 à 59 ans, suivis pendant dix ans, est frappante. L'incidence de l'infarctus (nombre de nouveaux cas par an) s'avère deux fois plus élevée chez les Irlandais que chez les Français, alors que l'analyse de leurs habitudes respectives vis-à-vis de l'alcool montre des comportements très contrastés.

La proportion d'abstinents est bien plus forte en Irlande (40 %) qu'en France (10 %). Chez les consommateurs d'alcool, les quantités ingérées par semaine sont comparables dans les deux pays, mais les modalités diffèrent. Les Irlandais boivent surtout pendant le week-end alors que la consommation des Français est plus répartie dans la semaine.

Et ils ne trinquent pas avec les mêmes produits : plus de 90 % des Français boivent du vin, alors qu'à Belfast ce sont plutôt la bière et les alcools forts qui ont la cote. «La différence entre Français et Irlandais vis-à-vis du risque d'infarctus s'explique par trois groupes de facteurs, comptant chacun pour un tiers, synthétise le Pr Ferrières. Il y a la façon de consommer régulière -ou binge drinking-, le type d'alcool -vin rouge ou autre- et les facteurs de risque classiques cardio-vasculaires -hypertension, diabète, tabac...» Le suivi de cette cohorte continue pour savoir ce qu'il en est des risques de cancers dans les deux populations.

Plusieurs vastes études, dont celle d'une élève de Serge Renaud, Dominique Lanzmann-Petithory, ont montré que la mortalité par cancer des hommes préférant le vin est diminuée de 15 % par rapport à celle d'individus consommant d'autres alcools, a observé cette nutritionniste en travaillant sur une base de données de 100.000 dossiers, avec un recul de vingt-cinq ans.

Figaro

Cancer : les bienfaits de l'aspirine se confirment
Vendredi, 17/12/2010 - 00:00

Plus de cent ans après sa commercialisation, l'aspirine n'en finit pas de livrer ses secrets et surtout ses bienfaits. Dernier en date : un effet préventif quasi universel vis-à-vis des cancers, lorsqu'elle est prise à petite dose pendant des années. Jusqu'ici, cette propriété avait surtout été étudiée et solidement établie pour les tumeurs colorectales. Il y a quelques semaines, une équipe britannique, de l'université d'Oxford, avait ainsi évalué qu'une consommation minime d'aspirine (75 milligrammes par jour) au long cours réduit de 24 % le risque de cancer colo-rectal, et d'un tiers sa mortalité chez les personnes déjà atteintes.

Cette même équipe vient de publier de nouvelles données selon lesquelles l'acide acétylsalicylique (aspirine) agit sur bien d'autres tumeurs malignes, réduisant au moins de 20 % leur mortalité.

Pour étudier les relations intimes entre prise d'aspirine et cancers, Peter Rothwell et ses collègues se sont repenchés sur les grandes études comparant l'aspirine à un placebo ou à un autre produit - antiagrégant ou anticoagulant - en prévention des maladies cardio-vasculaires. L'aspirine est, en effet, l'un des traitements de fond classiques pour fluidifier le sang chez les individus à haut risque d'accidents cardiaques. Au total, sept essais ont ainsi été réanalysés, incluant 25.570 patients.

Parmi eux, 674 sont décédés de cancers. Globalement, chez les malades sous aspirine, la mortalité par tumeur maligne s'est avérée réduite de 21 % pendant la durée des études. Les bénéfices étaient encore plus marqués au-delà de cinq ans, avec une diminution de 34 % tous cancers confondus, et même de 54 % s'agissant des tumeurs gastro-intestinales.

Les effets de l'aspirine apparaissent au bout d'environ cinq ans pour les cancers de l'oesophage, du pancréas, du cerveau et du poumon ; après une dizaine d'années pour ceux de l'estomac et du côlon et d'une quinzaine d'années s'agissant des cancers de la prostate. Dans les essais où le suivi a été très long, les bénéfices se sont maintenus pendant plus de vingt ans, insiste Peter Rothwell, qui précise aussi qu'ils sont «limités à certains cancers, surtout ceux de type adénocarcinomes».

«C'est un travail très bien fait, solide sur le plan méthodologique, et qui ouvre la voie à une approche de prévention efficace et faisable des cancers, s'enthousiasme le Dr Catherine Hill, épidémiologiste à l'Institut Gustave-Roussy (Villejuif).

Jusqu'à présent, dans ce domaine, la prévention a fait surtout appel à la lutte contre des facteurs de risque, comme le tabac, l'alcool... Mais en ce qui concerne les médicaments, il n'y a pas grand-chose. Plusieurs pistes ont été envisagées, comme celle du tamoxifène pour prévenir le cancer du sein ou encore des anticox (anti-inflammatoires, NDLR) mais elles sont tombées à l'eau car il y avait plus de risques que de bénéfices.» Concrètement, peut-on recommander à tout un chacun de prendre chaque matin une petite dose d'aspirine?

En ce qui concerne les cancers colorectaux, on n'en est pas si loin. Dans son article précédent publié en octobre, Peter Rothwell suggérait de le faire pour les individus à haut risque de ces tumeurs, du fait d'un terrain familial. Mais une «chimioprévention» plus large dans la population semblait prématurée, notamment du fait des effets secondaires digestifs de la molécule. C'est toujours le cas.

«D'autres travaux sont nécessaires» admettent aujourd'hui les chercheurs britanniques, qui soulignent notamment le manque de données concernant les cancers féminins, en particulier du sein. En attendant, ils considèrent que chez les individus qui relèvent d'un traitement antiagrégant, leurs résultats ont de quoi faire pencher la balance en faveur de l'aspirine.

Lancet

Cancer du sein débutant : le pronostic amélioré par l'association de deux médicaments
Vendredi, 17/12/2010 - 00:00

L'utilisation de ces deux médicaments, qui permet de mieux cibler les tumeurs, multiplie par deux le nombre de femmes dont la tumeur cancéreuse disparaît. Ces deux molécules ciblent une protéine, baptisée HER-2, produite en trop grande quantité dans un cancer du sein sur quatre. L'Herceptine bloque la protéine HER-2 située à la surface de la cellule, alors que le Tykerb agit à l'intérieur de la cellule. Le Dr Jose Baselga, directeur adjoint du Centre du cancer de l'hôpital général du Massachusetts, a conduit une étude portant sur 455 patientes par ailleurs traitées par du Paclitaxel, un médicament de chimiothérapie.

Le traitement a duré environ quatre mois, avant le retrait chirurgical de la tumeur et a été prolongé neuf mois après. Les médecins ont testé les médicaments avant d'opérer, d'une part pour réduire la taille des tumeurs et rendre l'opération moins contraignante, et d'autre part pour savoir rapidement si ces produits pouvaient aider la patiente.

Un peu plus de la moitié des patientes traitées par de l'Herceptine et du Tyberb ne présentaient pas de cancer invasif au moment ou elles ont été opérées, alors qu'elles n'étaient que 25 à 30 % seulement lorsqu'elles ne recevaient qu'un de ces médicaments.

Le Tykerb entraîne plus d'effets secondaires que l'Herceptine, en particulier de la diarrhée. Mais le principal inconvénient de ce traitement combiné concerne le porte-monnaie : les comprimés de Tykerb coûtent de 5.000 à 6.000 dollars par mois. L'Herceptine coûte plus de 4.000 dollars par mois, sans compter les honoraires des médecins. "La possibilité que nous avons ici est d'augmenter le nombre de patientes traitées" et d'éviter l'augmentation de traitements plus tardifs encore plus chers, a ajouté le Dr Baselga.

Tout en considérant ces résultats comme "vraiment excitants", le Dr Neil Spector, de l'Institut du cancer Duke, a estimé que le prix était à prendre en considération. Selon lui, dans l'avenir, le traitement du cancer consistera en des approches comme celle-ci à base de traitement à la carte adapté à chaque patient.

Le Tykerb est fabriqué par le laboratoire britannique GlaxoSmithKline PLC. La société Genentech, basée en Californie et filiale de la firme suisse Roche, fabrique l'Herceptine. Une seconde étude allemande a comparé les deux molécules chez 600 femmes atteintes d'un cancer du sein débutant qui ont aussi suivi une chimiothérapie pendant six mois avant d'être opérées. Cette étude a montré la meilleure efficacité de l'Herceptine (31 % des femmes ont vu leur tumeur disparaître) sur le Tyberb (22 %).

Yahoo

De nouveaux marqueurs génétiques pour identifier les victimes potentielles de crises cardiaques
Vendredi, 17/12/2010 - 00:00

Une équipe internationale de chercheurs menés par les universités de Leicester et de Cambridge, au Royaume-Uni, a découvert des marqueurs génétiques qui identifient les personnes risquant de développer des caillots sanguins et de subir une crise cardiaque.

L'étude a été partiellement financée dans le cadre du projet BLOODOMICS («Identification of risk genes for atherothrombosis in coronary artery disease by transcriptome and proteome analysis and high-throughput exon resequencing»), qui a reçu 8,88 millions d'euros en financement au titre du domaine thématique «Sciences de la vie, génomique et biotechnologie pour la santé» du sixième programme-cadre (6e PC). Les résultats, publiés dans la revue Blood, pourraient résulter en des cibles thérapeutiques potentielles pour le traitement des maladies cardiovasculaires.

La maladie coronarienne est la forme de maladie cardiaque la plus répandue et constitue une source importante de mort prématurée. Le professeur Alison Goodall de l'université de Leicester et Willem Ouwehand de l'université de Cambridge et du National Health Service Blood and Transplant (NHSBT), aux côtés de leurs collègues, ont étudié les nouveaux gènes qui régulent les plaquettes, les minuscules cellules sanguines qui peuvent former un caillot lorsqu'elles s'agglutinent les unes aux autres. Ils visaient à découvrir ce qui rendait les cellules plus collantes chez certains individus par rapport à d'autres.

«Nous savons depuis longtemps que l'activité des plaquettes et la formation de caillot varient en fonction des personnes, mais nous sommes parvenus à identifier certaines des raisons de cette variation», explique le professeur Goodall, principal auteur de l'article.

Le professeur Ouwehand fait remarquer que la recherche avait découvert une nouvelle molécule qui joue un rôle important chez les plaquettes. «Les études menées auprès d'un grand nombre de patients du NHS (le service des soins de santé britannique) ayant subi une crise cardiaque ainsi qu'auprès de patients sains suggèrent que les différences génétiques au niveau du gène de cette protéine modifie légèrement le risque de formation de caillots», explique le professeur Ouwehand.

«Ce type d'étude nous permettra de comprendre la question complexe concernant la susceptibilité plus élevée de certaines personnes de subir des crises cardiaques par rapport à d'autres.» Il fait remarquer «qu'un jour, ce genre de recherche pourrait mener à une nouvelle génération de médicaments pouvant être utilisés pour réduire le risque de cette maladie dévastatrice.»

La maladie coronarienne et l'athérothrombose sont les deux principales causes de décès par maladie en Europe. Au total, 600 000 personnes sont diagnostiquées avec un infarctus du myocarde (IM) chaque année, et près de 50 % d'entre eux sont mortels.

De nombreux survivants voient la qualité de leur vie se réduire considérablement. L'équipe du projet a découvert que la consommation à long terme d'aspirine serait une approche médiocre de prévention de l'IM, mais elle est généralement associée à de nombreux effets secondaires, d'où le besoin d'identifier des marqueurs permettant de détecter les individus plus à risque.

Cordis

Chez la souris, l'inhibition d'une molécule cérébrale supprime les douleurs persistantes
Vendredi, 17/12/2010 - 00:00

Les douleurs chroniques sont des douleurs qui persistent plusieurs mois, voire des années, même quand la cause de la douleur a disparu. Pourquoi ? Parce que dans le cerveau, les signaux de la douleur ont modifié les connexions synaptiques entre les neurones des centres de la douleur de telle sorte que ces neurones restent actifs des mois après la blessure. Cette « plasticité cérébrale » engendre une forme d'apprentissage et de mémoire de la douleur. Mais ce n'est peut-être pas une fatalité. Xiang-Yao Li, du Centre d'étude de la douleur à l'Université de Toronto au Canada, et ses collègues ont réussi à soulager la douleur chronique chez la souris, en inhibant une enzyme clef du mécanisme de mémorisation.

La plasticité synaptique, c'est-à-dire la création de nouvelles connexions entre neurones et leur renforcement, est un mécanisme moléculaire très étudié. Elle est impliquée dans la mémorisation, mais elle joue aussi un rôle crucial dans la douleur chronique. Par exemple, une lésion nerveuse engendre une plasticité synaptique dans les terminaisons sensorielles périphériques, l'amygdale cérébrale (siège des émotions) et le cortex. Ces changements sont responsables de la perception et de la mémorisation de la douleur. S'ils persistent dans le temps, on parle de douleur chronique.

Plusieurs molécules, notamment des « kinases », participent à cette plasticité synaptique, qui se manifeste notamment sous forme de « potentialisation » à long-terme : quand deux neurones sont stimulés simultanément, ils déchargent plus fortement et plus longtemps après l'arrêt du stimulus. La protéine kinase M zêta est une enzyme qui maintient durablement ces modifications synaptiques dans diverses régions du cortex. Or le cortex cingulaire antérieur est l'un de ces centres cérébraux impliqués dans la douleur chronique.

Les neurobiologistes ont donc mesuré l'activité de la kinase M zêta dans le cortex cingulaire antérieur de souris dont ils avaient au préalable endommagé un nerf périphérique. Ils ont constaté que cette enzyme est activée par la blessure et que l'activation persiste plus de 20 jours après le stimulus, et ce, uniquement dans cette région du cortex.

Mais l'activité de cette enzyme entretient-elle la douleur chez les souris ? Oui, car en inhibant cette enzyme avec une molécule nommée ZIP (injectée directement dans le cortex cingulaire antérieur), les neurobiologistes ont montré que les souris ne présentent plus de comportements douloureux et que la potentialisation à long terme des neurones corticaux est supprimée. Voilà donc une cible thérapeutique potentielle : l'activité de la kinase M zêta, qui participe à la douleur neuropathique dans le cortex cingulaire antérieur en favorisant la plasticité synaptique.

PLS

^ Haut
Recherche
Recherche & Innovation, Technologies, Transports
Premier réseau de livraisons urbaine par camions électriques
Vendredi, 17/12/2010 - 00:00

Depuis plus d'un an, 50 poids lourds électriques du Groupe Deret sillonnent les 22 villes les plus importantes de France pour y effectuer des livraisons « propres ». Au bout d'un an, le bilan est particulièrement positif.

C'est la première fois, en France, qu'un Groupe de Transport aussi important (1540 salariés) s'est engagé, par une convention échangée avec l'Etat, à réduire de 20 % ses émissions de CO² sur 3 ans.

Depuis le mois d'août, L'Oréal Produits de Luxe France a choisi Deret pour livrer 400 points de vente parisiens. Cette prestation est exclusivement assurée par la flotte francilienne des camions électriques de Deret Transporteur. Diesel, marque de luxe de L'Oréal, a choisi de rouler en électrique et de le montrer. Un camion électrique de Deret aux couleurs de Diesel effectue ses livraisons dans les rues de la capitale.

Cette démarche volontaire qui a été saluée par un Grand Prix de l'Innovation lors de la dernière Semaine Internationale des Transports et de la Logistique (SITL) à Villepinte, illustre parfaitement que, même en temps de crise, environnement, valeurs et économie peuvent parfaitement cohabiter.

Deret

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top