|
|
|
|
|
NUMERO 563 |
|
|
|
|
|
|
|
Edition du 21 Juillet 2010
|
|
|
|
|
Edito
la première greffe totale du visage ouvre une nouvelle ère médicale
En 1997, un film américain « Volte face » imaginait qu'un agent secret, incarné par John Travolta, parvenait à prendre l'identité d'un dangereux terroriste grâce à une opération chirurgicale permettant de lui greffer le visage de ce criminel. 13 ans après ce film à succès, la réalité a rejoint la fiction ! Le 27 juin dernier, l'équipe du Pr Laurent Lantieri du CHU Henri-Mondor de Créteil, a en effet réussi un véritable exploit médical : la première greffe totale du visage sur un homme de 35 ans atteint d'une maladie génétique qui lui déformait le visage. «Nous sommes les seuls à ce jour à avoir transplanté un visage en entier avec les paupières et tout le système lacrymal. Je suis fier car c'est en France que cela s'est réalisé», a affirmé le chirurgien. L'hôpital Vall d'Hebron avait annoncé en avril dernier qu'un jeune homme défiguré par un accident avait reçu lors d'une opération de 24 heures pratiquée fin mars un nouveau visage, avec la peau, les mâchoires, le menton, le nez, les joues, les paupières et les muscles. Si les experts du Royal Free Hospital de Londres avaient qualifié l'intervention espagnole de greffe du visage "la plus complexe jamais réalisée au monde à ce jour", ils s'étaient refusés à parler de première greffe intégrale du visage. La première partie de l'opération a consisté à récupérer l'ensemble du visage d'une personne récemment décédée - quelques heures - dont la couleur de la peau et le groupe sanguin coïncidaient avec ceux de Jérôme : 7 heures de travail. Le seconde partie était la transplantation à proprement parler et la reconnexion des veines et des muscles du visage greffé à ceux du patient : 12 heures. Si la greffe semble avoir pris (de la barbe aurait déjà repoussé sur le nouveau visage) et que, désormais, le patient «marche, mange, parle», le risque de rejet ou d'infection demeure et, Jérôme sera également suivi toute sa vie par un psychologue. L'opération a mobilisé moins d'une dizaine de personnes. C'est beaucoup moins que les fois précédentes, ce qui montre que ce type d'intervention commence à être bien rodé par l'équipe. Pour le Pr Lantieri cette greffe sera vraiment une réussite quand le patient sera sorti de l'hôpital, quand il sera réintégré dans la société et il faudra attendre six mois pour que les nerfs repoussent et que l'on puisse voir ses expressions.Le chirurgien, qui a une autorisation pour cinq autres greffes souhaite maintenant consacrer ce savoir aux grands brûlés qui posent encore des problèmes techniques. La question de la capacité des patients à s'approprier une nouvelle apparence reste également au coeur de ce type d'opération mais on sait aujourd'hui que le nouveau visage prend les formes de l'ossature du receveur et qu'il n'y a aucun risque de confusion avec la personne décédée. La maîtrise technique de ces greffes totales de visage va permettre la réinsertion socio-professionnelle de nombreuses personnes défigurées à la suite d'accidents ou de malformations et, en cela, il s'agit bien d'un progrès médical majeur incontestable. Il reste que le visage humain est inséparable de l'identité et de la personnalité et que la banalisation de ce type d'intervention, même si le receveur ne prend pas le visage du donneur, ne va pas sans soulever des interrogations éthiques et philosophiques. Plus que jamais, les fantastiques avancés de la médecine doivent s'accompagner d'une réflexion sociale et d'un débat démocratique afin que ces progrès fascinants restent au service de l'homme et respectent sa dignité et son humanité. René Trégouët Sénateur honoraire Fondateur du Groupe de Prospective du Sénat
|
|
|
|
|
|
|
|
TIC |
|
|
Information et Communication
|
|
|
|
|
|
|
|
|
Les cerveaux du MIT (Massachusetts Institute Technology) n'en finissent plus de nous faire rêver. Cette fois ils se sont penchés sur l'infrastructure globale des échanges de données sur Internet. Plus précisément l'ingénieur en électronique Vincent Chan et son équipe expliquent avoir trouvé le moyen d'optimiser radicalement les transferts sur Internet. Il en résulterait une connexion 100 à 1000 fois plus rapide qu'aujourd'hui tout en réduisant les coûts pour le consommateur. Ces recherches partent du constat que la transmission de données s'avère plus efficace par les fibres optiques que par signaux électriques. En revanche, le routeur doit aujourd'hui convertir le signal lumineux en signal électrique, un processus qui ralentirait le temps de transmission. Ensuite, une nouvelle conversion du signal électrique est opérée pour retourner les données à l'internaute. Le signal optique présente l'avantage de pouvoir transmettre simultanément plusieurs ondes lumineuses (et donc des données) sur une même fibre. Les experts du MIT précisent : « les problèmes surviennent lorsque des signaux optiques arrivant de différentes endroits atteignent le routeur ». Ce dernier doit en effet stocker ces signaux dans une mémoire interne le temps de la conversion. Les experts décrivent alors une infrastructure au sein de laquelle la communication entre deux points forts de trafic (New York - Los Angeles) serait pré-tracée et limitée à un seul signal pour une conversion immédiate de celui-ci. Un tel dispositif évite alors les mises en cache de signaux secondaires. A la différence des grosses sociétés comme Google et Facebook qui possèdent des serveurs régionaux pour accélérer l'accès à leurs services, le modèle « Flow Switching » du MIT permettrait un ajustement automatique de la bande passante. En cas de fort trafic entre deux points, de nouvelles ondes lumineuses viendraient à la rescousse. L'équipe de Vincent Chan a en effet développé un ensemble de protocoles pour ce système de gestion du réseau. (Voir articles du MIT Ori Gerstel, ingénieur principal à Cisco Systems, explique que d'autres solutions ont été envisagées mais que le modèle proposé par le MIT semble le plus adapté. Il ajoute que cela pourrait s'accompagner d'une nouvelle génération de routeurs n'ayant pas à convertir les signaux optiques en signaux électriques. Les coûts de déploiement seraient cependant particulièrement élevés. « Flow Switching fonctionnerait parfaitement pour une demande de masse - si vos utilisateurs ont besoin de beaucoup de bande passante et d'accélérer les transferts ». Il ajoute : « Mais la plupart des utilisateurs n'appartiennent pas à cette minorité ». MIT MIT
|
|
|
|
|
|
|
|
La pression est forte sur les automobilistes et leur porte-monnaie. Après la volonté affichée des députés d'augmenter le tarif des PV de stationnement de 11 à 20 euros, le procès-verbal électronique doit, lui, être généralisé dès 2011. Le Conseil des ministres en a adopté le principe le 30 juin dernier. Depuis novembre, une expérimentation prévue sur un an et sobrement baptisée «PVE» pour «procès-verbal électronique», est menée dans cinq communes. L'objectif est de faire gagner du temps mais aussi de l'argent à l'État ainsi qu'aux collectivités locales. Il s'agit donc de faire disparaître de nos pare-brise le petit papillon annonçant que l'on est verbalisé pour stationnement non payé. Par le biais d'un stylo électronique, d'un scanner ou d'une tablette PC, un agent saisira toutes les donnés utiles. Puis ces dernières remonteront par télétransmission jusqu'au Centre national de traitement des infractions automatisées de Rennes, mis en place pour gérer les PV des radars. Place donc au traitement dématérialisé qui sonne le glas du carnet à souche, du crayon et des longues tâches administratives qui suivent afin de saisir sur ordinateur ces données au poste de police. Place aussi à la rapidité d'exécution. Le nouveau procédé prendra 10 minutes en moyenne contre 20 minutes actuellement. À l'heure des mesures d'économies, le bénéfice à tirer est évident: en travaillant plus vite, les fonctionnaires seront affectés à d'autres tâches. Pour le préfet, Jean-Jacques Debacq, responsable du projet interministériel du contrôle automatisé, ce futur procédé garantira une plus grande efficacité. «Aujourd'hui, le PV traîne au fond de la boîte à gants et on finit par ne plus y penser», dit-il: «Avec le projet PVE, le contrevenant recevra chez lui, par la poste, un formulaire de trois feuillets bien plus visible.» Par ailleurs, le traitement automatisé des procédures marquera la fin des indulgences qui subsistent encore et dans des proportions non négligeables: 8 % des amendes ne sont pas payées grâce à diverses interventions. Pour Jean-Jacques Debacq, ce nouveau procédé devrait donc faire augmenter de 10% la recette des amendes de police qui atteint les 500 millions d'euros, destinés aux communes. Les radars rapportent eux 450 millions. Mais pour le préfet, «il ne s'agit pas de prendre plus d'argent aux automobilistes mais de sortir du Moyen Âge». Un point de vue qui n'est évidemment guère partagé par les usagers de la route, de plus en plus nombreux à se sentir rackettés et qui expriment leur grogne sur Internet. En témoigne l'un de ces sites au nom pour le moins explicite: PVDM: (pour «PV de merde»). À terme, le procès-verbal électronique devrait monter en puissance et s'appliquer aux 520 infractions routières : ceinture de sécurité, téléphone au volant, stop non respecté... Et tout sera envoyé au centre de Rennes déjà formaté pour traiter ces 25 millions de contraventions supplémentaires qui s'ajouteront aux 9 millions issues des radars automatiques. Figaro
|
|
^ Haut |
|
|
|
|
|
|
|
Matière |
|
|
Matière et Energie
|
|
|
|
|
|
|
|
|
Les ministres de l'Environnement allemand, britannique et français plaident jeudi pour que l'UE adopte un "objectif plus ambitieux" de réduction de ses émissions de carbone. Norbert Röttgen, Chris Huhne et Jean-Louis Borloo souhaitent que les rejets européens de CO2 soient, d'ici à 2020, 30 % inférieurs aux niveaux de 1990, soit dix points de moins que l'objectif actuel qui est de -20 %. Les trois ministres publient une tribune commune dans les quotidiens "Frankfurter Allgemeine Zeitung", "Financial Times" et "Le Monde"."L'objectif actuel de l'Union européenne visant à une réduction des émissions de carbone de 20 % d'ici à 2020 par rapport à 1990" semble "désormais insuffisant", écrivent-ils. Ils estiment qu'un objectif de "réduction de 30% d'ici à 2020" serait "de nature à véritablement inciter à l'innovation et à l'action". En adoptant cet "objectif plus ambitieux", poursuivent-ils, l'UE démontrerait "sa détermination" à favoriser "l'émergence, sur le long terme, d'un modèle à faibles émissions de carbone". Ce nouvel objectif ne coûterait pas trop cher, affirment MM. Röttgen, Huhne et Borloo. "Après tout, la récession elle-même a entraîné une réduction des niveaux d'émissions du secteur marchand de l'UE de 11 % par rapport à la période d'avant la crise". Grâce à cela, l'objectif -20 % ne coûte que 48 milliards d'euros par an (au lieu des 70 milliards prévus). Selon leurs calculs, le passage à -30 % ne coûterait que 11 milliards d'euros de plus que le premier montant calculé pour le passage à -20 %. "Soit un surcoût de moins de 0,1% de la valeur de l'économie de l'UE", évaluent-ils. "Esquiver la discussion sur les 30% nous conduirait à un ralentissement dans notre course à la réduction des émissions de carbone", plaident encore les trois ministres de l'Environnement. "Nos entreprises gagneraient une précieuse avance si nous prenions rapidement les mesures nécessaires". "C'est pourquoi nous croyons que le passage à l'objectif d'un taux de 30% de réduction des émissions est le bon choix pour l'Europe. C'est une politique favorable à l'emploi, à la croissance, au renforcement de la sécurité énergétique et à la lutte contre le risque climatique", écrivent-ils en concluant: "C'est avant tout une politique pour l'avenir de l'Europe". AP
|
|
|
|
|
|
|
|
Pour transférer l'électricité durable produite sur les côtes sud de la Méditerranée vers celles de l'Europe, un projet de création de réseau électrique transméditerranéen voit le jour : "Transgreen". Il réunit plusieurs entreprises en pointe dans le transport, la production et la gestion des réseaux d'électricité. Le protocole d'accord du projet Transgreen a été signé, le 5 juillet, en présence de Jean-Louis Borloo et Henri Guaino. Il marque le début d'une coopération Nord-Sud qui vise à accentuer la part des énergies renouvelables dans le bouquet énergétique français et à renforcer la sécurité énergétique de l'Europe et de la France. Passant sous le détroit de Gibraltar, il n'existe à ce jour qu'une ligne à courant alternatif d'une capacité de 1,4 gigawatt (GW) reliant l'Afrique à l'Europe. Une capacité insuffisante pour transporter les 5 GW prévus dans le cadre du Plan solaire méditerranéen, lancé fin 2008. Ce projet de production d'énergie solaire et éolienne prévoit une capacité de production estimée en tout à 20 GW à l'horizon 2020. L'enjeu est donc de développer des infrastructures de transport et d'interconnexion reliant les sites de production au continent européen, par des lignes sous-marines à courant continu haute tension (CCHT). Le projet Transgreen aura pour "objet d'étudier la faisabilité" d'un tel réseau sous la Méditerranée. Les entreprises signataires du projet Transgreen sont Abengoa, l'AFD, Alstom, Areva, Atos Origin, CDC infrastructure, EDF, Nexans, Prysmian, Red Eléctrica de España, RTE, Siemens, Taqa Arabia. Le partenariat, constitué pour trois ans, est ouvert à d'autres entreprises, et l'investissement dans un tel réseau, s'il voit le jour, est estimé à 6 milliards d'euros. La stratégie de codéveloppement énergétique entre les pays du Nord, du Sud, de l'Est et de la Méditerranée correspond à un triple enjeu : répondre à la demande d'électricité, lutter contre le changement climatique (protocole de Kyoto) et renforcer l'indépendance et la sécurité énergétiques grâce à une diversification des sources d'énergie. En Europe, la part de l'électricité durable et nucléaire doit passer de 45 % à 66 % d'ici à 2020. Le projet Transgreen fait partie des quatre grands projets de développement des infrastructures de transport d'électricité de l'Union européenne (renforcement des interconnexions sud-est de l'Europe, interconnexion des réseaux des pays baltes et construction de réseaux sous-marins pour raccorder les champs éoliens en mer du Nord et en mer Baltique). Transgreen
|
|
|
|
|
|
|
|
Le proton, élément constitutif fondamental de la matière, serait plus petit que ce qui était admis jusqu'à présent. L'expérience a été conduite à l'Institut suisse Paul-Scherrer (PSI) par une équipe internationale autour des physiciens de l'Institut Max Planck d'optique quantique de Garching (MPQ, Bavière), l'Université Ludwig Maximilian de Munich et l'Institut de recherche sur les lasers de l'Université de Stuttgart (Bade-Wurtemberg). Le proton mesurerait 0,8414 femtomètre (10^(-15) m) et non pas 0,8768 fm. Ce résultat soulève des problèmes dans le monde de la physique : la valeur d'au moins une constante fondamentale serait modifiée et les calculs de l'électrodynamique quantique relativiste seraient à vérifier. Pour cette nouvelle mesure, les physiciens ont fabriqué des atomes d'hydrogène spéciaux Les scientifiques discutent encore des possibles causes de la divergence observée. Actuellement tout est mis au banc d'essais : les mesures de précisions antérieures, les calculs intensifs des théoriciens et jusqu'à une remise en cause de la théorie physique la plus validée, celle de l'électrodynamique quantique. "Je pars du principe qu'une erreur de calcul a été faite quelque part, car la théorie de l'électrodynamique quantique est très cohérente et bien établie", affirme le Prof. Pohl. Les physiciens du groupe de travail vérifient cette nouvelle valeur avec des recherches supplémentaires utilisant l'atome d'hydrogène. Une interprétation du résultat est prévue pour 2012. Les scientifiques veulent ensuite adapter leur instrumentation afin de pouvoir mesurer le rayon du noyau d'hélium. Ces expériences devraient révéler comment les noyaux se déforment quand ils interagissent avec une charge négative. Les physiciens veulent ainsi décortiquer pas à pas la structure exacte de la matière, et espèrent déceler de nouvelles énigmes de la physique. [BE">6], où l'électron est remplacé par un muon (chargé lui aussi négativement) qui gravite autour du noyau (le proton). Comme le muon est 200 fois plus lourd que l'électron, il gravite autour du proton avec une orbite beaucoup plus faible et est donc plus sensible à la taille du proton. A l'aide d'un laser spécialement conçu à cet effet (développé par une équipe de Stuttgart), les chercheurs ont pu mesurer la trajectoire des muons, et ont donc pu en déduire le rayon du proton. Ces expériences ne pouvaient être réalisées qu'au PSI car c'est le seul endroit au monde où il est possible de générer un faisceau de muons d'une intensité suffisante. Cette méthode permet d'établir la taille du proton à partir des propriétés de la trajectoire des muons d'une manière nettement plus précise et donnent un résultat de 4% plus petit que celui admis précédemment. La différence de taille peut paraitre infime, mais elle est la cause d'essais infructueux dans le passé. Des mesures avaient déjà commencé en 2003 et durant plusieurs années le Prof. Pohl du département de spectroscopie laser du MPQ et ses collègues pensaient que les instruments de mesure n'étaient pas assez précis car aucun signal n'était détecté. "Ce n'était pas dû à l'exactitude de la méthode mais au fait que nous ne pensions pas obtenir une différence de taille si importante". Les scientifiques discutent encore des possibles causes de la divergence observée. Actuellement tout est mis au banc d'essais : les mesures de précisions antérieures, les calculs intensifs des théoriciens et jusqu'à une remise en cause de la théorie physique la plus validée, celle de l'électrodynamique quantique. "Je pars du principe qu'une erreur de calcul a été faite quelque part, car la théorie de l'électrodynamique quantique est très cohérente et bien établie", affirme le Prof. Pohl. Les physiciens du groupe de travail vérifient cette nouvelle valeur avec des recherches supplémentaires utilisant l'atome d'hydrogène. Une interprétation du résultat est prévue pour 2012. Les scientifiques veulent ensuite adapter leur instrumentation afin de pouvoir mesurer le rayon du noyau d'hélium. Ces expériences devraient révéler comment les noyaux se déforment quand ils interagissent avec une charge négative. Les physiciens veulent ainsi décortiquer pas à pas la structure exacte de la matière, et espèrent déceler de nouvelles énigmes de la physique. [BE
|
|
^ Haut |
|
|
|
|
|
|
|
Espace |
|
|
Espace et Cosmologie
|
|
|
|
|
|
|
|
|
Le télescope WISE, lancé en décembre dernier par la NASA pour une mission de cartographie du ciel, a permis de découvrir 25.000 astéroïdes qui n'avaient encore jamais été détectés.Quatre-vingt-quinze pour cent d'entre eux sont considérés comme étant "proches de la Terre". En langage astronomique, cela signifie qu'ils sont à 48 millions de kilomètres de la planète. Aucun ne risque donc de constituer une menace prochainement. Répondant au doux nom de Wide-Field Infrared Survey Explorer, le télescope achève samedi sa première cartographie du ciel. Il effectuera ensuite un nouveau tour. WISE est particulièrement utile, car il permet de voir à travers d'impénétrables voiles de poussières et de découvrir des objets émettant un rayonnement infrarouge. "La plupart des télescopes se concentrent sur les objets les plus chauds et les plus brillants dans l'univers", observe Richard Binzel, du Massachusetts Institute of Technology. "WISE est particulièrement sensible à tout ce qui est froid et sombre, ce qu'on pourrait appeler les objets furtifs de l'univers". Les chercheurs de la mission WISE sont épatés par les découvertes permises par ce projet de 320 millions de dollars. D'ici la fin de l'année, ils espèrent avoir une cartographie cosmique de plusieurs millions de nouveaux astéroïdes, comètes et autres objets célestes. L'objectif est d'en savoir davantage sur la façon dont les planètes, les étoiles et les galaxies se forment. En plus des 25.000 astéroïdes, le télescope a également localisé 15 nouvelles comètes. Il a espionné des centaines de planètes naines et confirmé l'existence de 20 d'entre elles. Enfin, WISE a découvert ce qui semble être une galaxie ultralumineuse, à plus de dix milliards d'années-lumière de la Terre, et créée à partir d'autres galaxies entrées en collision. Peu à peu, "on remplit les cases vides dans tout ce qui se trouve dans l'univers, des objets proches de la Terre aux galaxies en formation", a souligné Peter Eisenhardt, chef de la mission au Laboratoire de propulsion par réaction (JPL) de la NASA. AP
|
|
^ Haut |
|
|
|
|
|
|
|
Terre |
|
|
Sciences de la Terre, Environnement et Climat
|
|
|
|
|
|
|
|
|
Il n'est pas une semaine sans qu'un nouveau consultant carbone fasse son entrée sur la place. Dans cette jungle climatique, on croise des petits et des grands cabinets, sans trop savoir comment séparer l'ivraie du grain. Sans conteste, MyCO2 boxe dans une autre catégorie : celle des novateurs. Créée par François Bordes, qui jadis présida aux destinées du plan d'affectation des quotas d'émissions pour le compte du ministère de l'Écologie, la petite entreprise n'a pas l'établissement du bilan carbone pour seul but. ça c'était pour les entrepreneurs du XXe siècle. Mais François Bordes et son équipe ont résolument les pieds ancrés dans le présent et l'avenir proche. « Notre idée, c'est d'offrir une chaîne complète de services, allant de l'analyse de cycle de vie, aux solutions d'affichage du bilan carbone des produits, en passant par le développement de solutions très innovantes de gestion des émissions individuelles », dévoile l'ancien directeur du développement durable de Cap Gemini. Très innovantes, dites-vous. Mais encore ? « Les technologies informatiques et de monétique sont suffisamment performantes aujourd'hui pour permettre la création du compte carbone individuel », poursuit le créateur de Humanvillage. Le compte carbone individuel... une notion familière à nos lecteurs (lire L'Usine à GES n°s 35 et 54). Hélas, malgré les tentatives, les projets les plus avancés sont encore à l'état embryonnaires. L'idée est pourtant séduisante. « Chaque consommateur disposerait d'un compte permettant de mesurer son empreinte carbone. Pour cela, le bilan carbone des achats de produits ou de services figurant dans notre base de données serait reporté sur le compte. Le compte carbone individuel serait un moyen d'inciter les consommateurs à se tourner vers les biens dont le montant de CO2 émis pour leur production et leur distribution est le plus faible. Il pourrait aussi permettre le suivi d'objectifs en matière de maîtrise des émissions », explique Sandrine Rousseaux, chercheuse au CNRS et chargée de la recherche et du développement de la start up. Futuriste ? Plus maintenant. MyCO2 dispose d'une imposante base de données de bilan carbone de biens et de services. La petite entreprise vient, de plus, de conclure un partenariat avec Wincor- Nixdorf, concepteur de solutions de télépaiement. Et des discussions avec un partenaire financier de poids sont sur le point d'aboutir. Pour lancer sa révolution énergétique, l'équipe de MyCO2 prévoit d'agir en deux temps. Transcrivant des expériences en cours dans plusieurs pays, My-CO2 diffuserait une carte verte aux habitants d'éco-quartiers en construction. A priori sensibilisés aux questions environnementales, ces pionniers collecteraient des Green points en fonction de leurs éco-gestes (achats de produits écologiques, réduction de la consommation d'énergie, etc.). Un premier pas. Le système serait ensuite élargi à la grande distribution. « Cela supposera alors la création de comptes carbone personnels », reprend l'ancien conseiller climat de Roselyne Bachelot, Serge Lepeltier et Nelly Ollin. GES
|
|
|
|
|
|
|
|
Une équipe de chercheurs russes affirme avoir mis au point au Kamtchatka (Extrême-Orient russe) un procédé fondamentalement nouveau d'enfouissement des déchets nucléaires liquides et semi-liquides, consistant à enfouir les déchets à une température élevée (350°) dans des systèmes hydrothermaux. "Nous avons procédé à une étude détaillée du système géothermal de Paramouchir, explique Alexandre Vaïner, l'un des co-auteurs du projet. L'île de Paramouchir, la plus proche du Kamtchatka, a été choisie comme terrain d'expérimentation pour construire ce système et déterminer, en envoyant dans un puits un liquide de simulation, ce qui se produit avec les sels de métaux lourds à une grande profondeur." L'expérience a montré que la chaîne des réactions chimiques conduit à la formation, à partir des déchets radioactifs, de combinaisons stables et de gisements géologiques miniers d'origine hydrothermale. Dans ces conditions naturelles, les déchets s'associent dans des ensembles géologiques localisés, inoffensifs pour la biosphère, affirment les auteurs du projet. Autrement dit, l'opération consiste à restituer à la nature ce qu'on lui a pris. Au Kamtchatka et dans les îles Kouriles, on a mis en évidence une combinaison unique de pression, de températures et autres facteurs, qui activent des processus géochimiques naturels de dépôt des sels de métaux lourds dans ce que l'on appelle les "zones de transition profondes". Et tout cela se produit en tout en quelques heures. Ce système, assure Alexandre Vaïner, a une capacité permettant "d'enfouir tous les déchets radioactifs de tous les pays du monde". La neutralisation des déchets dans des systèmes géothermaux serait écologiquement inoffensive et apporterait une solution peu onéreuse à un problème majeur qui se pose à l'échelle mondiale, assurent ces scientifiques. Entre 1993 et 1996, ils ont obtenu trois brevets pour cette technique de neutralisation des déchets. Ce qui importe, c'est que le système géothermal utilisé convienne à la neutralisation des déchets: toute une série de conditions sont nécessaires, et notamment une température et une pression élevées, ainsi qu'une minéralisation poussée et une puissante décharge du flux. De tels systèmes n'existent sûrement pas qu'au Kamtchatka. On pourrait en découvrir dans d'autres zones du globe. Mais dans bien des régions, l'accès sera beaucoup plus difficile et bien plus onéreux. Viktor Sougrobov, ancien responsable du département de géothermie et de géochimie de l'Institut de volcanologie de la section Extrême-orientale de l'Académie des sciences russe, estime qu'un système tel que celui de Paramouchir permettrait de neutraliser une centaine de tonnes d'uranium par an, ainsi que des déchets radioactifs. Ce procédé, note-t-il, est conforme aux exigences de l'AIEA. Les chercheurs soulignent que cette intrusion dans des processus naturels n'aura pas de conséquences négatives. Cela s'explique par le volume insignifiant des déchets envoyés comparativement aux volumes de ces flux. Ils estiment que cette neutralisation des déchets pourrait commencer à être mise en oeuvre d'ici un an. BE
|
|
^ Haut |
|
|
|
|
|
|
|
Vivant |
|
|
Santé, Médecine et Sciences du Vivant
|
|
|
|
|
|
|
|
|
Des chercheurs américains ont trouvé une nouvelle voie vers un traitement du sida: rendre le système immunitaire résistant au VIH en introduisant des cellules souches modifiées dans l'organisme, ont-ils annoncé dans la revue Nature Biotechnology parue vendredi. Le virus du sida (VIH) s'attaque aux cellules du système immunitaire humain en s'accrochant à certaines protéines précises, en particulier une molécule appelée CCR5. Certaines personnes, porteuses d'une mutation qui empêche l'apparition de cette molécule, sont résistantes aux principales souches du VIH. En éliminant le gène correspondant à la protéine CCR5 d'une cellule, on peut donc la protéger contre le virus et à terme protéger des personnes contre le VIH, ou du moins limiter fortement ses effets chez des personnes infectées. L'équipe de Paula Cannon, de l'université de Californie du Sud, a utilisé les "doigts de zinc", une technique récente qui permet de cibler très précisément la partie du génome à "découper". Les chercheurs ont éliminé ce gène de cellules souches hématopoïétiques (les cellules à l'origine des globules blancs, mais aussi des globules rouges et des plaquettes). En se divisant, ces cellules vont donc produire entre autres des cellules immunitaires qui n'auront pas la protéine CCR5. Ils ont ensuite introduit ces cellules modifiées dans des souris, remplaçant ainsi leur système immunitaire par des cellules humaines, avant de les infecter avec le VIH. Au bout de 12 semaines, les systèmes immunitaires avaient retrouvé leur force initiale, alors que chez les souris témoins qui avaient reçu des cellules souches non modifiées, les taux de cellules du système immunitaire avaient fortement chuté. De plus, chez les souris tests, la présence du VIH était très limitée. La prochaine étape consistera à essayer de transposer cette technique chez l'homme. Une étude similaire est déjà en cours sur l'homme, en modifiant des cellules du système immunitaire et non pas des cellules souches, à l'université de Pennsylvanie. AFP
|
|
|
|
|
|
|
|
Ce pourrait être une grande avancée dans la lutte contre le paludisme. Des chercheurs américains sont parvenus à modifier le génome de moustiques pour les rendre incapables de transmettre le parasite responsable de la maladie. Le parasite en question, appelé Plasmodium, se transmet à l'Homme par le biais d'un moustique des régions chaudes, l'Anopheles. Les entomologistes américains ont réussi pour la première fois a modifier le génome de ces moustiques pour les immuniser totalement contre ce parasite. Les chercheurs ont utilisé des techniques de biologie moléculaire pour concevoir un "morceau" d'information génétique pouvant s'insérer dans le génome du moustique, morceau d'information qu'ils ont ensuite injecté dans les oeufs de ces insectes. Les moustiques naissant de ces oeufs sont devenus porteurs de cette information génétique modifiée, qu'ils ont ensuite transmise à leurs descendants. Après avoir nourri les Anophèles modifiés génétiquement avec du sang infecté par le Plasmodium, les chercheurs ont pu constater que ces moustiques étaient totalement immunisés contre le parasite. L'étape suivante : remplacer les moustiques dans la nature avec des populations d'insectes génétiquement modifiés, incapables de transmettre le Plasmodium. "Si on veut efficacement arrêter la propagation du parasite responsable du paludisme il faut que tous les moustiques y soient à cent pour cent résistants", conclut Michael Riehle, qui a conduit ces travaux. Express
|
|
|
|
|
|
|
|
Une équipe de chercheurs menée par le professeur Hiroaki SHIMOKAWA de l'université du Tohoku a mis au point une technique de soin non invasive qui utilise des ondes de chocs pour traiter l'ischémie myocardique. L'ischémie myocardique est une pathologie caractérisée par un approvisionnement insuffisant du coeur en sang et en oxygène, le plus souvent causée par une réduction du débit sanguin suite à l'épaississement de la paroi d'une artère coronaire. Une ischémie myocardique a comme symptôme courant l'angine de poitrine (douleur dans la poitrine consécutive à un effort) et peut entraîner la survenue d'un infarctus. Il s'agit d'une cause majeure de mortalité et de handicap dans les pays développés. Si les ondes de choc sont utilisées en médecine depuis quelques dizaines d'années pour détruire les calculs rénaux ou biliaires, cette application aux pathologies cardiaques leur ouvre de nouvelles perspectives. Le traitement mis au point par l'équipe du professeur SHIMOKAWA utilise une machine mis au point en collaboration avec Storz Medical AG, un fabricant suisse d'équipement médical. Il se déroule comme suit : tout d'abord, le patient s'allonge, puis une sonde émettrice d'ultra-sons est placée sur sa poitrine, au niveau de la zone ischémique. Environ deux cents ondes de choc de faible énergie (0,1mJ/mm2, soit environ un dixième de l'intensité utilisée pour détruire des calculs rénaux) sont alors générées par la sonde. Le traitement est répété 3 fois à un ou deux jours d'intervalle, chaque session comprenant entre 40 et 70 séries de génération d'ondes. L'exposition aux ondes de choc entraîne une revascularisation, soit une génération de nouveaux vaisseaux sanguins au niveau de la zone ischémique ce qui améliore l'approvisionnement en oxygène. La raison en est pour l'instant mal connue : les scientifiques supposent que les ondes causent des dommages légers au tissu cardiaque, ce qui déclencherait un mécanisme naturel de réparation. Les chercheurs avaient déjà montré l'efficacité de leur technique sur un modèle porcin en 2006, puis ont effectué deux tests cliniques sur de petits nombres de patients en 2006 et en 2010. Ces essais se sont conclus par une amélioration de l'état des patients et n'ont pas mis en évidence d'effets secondaires. La prochaine étape sera donc un essai à plus grande échelle. Signalons enfin que l'intérêt de la technique vient juste d'être officiellement reconnue par les autorités japonaises. En effet, le 1er juillet 2010, le Ministère japonais de la Santé, du Travail et de la Protection Sociale a ajouté cette technique de soin à sa liste des technologies médicales de pointe. BE
|
|
|
|
|
|
|
|
Le staphylocoque doré est un germe bactérien, fréquemment impliqué dans les infections contractées à l'hôpital, les intoxications alimentaires et certaines lésions cutanées, figure parmi les plus redoutés du corps médical.Ce que l'on sait moins, en revanche, c'est que la dangerosité de Staphylococcus aureus est due pour partie à ses "ARN régulateurs". Une découverte qui permettra peut-être de mieux combattre ce redoutable microbe, et qui confirme avec éclat l'importance que prennent dans le champ de la biologie moléculaire ces petites séquences génétiques, quasiment inconnues il y a seulement dix ans. Les ARN, ou acides ribonucléiques, sont des molécules présentes dans tous les êtres vivants. Très proches chimiquement de l'ADN (acide désoxyribonucléique, support de l'hérédité), ils interviennent dans diverses réactions biologiques. Les cellules les utilisent notamment pour fabriquer les milliers de protéines dont elles ont besoin pour fonctionner. Plusieurs familles d'ARN interviennent dans cette fabrication : des ARN "messagers", qui font office d'intermédiaires entre les gènes et les protéines pour lesquels ils codent ; mais aussi des ARN "ribosomiques" et des ARN "de transfert". Ce sont ces différentes molécules qui ont été le plus étudiées. "La biologie moléculaire a longtemps été dominée par le dogme "un gène, une protéine". On s'intéressait avant tout à ce qui, dans le génome, correspondait à la fabrication des protéines", commente Frédérique Théry, doctorante en histoire et philosophie de la biologie. De petite taille, correspondant le plus souvent à des régions non codantes du génome, les ARN régulateurs restèrent donc longtemps ignorés des chercheurs. Jusqu'à ce que, progressivement, "l'omniprésence de ce dogme soit considérée comme un obstacle pour la progression des recherches". Au tournant de ce siècle, on commença ainsi à soupçonner que ces petits ARN avaient un rôle à jouer dans ce qui reste l'une des "boîtes noires" de la biologie moléculaire : la régulation de l'expression génétique. Autrement dit : la manière dont les gènes sont, ou ne sont pas, activés au cours de la vie cellulaire. Une machinerie extraordinairement bien rodée qui préside à chaque instant au bon fonctionnement de l'organisme, mais aussi, lors de l'embryogenèse, à son élaboration à partir de la cellule originelle. Comment agissent-ils ? Pour l'essentiel, les éclaircissements dans ce domaine restent à venir. Mais le recensement des ARN régulateurs, lui, est en pleine explosion. Chez la souris comme chez l'homme, on en a déjà répertorié plusieurs milliers, dont la fonction, pour certains, commence à être élucidée. Chez les bactéries, ils semblent intervenir sur les capacités d'adaptation à l'environnement. Ainsi pour le staphylocoque doré, dont la virulence, comme vient de le démontrer dans la revue PLoS Pathogens (juin 2010) une équipe de biochimistes français, serait fortement liée à certains de ces ARN. "Sans que l'on comprenne encore très bien comment, cet ARN est capable de reprogrammer l'expression d'une molécule qui permet au staphylocoque de déjouer certaines défenses immunitaires de l'organisme qu'il infecte", précise M. Felden. La preuve en est fournie par l'expérience suivante : il suffit d'inactiver l'expression de cet ARN chez des souris pour que celles-ci, après injection de staphylocoques dorés, continuent de se porter comme des charmes. Et, inversement, de le réactiver pour qu'elles tombent malades. Les applications de cette découverte ? Elles sont de deux ordres. Comme l'ont montré les expériences menées sur la souris, l'inactivation de l'ARN SprD - dont la "fiche d'identité" a fait l'objet d'un brevet - ouvre de nouvelles perspectives thérapeutiques contre les infections à staphylocoque doré. LM
|
|
|
|
|
|
|
|
Dans le département d'Immunologie, l'équipe du Professeur Léa Eisenbach a identifié de nouvelles séquences de peptide à partir de cancers du sein, de la prostate, et de la vessie qui pourraient être utilisées comme cible de vaccins anti-tumoraux. Le traitement local habituel tel que l'ablation chirurgicale ou l'ablation par radiothérapie est le point essentiel pour le traitement du cancer primaire. Ce traitement est curatif pour un certain pourcentage de patients. Cependant, beaucoup de tumeurs vont récidiver soit localement soit à distance. C'est pourquoi la prévention ou le traitement des métastases représente un défi majeur en oncologie clinique. Cette découverte en cours amène le système immunitaire à combattre le cancer par activation de la réponse endogène des cellules T contre les tumeurs et leurs métastases et pourrait offrir une protection à long terme contre les récidives. L'un des facteurs clé utilisé pour faciliter la réponse immunologique contre les tumeurs et leurs métastases sont des antigènes associés aux tumeurs (TAA). La plupart des TAA connus sont des épitopes de lymphocytes T cytotoxiques (CTL). Les CTL dirigés contre de tels antigènes constituent des effecteurs puissants du système immunitaire contre les tumeurs ou les agents infectieux. Des recherches cliniques ont étudié la production des réponses de ces CTL antitumoraux, par introduction de TAA spécifiques en tant que vaccins de peptides. La méthode ainsi décrite permet l'utilisation de ces vaccins pour la prévention et l'immunothérapie de différents types de tumeurs. BE
|
|
|
|
|
|
|
|
Dans la maladie de Parkinson, les symptômes moteurs sont dus à la mort de certains neurones utilisant la dopamine comme messager chimique : les neurones dopaminergiques. Ces symptômes disparaissent généralement grâce au traitement par la dopamine. Cependant, dans les formes avancées de la maladie, une résistance à ce traitement apparaît : des troubles de la marche et des chutes surviennent alors. L'hypothèse la plus probable est qu'il existe une structure non liée à la dopamine et impliquée dans le contrôle de l'équilibre. Le noyau pédonculopontin (PPN), structure cérébrale constituée en partie de neurones dont le messager chimique est l'acétylcholine (neurones cholinergiques), constituait alors un candidat potentiel pour les chercheurs. Pour déterminer son rôle dans le contrôle de la marche et de la posture, les chercheurs et cliniciens ont utilisé une approche expérimentale multidisciplinaire originale. Celle-ci combine des techniques d'IRM fonctionnelle, d'anatomie et de neurochirurgie. Sur la base d'analyses réalisées chez les sujets sains et malades, plusieurs observations ont permis de conclure à l'importance de ce noyau dans le contrôle de la marche et de la posture. Elles ont aussi permis de conforter l'hypothèse selon laquelle les troubles de la marche observés au cours de la maladie de Parkinson étaient dus à une lésion ou à un dysfonctionnement de cette petite structure cérébrale. Grâce à des études réalisées sur des sujets sains, les chercheurs ont montré que le noyau "s'active" lorsque les sujets s'imaginent marcher le long d'un couloir. Cette activation croît d'autant plus que la marche imaginaire s'accélère. Une analyse du tissu cérébral prélevé post-mortem a par ailleurs montré que seuls les patients parkinsoniens ayant souffert de troubles de la marche et de l'équilibre présentent une perte de neurones cholinergiques dans le noyau pédonculopontin. Chez des primates âgés parkinsoniens, on observe également une forte corrélation entre la perte d'équilibre et la perte de neurones cholinergiques du noyau. Enfin, les chercheurs ont prouvé que la lésion expérimentale des neurones cholinergiques dans cette structure conduit à des troubles de la marche et des déficits posturaux. "Ces résultats sont très prometteurs et constituent une nouvelle piste de recherche pour développer des stratégies thérapeutiques différentes. Par exemple, chez les patients parkinsoniens à un stade avancé de la maladie, on peut imaginer stimuler les neurones cholinergiques au niveau du tronc cérébral pour améliorer de façon efficace leurs troubles de l'équilibre" concluent Chantal François et Etienne Hirsch. MS
|
|
|
|
|
|
|
|
Près d'un siècle après sa découverte, dans les années 1930, la vitamine D n'en finit plus de dévoiler ses bienfaits. Derniers en date : deux études publiées cette semaine mettent en relief son rôle possible dans la prévention de pathologies neurodégénératives comme la maladie de Parkinson et celle d'Alzheimer. Ces résultats sont d'autant plus intéressants que les déficits, voire les véritables carences en cette vitamine sont fréquents dans l'hémisphère Nord. En France, la proportion est estimée à 30 % parmi les adultes vivant au nord de Paris. Elle grimpe à 50 % chez les femmes ménopausées, 75 % en cas d'ostéoporose et presque 100 % chez les personnes âgées vivant en institution. Dans le monde, un milliard d'individus seraient concernés. David Llewellyn, de l'université d'Exeter (Royaume-Uni), et ses collègues américains et italiens ont exploré les liens entre taux de vitamine D dans le sang et déclin cognitif chez 858 Italiens de plus de 65 ans. L'évolution de leurs performances intellectuelles a été suivie par trois tests dont le classique MMSE (Mini mental state evaluation ), qui évalue l'orientation temporo-spatiale, l'apprentissage, la mémoire, l'attention, le calcul... Au terme des six ans d'étude, les individus, avec un déficit sévère en vitamine D (taux sanguin inférieur à 25 nanomoles par litre -nmol/l), avaient un risque multiplié par 1,6 d'avoir une détérioration de leur score au MMSE, par rapport à ceux dont le taux était normal (soit 75 nmol/l). Les autres tests dont celui de «flexibilité mentale» étaient aussi perturbés, à un moindre degré, dans la population carencée. «Les déficits en vitamine D sont une cible thérapeutique très prometteuse pour la prévention des démences (maladie d'Alzheimer, NDLR), estime le Dr Llewellyn, premier auteur. D'autant que cette supplémentation est peu onéreuse, sans danger et qu'elle a déjà montré ses bénéfices pour réduire le risque de chutes, fractures et décès. » Pour ces chercheurs, il y a urgence à mener de nouvelles recherches dans ce domaine, compte tenu de l'épidémie annoncée de maladie d'Alzheimer. Dans le monde, environ 35 millions de personnes en sont atteintes (dont plus de 800.000 en France), un chiffre qui devrait quasiment doubler d'ici à 2030. «C'est la première étude prospective sur le sujet et c'est intéressant», confirme le Pr Jean-Marc Orgogozo (neurologue, CHU de Bordeaux). Toutefois, tempère ce spécialiste de la maladie d'Alzheimer, «il s'agit d'une cohorte modeste et le suivi, six ans, n'est pas très long. Ces résultats doivent être confirmés, ce qui ne devrait pas être difficile avec les cohortes en cours». Parallèlement, des auteurs finlandais viennent de publier dans Archives of Neurology une vaste étude d'observation sur les relations entre niveau de vitamine D et maladie de Parkinson. Dans leur pays où l'exposition au soleil est réduite, et les déficits en vitamine D fréquents, le Dr Paul Knekt et son équipe ont recruté à la fin des années 1970 plus de 3000 personnes âgées de 50 à 79 ans. Toutes étaient au départ indemnes de Parkinson. La cohorte a ensuite été suivie pendant près de trente ans. Au final, indépendamment des autres facteurs, le nombre de patients ayant déclaré un Parkinson était trois fois plus élevé dans le groupe avec les taux sanguins les plus bas de vitamine D que dans celui avec le taux le plus élevé. Figaro
|
|
|
|
|
|
|
|
Vous êtes à moitié endormi sur une chaise longue, un journal est posé sur votre jambe. Soudain, une mouche atterrit sur votre bras. Vous attrapez le journal pour écraser l'insecte. Que s'est-il passé dans votre cerveau à l'arrivée de la mouche ? Pendant longtemps, les neuroscientifiques ont cru que l'activité cérébrale d'un sujet endormi n'était rien d'autre qu'un bruit de fond, à l'instar de la « neige » qui emplit un écran de télévision à l'arrêt des programmes. Au moment où la mouche se pose sur le bras du dormeur, le cerveau concentrerait son énergie avec un objectif : écraser l'insecte. Mais de récentes données en neuro-imagerie ont révélé que le cerveau d'une personne au repos reste actif. Quand on est au repos - quand on somnole, durant le sommeil ou une anesthésie - certaines régions cérébrales continuent à communiquer. Et l'énergie consommée par cette messagerie active - c'est le mode cérébral par défaut - est à peu près 20 fois supérieure à celle utilisée par le cerveau lorsqu'il réagit consciemment à une mouche. La plupart de nos actes - s'asseoir ou prononcer un discours - interrompent le mode par défaut du cerveau. La découverte d'un nouveau système cérébral, le réseau du mode par défaut, a permis de préciser le fonctionnement du cerveau au repos. On ignore encore le rôle exact de ce réseau dans l'organisation de l'activité cérébrale, mais on pense qu'il orchestre la façon dont le cerveau organise les souvenirs et coordonne les systèmes cérébraux qui participent à la programmation des tâches. PLS
|
|
^ Haut |
|
|
|
|
|
VOTRE INSCRIPTION |
|
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
|
|
|
|
|
|