RTFlash

RTFLASH Recherche & Technologie
NUMERO 357
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 18 Octobre 2005
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
Japon : Nortel, Softbank et LG expérimentent les futurs réseaux mobiles
Japon : une caméra reconnaît le sexe et l'âge de la personne filmée
Tous les passeports américains doivent être munis d'une puce RFID
De nouveaux systèmes de traduction pour surmonter la barrière de la langue
Avenir
Corée : un robot dans chaque foyer en 2020 !
Des robots assistent désormais les agents de sécurité
Matière
Les nanostructures vont faire exploser la capacité des disques durs
La première nano-voiture
Une nouvelle pile à combustible
Espace
Pluton posséderait trois lunes et non une seule
Terre
L'Europe face aux conséquences du réchauffement
Faut-il enfouir le CO2 ?
Vivant
La première carte des variations génétiques humaines ouvre la voie à des médicaments « sur mesure »
La nouvelle technique génétique inversée permet de produire très rapidement des vaccins anti-grippe
Au commencement était le gène HIRA...
Le gène responsable d'une myopathie congénitale a été identifié
Le cancer du côlon identifiable dans le sang
Le diabète augmente les risques de cancer colorectal
Mesurer une enzyme dans l'urine permet de détecter le cancer de la vessie
Tumeurs cérébrales : l'espoir des nanoparticules
Des progrès majeurs en matière de vaccin dès 2006
Les puces médicales se glissent dans le corps
La marche à pied aussi bénéfique pour le coeur que la course
Des neuropuces pour percer à jour la maladie d'Alzheimer
Homme
Microsoft sort des versions Live de Windows et Office, accessibles en ligne
Les collectivités locales européennes adoptent l'open source
Recherche
L'envolée du prix du pétrole relance la voiture électrique
Edito
Les nouvelles technologies de l'information vont transformer nos démocraties



L'Estonie, décidemment à la pointe des technologies de l'information, a encore innové au niveau européen en lançant le vote par Internet pour tous, à l'occasion des récentes élections municipales. A l'occasion de ce scrutin local, les électeurs estoniens dans tout le pays ont eu la possibilité de voter avec leur ordinateur de chez eux ou bien de leur bureau. Pour voter, il faut se connecter à un site Internet sécurisé et utiliser sa carte d'identité électronique que l'on introduit dans un lecteur de carte.

Quelque 60 % des 1,33 millions d'Estoniens ont une carte d'identité électronique, munie d'une puce et d'un code secret comme une carte bancaire. L'Estonie est désormais l'un des pays les plus avancés dans l'utilisation au quotidien des hautes technologies dans l'Union européenne. A Tallinn, la majorité des automobilistes n'utilisent plus de pièces pour régler leur stationnement. Ils paient directement par SMS avec leur téléphone mobile. Prochaine étape : la généralisation du vote en ligne pour les prochaines élections législatives prévues en 2007.

Plus près de nous, nos voisins suisses sont aussi des pionniers du vote par Internet dans leurs scrutins locaux. Deux cantons, Genève et Neuchâtel, ont lancé des expériences pilotes pour permettre aux électeurs qui le souhaitent de répondre "oui" ou "non" aux innombrables questions qui leur sont posées par référendum plusieurs fois par an. La petite commune d'Anières, près de Genève, a ouvert la voie en janvier 2003 avec une "votation" sur la nécessité ou non de rénover un bâtiment public : gros succès pour l'Internet qui a alors été choisi par 44 % des électeurs. Depuis, sur les huit scrutins qui ont suivi dans les 14 communes qui ont tenté l'expérience, l'Internet a été choisi par 20 % à 25 % des électeurs", selon un responsable du gouvernement genevois. L'ouverture des scrutins à l'Internet permet de stimuler la participation, si l'on en croit les résultats du référendum du 25 septembre 2005, dans le canton de Neuchâtel. Celui-ci s'est livré à une première expérience de "cybervote" auprès de 1.732 électeurs : 68 % des inscrits ont voté, contre 60 % pour la moyenne cantonale. Cette expérimentation a confirmé que le vote en ligne permettait de soutenir la participation électorale en ranimant l'intérêt des jeunes pour la politique.

Sur le plan pratique, le vote en ligne est simple : l'électeur reçoit par courrier papier un code d'accès qui lui permet de valider son vote à l'aide de son ordinateur. La confidentialité est totale, les données étant cryptées d'un bout à l'autre de la ligne. Dans les communes genevoises ouvertes au vote électronique, le cybervote est le premier choix des moins de 50 ans, devant le vote par correspondance, possible dans les trois semaines qui précèdent le scrutin, et le déplacement aux urnes. Autre constatation remarquable, ceux qui ont essayé une fois le vote par Internet y restent fidèles à plus de 90 % pour les consultations suivantes.

Mais nos voisins helvètes, s'appuyant sur leur pratique multiséculaire de la démocratie directe, ne comptent pas s'arrêter en si bon chemin et s'apprêtent à tester le vote par SMS en première mondiale. Trois communes de Zurich vont tester le vote par voie de SMS sur téléphone portable lors des votations du 27 novembre 2005. Concrètement, les électeurs concernés reçoivent un code confidentiel par courrier, en même temps que leur carte de légitimation. Un code qu'ils envoient par SMS, à un numéro défini, depuis leur téléphone portable. Puis ils introduisent un chiffre correspondant à leur choix (oui ou non) sur les objets de votations. Une expérience de ce genre a déjà été menée à l'Université de Zurich, et le système a été testé plusieurs fois lors de votations fictives.

Le Conseil fédéral a approuvé en octobre 2005 la série d'essais pilotes de votes électroniques, qui incluent le téléphone portable comme instrument de vote. Les artisans de ces projets perçoivent un véritable avenir pour ce système de vote par Internet et par SMS sur téléphonie mobile : «Plus de 90 % des 15-65 ans ont un téléphone portable en Suisse et plus de 60 % des personnes au-delà de 65 ans. Les autorités suisses sont donc persuadées que le vote par SMS possède un immense potentiel, et pourrait même détrôner à terme le vote par l'Internet en raison de sa facilité et de sa souplesse de mise en oeuvre.

En France, à l'occasion du référendum sur le traité pour une Constitution européenne, le 29 mai dernier, le vote électronique, autorisé depuis juin 2004, a gagné 837 bureaux de votes, sur les 64.700 bureaux de vote français et une soixantaine de villes ont utilisé des machines à voter à l'occasion du référendum, contre 18 en juin 2004. Mais le vote en ligne ou par SMS restent, pour leur part, exceptionnels dans notre pays, car ils se heurtent encore au problème clé de la sécurisation du scrutin. Pourtant, ces deux nouveaux moyens de voter sont les seuls qui permettent aux électeurs de voter sans se déplacer jusqu'au bureau de vote, ce qui constitue une puissante incitation à la participation électorale.

Au regard des expérimentations très concluantes chez nos voisins européens, notre pays devrait se donner les moyens de mettre en oeuvre rapidement, pour l'ensemble des scrutins, le vote en ligne et le vote par SMS afin de ne pas rater le train de la démocratie électronique qui va profondément transformer le fonctionnement et même la nature de nos démocraties en y introduisant une dimension réticulaire et interactive et en offrant de nouveaux modes d'expression démocratique. Souhaitons que notre pays prenne toute la mesure de cette mutation techno-politique historique et en accélère l'avènement afin d'inciter tous nos concitoyens à s'impliquer dans la vie politique et de les réconcilier avec leur démocratie.

René Trégouët

Sénateur honoraire

Fondateur du Groupe de Prospective du Sénat


TIC
Information et Communication
Japon : Nortel, Softbank et LG expérimentent les futurs réseaux mobiles
Mercredi, 19/10/2005 - 00:00

Le groupe de services Internet japonais Softbank, l'équipementier canadien Nortel et le géant de l'électronique sud-coréen LG Electronics ont annoncé avoir réalisé au Japon une expérimentation de télécommunications mobiles WiMax/HSDPA préfigurant la 3e génération enrichie. Les trois sociétés ont réalisé un test qui permet à un terminal mobile de dialoguer avec différents types de réseaux sans fil (WiMax et HSDPA) et de bénéficier d'un débit plus rapide que les réseaux de troisième génération aujourd'hui déployés.

Le test a permis de valider la possibilité de transmettre simultanément plusieurs types de contenus à haut débit (voix sur protocole internet - VoIP-, vidéo, audio et autres services multimédias) et de passer d'un type de réseau à l'autre avec un même terminal, ont affirmé les trois sociétés dans un communiqué conjoint. Softbank qui est candidat à l'obtention d'une licence pour proposer des services de télécommunications mobiles au Japon à partir de 2007, bénéficie actuellement d'une autorisation pour des essais techniques.

Wanadoo

Japon : une caméra reconnaît le sexe et l'âge de la personne filmée
Mercredi, 19/10/2005 - 00:00

Le constructeur japonais de motos Yamaha Motor a dévoilé une caméra vidéo capable de reconnaître automatiquement le sexe de la personne filmée et de la classer parmi cinq tranches d'âge. "Ce système est parfaitement adapté au marketing", car il permettra par exemple de déterminer avec précision quel type de client fréquente un magasin, a expliqué Makoto Yoshida, chef de la division recherche avancée de Yamaha.

L'entreprise nippone a conçu ce système à partir d'une base de données composée de 10.000 portraits d'hommes et de femmes. Selon Yamaha, la caméra reconnaît dans 88 % des cas le sexe de la personne filmée (soit environ le même pourcentage que l'oeil humain, affirme le groupe), et sa tranche d'âge exacte dans 77 % des cas.

Wanadoo

Tous les passeports américains doivent être munis d'une puce RFID
Mercredi, 19/10/2005 - 00:00

Le gouvernement américain a annoncé qu'à partir d'octobre 2005, tous les nouveaux passeports américains doivent être dotés d'une puce à identifiant radio RFID et d'une technologie de reconnaissance faciale. Ces "e-passeports", également appelés "passeports intelligents" aideront à lutter contre leur vol et leur falsification. Mais aussi à accélérer les contrôles d'identité aux aéroports et aux frontières.

La puce, d'une épaisseur inférieure à celle d'un cheveu, est insérée dans la couverture de chaque passeport. Avec une capacité de mémoire de 65 Ko, elle peut stocker des données telles que le nom, la date, le lieu de naissance et une photo numérique. Lorsqu'une personne présente le document à la douane, ces données sont transmises immédiatement à l'officier de contrôle grâce à un scanner situé à proximité. Cette puce, d'une durée de vie de 10 ans, intègre une signature numérique et une technologie de chiffrement. Par ailleurs, ces passeports doivent s'insérer dans un programme de plus grande envergure qui permettra d'établir une comparaison entre le visage d'une personne et les données contenues dans la puce RFID. Le département d'État souhaite également, à terme, voir l'intégration de données biométriques, telles que des empreintes digitales ou iridiennes

WP

De nouveaux systèmes de traduction pour surmonter la barrière de la langue
Mercredi, 19/10/2005 - 00:00

Faire tomber la barrière de la langue. Ce sera peut-être un jour possible grâce à un système sur lequel travaillent des chercheurs, qui permettrait d'utiliser l'ordinateur comme interprète en temps réel entre deux personnes qui autrement n'arriveraient pas à se comprendre. Cette technologie pourrait être utilisée par exemple par un anglophone voulant parler à un collègue hispanophone. Il lui suffirait d'articuler les mots en anglais, sans avoir à émettre un seul son, pour qu'ils apparaissent immédiatement en espagnol sur l'écran d'ordinateur de son interlocuteur. Les chercheurs qui travaillent sur ce projet futuriste espèrent qu'il deviendra un jour réalité. Leur but est d'améliorer la traduction du discours humain via l'informatique.

En attendant, le Centre international pour les technologies avancées des communications, dirigé conjointement par l'université Carnegie Mellon de Pittsburgh et l'université de Karlsruhe en Allemagne, a dévoilé un système informatique de traduction instantanée. Le directeur du centre, Alexander Waibel, a donné une conférence en anglais, qui a été traduite de manière simultanée en allemand et en espagnol. "Nous nous mondialisons de plus en plus. Il y a des groupes culturels multiples qui parlent des langues différentes. Nous voulons que tout le monde travaille ensemble mais que chacun garde son individualité", a-t-il expliqué.

M. Waibel a montré de nouveaux moyens de traduction rompant avec les écouteurs traditionnels dans lesquels on peut entendre un interprète simultané. Les chercheurs ont par exemple exhibé de grosses lunettes qui affichent une traduction sur un petit écran et un système de haut-parleurs par ultrason donnant la traduction en langue étrangère à une personne pendant que le reste de l'assistance écoute le discours dans sa version originale. L'étudiant en doctorat Stan Jou a fait une démonstration sur un dispositif semblant sortir d'un film de science-fiction. Alors qu'il s'exprimait en mandarin, 11 électrodes sur son visage et sa gorge captant ses paroles et les mouvements de ses muscles ont permis de traduire rapidement ses propos en anglais et en espagnol.

Dans un avenir hypothétique, MM. Jou et Waibel croient qu'un jour les humains auront peut-être des implants dans le visage et la gorge leur permettant de parler des langues étrangères. Les appareils de traduction actuels peuvent servir dans des situations limitées, par exemple pour réserver une chambre dans un hôtel. "Si je vais à Pékin, je peux descendre au Hilton sans aucun problème", souligne Stephan Vogel, un chercheur de Carnegie Mellon, qui a présenté un assistant personnel numérique (PDA) doté d'un logiciel de traduction. Il a ainsi parlé en anglais dans le PDA, qui a traduit ses paroles dans la langue choisie, en l'occurrence le thaï.

AP

^ Haut
Avenir
Nanotechnologies et Robotique
Corée : un robot dans chaque foyer en 2020 !
Mercredi, 19/10/2005 - 00:00

Dés 2006, les Coréens pourront acheter des robots domestiques à des prix raisonnables allant de 1.000 à 2.000 dollars vient d'annoncer le Ministère de l'Information coréen. Celui-ci précise que ces prix modiques peuvent être obtenus parce que la plupart des logiciels utilisés par ces robots n'est pas intégré aux machines mais téléchargé à la demande via des réseaux numériques à très haut débit.

Les robots proposés offriront diverses applications telles que le ménage, la surveillance médicale et domestique ou la fonction de gardes d'enfants. La Corée s'est fixée comme ambition de devenir l'un des trois principaux constructeurs de robots de service d'ici 2010 et le Gouvernement coréen souhaite que chaque foyer puisse disposer d'un robot domestique en 2020. Les autorités coréennes prévoient un marché mondial des robots de service de l'ordre de 300 milliards de dollars par an en 2015 et elles comptent bien se tailler une part importante de ce marché prometteur. S'appuyant sur ces réseaux à très haut débit, qui desservent 12 des 15,5 millions de foyers coréens, le Gouvernement coréen a adopté une stratégie qui consiste à fabriquer des robots spécialisées "monotâche" dont les logiciels d'exploitation sont externalisés, ce qui permet une baisse considérable des coûts de production et des prix de vente pour le consommateur.

KT

Des robots assistent désormais les agents de sécurité
Mercredi, 19/10/2005 - 00:00

Des robots qui travaillent activement... Cela semble réservé à un futur lointain, mais pourtant c'est déjà une réalité chez Group 4 Securicor dont les robots de sécurité ont fait sensation au salon de l'innovation qui vient de se dérouler à Bruxelles ! En effet, l'entreprise utilise désormais des robots pour assister ses agents de sécurité dans leur mission de surveillance ce qui constitue une grande première en Belgique. Cette solution totalement novatrice et unique combine donc l'aspect humain (agent de sécurité) à l'aspect technologique (robot de surveillance électronique et mobile). Ainsi, la protection des personnes et des biens est renforcée et les interventions sont plus rapides. Les robots 'Robowatch' peuvent être utilisés dans diverses situations telles que les missions temporaires pour lesquelles aucune surveillance électronique n'est prévue ou la surveillance d'endroits où la présence de l'homme n'est pas souhaitée (zones protégées). Il existe deux types de robots : l'un pour l'intérieur des bâtiments et l'autre pour l'extérieur.

Les robots "Robowatch" patrouillent de manière autonome et sont équipés des systèmes de surveillance les plus pointus. Près de la caméra et des détecteurs de mouvements peuvent également être placés un microphone et des systèmes de détection de gaz ainsi que de nombreux autres systèmes de mesure. Lorsque le robot repère quelque chose de suspect, il donne l'alarme et avise immédiatement le poste de contrôle ou l'agent de surveillance également présent sur le site.

Les robots "MOSRO" peuvent pour leur part aussi bien protéger les personnes que l'intérieur des propriétés. Ce robot est muni d'un système de surveillance par caméra mais il peut également être pourvu d'une série d'autres capteurs tels que les détecteurs de son, de température, d'humidité et de gaz. MOSRO suit en permanence le trajet préprogrammé et donne l'alarme dès qu'il constate une situation suspecte. Grâce à un système de reconnaissance d'empreintes digitales, MOSRO est également en mesure d'identifier les personnes autorisées. MOSRO pèse 25 kilos et peut travailler de manière autonome pendant 14 heures. Il se déplace à une vitesse de 4km/h.

G4S

Figaro

^ Haut
Matière
Matière et Energie
Les nanostructures vont faire exploser la capacité des disques durs
Mercredi, 19/10/2005 - 00:00

Aujourd'hui, la microélectronique peine à répondre aux besoins incessants de la société en terme de miniaturisation et d'augmentation de la capacité de stockage de l'information. Dans le futur, seule la nanoélectronique en sera capable. Cependant, elle nécessite de maîtriser la matière et ses propriétés physiques (magnétiques, électriques, optiques...) à l'échelle du nanomètre. Dans cette perspective, des chercheurs du CNRS et de l'Université Paris 7, en collaboration avec une équipe de l'Ecole polytechnique fédérale de Lausanne, viennent de démontrer les possibilités offertes par une nouvelle approche : l'auto-assemblage.

En travaillant sous vide et en se plaçant à une température donnée (-143°C), les chercheurs ont déposé des atomes de cobalt (qui se sont condensés à partir d'une phase gazeuse) sur des surfaces d'or cristallines. Les atomes de ces surfaces étant rangés selon un réseau régulier, les plots de quelques centaines d'atomes ainsi obtenus forment eux-mêmes un réseau régulier. Cette technique d'auto-assemblage consiste donc à laisser la nature fabriquer des nanostructures. Elle est également qualifiée de « bottom-up » (on part du « bas », c'est-à-dire de l'échelle nanométrique, pour obtenir « plus haut » des propriétés intéressantes à l'échelle macroscopique).

Comme les atomes déposés sont magnétiques, on obtient des réseaux de nanostructures qui repoussent les limites de la densité de stockage de l'information, telle qu'elle existe dans les disques durs. Actuellement, l'information est stockée dans une couche mince, constituée de petits grains d'un alliage à base de cobalt. Un bit occupe 1000 grains. Avec les réseaux de nanostructures magnétiques, on pourrait stocker un bit sur un seul grain. L'uniformité des propriétés magnétiques des plots et les couplages négligeables entre plots voisins permettent d'envisager l'écriture et la lecture d'un bit par plot. La densité des plots, de 4 000 milliards de bits par centimètre carré, représenterait un gain d'un facteur 200 par rapport aux densités d'enregistrement des meilleurs disques durs en démonstration actuellement (ce gain tient compte de l'espace entre les plots et de la taille des grains).

CNRS

La première nano-voiture
Mercredi, 19/10/2005 - 00:00

Construire le véhicule a déjà été une sacrée paire de manches. Plusieurs années de recherches ont été nécessaires pour parvenir à attacher les roues sans détruire le châssis. Démontrer que ce véhicule se déplace en roulant n'a pas non plus été une mince affaire. Et pour cause : cette voiture ne mesure que 3 nanomètres sur 4 alors qu'un cheveu humain mesure environ 80.000 nanomètres de diamètre. Les chercheurs de la Rice University (Houston, USA) affirment pourtant être parvenus à leur but : ils ont construit une nano-voiture qui roule. Le véhicule est réduit à sa plus simple expression : un H équipé de quatre fullerènes, des molécules de carbone sphériques composées de 60 atomes (C60).

Restait à s'assurer que l'ensemble ne se déplaçait pas en glissant sur une surface mais bien en roulant. Autrement dit dans une direction perpendiculaire à l'axe des roues -les fullerènes. Le ''constructeur'' James Tour a fait appel à un collègue, Kevin Kelly, spécialiste de la microscopie à effet tunnel, pour observer le comportement du nano-véhicule. Celui-ci était posé sur de l'or. A la température de 200°C les roues n'étaient plus liées à la surface et pouvaient se déplacer librement, explique Kelly, et les chercheurs ont pu étudier l'axe de déplacement du véhicule. Son mouvement correspond bien à une rotation des roues, se félicitent les chercheurs, qui publient ces travaux dans les Nano Letters.

NL

Une nouvelle pile à combustible
Mercredi, 19/10/2005 - 00:00

Une entreprise, ITM Power, située dans le comté de Cambridge, vient de créer une nouvelle membrane pour les piles à combustible PEMFC (Proton Exchange Membrane fuel Cell). Ces piles, fonctionnant au méthanol, utilisaient comme membrane du Nafion, qui coûte environ 500 dollars (environ 400 euros) par mètre carré. Cependant, ITM Power a développé une membrane à base de polymère d'hydrocarbure, qui en plus d'avoir une conductivité ionique trois fois supérieure au Nafion, coûte seulement 5 dollars (environ 4 euros) par mètre carré. En outre, cette nouvelle membrane diminue les fuites transmembranaires de méthanol. Elle va permettre aux piles d'utiliser un milieu alcalin, qui produit une activité catalytique supérieure au milieu acide employé habituellement. Le platine pourra ainsi être remplacé par du palladium en tant que catalyseur du côté du combustible, ce qui entraînera une diminution du prix de 25 %. Cette pile, à la différence des piles à combustible conventionnelles, utilise deux liquides et ne nécessite pas d'air.

Le combustible employé est une solution de borohydrure de sodium, qui transporte 50 % d'énergie en plus par kilogramme que le méthanol, et l'oxydant est du peroxyde d'hydrogène. Le fait que l'oxydant soit liquide permet d'ajuster des paramètres tels que l'hydratation, le pH et la conductivité ionique.

Les piles sont produites en utilisant le procédé "one-stop" d'ITM : les liquides sont versés dans un moule contenant la membrane et le catalyseur, puis l'ensemble est introduit dans une chambre à rayonnement gamma, ou les liquides se gélifient et restent élastiques. Ces piles sont moulées dans différentes formes et peuvent se courber pour s'adapter à n'importe quelle configuration, contrairement aux systèmes conventionnels. Ainsi le système peut être utilisé par les services d'urgences car il n'émet ni CO2 ni fumée contrairement aux piles classiques. Comme elle est complètement hermétique, son usage peut être élargi pour des applications sous-marines et aéronautiques. D'après le Président d'ITM Power, Jim Heathcote, cet appareil peut produire continuellement 20 W de puissance pendant plus de trois jours, ce qui est le standard minimum pour les armées britannique et américaine. Ce système annonce peut-être l'ère des piles à combustible accessibles à tous car économiquement viables. "C'est un changement fondamental dans la conception des piles à combustible" estime le président Heathcote.

AI

^ Haut
Espace
Espace et Cosmologie
Pluton posséderait trois lunes et non une seule
Mercredi, 19/10/2005 - 00:00

Pluton est doté de trois lunes, et non une seule, d'après les images enregistrées en mai 2005 par le télescope spatial Hubble. Ces lunes se trouvent plus de deux fois plus loin que Charon, la première lune de Pluton détectée en 1978. Ces observations doivent encore être confirmées, mais les membres de l'équipe qui a détecté les satellites se montraient confiants. "Pluton et Charon ne sont pas seuls, ils ont deux voisins", a ainsi affirmé Hal Weaver, du laboratoire de physique appliquée de l'Université Johns Hopkins. S'il a raison, et on devrait le savoir en février 2006, l'Union astronomique internationale devra réfléchir aux noms de ces nouvelles lunes.

Récemment, un autre groupe d'astronomes de l'Institut californien de technologie (Caltech), qui dit avoir découvert la dixième planète du système solaire, a ajouté que ce corps possédait une lune. La découverte d'une nouvelle planète par ces chercheurs n'a pas été confirmée. Pluton et la nouvelle planète présumée se trouvent dans la ceinture de Kuiper, une sorte de disque composé de corps glacés et situé au-delà de Neptune.

Environ un cinquième des objets observés dans cette région se sont avéré posséder des satellites, et cette proportion pourrait augmenter au fur et à mesure des découvertes, selon Keith Noll, astronome au Space Telescope Science Institute de Baltimore, institut qui coordonne l'utilisation du télescope orbital Hubble. Keith Noll, qui ne faisait pas partie de l'équipe s'occupant de Pluton, juge les conclusions de cette équipe convaincantes. Pluton, a souligné Hal Weaver, serait le premier objet de la ceinture de Kuiper à posséder de multiples satellites. Ces deux nouvelles lunes présentent un diamètre de 50 à 160 km, a-t-il précisé. Cette zone de Kuiper, en forme d'anneau, est sans doute composée de plus de 35 000 objets de plus de 100 km de diamètre, certainement des ultimes vestiges du disque à l'origine du système solaire.

RC

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
L'Europe face aux conséquences du réchauffement
Mercredi, 19/10/2005 - 00:00

Le dernier rapport de l'IPCC (Groupe intergouvernemental sur l'évolution du climat) date de 2001. Il présentait plusieurs scénarios de réchauffement de la planète (entre une augmentation moyenne minimale de 1,4°C d'ici à 2100 et un maximum de 5,8°C), l'écart étant lié aux différentes politiques énergétiques pouvant être choisies au cours des prochaines décennies. Mais il ne disait rien sur les conséquences que ces changements pourraient avoir sur les écosystèmes à une échelle régionale.

Pour essayer d'y voir plus clair, la Commission européenne a financé un programme de recherche baptisé Ateam. Lancé il y a quatre ans, pour un montant total de 3 millions d'euros, ce programme a donné lieu à un rapport confidentiel remis en juin 2005 à la Commission et à toute une série de publications scientifiques. Son objectif : étudier l'impact du réchauffement sur les «services» que les écosystèmes apportent à la population européenne, un vaste domaine couvrant l'agriculture, l'eau, la forêt, le tourisme, les parcs naturels, etc. «C'est la première fois qu'on quantifie les vecteurs de changements sociopolitiques et les différents scénarios de réchauffement climatique en les couplant et en essayant d'explorer leurs conséquences», souligne Mark Rounsevel, de l'université de Louvain-la-Neuve (Belgique).

Une synthèse de ce travail vient d'être publiée. Sa principale leçon, c'est que les choix politiques ont plus d'influence que le changement climatique lui-même. C'est surtout vrai pour l'utilisation des sols (forêt, agriculture, conservation, etc.). C'est moins vrai par contre pour les modifications de la végétation forestière. Mais, là aussi, l'intervention humaine peut limiter fortement les changements.

Selon cette étude, l'Europe pourrait gagner de 2,1ºC à 4,4ºC de température moyenne d'ici à 2080. Cette augmentation de température, associée au changement de nature des sols, pourrait provoquer une baisse de 6,4 % (scénario B2) à 10,7 % (scénario A1) de la superficie de terres cultivables. De même pour les prairies et les herbages nécessaires à l'élevage : leur surface totale pourrait fondre de 6,7 % à 10,2 %. Au contraire, les forêts seraient globalement favorisées avec une croissance potentielle de 0,7 % à 5,6 %.

La perte de biodiversité serait importante sur l'ensemble du continent. Et les modèles numériques des chercheurs montrent que cet impact est particulièrement sensible aux choix économiques qui se nouent actuellement. "L'exemple le plus frappant est celui du noisetier, illustre Mme Lavorel. Dans le cas d'un modèle de développement A1, il disparaît de France, alors que dans le scénario B2, on ne le perd que sur le pourtour méditerranéen." La tendance à la hausse de la température moyenne serait particulièrement marquée en Europe du Nord, où certaines régions pourraient connaître des hausses de près de 6ºC, dans le cas du pire scénario.

Tous les scénarios prévoient que les précipitations vont diminuer dans le sud et augmenter dans le nord de l'Europe. Le réchauffement pourrait contribuer à une augmentation de la production forestière (le CO2 dope la végétation des arbres), accentuée encore par l'abandon de terres cultivées. Mais deux grandes régions devraient être pénalisées par le réchauffement. La zone méditerranéenne devrait connaître une diminution des précipitations avec deux conséquences majeures : une augmentation des risques d'incendie et une pénurie d'eau accentuée par la pression touristique. Dans les régions de montagne, la limite inférieure de la neige devrait grimper de 300 mètres, ce qui pourrait provoquer des inondations en hiver et réduire la surface des zones skiables de près de 60 %.

CNRS

Science

BBC

Faut-il enfouir le CO2 ?
Mercredi, 19/10/2005 - 00:00

Fuite en avant technologique ou bouée de sauvetage pour un climat en perdition ? En tous cas, l'idée d'ensevelir sous des couches géologiques étanches une partie du CO2 que nous émettons, afin de l'empêcher de perturber le climat, fait l'objet depuis environ une décennie d'une recherche fiévreuse.

Rappelons l'enjeu : les scientifiques estiment qu'il faut, au niveau de la planète, diviser par deux nos émissions de gaz à effet de serre dans les 50 années à venir, pour maintenir le changement climatique dans des limites gérables. Ce qui, pour respecter l'équité internationale, signifie que les pays développés devraient pour leur part les diviser par quatre, un objectif auquel les autorités françaises souscrivent officiellement. Or les 5000 plus grosses centrales thermiques de la planète, auxquelles il faut adjoindre quelque 2000 cimenteries, aciéries et raffineries émettent plus de 13 milliards de tonnes de CO2 par an, sur un total d'environ 30 imputables à l'homme. Autrement dit ces installations géantes sont responsables de près de la moitié des émissions humaines. Elles constituent donc une cible privilégiée pour cette technologie de la CSC.

La capture et le stockage du carbone (CSC), comme son nom l'indique, est en fait une fusée à deux étages. Le premier, celui de la capture, consiste à séparer le CO2 du reste des gaz émis par la combustion (principalement de l'azote). Il existe plusieurs techniques de séparation qui en sont d'ores et déjà au stade commercial, bien qu'il faille les adapter plus précisément au contexte particulier des centrales thermiques (et notamment aux énormes volumes en jeu).

Une fois le gaz carbonique capturé, il reste à réussir l'étape de la séquestration. Les géologues ont plusieurs solutions à ce problème. Ils estiment qu'il y a sur la planète suffisamment de sites pour accueillir environ 2000 Gt (milliards de tonnes) de CO2, alors que nos émissions actuelles sont d'environ 30 Gt par an. Mais ces sites ne correspondent que partiellement, sur le plan géographique, aux principales zones d'émission (Amérique du Nord, Europe, Asie du sud-est), et certains sont d'un accès difficile, par exemple en off shore. Il faudra donc sans doute envisager des réseaux de transport de CO2 qui augmenteront le prix.

Le prix est une des clés de ce dossier. Enfouir le carbone contenu dans un baril de pétrole, dans l'état actuel de la technique, augmente son prix de 20 à 30 dollars, selon la technique utilisée, le type de stockage, l'industrie émettrice... Relativement à un baril à 60 dollars (valeur approximative actuelle), ces 20 dollars pèsent moins lourd qu'il y a seulement trois ans, où le baril n'atteignait pas 30 dollars. Mais ils suffisent à gravement pénaliser la technique dans un contexte de libre concurrence. Car quelle compagnie d'électricité accepterait de s'équiper d'un tel système si ses compétiteurs sont libres de s'en dispenser ? En dehors d'une régulation par les Etats, définissant des règles communes pour tous, les projets risquent donc de ne jamais sortir des cartons.

Même si la capture et le stockage du carbone se généralisent dans les décennies à venir, nous n'en aurons pas pour autant fini avec le réchauffement climatique. Cette technologie pourrait raisonnablement permettre d'atteindre 15 % de l'objectif de réduction de nos émissions de gaz à effet de serre à l'horizon 2050, et seulement à condition qu'un effort d'investissement très important soit réalisé, soit plusieurs centaines, voire milliers d'installations. 15 %, c'est à la fois beaucoup (cela représente trois fois les bénéfices attendus du protocole de Kyoto), et très insuffisant. Il faudra donc puiser abondamment dans le reste de l'arsenal anti-réchauffement, et définir des choix dans le cocktail d'options défendues par les experts et les politiques (énergies renouvelables, nucléaire, économies d'énergie, changements de mode de vie...). Avec pour seule certitude... la nécessité d'agir vite.

SA

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
La première carte des variations génétiques humaines ouvre la voie à des médicaments « sur mesure »
Mercredi, 19/10/2005 - 00:00

Après le séquençage complet du génome, achevé en 2001, un groupe de plus de deux cents chercheurs américains, canadiens, chinois, japonais, anglais et nigérians, du public et du privé, réunis au sein du projet HapMap, vient de publier, trois ans après le début de ses travaux, dans la revue britannique Nature (1), une carte précise des variations génétiques humaines. Selon les biologistes, elle pourrait faire gagner énormément de temps - et d'argent -dans l'identification des gènes impliqués dans des maladies communes telles que l'obésité, les maladies cardio-vasculaires, les cancers ou encore les maladies neurodégénératives. Depuis le séquençage du génome humain, on sait qu'en moyenne deux personnes sont semblables génétiquement parlant à 99,9 %.

Concrètement, cela signifie que sur les trois milliards d'unités de base qui composent l'ADN - support des gènes -, trois millions seulement diffèrent d'un individu à l'autre. Afin d'identifier quels gènes sont responsables de telle ou telle maladie, les généticiens peuvent parcourir l'ensemble du génome. Mais cela prend énormément de temps. C'est pourquoi l'équipe de HapMap a décidé de construire une carte qui décrit les différences, non pas entre chacune des bases de l'ADN (les lettres A, C, T, G du code génétique) mais entre des séquences correctement choisies de ces lettres. Ce que les généticiens appellent des haplotypes (d'où le nom de HapMap).

Ces haplotypes, composés couramment de plusieurs milliers de bases, n'ont a priori pas de rapport avec les gènes. Mais ils facilitent la recherche des mutations génétiques. En étudiant le génome de 269 personnes du Nigeria, des Etats-Unis, de Chine et du Japon, les biologistes ont précisément cherché à définir la taille de chaque haplotype du génome. Avec les données de HapMap - qui entreront dans le domaine public -, les chercheurs pourront trouver quels haplotypes ont en commun des personnes atteintes d'une maladie. «Il suffira alors d'étudier plus précisément ces régions pour tenter d'identifier le gène responsable de la maladie», note Lluis Quintana-Murci, chercheur du CNRS à l'Institut Pasteur à Paris.

Nature

BC

La nouvelle technique génétique inversée permet de produire très rapidement des vaccins anti-grippe
Mercredi, 19/10/2005 - 00:00

Des virologues américains et japonais ont mis au point une nouvelle méthode de manipulation génétique pour priver les virus de la grippe de leur virulence, ouvrant la voie à une production plus rapide de vaccins. La production accélérée de vaccins contre les virus très virulents de la grippe aviaire y compris le H5N1, responsable de l'épizootie de volailles en Asie du Sud-Est, dépend de cette nouvelle approche dite "de génétique inversée", a expliqué Yoshihiro Kawaoka, un chercheur de l'université du Wisconsin (nord) et coauteur de cette recherche. Cette méthode, une amélioration d'une technique mise au point par ce même virologue en 1999, permet de fabriquer un virus souche dans des cellules rénales de singe, qui, telles de petites usines, fabriquent des millions de copies du virus privé de sa virulence.

Ces virus, "génétiquement manipulés", sont ensuite injectés dans des oeufs pour produire des vaccins permettant au système immunitaire humain de reconnaître et de détruire un pathogène similaire doté de toute sa virulence, ont expliqué ces chercheurs.

Les cellules rénales de singes sont couramment utilisées pour reproduire des virus amputés de leurs gènes de virulence car elles ne contiennent pas d'agents infectieux inconnus et ne provoquent pas non plus de tumeur. Selon Yoshihiro Kawaoka, "l'application de cette nouvelle méthode pourrait être particulièrement avantageuse en cas d'épidémie ou de pandémie d'une grippe provoquée par un virus très virulent de la grippe aviaire". La production d'un vaccin peut prendre jusqu'à six mois car les laboratoires doivent tout d'abord identifier la nouvelle variété du virus, le désarmer génétiquement avant d'en produire des copies nécessaires pour fabriquer un vaccins. Cette nouvelle méthode permet de "réduire le nombre de vecteurs" nécessaires au clonage du virus génétiquement modifié faisant que le cycle de production de copies par des cellules rénales de singe est nettement plus court, ont expliqué ces virologues.

Newswire

Eurekalert

Au commencement était le gène HIRA...
Mercredi, 19/10/2005 - 00:00

Quand l'ADN du père rencontre pour la première fois l'ADN de la mère, le matériel génétique paternel doit effectuer une subtile transformation pour pouvoir entrer en action et se combiner avec l'ADN maternel. Des chercheurs ont repéré le gène qui permet la réalisation de cette étape cruciale à la formation de toute nouvelle vie. Menés chez la mouche drosophile, ces travaux sont applicables à l'ensemble des animaux dont la reproduction est sexuée, et donc à l'être humain, expliquent ces chercheurs dans la revue Nature. Au moment de la fécondation, l'ADN du spermatozoïde doit changer d'enveloppe. En effet, dans le noyau des cellules, l'ADN est enveloppé de protéines appelées histones, qui jouent un rôle crucial dans la transcription, la réplication ou la réparation de l'ADN. Or, chez les gamètes mâles, l'ADN n'est pas entouré d'histones mais de protamines.

Lorsque le spermatozoïde féconde l'oeuf, son ADN doit se débarrasser de ces protamines et s'entourer d'histones pour être fonctionnel -en somme pouvoir faire son boulot. C'est là qu'intervient le gène HIRA : il code pour une protéine qui permet de remplacer les protamines de l'ADN du spermatozoïde par des histones -ces dernières étant quelque peu différentes de celles de l'ADN maternel. Les chercheurs du Centre de génétique moléculaire et cellulaire (CNRS/ Lyon 1) et de l'Université de Bath ont travaillé sur une drosophile mutante pour mettre en évidence le rôle du gène HIRA. Une légère mutation sur ce gène empêche l'embryon de se former, précisent les chercheurs. La découverte d'une différence structurelle entre l'ADN du père et l'ADN de la mère au moment de la fécondation ouvre aussi d'autres pistes de recherche, par exemple pour mieux comprendre les modifications subies par les chromosomes paternels dans les premières étapes de l'embryogenèse.

SD

BBC

Le gène responsable d'une myopathie congénitale a été identifié
Mercredi, 19/10/2005 - 00:00

Une équipe de chercheurs de l'Institut de Myologie, animée par Marc Bitoun et Norma Romero sous la direction de Pascale Guicheney (Inserm U582 « Physiopathologie et thérapie du muscle strié »), a identifié sur le chromosome 19 le gène responsable d'une myopathie congénitale : la forme autosomique dominante de la myopathie centronucléaire. Pour les malades, cette découverte permettra de poser un diagnostic précis et d'envisager, pour les couples à risque, un diagnostic prénatal dans le cas d'un projet d'enfant. L'identification du gène responsable d'une maladie est la première étape, indispensable, à la compréhension des dysfonctionnements liés à la maladie et donc à la mise en place d'éventuelles stratégies thérapeutiques. Ces travaux, publiés dans la revue Nature Genetics de novembre, ont été réalisés au sein de l'Institut de Myologie, créé et financé par l'AFM grâce aux dons du Téléthon et situé à Paris au sein du groupe hospitalier Pitié-Salpêtrière.

Les myopathies centronucléaires font partie de la famille des myopathies congénitales, au même titre que la myopathie myotubulaire, les myopathies à bâtonnets et les myopathies à cores. Les personnes atteintes de cette maladie neuromusculaire présentent une faiblesse musculaire des membres et du visage, ainsi qu'une atteinte de la musculature oculaire. Aujourd'hui, cette maladie touche moins d'une personne sur 10 000 en France.

Les myopathies centronucléaires sont caractérisées par le fait qu'un grand nombre des fibres musculaires des malades ont leur noyau au centre, alors qu'il devrait se trouver en périphérie. Elles se transmettent sur le mode autosomique récessif ou dominant. Alors que l'on connaît depuis quelques années plusieurs gènes dont les mutations sont responsables des autres formes de myopathie congénitale, on ne connaissait pas encore la cause génétique de la forme autosomique dominante des myopathies centronucléaires. Les chercheurs ont identifié, sur le chromosome 19, 4 mutations dans la séquence du gène de la dynamine 2 (DNM2) chez des malades de 11 familles atteints de la forme autosomique dominante de myopathie centronucléaire.

La mutation de ce gène provoque un changement dans la séquence protéique (changement d'un acide aminé par autre). Les chercheurs ont démontré que, quand les protéines mutantes sont exprimées in vitro, la dynamine 2 ne se retrouvait pas à un des sites habituels de la cellule (le centrosome) ou bien elle se retrouvait en quantité moindre à cet endroit. Une des hypothèses actuelles est donc que les mutations du gène provoqueraient la maladie en interférant avec une ou plusieurs fonctions du centrosome.

Ce résultat porte à 165 le nombre de gènes identifiés responsables de maladies neuromusculaires, alors qu'on n'en avait identifié qu'un seul en 1987 au moment du premier Téléthon (celui de la myopathie de Duchenne, identifié en 1986). Ces progrès rapides de la génétique bénéficient directement aux malades, qui peuvent enfin mettre un nom sur leur maladie rare et bénéficier d'un diagnostic génétique précis. Enfin, et surtout, l'identification du gène est fondamentale pour mieux comprendre la maladie et les dysfonctionnements physiologiques que la mutation génétique provoque, afin de mettre en place les stratégies qui permettront de la guérir.

Inserm

Le cancer du côlon identifiable dans le sang
Mercredi, 19/10/2005 - 00:00

Des chercheurs américains ont mis au point un test qui permet de détecter dans le sang des fragments de gènes mutés dont la présence est associée au cancer du côlon. Bert Vogelstein et ses collègues espèrent que leur étude pilote permettra de mettre au point un test de dépistage qui complètera l'arsenal des médecins. Actuellement, le meilleur moyen de détecter le plus tôt possible un cancer du côlon est la coloscopie, examen efficace mais plus compliqué à réaliser qu'un test sanguin. L'équipe coordonnée par Bert Vogelstein (Howard Hughes Medical Institute) a mis au point une technique appelée BEAMing, qui utilise des petite billes métalliques pour isoler les fragments de gènes dans le sang. Ces échantillons sont ensuite amplifiés grâce à la PCR (polymerase chain reaction/ réaction en chaîne par polymérase) et analysés afin de détecter la présence de mutations liées au cancer du côlon.

Dans le cas particulier de ce cancer, les mutations du gène APC sont biens connues et Vogelstein et ses collègues les ont repérées dans le sang de patients atteints d'un cancer colorectal. Ces fragments d'ADN sont libérés lorsque les cellules macrophages s'attaquent aux cellules cancéreuses, expliquent les chercheurs, qui publient leurs travaux dans les PNAS. L'extension de ce type de test à d'autres cancers dépend de la capacité à identifier les mutations génétiques impliquées dans la formation des tumeurs. Pour certains cancers comme les poumons, l'estomac ou le pancréas, pour lesquels on ne dispose pas de méthodes de dépistage précoce, un test sanguin serait très utile, précise Bert Vogelstein.

PNAS

Le diabète augmente les risques de cancer colorectal
Mercredi, 19/10/2005 - 00:00

Des chercheurs de l'Université de Caroline du Sud viennent de montrer, à partir d'un large échantillon représentatif de la population américaine de 277.000 patients suivis pendant 6 ans, de 1997 à 2003, que les patients diabétiques avaient un risque augmenté de 40 % de développer un cancer du colon. "Cette étude est importante, souligne le Docteur Donald Garrow, car elle montre qu'il faut tenir compte des pathologies diabétiques dans les politiques de prévention et de détection du cancer du colon."

SD

Mesurer une enzyme dans l'urine permet de détecter le cancer de la vessie
Mercredi, 19/10/2005 - 00:00

La mesure du taux de l'enzyme télomérase dans l'urine est un moyen prometteur pour détecter des cancers de la vessie chez les hommes, selon une étude publiée mardi dans le Journal of the American Medical Association (JAMA). Jusqu'à présent, la détection de ces cancers en forte augmentation ces dernières décennies avec 60.000 nouveaux cas chaque année aux Etats-Unis est coûteuse ou requiert des procédures invasives. "Le test que nous avons mis au point nécessite seulement une petite quantité d'urine, n'est pas invasive, est peu coûteux et permet d'évaluer facilement avec une bonne certitude le niveau d'activité de la télomérase dans les cellules prélevées dans l'urine", a expliqué le Dr. Maria Aurora Sanchini et ses collègues de l'hôpital Morgagni-Pierantoni à Forli en Italie.

Cette étude a été conduite de mars 2003 à novembre 2004 en Italie sur 218 hommes dont 84 étaient en bonne santé et 134 venaient d'être diagnostiqués d'un cancer de la vessie. Un des grands avantages de ce test est sa capacité à détecter des tumeurs de la vessie au tout premier stade de leur développement, qui souvent échappent aux examens cythopatologiques actuels, ont souligné ces chercheurs. Le cancer de la vessie est le quatrième cancer le plus commun chez les hommes et le dixième chez les femmes. Actuellement, environ 20 % des malades atteints de ce cancer en meurent chaque année aux Etats-Unis. Mais quand ce cancer est diagnostiqué et traité à ses premiers stades de développement, les chances de survie sont bonnes, ont souligné ces chercheurs.

JAMA

BBC

Tumeurs cérébrales : l'espoir des nanoparticules
Mercredi, 19/10/2005 - 00:00

L'idée de diriger des nanoparticules contre les tumeurs commence à porter ses fruits. Les résultats annoncés par la société allemande Magforce et l'hôpital de la charité de Berlin sont, à cet égard, très encourageants.

Les chercheurs allemands ont utilisé des cristaux d'oxyde de fer de 7 nanomètres, recouverts de lipides biocompatibles et de protéines de reconnaissances de tumeurs, contre des tumeurs cérébrales multirésistantes. Sur ces volontaires qui n'avaient plus que trois mois d'espérance de vie, l'un vient de fêter sa deuxième année de rémission. Deux autres patients ont gagné un an de d'espérance de vie en plus et les 13 derniers, trois mois. Deux fois par semaine, ces nanoparticules ont directement été injectées au niveau de la tumeur. Le patient était ensuite soumis à un champ magnétique qui faisait entrer la tumeur en vibrations, à raison de 100 000 fois par seconde, portant ainsi la température intérieure des cellules cancéreuses à 43°, ce qui est assez pour les détruire !

Il est intéressant de souligner que les débris cellulaires ont été éliminés par les cellules « éboueuses » que sont les macrophages. Quant aux oxydes de fer, ils n'ont aucune action biologique et ne semblent pas s'accumuler dans l'organisme. Les conclusions définitives de ces essais cliniques extrêmement encourageants seront présentées débuts 2007.

Magforce

OCF

Des progrès majeurs en matière de vaccin dès 2006
Mercredi, 19/10/2005 - 00:00

Après la réussite de ses essais dans 33 pays, la FDA pourrait au 4ème trimestre 2005 autoriser la production du vaccin contre les infections à papillomavirus humain (HPV). Sa mise à disposition interviendrait " rapidement ", selon la firme Merck qui produit ce vaccin.

Ce vaccin a fait l'objet à Paris de communications à la Conférence européenne contre le Cancer (ECCO), et devant la Société européenne pour la Radiothérapie et l'Oncologie (ESTRO). Il sera le second vaccin à autoriser la prévention d'un cancer humain après le vaccin anti-hépatite B. Il devrait être à disposition dès 2006.

Les premières régions à en disposer devraient être les Etats-Unis et l'Europe. Efficace contre 4 sérogroupes HPV, il s'inscrira dans la prévention du cancer du col de l'utérus, des cancers cervicaux non-invasifs et des condylomes génitaux. Les populations cibles seront bien sûr essentiellement féminines : fillettes, adolescentes et jeunes femmes de la tranche d'âge 9-24 ans pour commencer (32 millions de sujets aux Etats-Unis, 37 en Europe), mais les études se poursuivent. Son application pourrait être étendue à la femme de 24 à 45 ans, soit des populations de 44 millions aux Outre-atlantique et 60 millions en Europe. Des travaux concernant la prévention de l'infection par condylomes chez l'homme sont aussi à l'ordre du jour.

La prévention du cancer du col sera un acquis majeur. On en compte actuellement près de 2,3 millions de cas dans le monde dont 80 % dans les pays en voie de développement. Avec 510 000 nouveaux cas par an, cette maladie est la seconde cause de mortalité par cancers chez les femmes. Quant aux condylomes, ils toucheraient de 500 000 à 1 million de femmes par an selon les estimations.

L'actualité sera également marquée en 2006 par d'autres innovations, des deux côtés de l'Atlantique. La prochaine introduction de vaccins contre la gastro-entérite virale - provoquée par des rotavirus - est également très attendue. Ces gastro-entérites sont responsables chaque année d'un grand nombre de morts par déshydratation sévère. La mise au point d'un vaccin pentavalent - efficace contre cinq variétés de virus - administré par voie orale, constituera un progrès marquant. Il ne résoudra cependant pas le problème des diarrhées essentiellement bactériennes qui, chaque année, tuent des millions d'enfants dans les pays les moins favorisés.

Enfin, l'on attend un vaccin contre les infections de l'adulte par le virus de la varicelle. Lesquelles sont responsables des zonas et des très pénibles douleurs post-zostériennes. Les derniers résultats de sa 3ème phase d'essais cliniques - sur 38 500 femmes et hommes de 50 ans et plus - auraient montré une réduction de 67 % des douleurs post-zostériennes et de 51 % des vésicules caractéristiques du zona.

NEJM

Les puces médicales se glissent dans le corps
Mercredi, 19/10/2005 - 00:00

La miniaturisation aidant, les puces électroniques commencent à être utilisées pour établir des diagnostics médicaux. Premier exemple : la pillcam, d'ores et déjà vendue par Given Imaging. Renfermant une mini-webcam, cette capsule joue le rôle d'un endoscope. Une fois qu'elle a été prescrite par le médecin, le patient doit simplement avaler la pilule (11 x 26 mm pour un poids de 4 g). Elle voyage à travers le corps, transmettant ses images sur des capteurs-enregistreurs qui ont été préalablement placés au niveau de la ceinture du patient. Pendant la durée de l'examen, l'utilisateur peut vaquer à ses occupations, mais il devra impérativement éviter de se retrouver à côté d'une IRM. Huit heures plus tard, une fois la pilule extraite par les voies naturelles, il pourra retourner voir son médecin avec ses « radios ».

De son côté, ST Microelectronics a mis en place un « laboratoire sur puce » permettant d'obtenir un diagnostic bactérien rapide. L'une des expérimentations en cours permet de détecter des espèces de bactéries septicémiques et certaines souches de staphylocoque doré. Concrètement, une goutte de sang est déposée sur une puce Mems (MicroElectronic-MechanicalSystem), puis l'échantillon est chauffé et répliqué grâce à une réaction en chaîne des polymérases. Cette solution miniaturisée pourrait procurer, en quinze minutes, des résultats plus fiables que lorsqu'elle est réalisée en laboratoire en... plusieurs heures.

OINet

La marche à pied aussi bénéfique pour le coeur que la course
Mercredi, 19/10/2005 - 00:00

Environ deux à trois heures de marche par semaine est aussi bénéfique pour le coeur que la course à pied, selon une nouvelle étude américaine conduite par des chercheurs du centre médical de l'Université Duke en Caroline du Nord. L'étude, qui porte sur 133 personnes d'âge moyen, en surpoids et sédentaires, présentant un risque de maladie cardio-vasculaire, devrait encourager les réfractaires à l'exercice physique, estime Brian Duscha, premier auteur de ce travail publié dans le numéro d'octobre de la revue "Chest". "Si vous marchez d'un bon pas, une vingtaine de kilomètres par semaine environ, il est scientifiquement prouvé maintenant que vous en tirerez des bénéfices pour votre santé", dit-il.

Les volontaires étaient divisés en quatre groupes : un qui ne faisait aucun exercice, un groupe qui marchait 12 miles (19km) d'un bon pas à vitesse modérée, un troisième qui couvrait la même distance mais à plus vive allure voire en petites foulées, et un dernier groupe qui courait à plus vive allure sur 20 miles (32 kilomètres). Les chercheurs ont comparé deux critères de forme physique : le temps écoulé jusqu'à l'épuisement et la consommation en oxygène. Ils ont constaté une amélioration de la forme physique dans les groupes faisant de l'exercice.

La comparaison entre les groupes qui avaient parcouru 19 kilomètres à des allures différentes n'a montré aucune différence significative dans la consommation en oxygène. Il y avait en revanche une amélioration de la forme physique pour ceux qui couraient 32 kilomètres par semaine, preuve que la quantité d'exercice peut être importante. Même si vous pensez ne tirer aucun bénéfice parce que vous ne maigrissez pas, "n'arrêtez pas l'exercice", insiste Brian Duscha. Le Dr Robert Eckel, président de l'Association américaine du coeur, estime que cette étude ne fait que confirmer ce que l'on savait déjà : une activité modérée est certainement mieux que pas d'activité du tout.

Une vaste étude basée sur des données médicales et des questionnaires de plus de 40.000 hommes d'âge moyen, menée il y a quelques années, indiquait déjà que l'exercice modéré était bénéfique pour le coeur. Dave Brady, qui dirige le centre de gymnastique d'Austin au Texas, a déclaré que les conclusions de l'étude Duke n'étaient pas nouvelles mais qu'elles étaient rigoureusement exactes. Marcher une vingtaine de kilomètres par semaine, est un bon début pour des gens qui sont trop gros, et qui n'ont jamais fait d'exercice. "Si les gens ne faisaient déjà que marcher, ils en tireraient des bénéfices".

Chest

Des neuropuces pour percer à jour la maladie d'Alzheimer
Mercredi, 19/10/2005 - 00:00

Un des objectifs de la recherche bioélectronique en systèmes neuraux est de mieux comprendre les maladies neurologiques qui nous accablent. Mais le travail d'analyse électrique des neurones s'est toujours déroulé sur des créatures d'ordre inférieur. Étant donné « que les limaces ne sont pas atteintes d'Alzheimer, nous devons étudier des neurones de mammifères », fait remarquer Ann Van Gysel, directrice des télécommunications à l'Institut interuniversitaire en biotechnologie des Flandres (VIB).

Pour ce projet qui s'annonce révolutionnaire, le Centre interuniversitaire de microélectronique (IMEC) s'est associé à l'Université Catholique de Louvain et au VIB. Leur premier objectif est de construire une puce sophistiquée qui pourrait servir d'interface chimique et électronique avec les neurones. L'étape suivante consisterait à concevoir une technologie de croissance des neurones « pour commander » la puce. Les chercheurs pourraient stimuler ces neurones placés avec précision puis mesurer leur réponse.

Dans des études antérieures, notamment à l'Institut allemand de biochimie Max Planck avec la collaboration d'Infineon Technologies, des neurones de mollusque relativement gros avaient été placés plus au moins au hasard sur la surface d'un réseau de capteurs, sans stimulation possible. Par opposition, a indiqué Carmen Bartic, chef d'équipe des systèmes et capteurs cellulaires à l'IMEC, « ce projet] repose sur la création d'un système hybride qui dialoguera avec les structures biologiques. Nous espérons pouvoir combiner les stimulations chimique et électrique des neurones à la détection de leur réponse sur un dispositif monolithique. »

Ces recherches devraient nécessiter des avancées fondamentales, non du point de vue purement technologique puisque la plupart des problèmes prédits pour ce programme ont déjà été résolus dans d'autres contextes, mais dans la réunion de disciplines totalement différentes au sein d'un programme unique. « Nous aurons besoin de la coopération d'experts en biologie, médecine, chimie et microélectronique afin de créer un seul groupe de recherche », a assuré Carmen Bartic.

[EET

^ Haut
Homme
Anthropologie et Sciences de l'Homme
Microsoft sort des versions Live de Windows et Office, accessibles en ligne
Mercredi, 19/10/2005 - 00:00

Le numéro un mondial du logiciel Microsoft a décidé de promouvoir ses produits vedettes via l'Internet, et va proposer d'accéder directement en ligne à des versions dites "Live" de Windows et Office, a-t-il annoncé le 1er novembre 2005. La plate-forme Windows Live sera accessible gratuitement sur MSN.com, Microsoft se finançant avec les annonces publicitaires de son portail Internet. Mais parallèlement "des services payants sur abonnement seront également disponibles", a ajouté Microsoft. Windows Live, qui offrira services de courriels et messagerie instantanée, "contribue à rassembler tous les éléments de l'environnement numérique d'un particulier, tandis qu'Office Live va aider les petites entreprises à exercer leur activité en ligne", a poursuivi le groupe dans un communiqué. Lors d'un show à San Francisco.

Bill Gates, président du conseil d'administration, et le directeur technologique Ray Ozzie, ont offert de visionner des versions expérimentales de Windows Live et de Microsoft Office Live, futures déclinaisons de son système d'exploitation et de sa suite bureautique vedettes. "Les nouvelles offres conjuguent la puissance des logiciels à celles des services" et améliorent les fonctionnalités de deux produits vedettes, a-t-on expliqué. Microsoft a comparé les déclinaisons "Live" de Windows et Office à sa console de jeux vidéo Xbox "Live", permettant de jouer en réseau en temps réel moyennant un abonnement.

Ces nouveaux services logiciels sont présentés comme l'aboutissement d'un processus entamé il y a dix ans et renforcé en juin 2000 avec le lancement de .Net. Le fondateur de Microsoft a souligné que Microsoft apportait l'ensemble de ses technologies logicielles dans ces nouveaux services, cherchant ainsi à se démarquer, notamment de Google et de Salesforce.

Microsoft

Les collectivités locales européennes adoptent l'open source
Mercredi, 19/10/2005 - 00:00

Une étude commandée par l'Union européenne auprès de 4000 collectivités de 13 pays membres illustre les différents usages des logiciels libres. Leur capacité à s'adapter aux solutions propriétaires est la principale motivation pour les adopter. Les logiciels open source séduisent les administrations publiques en Europe. Selon une étude menée par l'Université de Maastricht, 49 % des collectivités régionales ou locales interrogées (*) ont installé des logiciels libres. Il faut ajouter à ce chiffre les 29 % d'administrations qui utilisent de telles applications, sans apparemment connaître leur nature. Dans ce cas, les personnes interrogées ont répondu que leurs services utilisaient bien des logiciels GNU/Linux, MySQL ou encore Apache, mais sans savoir qu'il s'agit de logiciels libres. Les collectivités locales ne justifient pas leur passage à l'open source comme un choix politique. Les auteurs de l'étude notent qu'ils sont «le plus souvent utilisés de façon partielle, en tant que supplément, plutôt qu'en tant que logiciel principal. C'est vrai pour les logiciels applicatifs et ça l'est encore plus pour les systèmes d'exploitation».

40 % des administrations ont un ou plusieurs logiciels open source installé sur leurs serveurs, en complément d'autres solutions. Ce chiffre tombe à 16 % pour les ordinateurs de bureau. Selon l'étude, 20 % des collectivités ont entamé leur migration dans le cadre d'un projet pilote. Pourtant, la demande en matière d'équipement open source est bien réelle : 70 % des collectivités déjà équipées, et 38 % de celles qui n'ont pas encore franchi le pas veulent accroître la présence des logiciels libres dans leur parc. 20 % d'entre elles envisagent même une migration complète, selon l'étude.

Selon les utilisateurs, le principal avantage cité pour l'adoption des logiciels open source est la possibilité de les adapter à des besoins spécifiques ou de les combiner avec des systèmes propriétaires. Une meilleure interopérabilité est aussi citée. Enfin, l'argument du prix des licences reste évoqué pour favoriser un passage à l'open source : la moitié des personnes interrogées estiment que cela reste un poste de dépenses trop élevé. Parmi les craintes évoquées, on retrouve encore le coût de la formation nécessaire à la maîtrise de ces nouveaux logiciels Open Source.

IDABC

^ Haut
Recherche
Recherche & Innovation, Technologies, Transports
L'envolée du prix du pétrole relance la voiture électrique
Mercredi, 19/10/2005 - 00:00

On se souvient du premier fiasco de la voiture électrique, en 1995. A l'époque, Peugeot et Renault y croyaient tellement que les deux constructeurs évoquaient de mirifiques perspectives : jusqu'à 200 000 véhicules vers 2005-2010... Une décennie plus tard, la réalité est plus cruelle: entre 10 000 et 15 000 voitures électriques auraient été écoulées à travers toute l'Europe, dont les deux tiers en France.

Pourquoi un tel échec ? Ce mode de propulsion a souffert de lourds handicaps, qui se sont révélés rédhibitoires. Trop cher, tout d'abord. Si, sur le papier, l'électrique semblait de cinq à dix fois moins coûteux que l'essence (entre 1 et 1,50 ? pour 100 kilomètres), il s'est révélé ruineux à l'usage. Outre l'achat de la voiture (à un prix similaire à celui d'un modèle à essence), les heureux propriétaires devaient louer de bien onéreuses batteries (150 ? par mois). Or ces dernières, gourmandes en énergie, permettaient de parcourir au mieux 80 kilomètres avant une nouvelle charge. Une autonomie inacceptable, qui a cantonné la fée électrique à de petites distances.

Aujourd'hui, malgré cet échec cuisant, la voiture électrique pourrait connaître un soudain retour en piste. «Avec un prix du baril de pétrole qui flambe et la prise de conscience générale de la pollution par le gaz carbonique issu du secteur des transports, croyez-vous vraiment que l'on puisse s'offrir le luxe d'abandonner une des voies les plus environnementales ?» plaide Claude Moreau, président de la Commission interministérielle pour les véhicules propres et économes (Civepe), qui vient de remettre un rapport au Premier ministre.

L'une de ses conclusions encourage les flottes publiques à tenter à nouveau l'aventure de l'électrique. Au-delà du contexte international, il existe un argument fondamental qui plaide en faveur d'une telle résurrection : en dix ans, la technologie des batteries a fait un bond en avant considérable, avec le remplacement du nickel-cadmium par le lithium-ion. Cette nouvelle génération stocke plus d'énergie pour un poids diminué de 20 %. Résultat ? Une autonomie multipliée par trois (250 km), une puissance améliorée et une bonne vitesse de pointe (130 km/h).

En France, à l'heure actuelle, deux industriels travaillent dans cette voie, avec des philosophies radicalement opposées. Le groupe Bolloré prospecte sur une batterie dite «lithium-métal-polymère» (LMP). «Elle repose sur un processus industriel par extrusion, mis au point à l'origine pour l'industrie papetière», explique Jean-Louis Bouquet, président de BatScap, une filiale du groupe breton qui a ouvert une usine de fabrication à Quimper. La petite merveille se veut plus sûre, encore plus puissante et d'une durée de vie record (dix ans). Persuadé qu'il tenait là l'énergie idéale, Vincent Bolloré a alors cherché à créer une voiture autour. Tout simplement. Quitte à investir une somme rondelette (70 millions d'euros). Présenté au dernier Salon de Genève, le concept car, dessiné par Philippe Guédon, père de l'Espace de Renault, répond au doux nom de BlueCar et vise en priorité le marché des particuliers urbains.

Même marotte mais pari industriel inverse pour Serge Dassault, qui cherche à adapter l'électrique sur n'importe quel modèle existant et veut s'attaquer d'abord au secteur des entreprises et des institutions publiques. Voilà cinq ans, l'avionneur, convaincu de la fin prochaine de l'ère de l'or noir, réunit autour de lui une poignée de fidèles, qu'il charge de faire le tour du monde des technologies existantes. L'équipe de choc fait son marché : le moteur, choisi pour sa compacité, sera acheté à TM4, une filiale du groupe canadien Hydro-Québec ; Saft produira les batteries au lithium-ion ; la carrosserie sera fournie par Renault.

De cette union plurielle naîtront trois rejetons, tous appelés Cleanova (contraction de clean -propre - et d'innovation). «L'un des modèles peut même être considéré comme un engin hybride, avec un moteur électrique et un petit groupe électrogène à essence, qui ne sert pas à la propulsion mais recharge les batteries», précise Sébastien Rembauville-Nicolle. D'où une autonomie encore améliorée : jusqu'à 500 kilomètres avec un plein de kilowatts et 20 litres d'essence !

Mais les deux industriels français, si puissants soient-ils, ne pourront pas continuer indéfiniment à engloutir des sommes colossales et devront s'allier avec un constructeur automobile s'ils veulent commercialiser leurs créations. A ce détail près : aucun ne s'est montré intéressé. Traumatisés par l'échec cuisant de la première génération de voitures électriques, la plupart n'investissent plus dans cette filière et semblent privilégier des solutions hybrides - essence (ou diesel) et électrique. A ce titre, la réussite de la Toyota Prius, lancée en 1998, marque le premier succès industriel d'un mode de propulsion véritablement innovant : 150 000 exemplaires vendus rien qu'aux Etats-Unis. Un comble au pays du tout-pétrole !

Du coup, les modèles se multiplient chez Ford, Honda, Nissan, Mazda, Audi, etc. Côté français, c'est le désert, même si Peugeot dit travailler à un hybride diesel-électrique. «En attendant la pile à combustible, nos constructeurs préfèrent jouer la carte du diesel plutôt que celle de l'électrique ou de l'hybride. Ce choix à courte vue risque de permettre aux constructeurs étrangers de conforter leur avance technologique dans les voitures hybrides qui vont constituer pour au moins une vingtaine d'années le chaînon manquant en attendant que les voitures à piles à combustibles soient suffisamment fiables et abordables pour conquérir un marché de masse.

Express

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top