RTFlash

RTFLASH Recherche & Technologie
NUMERO 445
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 20 Septembre 2007
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
75 % des internautes utilisent des services d'e-administration
La reconnaissance faciale fait peau neuve
Alcatel-Lucent recule les limites de la transmission optique
Intel présente sa première puce en 32 nanomètres
Avenir
Matière
La plus grande centrale solaire de France prévue à Narbonne
Photovoltaïque micromorphe : une nouvelle génération de cellules bientôt commercialisable en Allemagne
Un verre qui protège, se nettoie et produit du courant
Japon : des câbles supraconducteurs commercialisés en 2010
Un réseau de plots nanométriques aux propriétés uniques
Japon : De l'hydrogène à partir de bois
Espace
Un télescope capable de voir les objets les plus froids de l'Univers
Terre
Biodiversité : un rapport accablant de l'Union mondiale pour la nature
Nouvelle méthode de capture du CO2
L'épaisseur de la banquise aurait diminué de moitié en 6 ans
L'OCDE remet en cause l'intérêt écologique des biocarburants
Vivant
L'endoscopie haute définition repousse les limites de l'investigation
Des cellules souches pour réparer le poumon
Tour de taille : un risque de developper un pathologie cardiovasculaire qui se mesure
Les statines protègent-elles de la maladie d'Alzheimer ?
Edito
Cancer: un rapport qui dérange



Le rapport sur les causes du cancer réalisé au terme de deux ans de travail par l'Académie de médecine, celle des Sciences, le CIRC (Centre international de recherche sur le cancer), l'Institut de veille sanitaire et l'Institut national du cancer va certainement faire grand bruit et relancer le débat sur les véritables causes du cancer et sur l'augmentation de son incidence.

Cette étude met en cause avant tout des comportements individuels, plus que des pollutions environnementales, pour expliquer l'apparition d'un nombre notable de cancers. Ce rapport bat en brèche des idées reçues en réaffirmant le rôle prépondérant des comportements individuels (tabac, alcool, surpoids, grossesse tardive...) et en jugeant grandement surestimé par l'opinion le rôle de la pollution. Selon cette étude, 1 % au plus des décès par cancer peuvent être attribués avec certitude à la pollution.

Comme dans tous les pays industriels, le tabac reste en France, selon ce rapport, la principale cause avérée de cancer (29.000 décès, soit 33,5 % des décès par cancer chez l'homme, 5.500 décès, soit 10 % des décès par cancer chez la femme en 2000). L'alcool est à l'origine d'environ 9,4 % des décès par cancer chez l'homme et de 3 % chez la femme. Le rapport rappelle par ailleurs que la mortalité par cancer diminue régulièrement depuis 1950 chez la femme et depuis 1985 chez l'homme, si l'on tient compte de l'évolution démographique.

L'excès de poids et l'insuffisance d'exercice physique causent 2 % de décès par cancer chez les hommes et 5,5 % chez les femmes. Les expositions professionnelles, en diminution, sont encore à l'origine de 3,7 % des décès par cancer chez l'homme et 0,5 % chez la femme. Les traitements hormonaux de la ménopause sont en cause pour 2 % environ des décès chez la femme (essentiellement du sein et de l'ovaire). L'âge tardif du premier enfant, le faible nombre d'enfants et l'absence d'allaitement sont des facteurs de risque. En agissant sur ces caractéristiques, la fréquence des cancers du sein pourrait être réduite de 15 %, avancent les auteurs.

Ce rapport précise que, compte tenu de l'accroissement de la population française et de son vieillissement, la mortalité par cancer aurait dû augmenter de 22 % pendant cette période. Or, globalement, la mortalité par cancer a diminué d'environ 13 % entre 1968 et 2002 et "non pas augmenté comme on le croit souvent", précise le rapport. S'il confirme l'importance des comportements individuels, le rapport reconnaît la nécessité des recherches pour mieux appréhender les autres causes. On ne trouve d'origine spécifique que pour la moitié des cancers en France, souligne en effet le rapport. "Chez les personnes n'ayant jamais fumé, aucun facteur de risque lié au mode de vie ou à l'environnement n'a encore été scientifiquement établi pour 85 % des cancers", ajoute-t-il.

Plusieurs explications possibles sont avancées (erreurs au cours de la synthèse d'ADN et de la division cellulaire, infections, richesse en calories de l'alimentation des enfants et des femmes enceintes, agents cancérogènes peu efficaces isolément mais qui pourraient avoir un effet conjugué à certains moments de la vie...).

Mais, comme l'admet le rapport, on ne trouve d'origine spécifique que pour la moitié des cancers en France. Sans remettre en cause les bases scientifiques très solides de ce rapport et la qualité de ses auteurs, certains scientifiques soulignent toutefois que ce rapport est incomplet et n'explique pas l'origine de la majorité des cancers ni l'augmentation sensible de certains cancers comme le lymphome par exemple.

On peut également s'interroger et se demander si le rôle réel de la pollution n'est pas sous-estimé par ce rapport, qu'il s'agisse de la pollution automobile, industrielle ou diffuse, alors que de nombreuses études sérieuses montrent qu'il existe un lien de causalité nette entre pollution de l'air et risques de cancers. Une étude parue dans le British Medical Journal en 2004 soulignait notamment que "Les facteurs environnementaux, notamment les substances chimiques, l'exposition aux ultraviolets ou à des radiations ionisantes, le tabac et la fumée de cuisson contribuent à 75 % de tous les cancers". Par ailleurs, le rapport "Impact sanitaire de la pollution atmosphérique urbaine" de l'Afsse (l'Agence française de sécurité sanitaire environnementale) datant de mai 2004, estimait que 6 à 11 % des décès par cancer du poumon chez les plus de 30 ans étaient dus aux rejets de ces micropolluants dans l'atmosphère.

Quant à l'alimentation, qui joue, comme le montrent de très nombreuses études de par le monde, un rôle déterminant mais très complexe en matière de cancer, nul ne peut dire aujourd'hui quelle proportion de nouveaux cancers inexpliqués peut lui être imputée.

Un grand nombre de chercheurs sont à présent persuadés qu'il existe, outre le tabac et l'alcool, facteurs réels et bien identifiés de cancer, et même en tenant compte du rôle du vieillissement dans l'apparition des cancers, de multiples autres causes plus diffuses (type d'alimentation, pollution, stress, infections virales ou microbiennes) qui agissent en synergie et sont responsables d'une grande partie des nouveaux cas de cancers inexpliqués. Identifier et connaître ces causes complexes et leurs interactions est à présent un des grands défis de la recherche médicale et épidémiologique si nous voulons demain mettre en place une politique efficace de prévention active contre le cancer.

René Trégouët

Sénateur honoraire

Fondateur du Groupe de Prospective du Sénat


TIC
Information et Communication
75 % des internautes utilisent des services d'e-administration
Vendredi, 21/09/2007 - 00:00

Les internautes français sont aujourd'hui 75 % à utiliser des services d'administration électronique, selon une récente étude de Capgemini/TNS Sofres ; ce taux de connexion aux services publics en ligne est constant depuis deux ans. « Sachant que le nombre d'internautes augmente, les services d'e-administration sont de plus en plus utilisés », précise-t-on chez Capgemini. En 2007, 56 % des Français vont sur internet contre 52 % en 2006. Aujourd'hui, près d'un Français sur deux est donc familier des services publics en ligne, indique l'étude, contre 40 % en 2006.

Les sites des services sociaux et de l'ANPE conservent leur place en tête du palmarès des sites les plus fréquentés : respectivement 37 % et 36 % de fréquentation. Viennent ensuite les sites des mairies et organismes publics locaux (31 %), dont ceux des préfectures ; ils ont connu entre 2002 et 2007 les plus fortes hausses de taux de fréquentation (+8 %). Pour la grande majorité des internautes interrogés, le Net procure avant tout un gain de temps : plus de déplacement (79 %) et de délais postaux (44 %).

ZDNet

La reconnaissance faciale fait peau neuve
Vendredi, 21/09/2007 - 00:00

Si le cerveau humain reconnaît aisément un visage connu, il n'en est pas de même lorsqu'il s'agit d'une personne simplement aperçue en photo. Identifier un visage après l'avoir uniquement visualisé sur une caméra de surveillance n'est dès lors pas à la portée de tous. Pour pallier ce problème, des chercheurs de l'université de Glasgow ont annoncé la mise en place d'un système qui peut analyser les caractéristiques du visage et en faciliter la reconnaissance immédiate. But de la manoeuvre : améliorer notre capacité à identifier une personne. Et par extension améliorer l'efficacité des systèmes de sécurité.

Pour parvenir à synthétiser les caractéristiques d'un visage, les chercheurs utilisent une douzaine de clichés d'une même personne pour mettre au point une photo unique qui ne tient compte d'aucun des éléments extérieurs qui pourraient déformer, même de manière infime, les caractéristiques essentielles du visage. Et il semble que la méthode soit efficace, puisque la majeure partie des personnes et des ordinateurs de surveillance interrogés et mis face à la photographie produite font plus aisément le lien avec la personne qui a prêté ses traits.

"Ceci s'explique par le fait que notre processus de modélisation enlève tous les aspects qui ne sont pas nécessaires, comme les effets de lumière, pour consolider les traits qui façonnent réellement notre image, comme sa structure osseuse", explique Rob Jenkins, qui dirige l'équipe de chercheurs. Cette ressemblance entre le modèle et la photographie modélisée, frappante, pourrait dès lors jouer un rôle important en terme de sécurité. "Cet accélérateur de reconnaissance faciale a de nombreuses implications dans la lutte contre le crime et pour la politique de sécurité nationale", ajoute Rob Jenkins.

Atelier-

Alcatel-Lucent recule les limites de la transmission optique
Vendredi, 21/09/2007 - 00:00

Alcatel-Lucent a réussi à transmettre 12,8 Térabit/s de données à travers une unique fibre optique, le tout sur une distance de 2550 km. Soit plus que le trajet en voiture entre Dunkerque et Athènes ... Cette innovation, constitue une sérieuse avancée dans la recherche pour le déploiement de réseaux Ethernet d'une vitesse de 100 Gbit/s. Elle devrait également permettre de développer de nouvelles applications comme le multiplexage en polarisation, la modulation optique à plusieurs niveaux ou la détection cohérente. Jusqu'à présent, aucune tentative de transmission de plus de 10 Térabit/s n'avait réussi à dépasser les 300 km (un peu plus qu'un Dunkerque-Paris).

Pour y parvenir, le groupe a dû moduler cent soixante canaux multiplexés en longueur d'onde (ou WDM, Wavelength Division Multiplexing) à 80 Gbit/s chacun. Et Alcatel-Lucent ne s'arrête pas là. Le fournisseur a également rendu compte de sa capacité à transmettre 8 Térabit/s de données en utilisant une modulation à 100 Gbit/s simple et rentable en terme de coûts. Cette méthode a en effet transmis quatre-vingt canaux modulés chacun à 100 Gbit/s. Ce, sur plus de 520 km. Selon Alcatel, ce système de modulation représente un nouveau moyen simple et économique de générer et transmettre une large bande à 100 Gbit/s par un canal de communication.

Dernière réussite : la première transmission DWDM (Dense Wavelength Division Multiplexing, ou multiplexage en longueur d'onde, une technique qui permet de faire passer plusieurs ondes de longueur différente au sein d'une même fibre) hybride à 40 et 100 Gbit/s au sein du même système et sur différentes longueurs d'ondes. Cette expérience permet d'envisager l'évolution des équipements de transport DWDM vers le 100 Gbit/s Ethernet,

Atelier

Intel présente sa première puce en 32 nanomètres
Vendredi, 21/09/2007 - 00:00

Intel a présenté une puce mémoire réalisée avec une finesse de gravure de 32 nanomètres (nm), préfigurant l'utilisation de cette technologie pour ses futurs processeurs pour PC. Une démonstration faite en ouverture du salon IDF (Intel Developer Forum, 18-20 septembre à San Francisco).

La finesse de gravure est un moyen d'augmenter le nombre de transistors des puces, et donc leurs performances, tout en réduisant leur consommation et leur surchauffe, rappelle Intel. Le composant en 32 nm est ici une puce mémoire SRAM (Static Random Access Memory) utilisée pour les mémoires cache des processeurs. Intel envisage de graver l'ensemble des processeurs avec ce degré de finesse dès 2009. Actuellement, Intel grave tous ses processeurs, qu'il s'agisse de Pentium ou de Xeon, en 65 nm. Entre-temps, le fondeur proposera dès novembre prochain une nouvelle famille de puces, Penryn, gravées pour leur part en 45 nm. Disposant de deux à quatre coeurs, elles seront destinées aux serveurs et aux PC grand public.

Intel

^ Haut
Avenir
Nanotechnologies et Robotique
Japon : les robots au service des personnes âgées
Vendredi, 21/09/2007 - 00:00

Les chercheurs japonais ont entamé une véritable course contre la montre pour développer des robots suffisamment intelligents afin de remplir des tâches usuelles à domicile, en entreprise ou dans les lieux publics, dans un contexte de vieillissement de la population. Quarante pour cent de la population devrait avoir plus de 65 ans en 2055 et le pays, en pointe en matière de robotique, totalise aujourd'hui à lui seul près de 40 % de la population de robots industriels.

Tandis que la moyenne d'âge grimpe et que le nombre d'actifs s'en trouve diminué, de nouveaux types de robots seront amenés à assumer de plus en plus de tâches, simplement parce qu'il n'y aura pas assez de monde pour satisfaire le besoin en salariés, estiment les chercheurs. Par exemple, un robot nettoyeur de Fuji Heavy Industries officie déjà dans une dizaine d'immeubles de bureaux du pays, dont une tour de 54 étages dans le centre de Tokyo, où la machine travaille de nuit et prend l'ascenseur toute seule.

"Dans une société vieillissante telle que nous l'anticipons, la situation sera telle que nous arriverons à un stade où nous n'aurons plus d'autre choix que de faire appel à leur aide", dit Isao Shimoyama, doyen de l'université de science et technologie de Tokyo. Shimoyama fait partie d'un groupe de chercheurs qui travaillent en collaboration avec sept grandes entreprises japonaises, dont Toyota Motor, Fujitsu Laboratories et Mitsubishi Heavy Industries, pour développer des technologies en informatique et robotique qui devraient donner naissance d'ici 15 ans à une nouvelle génération de robots.

Des prototypes de robots capables d'assumer des tâches de la vie quotidienne devraient être présentés d'ici 18 mois. De telles machines n'ont pas nécessairement besoin d'être humanoïdes, même si l'apparence humaine présente des avantages, estime Shimoyama, qui fut un temps spécialiste des androïdes. Un modèle tel que celui développé par Honda Motor Co, Asimo, aura plus de facilité à monter des escaliers qu'un robot sur roues, estiment les chercheurs, mais il s'écoulera un certain temps avant que de telles machines intègrent les foyers.

"Ils peuvent sembler intelligents mais ils sont encore assez stupides", dit Shimoyama. "Je ne crois pas qu'ils seront jamais aussi intelligents que les humains. "Si la sécurité reste un problème évident, les robots doivent également être sensibles au besoin des gens. Les chercheurs des laboratoires Fujitsu, à l'origine du robot de surveillance et d'assistance "enon", travaillent sur ces sujets.

Enon, sans jambes mais dont la partie supérieure est humanoïde, a été conçu pour évoluer dans les centres commerciaux. Il peut transporter des charges de 10 kg et présente sur son torse un écran tactile qui sert d'interface de communication avec les personnes qu'il propose de guider et sur lequel s'affichent les informations demandées. "Les gens qui travaillent dans les transports en commun nous demandent souvent si nous ne pourrions pas concevoir un robot qui détecterait les personnes âgées perdues dans les gares et qui leur demanderait si elles ont un problème", dit Toshihiko Morita, directeur de Fujitsu Laboratories, responsable des systèmes autonomes.

OInet

^ Haut
Matière
Matière et Energie
La plus grande centrale solaire de France prévue à Narbonne
Vendredi, 21/09/2007 - 00:00

L'agglomération Narbonnaise a décidé d'installer sur 23 hectares "la plus importante centrale de production d'électricité solaire photovoltaïque de France, et la troisième d'Europe", indique Michel Moynier. Elle devrait produire huit fois plus d'électricité que la centrale de Saint-Denis de la Réunion, actuellement la plus puissante de France, inaugurée en 2006.

Le 5 septembre, le maire de Narbonne, également président de la communauté d'agglomération, a signé avec le président d'EDF Energies nouvelles France, Pâris Mouratoglou, une promesse de bail emphytéotique de vingt ans sur ce terrain. Michel Moynier avance des chiffres impressionnants : "80 000 m2 de panneaux solaires, et une production d'environ 10 mégawatts, soit l'équivalent de la consommation des bâtiments publics de la ville."

"On ne peut pas encore donner les caractéristiques techniques de cette ferme photovoltaïque ni son délai de réalisation", dit-on prudemment du côté d'EDF Energies nouvelles France, où l'on souligne que le photovoltaïque en production de masse est "un marché très nouveau", boosté par la revalorisation du prix de rachat par EDF. Le prix du kilowattheure solaire est passé, en 2006, de 15 à 30 centimes d'euro. "Notre démarche vient de loin", assure le maire de Narbonne, qui rappelle que sa commune a lancé, dès 2003, "une vaste réflexion sur les quatre thèmes du développement durable : l'eau et l'assainissement, les déchets, les transports et les énergies renouvelables".

Des expériences sur les économies d'énergie dans les bâtiments publics et les logements sociaux ont été lancées en partenariat avec des grandes entreprises comme EDF, Veolia, Suez ou Areva : chauffage solaire des piscines, refroidissement de la patinoire, chauffage au bois des HLM du quartier le plus défavorisé de Narbonne. "Nous avons aidé les particuliers en rajoutant une aide municipale pour les économies d'énergie à celles de la Région et de l'Agence de l'environnement et de la maîtrise de l'énergie", rappelle Michel Moynier.

Depuis quelques mois, le rythme s'est accéléré : lundi 10 septembre, Narbonne a inauguré une crèche à très faibles besoins énergétiques, fonctionnant avec des sondes géothermiques et des panneaux solaires. Le même principe devrait être appliqué à un "quartier renouvelable" actuellement en projet : 650 logements sur 13 hectares, avec chauffage par gazéification des ordures ménagères, système pneumatique d'évacuation des déchets et panneaux solaires. "Il y a des éléments extrêmement positifs dans toutes ces initiatives, mais il y a aussi des choses avec lesquelles nous ne sommes pas forcément d'accord, déclare Maryse Arditi, conseillère régionale et porte-parole des Verts de l'Aude. Le photovoltaïque coûte ainsi quatre fois plus cher que l'éolien, sur lequel pleuvent actuellement beaucoup de critiques." L'élue pointe également la question de l'épuisement des ressources naturelles en silicium, le matériau qui sert à la fabrication des panneaux solaires.

LM

Photovoltaïque micromorphe : une nouvelle génération de cellules bientôt commercialisable en Allemagne
Vendredi, 21/09/2007 - 00:00

Le constructeur photovoltaïque Ersol souhaite se lancer dans la production de modules photovoltaïques (PV) micromorphes. Son directeur Claus Beneking a déclaré : "Etant donnée la maturité du marché, nous avons décidé de différer la production des modules photovoltaïques au silicium amorphe et de déjà préparer intensivement le lancement de la technologie micromorphe pour 2008 grace à un programme ambitieux de développement."

Ersol ferait ainsi partie des toutes premières entreprises en Europe a proposer cette nouvelle variante technologique de cellules PV à couches minces. La technique consiste à combiner cellules amorphes et cellules microcristallines pour former un ensemble micromorphe. Elle permettrait de diminuer fortement la dépendance au silicium, de capter un spectre de lumière plus large et d'améliorer le rendement. Grâce aux nouvelles cellules, dites "tandem", l'entreprise espère ainsi réaliser une augmentation du rendement de 50 % par rapport a la technologie au silicium amorphe.

BE

Un verre qui protège, se nettoie et produit du courant
Vendredi, 21/09/2007 - 00:00

Une équipe de chercheurs de l'université nationale de science et de technologie de Taiwan (NTUST) a développé un verre unique autonettoyant, générateur d'électricité mais aussi isolant. Des brevets ont été déposés aux Etats-Unis, au Japon, en Chine et à Taiwan. Les capacités de ce matériau ont pu être obtenues grâce à l'introduction de trois couches spécifiques à l'intérieur du verre :

une couche de dioxyde de titane de quelques nanomètres servant d'interface photocatalytique permettant au verre de s'autonettoyer, une pellicule en silicone servant de cellule photovoltaïque permettant de générer environ 7kW par heure, un film isolant permettant de bloquer totalement les rayons infrarouges et ultraviolets.

Avant la commercialisation de ce nouveau verre, les autorités taiwanaises souhaitent construire plusieurs bâtiments expérimentaux regroupant plusieurs technologies d'avant-gardes dont ce nouveau verre, afin de promouvoir sa politique de "matériaux de construction verts".

Enerzine

Japon : des câbles supraconducteurs commercialisés en 2010
Vendredi, 21/09/2007 - 00:00

L'entreprise japonaise Sumitomo Electric Industries va procéder à des tests électriques avec des matériaux supraconducteurs à partir de 2010 sur les équipements de Tokyo Electric Power (TEPCO). Des câbles supraconducteurs seront installés dans les transformateurs de TEPCO. Ce sera la première fois que des tests de supraconductivité auront lieu sur des équipements à usage commercial. Le fait que de tels essais soient menés indique que la mise sur le marché des matériaux supraconducteurs est proche.

Les câbles électriques que Sumitomo Electric prévoit d'utiliser sont composés d'un matériau à base de bismuth, découvert dans les années 1980. A une température de -196°C (77K), la résistance électrique du matériau est réduite à zéro, rendant nulles les pertes accompagnant la conduction électrique. Les expériences seront menées sur deux ans, afin de déterminer la viabilité commerciale du produit. Sumitomo Electric a été la première à mener des essais de trtansport de l'électricité avec du matériau supraconducteur pour l'alimentation de foyers dans l'état de New York. La distribution de courant équivalant à un besoin électrique de 200.000 à 300.000 personnes a été assurée entre juillet 2006 et mai 2007, utilisant un câble à base de bismuth de 350 mètres de long. La stabilité du système a permis de conclure qu'un usage commercial pourrait être envisageable. Des nouveaux essais sont prévus cet automne dans la même zone pour des câbles supraconducteurs à base d'yttrium.

Les expérimentations qui vont être menées au Japon concernent des transformateurs et impliquent des grandes puissances électriques. Les matériaux supraconducteurs présentent un fort intérêt écologique puisque 5 % de l'électricité produite est perdue lors de son transport vers les foyers de consommation avec les équipements actuels. Au Japon, ces pertes représentent l'équivalent de la production de six centrales de 1000 MW. C'est donc autant d'émission de CO2 qui pourrait être évitée en diminuant les pertes. 30 % du CO2 japonais est produit par les centrales électriques.

BE Japon

Un réseau de plots nanométriques aux propriétés uniques
Vendredi, 21/09/2007 - 00:00

C'est ce que des chercheurs de deux laboratoires du CNRS à Toulouse, le Laboratoire de Chimie de Coordination (LCC) et le Laboratoire d'Analyse et d'Architecture des Systèmes (LAAS), sont parvenus à concevoir. Pour réussir cette prouesse consistant à mettre sous forme de plots nanométriques appelés "DOTS" un matériau à transition de spin, les chercheurs toulousains ont utilise une technique d'assemblage séquentiel, récemment brevetée par l'équipe d'Azzedine Bousseksou (LCC) et de Christophe Vieu (LAAS), et une technique de lithographie électronique.

Particularités de ces plots : ils réagissent à des changements de température, de pression de champ magnétique ou de composition chimique du milieu environnant en subissant une modification de leurs propriétés électroniques (transition de spin). Précisons que ces deux états électroniques, ON (haut spin) et OFF (bas spin), sont stables à température ambiante. Par ailleurs, la transition de l'un vers l'autre est réversible.

Ces résultats permettent d'envisager notamment le développement de mémoires d'ordinateur de très haute densité et de capteurs chimiques de taille nanométrique. Les domaines de l'optique et du traitement de l'information pourrait également bénéficier de cette avancée.

BE

Japon : De l'hydrogène à partir de bois
Vendredi, 21/09/2007 - 00:00

Un groupe de recherche du Institue of Multidisciplinary Research for Advanced Materials de l'université de Tohoku a découvert un procédé naturel de génération d'hydrogène à partir de la cellulose du bois. L'équipe de professeur Fumio SAITO a mis en évidence qu'un broyage physico-chimique à sec de la cellulose, suivi de sa caléfaction entraîne une synthèse à haut rendement d'hydrogène d'une grande pureté.

L'échantillon utilisé était composé de cellulose et d'un hydroxyde de métal qui servirait d'agent accélérateur de la réaction. Le mélange est broyé à sec puis chauffé dans un four électrique sous atmosphère d'argon. Un mélange gazeux est alors libéré, composé en pourcentage molaire à 93,5 % d'H2, 6,4 % de CH4 ainsi que de traces de CO et CO2. L'hydrogène moléculaire produit est considéré comme d'une grande pureté car il contient moins d'1 % de CO et peut de ce fait être utilisé directement dans des piles à combustibles à acide phosphorique (PAFC). Le résidu solide généré lors de la synthèse des gaz est composé de CaO et de CaCO3, témoignant d'un grand degré de transformation du CO2, estimé à 80 %.

La diffusion des piles à combustibles accroît le besoin en hydrogène. Cette méthode, relativement simple de synthèse à haut rendement d'hydrogène d'une grande pureté, à partir de biomasse telle que les débris de bois, a toutes les chances de connaître un rapide développement. Une demande de brevet a été déposée. Les résultats seront présentés lors de la conférence de la société japonaise des ingénieurs chimistes en septembre à Sapporo.

Institue of Multidisciplinary Research for Advanced Materials

^ Haut
Espace
Espace et Cosmologie
Un télescope capable de voir les objets les plus froids de l'Univers
Vendredi, 21/09/2007 - 00:00

Le 20 septembre 1982, une trentaine de scientifiques se réunissaient dans le centre de l'Agence spatiale européenne (ESA) de Noordwijk (Pays-Bas), pour proposer la conception d'un grand télescope, capable de voir les régions et les objets les plus froids de l'Univers. Il leur aura fallu être patients. Le mercredi 19 septembre, exactement un quart de siècle plus tard, l'ESA présentait, dans les locaux d'EADS Astrium à Friedrichshafen (Allemagne), l'observatoire spatial Herschel, dont l'assemblage touche à sa fin. Le satellite doit être lancé le 31 juillet 2008, depuis Kourou, à bord d'une Ariane 5 ECA. Il sera le plus imposant télescope jamais mis en orbite.

Herschel est grand comme une petite maison. Plus de 7 m de hauteur pour un diamètre de 4 m et une masse de plus de 3,3 tonnes. Ces dimensions tiennent d'abord à celles du miroir principal. Celui-ci mesure plus de 3,5 m de diamètre, soit environ un mètre de plus que celui du fameux Hubble. Mais la comparaison s'arrête là. Car même s'ils regardaient dans la même direction, les deux télescopes ne verraient pas les mêmes images. Alors que Hubble perçoit essentiellement la lumière visible, émise par les objets les plus brillants du ciel, Herschel sera le premier télescope à sonder l'infrarouge lointain, un rayonnement invisible pour l'oeil et les instruments actuellement en service.

"Visuellement, le résultat ne sera pas aussi spectaculaire que les clichés produits par Hubble, prévient Jacques Louet, chef des projets scientifiques à l'ESA. Mais nous avons décidé de donner la priorité à la science." "Cela va nous permettre de voir, par exemple, les étoiles, les systèmes solaires et les galaxies en cours de "condensation"", explique Goran Pilbratt, responsable scientifique de la mission. Les corps froids à l'origine de la formation des astres - nuages de poussières et de gaz - n'émettent en effet que dans le domaine de l'infrarouge. Pouvoir accéder à leur distribution de masses, à leur composition chimique, à leurs vitesses de déplacement permettra de mieux connaître les lois qui président à la naissance des astres.

Scruter ces franges encore invisibles de l'univers a ses contraintes. En particulier, les capteurs des trois instruments embarqués ne doivent eux-mêmes pas émettre d'infrarouges, au risque de polluer les mesures. Les concepteurs de la mission ont donc dû refroidir l'instrumentation : sa température devra être abaissée à 0,3°C au dessus du zéro absolu (-273,15°C) au moyen d'un gigantesque "réfrigérateur" de plus de 2 300 litres d'hélium liquide.

LM

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
Biodiversité : un rapport accablant de l'Union mondiale pour la nature
Vendredi, 21/09/2007 - 00:00

La liste rouge de l'Union mondiale pour la nature (IUCN) qui, depuis 1963, dresse un tableau de l'état des plantes et des animaux de la planète, compte en 2007 près de 200 nouvelles espèces menacées d'extinction dans le monde. Sur les 41.415 espèces étudiées par l'UICN, 16.306 sont désormais menacées d'extinction, soit 188 de plus que les 16.118 recensées l'année dernière. Un mammifère sur quatre, un oiseau sur huit, un tiers des amphibiens et 70 % des plantes sont en péril. Des gorilles africains aux coraux des Galapagos, plus de 16.300 espèces sont menacées d'extinction dans le monde, a fait savoir le 12 septembre l'Union mondiale pour la nature (UICN).

Trois des espèces ajoutées cette année à la liste rouge sont des coraux des Galapagos, dangereusement menacés par le réchauffement climatique et par le phénomène El Nino, qui réchauffe encore plus les eaux du Pacifique, a expliqué l'UICN dans un communiqué. Selon Hilton-Tailor, le réchauffement climatique entre en jeu dans la hausse du nombre des espèces menacées, mais n'est pas le seul facteur.

L'UICN souligne que c'est bien «l'homme, qui, directement ou indirectement, est le principal responsable de la perte de biodiversité» par la destruction et la dégradation des écosystèmes, de l'habitat des espèces. Selon elle, c'est la preuve que «les efforts déployés à ce jour sont insuffisants. L'organisation ajoute que "Le rythme de l'érosion de la biodiversité s'accélère et nous devons agir sans plus attendre pour mettre un terme à cette crise mondiale de l'extinction».

Avec 641 espèces mondialement menacées présentes sur son territoire, la France se situe parmi les dix pays hébergeant le plus grand nombre d'espèces animales et végétales en danger. Un «rang» dû à l'extraordinaire biodiversité de ses collectivités d'outre-mer, Nouvelle-Calédonie et Polynésie française en tête.

UICN

Nouvelle méthode de capture du CO2
Vendredi, 21/09/2007 - 00:00

Les usines et les centrales thermiques sont responsables de 40 % des émissions de CO2 japonaises. L'enfouissement et le stockage du CO2 paraît être actuellement la solution pour lutter contre le réchauffement climatique. Ces technologies existent mais le coût de ces opérations est un grand frein à leur développement.

C'est dans ce contexte que le RITE (Research Institute for Innovative Technology for the Earth) a mis au point une nouvelle méthode de capture du CO2 en deux temps. Les effluents gazeux traversent une solution à base d'aluminium qui piège le CO2. Le liquide est ensuite envoyé vers une membrane tubulaire percée d'orifices d'un dixième de micromètre. En abaissant la pression autour de cette membrane, le liquide s'éjecte par les petits trous en libérant le CO2.

Des méthodes similaires employant un liquide d'absorption existent déjà mais sont menées à des hautes températures (110-140°C), nécessitant de ce fait de grandes quantités d'énergie (20 % de l'énergie produite dans le cas d'une centrale thermique). La méthode du RITE ne demandant qu'un environnement basse-pression permet de réduire de moitié le coût de séparation et de capture du CO2. Le RITE va continuer ses recherches afin d'obtenir d'ici deux ans un système consommant 4 fois moins d'énergie que les techniques actuelles et ne coûtant que la moitié.

Le RITE a mené au Japon des essais d'enfouissement de CO2 entre 2003 et 2005. Plus de 10000 tonnes de CO2 ont été enfouies dans des aquifères de la région de Niigata. On estime qu'au maximum 150 milliards de tonnes pourront être stockées au Japon, même si en réalité seules 52 milliards ont été confirmées. A l'échelle mondiale c'est 483 des 877 milliards de tonnes de CO2 rejetés d'ici 2050 qui pourraient être enfouies. Le projet européen CASTOR (CO2 from Capture to Storage) étudie actuellement les possibilités à l'échelle européenne. Il va sans dire que la nouvelle méthode du RITE représente un enjeu économique/scientifique/environnemental à l'échelle mondiale.

BE

L'épaisseur de la banquise aurait diminué de moitié en 6 ans
Vendredi, 21/09/2007 - 00:00

L'épaisseur de vastes étendues de banquise de l'océan glacial Arctique a diminué de moitié depuis 2001, tombant à seulement un mètre, a déclaré une scientifique. "Nous avons trouvé, partout où nous passions, une glace peu solide", a déclaré dans une interview à Reuters Ursula Schauer, chef d'une expédition scientifique à bord du brise-glace Polarstern. "Toutes ces zones-là, naguère, avaient une banquise de deux mètres d'épaisseur", a déclaré Schauer, par téléphone, de l'océan Arctique au nord de la Sibérie. La précédente importante étude menée sur la question remontait à 2001. Schauer, de l'Institut Alfred Wegener est partie de Norvège à destination du pôle Nord et a ensuite fait route vers la côte russe.

Signe de la tendance au rétrécissement de plus en plus importante de la banquise pendant l'été, l'Agence spatiale européenne (ESA) a fait savoir que le "passage du Nord-Ouest", au nord du Canada, était désormais libre de glace à la fin de l'été, permettant le franchissement par bateau de l'Arctique, entre l'Europe et l'Asie, par une voie maritime "qui était, historiquement, impraticable". "Le passage du Nord-Est, a déclaré pour sa part Schauer, semble libre de glace au nord de la Sibérie, à l'exception d'une petite partie entre le continent et l'île de Severnaïa Zemlia". La diminution de l'épaisseur de la banquise se conjugue aux données transmises par les satellites concernant le rétrécissement record de la superficie gelée en été.

Certains climatologues estiment que la banquise pourrait totalement disparaître en été dans quelques décennies, et non pas vers la fin du siècle comme le prévoit le Groupe intergouvernemental d'experts sur l'évolution du climat (GIEC). Le NSIDC (Centre américain de données sur la neige et la glace) a annoncé qu'à la fin de l'été, la banquise arctique ne couvrait plus que 4,14 millions de km², soit 1,2 million de km² (un peu plus de deux fois la France) de moins qu'en 2005, année du précédent record de fonte.

Yahoo

L'OCDE remet en cause l'intérêt écologique des biocarburants
Vendredi, 21/09/2007 - 00:00

L'OCDE vient de fait part de ses inquiétudes à propos du développement des biocarburants dans le monde. L'organisation confirme ainsi le fait que l'engouement pour les récoltes énergétiques menace d'engendrer un manque de nourriture et d'endommager la biodiversité tout en ayant des avantages limités pour le climat. Techniquement, une production d'agrocarburants équivalant à 13% de la demande totale en combustibles liquides dans le secteur des transports, a été jugée possible d'ici 2050 mais une expansion à cette échelle ne pourra pas être réalisée sans impacts significatifs sur l'économie globale. L'OCDE est catégorique : n'importe quel transfert de terre de la production de nourriture vers la production de biomasse énergétique influencera à la hausse les prix des denrées alimentaires. La croissance rapide de l'industrie des agrocarburants est donc susceptible de maintenir des prix élevés et en augmentation au moins tout au long de la prochaine décennie.

La croissance de l'industrie des agrocarburants est également susceptible d'augmenter la pression sur l'environnement et la biodiversité. L'OCDE estime que parmi les technologies actuelles, seuls les agrocarburants produit à partir de canne à sucre, de cellulose, de graisses animales et d'huile de cuisine usagée peuvent sensiblement réduire les gaz à effet de serre (GES) comparativement à l'essence et au diesel. Les autres techniques de production peuvent théoriquement entraîner une réduction de 40 % des émissions de GES mais lorsqu'on prend en compte l'acidification des sols, l'utilisation d'engrais, la perte de biodiversité et la toxicité des pesticides, les incidences globales de l'éthanol et du biodiesel sur l'environnement excédent rapidement celles de l'essence et du diesel.

Selon l'OCDE, une part de marché des agrocarburants de 13 % d'ici 2050 représenterait une réduction des GES du secteur des transports de 3 % qui serait très vite annulée par une augmentation des besoins de carburants pour les transports : étant donné la croissance prévue de la demande des carburants de transport, les agrocarburants] ne réduiront pas la consommation globale de pétrole mais modéreront seulement la croissance de la demande. L'OCDE rappelle également que contrairement à ce qui est souvent avancé, le coût de production des agrocarburants ne baissera pas avec l'augmentation du prix des carburants fossiles puisque ces derniers sont nécessaires à la production de bioéthanol et de biodiesel.

Malgré tout, le secteur des agrocarburants continu d'être encouragé avec l'idée que la seconde génération d'agrocarburants qui utilisera toutes les parties de la plante et non seulement les huiles, seront plus rentables sur les plans économique et environnemental. Mais là encore, l'OCDE craint que la technologie ne soit pas économiquement viable : Même avec des développements technologiques positifs il y a des doutes sérieux au sujet de la possibilité d'utiliser des résidus agricoles comme biomasse sur une grande échelle.

Par ailleurs, dans son analyse, l'OCDE estime que les politiques de soutien aux biocarburants sont inefficaces et coûteuses. Dans la plupart des cas, elles ne distinguent pas les agrocarburants selon leurs matières de base ou leurs méthodes de production, en dépit des différences importantes qui existent en termes de coûts et d'avantages environnementaux. Au final, les gouvernements risquent de soutenir un carburant qui est plus cher et a des incidences environnementales négatives plus élevées que son produit pétrolier correspondant. Concernant leur coût élevé, l'OCDE illustre simplement son propos en rappelant que la réduction d'une tonne de GES aux États-Unis à partir de maïs coûte environ 500$ soit environ 360?. Par comparaison, le GIEC estime que la technique du piégeage et de stockage du carbone pourrait coûter selon les centrales concernées entre 40$ et 270? la tonne évitée.

[OCDE

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
L'endoscopie haute définition repousse les limites de l'investigation
Vendredi, 21/09/2007 - 00:00

Le principe de l'endoscopie est l'utilisation d'une caméra placée au bout d'une fibre optique et reliée à un écran vidéo qui restitue les images acquises. Cet examen permet de pratiquer un acte thérapeutique, d'effectuer des prélèvements de tissus ou de réaliser un diagnostic.

« C'est une méthode d'investigation peu invasive dont les résultats sont reconnus par l'ensemble du corps médical » précise le communiqué de Karl Storz Endoskope. Et de souligner que « l'endoscopie permet d'intervenir sur de nombreux organes comme l'abdomen, les articulations, l'utérus, le tube digestif, le colon, etc.) »

Concrètement, le chirurgien qui réalise ces examens ne voit pas directement les organes, mais tous ses gestes sont contrôlés sur un écran. Le format et la restitution des images vont donc déterminer la qualité de la procédure.

C'est pourquoi l'arrivée de l'Endoscopie Haute Définition va permettre une évolution importante de cette technique d'investigation, assurent les concepteurs de cette caméra. Ce nouveau matériel va donner la possibilité aux médecins chirurgiens non seulement de réaliser des diagnostics de plus en plus précis et précoces, mais surtout, il va lui permettre d'intervenir sur des lésions infiniment plus petites qu'auparavant.

Un zoom optique très puissant autorise une classification immédiate des lésions et permet véritablement de « visualiser l'invisible ». De fait, ces endoscopes « Haute Définition » permettent de travailler avec des caméras d'une sensibilité de deux millions de pixels soit cinq fois plus d'informations que les caméras traditionnelles qui restituent seulement 400 000 pixels.

L'apport de la Haute Définition va permettre des évolutions importantes dans de nombreuses spécialités, indique encore le communiqué. Et de préciser que « pour les tumeurs cancéreuses, cette méthode va permettre une meilleure définition et donc un meilleur diagnostic ». D'autre part, « au niveau interventionnel, les chirurgiens vont pouvoir élargir leurs indications thérapeutiques et surtout vont pouvoir travailler avec encore plus de sécurité ».

SA

Des cellules souches pour réparer le poumon
Vendredi, 21/09/2007 - 00:00

Des chercheurs britanniques ont réussi à implanter des cellules souches embryonnaires dans des poumons de souris. Ces résultats, présentés comme une première mondiale par l'équipe de Sile Lane, de l'Imperial College London (GB), constituent une première étape importante vers la réparation de poumons abîmés.

La diversité des cellules qui composent le poumon en fait un terrain d'intervention difficile pour les spécialistes de l'ingénierie cellulaire, a expliqué Sile Lane lors du Congrès de la Société européenne de pneumologie qui s'est achevé aujourd'hui à Stockholm (Suède). Les chercheurs de l'ICL avaient déjà réussi à cultiver des cellules souches embryonnaires de souris afin qu'elles deviennent des cellules spécialisées de l'épithélium pulmonaire, là où se font les échanges gazeux. Restait à démontrer qu'elles étaient opérationnelles.

Les chercheurs ont marqué ces cellules avec un composé fluorescent avant de les injecter dans les veines des souris. Certaines souris étaient normales tandis que d'autres avaient subi des lésions de l'épithélium pulmonaire. Deux jours après l'injection, les chercheurs ont disséqué les souris et repérer la présence des cellules souches dans les poumons, plus précisément dans les parties abîmées de l'épithélium. Aucune trace de cellules fluorescentes n'a été retrouvée ailleurs dans l'organisme des rongeurs.Des cellules souches capables de coloniser des parties endommagées de l'épithélium pulmonaire permettraient de soigner de nombreuses maladies chronique, comme la broncho-pneumopathie chronique obstructive (BPCO) qui affectent de gros fumeurs.

NO

Tour de taille : un risque de developper un pathologie cardiovasculaire qui se mesure
Vendredi, 21/09/2007 - 00:00

Taux de cholestérol et de triglycérides augmentés, tension artérielle élevée, glycémie à jeun perturbée : tels sont les facteurs associés à une "brioche" exacerbée et qui génèrent un risque de pathologies cardiovasculaires majoré. Ce résultat est le fruit d'une étude menée sur plus de 35.000 patients venus consulter 1.511 médecins établis dans toute l'Allemagne.

Cette dernière a été présentée par une équipe de recherche de Dresde, sous la direction du Docteur Peter Bramlage, lors du congrès de la société européenne de cardiologie (ESC), qui s'est tenu à Vienne du 1er au 5 septembre. Au sein du large panel de patients étudiés, 22 % d'entre eux présentaient un tour de taille important et 37 % une circonférence abdominale très importante. Selon l'OMS, pour être dans la norme, un tour de taille ne doit pas dépasser 80cm chez la femme et 94cm chez l'homme.

BE

Les statines protègent-elles de la maladie d'Alzheimer ?
Vendredi, 21/09/2007 - 00:00

Quelques premières études épidémiologiques avaient suggéré que les statines pourraient avoir un effet protecteur contre la maladie d'Alzheimer (MA). Malheureusement, les études prospectives et deux essais thérapeutiques entrepris à la suite de ces observations n'ont pas réussi à confirmer l'efficacité de cette classe médicamenteuse dans ce contexte.

Ces résultats contradictoires peuvent être expliqués par les difficultés à effectuer un diagnostic de certitude de MA chez les patients vivants. Des auteurs américains relancent le débat en démontrant un effet bénéfique des statines chez des sujets dont le diagnostic de MA a été confirmé en neuropathologie.

Cent dix personnes âgées de moins de 80 ans qui avaient participé à une étude observationnelle prospective (débutée en 1994, cohorte de 2 581 sujets sains) ont été inclus dans cette étude. Les auteurs ont comparé les résultats des analyses neuropathologiques effectuées sur les cerveaux des sujets ayant reçus ou non des statines.

Après ajustement pour l'âge du décès, le sexe, le statut cognitif à l'inclusion, le poids du cerveau et la présence de lésions cérébrales d'origine vasculaire, l'analyse des données montre que le risque de passage d'un stade à un autre dans l'échelle de Braak est réduit de 56 % chez les utilisateurs de statines par rapport à ceux qui n'en n'ont pas consommé.

JIM

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top