RTFlash

RTFLASH Recherche & Technologie
NUMERO 538
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 17 Décembre 2009
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
La téléphonie mobile, concurrente des postes fixes ?
Google réinvente la recherche sur Internet
2010 sera l'année de la voix sur IP mobile
Avenir
Quand les muscles guident le doigt mécanique
Matière
Une batterie en papier haute performance !
Une nouvelle technologie de cellules photovoltaïques permettrait d'augmenter considérablement le rendement de l'énergie solaire
Percée en série dans le domaine des batteries
Terre
L'acidité des océans a augmenté de 30 %
2020 : année clé pour la réduction des émissions de GES
Le secteur des énergies renouvelables booste les emplois verts
Vivant
Découverte de deux « gardes du corps » des télomères
Mise au point d'un test sanguin pour dépister les cancers de l'appareil digestif
Téléphones mobiles : pas d'augmentation des tumeurs cérébrales
Les cellules cancéreuses ne dorment jamais
Un ciblage plus efficace des anticancéreux
Leucémie lymphoïde chronique : l'émergence d'une nouvelle association de médicaments
Des nanoparticules pour l'administration orale d'insuline
Anticoagulants : un révolution en cours
Les souris femelles sans père vivent plus longtemps !
Recherche
Un vélo électrique alimenté à l'hydrogène
Edito
Les nanotechnologies ont 50 ans !



Paul Otellini, le président d'Intel, a ouvert la dernière édition du salon IDF qui s'est tenu à San Francisco fin septembre sur la présentation d'une puce électronique dont les transistors mesurent 22 nm, soit deux fois moins que ceux des derniers Core i7. La fabrication des processeurs à cette échelle ne sera pas industrialisée avant, au mieux, la fin 2012. A cette échéance, une telle miniaturisation multipliera par quatre la densité en transistors des processeurs par rapport au niveau actuel. La tranche de silicium 22 nm se compose de matrices comportant 364 millions de bits de SRAM et près de 3 milliards de transistors rassemblés sur une surface de la taille d'un ongle.

On sait déjà que ces coeurs ne seront pas forcément tous dédiés au calcul. Des coeurs graphiques avec fonctions vectorielles, et d'autres spécialisés dans la cryptographie sont prévus. Ils feront d'ailleurs leur apparition dès la prochaine génération Sandy Bridge de processeurs. Intel entend la lancer vers la fin 2010, avec une gravure intermédiaire de 32 nm. Dès lors, les modèles de processeurs se multiplieront. Le processeur Larrabee aura par exemple un maximum de coeurs graphiques. D'ici là, les processeurs actuels de la génération Nehalem, jusqu'ici gravés en 45 nm, vont également bénéficier de la gravure en 32 nm au début de 2010. Intel compte tirer partie de cette réduction de taille de plusieurs manières. Il s'en servira tantôt pour diminuer les watts, tantôt pour augmenter les gigahetrz des serveurs, des PC et des portables, selon les marchés visés.

Intel vise une gravure de 10 nm avant 2020 et pense que les limites physiques de la gravure seront atteintes autour de 5 nm. Pour atteindre cet objectif, Intel travaille actuellement sur une technologie d'assemblage de puces baptisée Block CoPolymer Litography (BCP), en partenariat avec l'Université de Californie et la Fondation Nationale des Sciences américaine. A cette échelle, les ingénieurs d'Intel pensent que la charge électrique traversera directement le transistor même s'il n'est pas sollicité.

En marge du salon Intel Developer Forum 2009, des chercheurs du fameux MIT (Massachusetts Institute of Technology) américain ont présenté deux nouveaux procédés chimiques pour fabriquer des semi-conducteurs encore plus performants. Le premier procédé sert à fixer des nanotubes de carbone à la surface des wafers (les disques sur lesquels on grave les circuits électroniques) à la place des interconnexions en cuivre.

La découverte de l'équipe du professeur Gilbert D. Nessim a tout d'une recette de cuisine : plutôt que de chercher à coller des nanotubes sur un wafer, on les fait croître dans un four. En l'occurrence, les chercheurs vaporisent sur ce disque du tantale et du fer puis l'aspergent d'éthylène à exactement 475°C. A cette température, le gaz se décompose et ses molécules de carbone se fixent sur les deux métaux précédents d'une manière particulière, créant ainsi un maillage d'interconnexions en nanotubes à la surface du disque.

L'équipe du professeur Tomas Palacios a, quant à elle, réussi à fabriquer un processeur dont les unités de calcul, en nitrure de gallium, vont plus vite que la mémoire cache, en silicium classique. Le nitrure de gallium permet de grimper plus loin dans les gigahertz, mais c'est un matériau moins stable, avec lequel on ne parvient pas à graver un grand nombre de transistors. L'idée consiste donc à le réserver à ceux des unités de calcul. D'une part parce qu'ils sont minoritaires. D'autre part parce que c'est surtout leur vitesse qui conditionne les performances d'un processeur. Grâce à ces innovations on devrait pouvoir concevoir et fabriquer d'ici 10 ans des puces trente fois plus puissantes, à taille égale, qu'aujourd'hui.

Mais à partir de 2020, seule une rupture technologique permettra de poursuivre cette course vers l'infiniment petit et l'infiniment puissant. C'est pourquoi IBM prépare déjà ce grand saut en association avec l'Institut de Technologie de Californie (Caltech). Dans un article publié en septembre dans la revue Nature les chercheurs sont parvenus à utiliser un brin d'ADN (qu'IBM baptise « ADN origami ») pour créer des motifs lithographiques de 6 nanomètres. Comme de nombreuses molécules, l'ADN présente en effet l'avantage d'offrir un modèle répétitif et, surtout, reproductible, y compris, visiblement, à l'échelle industrielle électronique.

Ces motifs d'ADN origami permettent ensuite d'assembler sous forme structurée des nanotubes de carbone mais aussi des fibres de silicium. A travers ces recherches, IBM espère ainsi rélever un triple défi : produire des composants nanométriques moins gourmands en énergie et moins chers à fabriquer que les composants actuels.

Autre voie technologique pour préparer l'après silicium : l'ordinateur quantique. Il y a quelques semaines, des chercheurs de l'université de Bristol ont réalisé un prototype de puce optoélectronique quantique qui leur a permis pour la première fois d'effectuer un calcul mathématique. L'appareil est constitué de minuscules guides d'ondes en silice placés sur une puce de silicium et il exécute l'algorithme de Shor, un algorithme mathématique conçu spécifiquement pour exploiter les propriétés du calcul quantique et factoriser ainsi en nombres premiers.

Les ordinateurs classiques stockent et traitent l'information sous forme de bits, une unité d'information qui ne peut avoir qu'un des deux états 0 ou 1. Un ordinateur quantique, en revanche, exploite le principe de la superposition d'états, c'est-à-dire le fait que les particules quantiques peuvent coexister dans deux états ou plus en même temps.

En 2003, Jeremy O'Brien et ses collègues de l'université du Queensland, en Australie, avaient réussi à réaliser la première porte logique contrôlée (CNOT) à photon unique. Une telle porte CNOT possède deux entrées - “cible” et “contrôle” - et constitue un composant élémentaire fondamental pour parvenir à l'ordinateur quantique. L'équipe de Bristol vient de franchir une étape en effectuant son premier calcul mathématique avec une puce quantique.

En matière de stockage, la prochaine révolution viendra peut-être des nanolasers qui sont capables de générer une énergie équivalente à près de 250 nanowatts, soit la puissance suffisante pour assurer un stockage de dix terabits (10 000 Gbits) de données sur une surface de seulement 2,5 centimètres carrés.

On voit donc se profiler l'ordinateur de demain qui sera optique et dans lequel le photon remplacera l'électron comme vecteur d'information. Sur le plan de sa structure et du fonctionnement, cet ordinateur trouvera son inspiration à la fois dans la molécule d'ADN, support fondamental de l'information biologique et dans la physique quantique, dont les lois étranges régissent le domaine des particules et de l'infiniment petit. Mettre au point ces machines dont la puissance et la rapidité défient l'imagination nécessitera un effort considérable de décloisonnement et d'articulation conceptuel entre les sciences de la matière, les sciences de l'information et les sciences du vivant.

Il y a presque 50 ans jour pour jour, dans son fameux discours donné le 29 décembre 1959 à la Société Américaine de Physique, Richard Feynman, en visionnaire de génie, évoquait les immenses potentialités des nanotechnologies et se disait convaincu qu'on pourrait un jour mettre toute l'Enclypopedia Britannica dans une tête d'épingle.

Ce jour n'est plus très loin et d'ici 10 ans la miniaturisation de l'électronique atteindra les limites vertigineuses de quelques atomes. Mais l'utilisation de nanotechnologies et l'exploration de infiniment petit ne sont pas seulement en train de révolutionner les technologies de l'information mais également le domaine de l'énergie et des sciences du vivant.

Demain, les nanotechnologies seront partout : elles permettront de fabriquer des cellules solaires soules, ultraminces et à haut rendement ; elles pourront piéger l'hydrogène pour le stocker en grande quantité dans nos voitures ; elles iront traquer et détruire les cellules cancéreuses de manière extraordinairement précise ou réparer nos neurones endommagés.

Mais ce « nanomonde », porteur d'immenses espoirs, dont certains sont déjà en train de se concrétiser, est également source de crainte et de méfiance chez certains de nos concitoyens qui n'en perçoivent que les risques et ne sont pas informés de leurs prodigieuses potentialités, notamment en médecine (Voir par exemple l'article sur les nanoparticules d'insuline dans notre rubrique « Médecine&Biologie).

Notre société et la communauté scientifique ne doivent pas ignorer ces interrogations et nous devons y répondre en instaurant un vrai débat démocratique sur l'utilisation de ces nanotechnologies et sur leur impact social et en associant tous nos concitoyens à cette extraordinaire aventure scientifique et humaine.

René Trégouët

Sénateur honoraire

Fondateur du Groupe de Prospective du Sénat


TIC
Information et Communication
La téléphonie mobile, concurrente des postes fixes ?
Vendredi, 18/12/2009 - 00:00

2009, 82 % des Français âgés de 12 ans et plus disposent d'un terminal mobile, soit une hausse de 4 points en un an. Telle est l'une des conclusions de l'enquête annuelle réalisée pour l'Autorité de régulation des communications électroniques et des postes (Arcep) et le Conseil général de l'industrie, de l'énergie et des technologies (CGIET), publiée vendredi 11 décembre. Intitulée La Diffusion des technologies de l'information et de la communication dans la société française, l'étude a été réalisée par le Credoc, en face à face, auprès de 2 220 personnes représentatives de la population de 12 ans et plus.

Il existe toutefois des disparités en fonction des catégories d'âge. Les 18-24 ans sont les plus grands utilisateurs de téléphone mobile, 98 % en possédant un. Les plus de 70 ans restent, eux, encore réticents, affichant seulement un taux d'adoption de 42 %. Mais, d'une manière générale, la croissance en points est relativement homogène selon les générations.

La croissance de l'Internet mobile est aussi l'une des tendances fortes de l'année. Après trois ans de stagnation, entre 7 et 8 %, la proportion de la population qui utilise son mobile pour consulter Internet a doublé en un an, passant à 13 %. "Cela signifie que les usages dépassent à présent les simples technophiles. L'essor d'Internet sur les téléphones s'explique d'abord par la simplification d'utilisation des terminaux mobiles", explique Pascal Faure vice-président du CGIET. En valeur absolue, on compte donc, en 2009, environ 5 millions d'usagers d'Internet par leur téléphone mobile. Cette pratique est surtout répandue chez les 12-17 ans et chez les cadres (39 %).

Concernant les usages, l'envoi de SMS est en forte progression : 71 % des adultes possédant un téléphone en envoient ainsi régulièrement, contre 66 % il y a un an. Ce taux atteint même 100 % chez les 12-17 ans, avec une moyenne de 90 SMS envoyés par semaine, presque le double par rapport à 2008. Les adultes en écrivent eux 21, contre 15 en 2008.

"Alors que dans d'autres pays, le mobile tend à se substituer au fixe, l'originalité du modèle commercial français est qu'il s'est structuré sur l'offre multiservices, incluant notamment la téléphonie fixe", souligne aussi l' l'Arcep. C'est ce qui explique que les équipements à domicile sont en croissance, prenant 3 points en un an, et sont utilisés par 88 % de la population.

LM

Google réinvente la recherche sur Internet
Vendredi, 18/12/2009 - 00:00

Avec Google goggles (les lunettes de Google), le géant américain révolutionne le domaine de la recherche en ligne. Cet outil se base sur le système de reconnaissance graphique pour chercher les renseignements demandés. Outre les lieux géographiques, une carte de visite peut aussi donner toutes les informations souhaitées sur la personne concernée.

Les applications de Google goggles sont infinies. Les SAV de plusieurs entreprises veulent s'en servir pour régler les pannes, tandis que les restaurants peuvent inclure leur carte et des critiques dans un guide. Pour le moment, le projet n'en est qu'à ses premiers balbutiements mais, selon la firme américaine, les recherches par images représenteront 45% des requêtes lancées sur le net fin 2015.

MS

2010 sera l'année de la voix sur IP mobile
Vendredi, 18/12/2009 - 00:00

Jusqu'à présent, les opérateurs de téléphonie français se sont refusés à autoriser toute application de voix sur IP sur leur réseau, soucieux de préserver leurs revenus, issus de la voix traditionnelle. Aux Etats-Unis, AT&T, lui, a franchi le pas. Mais les choses semblent donc en train de changer. Outre Bouygues Telecom, Orange réfléchit aussi à autoriser la VoIP sur mobile, comme l'opérateur l'avait indiqué: « Actuellement, la VoIP n'est pas ouverte chez Orange, mais nous travaillons sur une option VoIP ...]. Ce lancement est prévu lors du premier trimestre 2010. »

De son côté, Skype, qui propose la plus célèbre des applications de VoIP, s'impatiente. L'éditeur a écrit fin octobre une lettre à la Commission de Bruxelles pour se plaindre du blocage de la voix sur IP en Europe, contraire au principe de la neutralité du Net, et pour demander une action rapide. Le 5 novembre, au moment des négociations sur le paquet télécoms entre le Parlement européen et le Conseil des ministres, la Commission avait « pris l'engagement d'exercer un contrôle rigoureux de la neutralité de l'Internet et de mettre à profit ses compétences actuelles, ainsi que de nouveaux instruments à sa disposition en vertu du paquet de réformes, pour rendre compte périodiquement de la situation en la matière au Parlement européen et au Conseil des ministres ».

« Après la réforme de la réglementation, la Commission sera la première ligne de défense de l'Europe en ce qui concerne la neutralité de l'Internet », avait alors affirmé Viviane Reding, commissaire européenne chargée des télécommunications.

[OINet

^ Haut
Avenir
Nanotechnologies et Robotique
Quand les muscles guident le doigt mécanique
Vendredi, 18/12/2009 - 00:00

Afin de permettre aux patients ayant perdu un ou plusieurs doigts de retrouver une plus grande autonomie, Touch Bionics a développé une prothèse baptisée ProDigits. Celle-ci se met sur la main comme un gant. Equipée de capteurs myoélectriques, elle enregistre les signaux nerveux émis par les muscles de cette partie du corps. Ce qui permet d'activer les doigts mécaniques de la prothèse, permettant à la personne de pointer, toucher, ramasser ou encore tourner un objet. Il est aussi possible de faire se mouvoir les doigts par un système de pression.

Une plaque tactile installée sur la paume comprend quand l'utilisateur s'empare d'un objet. Le système retranscrit ensuite cette pression en activant les doigts mécaniques, et les arrêtent quand la pression est relâchée. Cela permet d'effectuer des mouvements très précis. Par exemple, de bouger chaque doigt séparément ou de mesurer si la main a suffisamment resserré l'objet pour le soulever. "Avec ProDigits, chaque doigt devient une unité opérationnelle autonome", explique Jack Uellendahl, l'un des responsables du projet. Touch Bionics a également développé une solution Bluetooth permettant au personnel médical d'ajuster les fonctions de motricité à chaque patient en particulier. Celles-ci sont retranscrites dans une carte électronique implantée dans chaque prothèse.

Par exemple, il est possible de désactiver la fonction de s'emparer d'un objet avec seulement le pouce et l'index, si le patient la trouve trop difficile à effectuer. On peut également augmenter ou diminuer la sensibilité de la prothèse, selon la physiologie et les préférences de la personne. La technologie trouvera ses usages auprès des personnes à qui il manque entre un et cinq doigts. Pour information : plus de cinquante milles de personnes en Union européenne ont des extrémités supérieures amputées. Ce chiffre s'élève à plus d'un million dans le monde entier.

Atelier

^ Haut
Matière
Matière et Energie
Une batterie en papier haute performance !
Vendredi, 18/12/2009 - 00:00

Trempez une feuille de papier ordinaire dans de l'encre infusé de nanotubes de carbone et de nanofils d'argent, et elle se transforme en une batterie ou en super- condensateur. Froissez le morceau de papier, et il fonctionne toujours. Yi Cui, un chercheur de l'Université de Stanford imagine déjà de nombreuses applications utilisant ce nouveau moyen de stocker l'électricité.

Etonnant ! Les scientifiques de Stanford exploitent la nanotechnologie pour produire des batteries ultra-légères et des supercondensateurs flexibles sous la forme de papier. "Il suffit de couvrir une feuille de papier avec une encre composée de nanotubes de carbone et de nanofils d'argent pour rendre ce dispositif de stockage hautement conducteur", a déclaré Yi Cui, professeur adjoint des sciences et génie des matériaux.

"La société a vraiment besoin d'une technologie peu coûteuse et à haute performance énergétique, pour des dispositifs de stockage, tels que les batteries et les supercondensateurs", a t'il ajouté.

Tout comme les batteries, les condensateurs conservent une charge électrique, mais pour une période de temps beaucoup plus court. En contrepartie, les condensateurs ont la capacité de stocker et de décharger de l'électricité très rapidement.

"Ces nanomatériaux sont spéciaux", précise Yi Cui. "C'est une structure unidimensionnelle avec un diamètre très petit." Ce petit diamètre permet à la nano-encre d'adhérer fortement aux fibres du papier, rendant la batterie et le supercondensateur durable. Le supercondensateur de papier pourrait subir 40.000 cycles de charge-décharge - plus que les batteries au lithium. "Les nanomatériaux sont aussi de bon conducteur car ils déplacent l'électricité beaucoup plus efficacement que les autres", précise le chercheur.

Le professeur Cui avait précédemment créé des dispositifs de stockage d'énergie utilisant des matières plastiques. Les nouvelles recherches montrent que la batterie en papier reste plus résistante car l'encre adhère plus fortement. De plus, vous pouvez froisser ou plier la batterie de papier, ou même la faire tremper dans des solutions acides sans que les performances s'en ressentent.

La souplesse du papier permet d'imaginer de nombreuses applications intelligentes. "Si je veux peindre mon mur avec un dispositif conducteur de stockage d'énergie, je peux utiliser un pinceau."Autres exemples ? L'électricité excédentaire produite la nuit pourrait être stockée et utilisée aux heures de pointe pendant la journée. Ou encore, les parcs éoliens et les systèmes solaires pourraient également bénéficier de cette nouvelle forme de stockage.

Enerzine

Une nouvelle technologie de cellules photovoltaïques permettrait d'augmenter considérablement le rendement de l'énergie solaire
Vendredi, 18/12/2009 - 00:00

Un projet national de recherche sur les cellules photovoltaïques devrait donner lieu à la production d'une troisième génération de cellules photovoltaïques. Ces cellules se basent sur une nouvelle technologie, mise en place notamment par des chercheurs de NTNU (université de Trondheim), de l'université d'Oslo, de SINTEF et de l'IFE (institut de technologies pour l'énergie).

Les cellules photovoltaïques actuelles ont un rendement de 16 à 18%. Au maximum elles pourraient atteindre un rendement de 29% (limite dite de Shockley-Queisser). Les nouvelles cellules que les chercheurs norvégiens développent pourraient atteindre un rendement de 60 à 80%. Cela passe à la fois par l'utilisation optimale des propriétés énergétiques de la lumière du soleil (en utilisant tout le spectre de cette lumière et non pas une seule partie de celui-ci) et par l'amélioration de certaines propriétés des cellules photovoltaïque actuelles.

Lorsque la lumière du soleil arrive sur un solide (de la silice pour les cellules photovoltaïques), l'énergie portée par les photons (particules de la lumière) est transmise aux électrons de ce solide. Les électrons augmentent ainsi leur propre énergie.

La théorie des bandes veut que dans un solide, les différents électrons présents dans les atomes aient des états d'énergie différents les uns des autres. Cependant, ces états d'énergie ne sont pas aléatoires : ils sont compris à l'intérieur de bandes de niveaux d'énergie et ne peuvent pas avoir des niveaux d'énergie en dehors de ces intervalles. Deux bandes sont particulièrement importantes: la bande de valence et la bande de conduction.

La bande de valence correspond à la dernière bande complètement remplie en électrons (on ne peut pas rajouter d'autres électrons dans cette bande), la bande de conduction est celle qui suit (incomplète en électrons). Pour passer de l'une à l'autre, un électron a besoin de recevoir une quantité d'énergie supérieure à l'intervalle entre les deux bandes. Dans le cas présent, cette énergie est apportée par les photons de la lumière. Cette différence d'énergie entre les deux bandes est appelée "band gap". Une fois qu'il a dépassé ce "band gap", l'électron de la bande de conduction est libre de circuler dans le solide (il n'est plus lié à son atome) : c'est l'effet photovoltaïque (ou photoélectrique).

La lumière solaire est composée de plusieurs longueurs d'ondes : cela signifie que les photons ne portent pas tous la même quantité d'énergie. Certains en auront suffisamment pour faire passer le "band gap" à un électron, d'autres non. C'est une des raisons qui limite le rendement des cellules photovoltaïques classiques : beaucoup de photons qui arrivent ne servent à rien. Pour obtenir un maximum d'électricité au final, il faut qu'un maximum d'électrons puisse passer de la bande de valence à la bande de conduction. D'autre part, certains photons apportent une énergie supérieure à celle nécessaire pour passer la band gap, le reste est donc de l'énergie perdue (sous forme de chaleur).

Ce que les chercheurs norvégiens ont fait de nouveau : changer la structure de la cellule photovoltaïque pour rajouter des structures en nanocristaux à la structure en Silice, permettant ainsi de :

- Convertir les photons trop énergiques en deux photons moins énergiques (mais d'énergie toujours suffisante pour passer la band gap): c'est la down-conversion. Cela permet de faire passer plus d'un électron sur la bande de conduction avec un seul photon incident.

- Combiner deux photons d'énergie trop faible pour en créer un de niveau suffisant pour dépasser la Gap Band: c'est l'up-conversion. En produisant également des cellules qui peuvent avoir différents band gap, on peut penser que cela permettrait de convertir l'ensemble du spectre solaire.

Dans les cellules photovoltaïques, la structure force les électrons libres à aller à l'opposé des "trous", afin de créer une différence de potentiel, entre le pôle + (le trou) et le pôle - (l'électron), comme dans une pile. Plus on maintient longtemps cette différence de potentiel plus on récupère d'électricité. Il faut donc que l'électron de la bande de conduction reste longtemps sans retrouver un "trou". Avec la technologie actuelle, ce temps est de l'ordre de la nano- ou de la microseconde. Les matériaux que les norvégiens sont en train d'élaborer permettraient de prolonger cette durée jusqu'à un millième de seconde.

Un prototype de ces nouvelles cellules photovoltaïque devrait bientôt être produit. Même si cela ne sera pas commercialisé avant plusieurs années, les résultats de ces recherches semblent très prometteurs. Dans la course à la réduction des prix du wattheure, ces nouvelles cellules à haut rendements pourraient aider la filière solaire à s'imposer.

BE

Percée en série dans le domaine des batteries
Vendredi, 18/12/2009 - 00:00

L'introduction massive des véhicules électriques constitue un des axes principaux du gouvernement japonais pour atteindre ses objectifs de réduction d'émission de CO2. La NEDO (Organisation pour le Développement des Energies Nouvelles et des Technologies Industrielles), organisme public de financement de la recherche, finance depuis longtemps des projets de recherche liés à ce domaine. Le 24 novembre, elle a publié sur son site quatre résultats prometteurs qui permettraient d'améliorer l'autonomie des batteries tout en améliorant leur sécurité et leur coût de production.

L'équipe du professeur KANAMURA Kiyoshi de la Tokyo Metropolitan University, a développé une anode en lithium métal qui se dégrade peu au cours des cycles de charge et de décharge de la batterie.

Le lithium est un métal léger qui permet le stockage une forte densité d'énergie. Il est un candidat idéal pour la conception de batteries. Les batteries au lithium-ion sont d'ailleurs très présentes dans les appareils électroniques portables (téléphones, ordinateurs, etc). La très grande majorité des constructeurs automobiles mondiaux ont fait le choix des batteries lithium-ion manganèse pour équiper leurs véhicules électriques et hybrides.

Mais les batteries qui utilisent le lithium comme constituant de l'anode, présentent une densité énergétique supérieure aux batteries lithium ion (ou le lithium est utilisé sous forme ionique dans l'électrolyte). Cependant, l'anode peut se dégrader rapidement ce qui empêche leur utilisation commerciale. Les résultats de recherche du professeur KANAMURA sont donc intéressants pour un futur déploiement des batteries lithium métal.

Le professeur a en effet réussi à maîtriser la formation de dendrites qui se développent lors des cycles de charge et décharge, et qui réduisent la densité d'énergie de la batterie. Il a ainsi pu créer une batterie qui, pour la première fois au monde, est capable de supporter 2.000 cycles de charge et de décharge, sans se dégrader. Selon lui, dans les véhicules électriques, sa nouvelle anode permettrait d'élever l'autonomie au-delà de 500 km (les voitures électriques vendues dans le commerce ont actuellement une autonomie d'une centaine de km). Le professeur a également développé un processus de production de masse à moindre coût, ce qui rendrait possible l'industrialisation de son anode. La batterie ainsi formée a une capacité de charge de 1000 mA/h, soit trois fois plus qu'une batterie dont l'anode serait en graphite.

Le professeur FUJINAMI Tatsuo de l'Université de Shizuoka a développé un nouvel électrolyte qui permet de fabriquer une batterie lithium-ion dont la tension de sortie est de 5 V, ce qui constitue une première mondiale selon lui. L'électrolyte est difficilement inflammable, ce qui rend les batteries plus sures. Constitué à partir d'acide borique, il est peu coûteux à fabriquer.

L'équipe du professeur associé KOMABA Shin'ichi de la Tokyo University of Science a développé un liant à base d'acide polyacrylique pour constituer une anode en silicium et graphite. En utilisant un électrolyte liquide constitué d'une solution ionique, développé par l'équipe du professeur MIURA de l'Université Keio, le professeur KOMABA a réussi à fabriquer une batterie qui aurait une bonne cyclabilité et une bonne densité énergétique (600 Wh/kg).

Le Saitama Industrial Technology Center (SAITEC) a développé un nouveau matériau pour les batteries magnésium-ion. Le magnésium peut être fabriqué facilement à partir de l'eau de mer, ce qui rend son approvisionnement plus facile que celui du lithium, dont les ressources sont inégalement réparties sur la planète. Les chercheurs ont réussi pour la première fois au monde à fabriquer une batterie capable de charges et de décharges stables. Les ions magnésium étant bivalents, les chercheurs pensent que de telles batteries ont une meilleure capacité que les batteries à base de lithium monovalent. La cathode développée par le centre a une capacité de 200 mAh/g. Après cinq cycles, la batterie ainsi constituée fournit 100% de la capacité massique restituée lors du premier cycle.

BE

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
L'acidité des océans a augmenté de 30 %
Vendredi, 18/12/2009 - 00:00

Une réduction importante et immédiate des émissions de dioxyde de carbone (CO2) est nécessaire pour limiter significativement l'acidification des océans et empêcher l'extinction d'espèces marines, des risques sur la sécurité alimentaire et des conséquences socio-économiques significatives. Voilà ce qu'énoncent de nombreux experts, dont les membres du projet européen EPOCA, dans un guide intitulé "L'acidification de l'océan - Les faits" qui vient d'être publié dans le cadre de la conférence des Nations Unies sur le climat à Copenhague.

Environ le quart du CO2 émis par les activités humaines (25 millions de tonnes par jour). Cette absorption, qui va croissant compte tenu de la croissance des émissions, rend l'eau de mer de plus en plus acide, menaçant écosystèmes et espèces importantes pour l'alimentation et l'économie. En outre, cette augmentation de l'acidité de l'océan tend à réduire sa capacité à absorber le CO2 et donc à réguler le climat.

L'acidité de l'eau de mer a augmentée de 30 % depuis le début de la période industrielle, il y a 250 ans. Si, comme il est prévu, ce phénomène s'accélère au cours des 4 prochaines décennies, elle pourrait augmenter de 120 % d'ici à 2060, soit un niveau supérieur à ceux qu'a connu notre planète au cours des 21 derniers millions d'années. Les précédents épisodes d'acidification de l'océan ont donné lieu à des extinctions massives d'espèces. Certaines régions atteignent déjà un niveau d'acidité qui empêche la survie de larves d'espèces commerciales (moules et huîtres).

De nombreux organismes fabriquant un squelette ou une coquille calcaire sont déjà affectés, ce qui réduit leur rôle de producteurs primaires et de constructeurs de récifs. D'ici 2050, les récifs coralliens vont se trouver dans des eaux inhospitalières (plus chaudes et plus acides), qui menaceront leur rôle de protection contre les effets destructeurs de la houle et des tempêtes. D'ici 2100, 70 % des coraux profonds seront dans des eaux corrosives pour leur squelette. Seuls une réduction immédiate et substantielle des émissions de CO2 et le développement de technologies permettant son élimination permettront de limiter l'acidification des océans et son effet sur les écosystèmes marins.

CNRS

2020 : année clé pour la réduction des émissions de GES
Vendredi, 18/12/2009 - 00:00

L'enjeu à Copenhague n'est pas d'empêcher la hausse de la température globale du globe -cela n'est plus possible- mais de la limiter à 2°C au-dessus du niveau préindustriel d'ici 2050. Pour cela il faut réduire les émissions de gaz à effet de serre (GES) et fixer une date pour le pic des émissions globales. En clair, définir l'année à partir de laquelle les émissions doivent impérativement diminuer.

Pour l'instant, depuis l'adoption du protocole de Kyoto, ces émissions globales ont continué d'augmenter d'environ 1% par an, soit plus vite que dans les prévisions intégrées dans les scénarios du Groupement intergouvernemental d'études climatiques (Giec).

Les modèles développés par les climatologues indiquent qu'il faut agir vite pour que le pic soit atteint au plus tard en 2020.

D'après les scénarios calculés par l'équipe de Jason Lowe, climatologue à l'Office météorologique britannique (Met Office), si les émissions de GES commencent à diminuer en 2010 sur un rythme de 3% par an, les températures augmenteraient de 1,7°C d'ici 2050 et d'environ 2°C à la fin du siècle. C'est le scénario le plus optimiste.

Avec un pic en 2016 et une diminution de 4 % par an, la hausse serait cantonnée en-dessous de 2°C. Avec un pic en 2020, il reste 50% de chances de ne pas dépasser les 2°C, toujours selon les chercheurs du Met Office, qui ont fait état de leurs conclusions aux négociateurs de Copenhague.

Les représentants des Etats insulaires et de certains pays d'Afrique très vulnérables aux changements climatiques demandent que la hausse des températures soit limitée à 1,5°C. Pour Vicky Pope, chef scientifique au Met Office, cet objectif est tout simplement impossible à atteindre, à cause de la persistance du CO2 dans l'atmosphère et de l'inertie climatique. Même si on n'émettait plus de GES la température augmenterait de 1,3°C, explique la climatologue britannique, interrogée par la BBC.

En l'état actuel des négociations, l'objectif de limiter la hausse à 2°C n'est pas encore atteint, d'après l'analyse publiée sur le blog de l'Iddri (Institut du développement durable et des relations internationales). Il faudrait plafonner les émissions mondiales de GES à 44 Gt (calculées en équivalent CO2) en 2020 mais la somme des engagements actuels donne un excédent de plusieurs gigatonnes (de 2 à 6 Gt selon les analyses). Des efforts restent à faire pour ne pas laisser passer l'objectif des 2°C.

NO

Le secteur des énergies renouvelables booste les emplois verts
Vendredi, 18/12/2009 - 00:00

A l'occasion du point d'étape du plan national de mobilisation des filières et des territoires pour le développement des métiers liés à la croissance verte, les emplois verts, porté par Valérie Létard auprès de Jean-Louis Borloo, l'ADEME présente les résultats de son étude annuelle sur les marchés et les emplois liés à l'amélioration de l'efficacité énergétique et au développement des énergies renouvelables.

Cette étude sur l'emploi vert montre que malgré la crise économique, ces marchés restent dynamiques et porteurs d'emplois verts, avec des perspectives de croissance permettant l'atteinte des objectifs du Grenelle Environnement pour 2012.

Avec une croissance de 28 % sur la période 2006-2008, les biens et services contribuant à l'amélioration de l'efficacité énergétique et au développement des énergies renouvelables sont l'un des secteurs qui résistent le mieux à la crise économique.

Selon les estimations de l'ADEME, le marché a dépassé la barre des 50 milliards d'euros en 2008 et devrait atteindre 57 milliards en 2009. La croissance est tirée par les énergies renouvelables (en particulier le photovoltaïque et les pompes à chaleur) et l'amélioration de l'efficacité énergétique dans les transports (infrastructure de transport collectif et ventes de véhicules neufs de classe A et B).

Le nombre d'emplois verts directs estimés correspondant approche les 260 000 équivalents temps plein (+27 % depuis 2006) en 2008, concentrés en majorité dans l'amélioration de l'efficacité énergétique du secteur résidentiel (110 000 emplois). Ce secteur pourrait atteindre environ 300 000 emplois verts équivalents temps plein en 2009 soit une augmentation de 90 000 emplois depuis 2006 ; une évolution cohérente avec les estimations précédentes des emplois concernés par le Grenelle Environnement.

EE

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Découverte de deux « gardes du corps » des télomères
Vendredi, 18/12/2009 - 00:00

Au coeur de nos cellules, les chromosomes sont de minuscules bâtonnets faits d'un enroulement de deux brins d'ADN. Ils portent l'information génétique nécessaire au bon fonctionnement de la cellule et à plus grande échelle de l'organisme. Le maintien des chromosomes en bon état fait partie des défis que doit relever la cellule. Et ce défi, elle doit l'assurer à chaque division, quand la cellule duplique son matériel génétique et le sépare en deux parts égales pour donner deux cellules filles.

Comment les chromosomes se protègent-ils de la dégradation au fil des divisions ? Cette découverte a valu le Prix Nobel de médecine 2009 à Carol Greider, Jack Szostak et Elizabeth Blackburn. Dans les années 80, ces trois biologistes ont en effet montré comment les télomères et la télomérase protégent les chromosomes du vieillissement.

Situés à l'extrémité des chromosomes, les télomères sont constitués de séquences répétées d'ADN. Ils raccourcissent au fil des divisions. « Les télomères sont comme les embouts des lacets de chaussures. Si vous les perdez, les extrémités des lacets commencent à s'effilocher » aime à expliquer Elizabeth Blackburn, qui a d'ailleurs effectué un séjour sabbatique de trois mois en 2007 dans l'équipe d'Arturo Londoño-Vallejo.

La télomérase, dite protéine du vieillissement, empêche quant à elle le rétrécissement des télomères. Mais cette dernière n'est présente que dans les cellules souches adultes et les cellules germinales.

Pour les autres, pas de télomérase et le raccourcissement des télomères s'apparente à une horloge biologique. Quand l'heure a sonné, à savoir quand les télomères sont devenus trop courts, la cellule n'est plus capable de se diviser et elle devient sénescente ou elle meurt.

A chaque division, il est donc primordial de limiter les pertes au niveau des télomères. A l'Institut Curie, l'équipe d'Arturo Londoño-Vallejo vient de mettre à jour le rôle de deux protéines « gardes du corps » assurant leur maintien. Le point de départ de leur recherche : la protéine WRN, capable de « dérouler » les deux brins d'ADN pour permettre leur réparation ou réplication. Le dysfonctionnement de cette protéine est à l'origine du syndrome de Werner. Cette maladie rare se caractérise par un vieillissement prématuré associé à une prédisposition aux cancers.

Rappelons que les chromosomes sont formés de deux brins d'ADN enroulés, soit deux lacets. Lors de la réplication de l'ADN, ces deux lacets doivent être séparés et reproduits à l'identique. « Or en l'absence de la protéine WRN, explique Arturo Londoño-Vallejo, l'un des deux lacets reproduits est systématiquement plus court et moins solide. »

Si la protéine POT1 vient à manquer elle aussi, alors ce sont les deux lacets qui sont affectés : les télomères des deux brins nouvellement formés sont anormalement courts. Or le raccourcissement des télomères entraîne un vieillissement prématuré des cellules.

« Mais les conséquences de cette absence ne s'arrêtent pas là, ajoute Arturo Londoño-Vallejo, car le raccourcissement des télomères crée un risque d'instabilité du génome et pourrait contribuer à l'apparition des cancers : pour preuve, le risque de cancer est plus élevé chez les personnes âgées et chez les personnes souffrant d'un dysfonctionnement de la télomérase qui développent des cancers plus précocement. » Plusieurs études ont également mis en évidence une association directe entre un tel raccourcissement et certains cancers de la vessie, du sein, des bronches, du rein ou des ovaires. D'autres mettent en évidence des anomalies de la protéine POT1 dans certains cancers gastriques.

Le scénario pourrait être le suivant : en raison de mutations dans son matériel génétique, la cellule tumorales ignore les alarmes extérieures qui la somment d'arrêter de se diviser. Elle continue à proliférer. Ses télomères raccourcissent dramatiquement - éventuellement en raison de la mutation d'une des deux protéines étudiées par les chercheurs de l'Institut Curie. Les erreurs génétiques s'accumulent. La cellule atteint un « point de non-retour et les télomères, bien qu'extrêmement courts, sont conservés envers et contre tout. Les cellules fortement endommagées deviennent immortelles, marque des cellules cancéreuses.

Arturo Londoño-Vallejo conclut que « l'un des défis de la recherche sur les télomères est désormais de définir précisément les liens entre le raccourcissement des télomères, l'instabilité du génome et la transformation tumorale. »

CNRS

Mise au point d'un test sanguin pour dépister les cancers de l'appareil digestif
Vendredi, 18/12/2009 - 00:00

Une équipe de chercheurs de l'université de Kanazawa, dirigée par le professeur Shuichi Kaneko, a annoncé avoir mis au point un test sanguin très sensible capable de dépister plusieurs types de cancer de l'appareil digestif. Le nouveau test cherche en particulier à détecter le cancer de l'estomac, le cancer colorectal (particulièrement prévalents au Japon, où ils sont les premiers et seconds cancers les plus diagnostiqués) ainsi que le cancer du pancréas (plus rare, mais au pronostic très pessimiste et souvent diagnostiqué trop tard).

Dans un premier temps, les chercheurs ont analysé des échantillons sanguins provenant de patients atteints d'un cancer de l'appareil digestif, ce qui leur a permis d'identifier 800 groupes de gènes dont l'expression change de manière significative chez les malades. En mesurant l'expression de ces gènes chez 53 autres patients, le test a correctement indiqué la présence d'un des trois cancers chez 48 d'entre eux, ce qui donne une sensibilité de 91 %.

A titre de comparaison, l'utilisation d'un second test, basé sur l'évaluation sanguine de marqueurs tumoraux, n'a montré qu'une sensibilité de 27 %. Par ailleurs, le test mis au point est peu invasif, ne nécessitant que le prélévement de 2,5 ml de sang, et les résultats sont obtenus en trois à quatre jours. Si des essais cliniques ultérieurs viennent confirmer l'efficacité de cette méthode, elle pourrait devenir un nouvel outil de dépistage du cancer.

BE

Téléphones mobiles : pas d'augmentation des tumeurs cérébrales
Vendredi, 18/12/2009 - 00:00

Aucune modification de l'incidence des tumeurs cérébrales n'a été observée chez les adultes, 5 à 10 ans après la forte augmentation de l'utilisation des téléphones portables, selon une étude publiée en ligne mercredi par le Journal of the National Cancer Institute . C'est grâce à un financement du Danish Strategic Research Council qu'Isabelle Deltour de l'Institut d'épidémiologie du cancer à Copenhague et ses collègues ont analysé les taux d'incidence annuelle de deux types de tumeurs au cerveau, les gliomes et les méningiomes, entre 1974 et 2003 chez les adultes de 20 ans et plus vivant au Danemark, en Finlande, en Norvège et en Suède.

Ils ont identifié 60.000 patients ayant reçu un diagnostic de tumeur cérébrale pendant cette période de 30 ans, sur une population de 60 millions de personnes. Ils ont ainsi constaté que l'incidence du gliome a augmenté de 0,5 % par an chez les hommes et de 0,2 % chez les femmes. Celle du méningiome s'est accrue de 0,8 % par an chez les hommes et après le début des années 1990, de 3,8 % par an chez les femmes. Entre 1998 et 2003, aucune variation d'incidence n'a été observée. Cependant, les résultats n'étaient pas présentés en fonction du niveau individuel d'utilisation des téléphones mobiles. L'éventuel sur-risque chez ceux qui vivent le portable vissé à l'oreille ne peut donc être détecté dans ce travail.

Néanmoins, ces résultats vont dans le même sens que ceux d'une cohorte danoise qui n'ont pas retrouvé d'excès de risque de tumeur cérébrale. Ils sont aussi en ligne avec les données nordiques et ceux du Royaume-Uni de l'étude internationale cas-contrôle INTERPHONE qui n'ont pas trouvé d'excès de risque de gliome ni de méningiome chez les plus gros utilisateurs de téléphones portables. Mais ils sont contradictoires avec les résultats des séries cas-contrôles suédoises qui ont suggéré un excès de risque substantiel pour les gliomes. "Étant donné la très large utilisation des téléphones portables, il est important de poursuivre l'évaluation des tendances sur une période plus longue", notent toutefois les auteurs.

LP

Les cellules cancéreuses ne dorment jamais
Vendredi, 18/12/2009 - 00:00

Le rythme biologique du corps qui varie selon le jour ou la nuit, appelé cycle circadien, implique que certains organes et tissus soient plus ou moins actifs selon l'heure. Ce cycle circanien est régulé par une horloge biologique localisée dans le cerveau mais qui s'étend à toutes les cellules de notre organisme telle un mécanisme de réminescence maintenu depuis les temps où la vie n'était qu'une seule et même cellule. L'altération de ces cycles d'attention et de sommeil est associée aux problèmes de santé chez l'être humain. Dans le cas du cancer, nous savons que ses cellules ne respectent pas ces cycles circadiens et sont en permanence "actives".

Une équipe de chercheurs de l'Institut de Recherche Biomédicale de Bellvitge (IDIBELL) a décrit le mécanisme des cellules tumorales selon lequel elles échappent au cycle circadien et fonctionnent de manière autonome. Les résultats de cette recherche, publiés dans la revue scientifique Cancer Research (organe officiel de la Société Américaine de Recherche sur le Cancer - AACR) montrent que les cellules de leucémies et les lymphomes (tumeurs du sang et des ganglions lymphatiques) présentent la perte d'une molécule indispensable pour cette horloge endogène de nos cellules : la protéine BMAL1. La fonction de la BMAL1 dans les cellules saines est de contrôler l'activité de centaines de gènes afin qu'ils se manifestent de façon rythmique. Certains sont plus actifs lors des phases d'éveil et d'autres pendant les phases de repos.

Dans le développement du cancer, la protéine BMAL1 n'est plus produite sous l'effet de groupes chimiques méthyle bloquant son expression tel un panneau signalitique indiquant le "STOP". De cette manière la cellule tumeurale ne respecte pas le rythme circadien et stationne dans une phase d'activité stimulant la production de gènes cancérigènes et le blocage de gènes protecteurs (supresseurs de tumeurs).

Ces découvertes pourraient avoir une double application pratique. En premier lieu, l'étude ayant aboutie à la découverte de la BMAL1 permettrait éventuellement de planifier le moment de la journée durant lequel l'administration de la chimiothérapie serait la plus efficace. Cela s'appelle la chronothérapie.

En second lieu, les découvertes du groupe du docteur Esteller pourrait aussi avoir une application dans le traitement de ces patients. Il existe actuellement des médicaments capables d'éliminer les groupes chimiques méthyle qui serait utile à la reprise d'activité de l'horloge endogène contrôlée par la BMAL1, chose qui bloquerait la croissance de la tumeur. Ces deux possibilités doivent être examinées lors d'études cliniques au niveau international avec la participation de nombreux hôpitaux et ce pourrait être le point de référence de futures recherches dans ce domaine.

BE

Un ciblage plus efficace des anticancéreux
Vendredi, 18/12/2009 - 00:00

Des matériaux poreux baptisés Mils (pour matériaux de l'institut Lavoisier) conçus pour libérer plus efficacement certains médicaments viennent d'être mis au point par l'équipe de Gérard Férey de l'institut Lavoisier (CNRS / université de Versailles, Saint-Quentin-en-Yvelines). Ces chercheurs ont étudié l'utilisation de nouveaux solides hybrides poreux cristallisés pour encapsuler une plus grande quantité de substances actives, qui sera ensuite libérée plus rapidement et de manière contrôlée. Divers médicaments (antiviraux ou antitumoraux) ont déjà été testés et les résultats ont été publiés le 13 décembre 2009 dans la revue Nature Materials.

Un des défis majeurs de la médecine concerne la distribution efficace de médicaments dans le corps humain. Pour faciliter les injections intraveineuses, les scientifiques cherchent à mettre au point des agents de transport (ou vecteurs) non toxiques sous forme de nanoparticules. La plupart des vecteurs actuels n'encapsulent que de faibles quantités (au mieux 5 % de médicament par rapport au poids total au vecteur) et délivrent le médicament trop vite et de façon incontrôlée.

"Ces performances viennent d'être considérablement augmentées par l'emploi de Mils, précise l'équipe. Ces derniers sont formés par l'assemblage, par liaisons fortes, de parties inorganiques et organiques qui créent des pores, dont les dimensions peuvent atteindre 4 nanomètres (soit 10 puissance - 7 cm). Ces pores sont susceptibles de stocker de grosses molécules et notamment des médicaments. Plusieurs Mils ont déjà prouvé leur intérêt, notamment dans le piégeage du CO2."

Dans ce nouveau travail, les chercheurs ont étudié les performances de plusieurs Mils à base de fer, non toxiques et biodégradables, en nanoencapsulation pour libérer des médicaments actifs contre différentes formes de cancer (leucémie infantile, cancer du sein, etc.) et contre le sida.

Une fois les matériaux mis sous forme de poudres nanométriques et chargés en médicament, les études in vitro et in vivo ont montré l'efficacité exceptionnelle de ces Mils, en termes de quantité de médicament encapsulée (jusqu'à plus de 40 % en poids) comme en temps de libération (jusqu'à 14 jours). De plus, l'activité de ces Mils en imagerie médicale permet de suivre le cheminement des médicaments jusqu'à leur cible. Une piste très encourageante, donc.

LP

Leucémie lymphoïde chronique : l'émergence d'une nouvelle association de médicaments
Vendredi, 18/12/2009 - 00:00

Une étude menée dans 11 pays éclaire d'un jour nouveau la prise en charge de la plus fréquente leucémie de l'adulte.D'origine encore inconnue, la leucémie lymphoïde chronique (LLC) est exceptionnelle - et de pronostic aggravé - à la trentaine. Elle atteint entre 2 et 3 personnes sur 100 000 en population générale mais, explique le Pr Stéphane Leprêtre (CHU de Rouen), « 75 % des malades ont plus de 60 ans. » La prévalence de la LLC est ainsi « de 5/100 000 après 50 ans, (mais) atteint 30/100 000 à 80 ans ». La maladie provoque une augmentation permanente et incontrôlée du nombre de lymphocytes - des globules blancs - sans manifestations particulières. Lorsque se manifestent des ganglions anormalement importants, ou que surviennent fatigue, fièvre, essoufflement... c'est souvent à cause de complications. Elle est souvent traitée par cytostatiques : du cyclophosphamide (Endoxan®), associé ou non à de la fludarabine (Fludara®) pour son effet cytostatique mais également immunodépresseur.

Le travail présenté par le Pr Michael Hallek (Département de Médecine interne, Université de Cologne en Allemagne) visait à mesurer l'intérêt d'y ajouter le rituximab, déjà utilisé dans de nombreuses indications. Cet anticoprs monoclonal est spécifique d'un antigène qui détruit les lymphocytes marqués par les anticorps. Les cellules souches de la moelle osseuse - responsables de la production des lymphocytes- ne portent pas cet antigène, de sorte qu'une normalisation des nouvelles lignées lymphocytaires peut être envisagée...

Dans 11 pays, 191 centres ont participé à cette recherche sur 817 patients « naïfs » - c'est-à-dire dont la LLC n'avait encore fait l'objet d'aucun traitement. Ils étaient âgés de 30 à 81 ans, avec une moyenne à 61 ans. Tous présentaient encore un bon état général et ils ont été répartis en deux groupes. Chaque groupe a suivi 6 protocoles successifs comportant soit l'association fludarabine/cyclophosphamide (FC), soit une association triple avec du rituximab (FCR).

Alors que ce dernier est considéré peu efficace lorsqu'il est prescrit seul dans cette forme de leucémie, son association aux deux autres composants semble avoir été heureuse. Trois ans après randomisation, 87,2 % des patients traités par FCR étaient toujours en vie, contre 82,5 % seulement dans l'autre groupe. Les auteurs signalent également 44,1 % de rémissions complètes dans le groupe FCR, contrastant avec les 21,8 % de l'autre. Enfin la moyenne de survie sans progression ressort à 51,8 mois dans le 1er groupe, et 32,8 dans le second.

DS

Des nanoparticules pour l'administration orale d'insuline
Vendredi, 18/12/2009 - 00:00

Un groupe de chercheurs de l'Université de Séville utilise les nanotechnologies dans le domaine pharmaceutique afin de développer des nanoparticules d'insuline à libération prolongée pour l'administration orale. Cette possibilité supprimerait l'injection jusqu'à ce jour unique voie d'administration de l'insuline, et ces nanoparticules seront à l'essai sur des animaux cobayes.

Les molécules actives sont très importantes, tout comme la voie d'administration qui dans le cas de l'insuline doit être parentérale. Cela implique donc une contrainte pour les personnes ayant besoin d'un traitement à vie. Cette étude a donc pour objectif de créer des micro et nanoparticules de molécules biologiques telles que l'insuline afin de les administrer par voie orale et possédant un effet thérapeutique.

Selon l'OMS, le nombre de personnes diabétiques dans le monde était de 171 millions en 2000 et il est prévu d'en dénombrer 366 millions en 2030. En ce qui concerne l'Espagne, le nombre de diabétiques supposés en 2030 sera de plus de trois millions, sachant que chacun de ces patients ont besoin d'une ou plusieurs injections d'insuline par jour. Cette recherche porte donc sur l'amélioration de la qualité de vie que ce type d'administration peut supposer.

Afin de fabriquer ce genre de nanoparticules, le groupe de recherche de M. Fernández Arévalo de l'Université de Séville a recourru à une technologie appelée : Flow Focusing. Cette technologie a été brevetée par le groupe du Département d'Ingénierie Energétique et Mécanique de Fluides de l'Ecole Supérieure d'Ingénieurs Industriels de la US, sous la direction du professeur Alfonso Gañan Calvo, groupe ayant également participé au projet. Cette méthodologie permet de produire de façon contrôlée des gouttes de dimenssions nano et micrométriques. Ces gouttes sont générées dans un bain. Celles-ci sont formées à partir d'un polymère, de l'insuline et d'un solvant organique. Ce solvant s'évapore, et la goutte ainsi obtenue se transforme en une particule solide.

Le travail consiste à développer des formulations qui permettent d'optimiser le produit final que sont les nanoparticules. Les particules doivent toutes être homogènes, d'une taille bien définie avec des caractéristiques superficielles spécifiques, avec une quantité d'insuline adéquate qui puisse libérer la biomolécule à la place et au moment voulus. Dans ce cas précis, il est nécessaire que la particule soit de dimension nanométrique afin que les particules puissent traverser en restant intactes la barrière de l'intestin et arriver au flux sanguin. Ces nanoparticules peuvent porter différents types d'actifs, principalement des médicaments tels que des antibiotiques, anesthésiques, anti-inflammatoires, anti-ulcéreux, anti-cancéreux ou molécules protéiques.

Les nanoparticules d'insuline ont à ce jour déjà été développées. Elles sont actuellement testées par voie orale sur des animaux et le seront ensuite sur l'Homme. Le groupe de recherche en endocrinologie, métabolisme et nutrition clinique de la Faculté de Médecine de l'Université de Séville mène cette partie de l'étude sur des rats de laboratoire génétiquement modifiés afin de les rendre diabétiques pour évaluer les réactions de ces nanoparticules d'insuline. L'application des nanotechnologies dans le développement de produits pharmaceutiques, cosmétiques et agro-alimentaires leur apporte une valeur ajoutée qui devra être prise en compte par les entreprises.

BE

Anticoagulants : un révolution en cours
Vendredi, 18/12/2009 - 00:00

Deux études majeures sur la prise en charge des thromboses veineuses - en phase aiguë pour prévenir un accident (infarctus myocardique ou cérébral, embolie pulmonaire...) ou en phase chronique pour éviter les rechutes à distance - ont été présentées au 51e congrès de l'American Society of Hematology , qui vient de s'achever à la Nouvelle-Orléans.

Aujourd'hui, la warfarine - anti-vitamine K (AVK) - est le traitement anticoagulant de référence au long cours. En France, 600.000 à 800.000 malades en reçoivent en permanence. Les AVK sont des médicaments efficaces, mais contraignants et difficiles à manier. À eux seuls ils sont responsables de 12,3 % des hospitalisations pour accidents thérapeutiques dans notre pays. Ils sont l'objet d'interactions médicamenteuses ou alimentaires. Leur utilisation suppose une observance très stricte et un suivi biologique minutieux.

Deux nouvelles classes d'anticoagulants risquent de provoquer des changements de pratiques. Le dabigatran est le premier inhibiteur de la thrombine, qui joue un rôle central dans la formation des caillots sanguins. Au Congrès européen de cardiologie de Barcelone il y a quelques mois, une étude sur 18.000 patients dans 44 pays avait démontré son potentiel contre le risque d'accident vasculaire cérébral ischémique, l'infarctus cérébral. À la Nouvelle-Orléans, son efficacité contre la thrombose veineuse aiguë a été comparée à celle d'un traitement par AVK. 2.400 malades dans six pays ont été suivis pendant six mois, avec des résultats positifs.

Autre nouveauté, le rivaroxaban s'oppose à un autre facteur de la coagulation parmi les 13 actuellement connus, le facteur Xa. Il est utilisé pour prévenir la thrombose dans les suites opératoires de chirurgie orthopédique . Or un travail coordonné par le Pr Harry R. Buller (Hôpital académique d'Amsterdam) a montré son intérêt dans la prévention à long terme des récidives de thrombo-phlébites, qui affectent quasiment 5 % des patients chaque année.Le spécialiste a rendu compte du travail mené avec ses correspondants (dans 28 pays), en suivant près de 1.200 patients pendant six mois. Résultat : une baisse de 82 % du risque de récidive, sans effets secondaires significatifs, par rapport au placebo.

LP

Les souris femelles sans père vivent plus longtemps !
Vendredi, 18/12/2009 - 00:00

Les femmes sont réputées vivre en moyenne plus longtemps que les hommes. Et cela est également vrai dans de nombreuses espèces animales. Les raisons en sont sans doute multiples, mais des chercheurs japonais viennent de mettre le doigt sur un argument troublant : des souris femelles conçues avec les chromosomes de deux «mères» vivent plus longtemps que leurs semblables conçues classiquement avec les chromosomes d'un père et d'une mère. D'où la conclusion qu'il existerait un élément génétique impliquant une baisse de la longévité dans le sperme des mâles.

Pour les besoins de leur expérience, Manabu Kawahara et Tomohiro Kono ont eu recours à des techniques de pointe. Ils ont «fabriqué», à partir de lignées de souris au patrimoine génétique identique, des embryons de deux types. Le premier, appelé «bimaternel», consistait à réaliser un oeuf contenant deux jeux de chromosomes issus uniquement de femelles, puis à réimplanter l'embryon obtenu chez une souris porteuse. Le second type de souris, constituant le groupe témoin, a été réalisé avec un jeu de chromosomes provenant d'une femelle et un jeu de chromosomes provenant d'un mâle, comme cela se produit dans la nature.

Les deux chercheurs japonais ont obtenu treize souris dans chaque groupe, dont ils ont suivi la croissance, le poids, différents paramètres sanguins et la durée de vie. Toutes les souris étaient placées dans les mêmes conditions de vie, le plus stériles possible. Leur ration alimentaire était la même, l'éclairement identique tout comme l'alternance jour-nuit ou la température et l'humidité de leurs cages.

Résultat : les 26 souris ont vécu entre 450 et 1 000 jours. Et la longévité moyenne des souris bimaternelles a été de 186 jours plus longue que celles des souris «classiques». Soit un tiers de durée de vie en plus. «C'est le seul laboratoire au monde à pratiquer ces techniques et à obtenir ces souris bimaternelles, explique Stéphane Viville, du laboratoire de biologie de la reproduction, à Strasbourg. Leurs résultats sont tout à fait étonnants et intéressants.»

D'autres observations troublantes ont été réalisées : les souris bimaternelles sont ainsi un peu plus petites et moins lourdes que les souris «classiques». D'où l'hypothèse qu'un facteur de croissance postnatal pourrait être impliqué. «Ce n'est pas la seule hypothèse, précise Stéphane Viville. D'une part, je ne suis pas sûr que le groupe de contrôle ait été assez maîtrisé. D'autre part, il faudrait préciser le rôle du métabolisme dans la longévité de ces différentes souris. La question de savoir si la longévité des mammifères est contrôlée par la part génétique d'un parent, ou des deux, reste ouverte.»

HR

^ Haut
Recherche
Recherche & Innovation, Technologies, Transports
Un vélo électrique alimenté à l'hydrogène
Vendredi, 18/12/2009 - 00:00

Présenté à l'occasion de H2Roma Energy & mobility Show, "Bhyke", le prototype de vélo électrique à pédalage assisté totalement alimenté à l'hydrogène fera bientôt son entrée sur le marché italien. Ce "vélo à hydrogène" présente, par rapport aux systèmes électriques traditionels actuellement dans le commerce, des avantages incontestables : à parité de poids, il dispose d'une autonomie beaucoup plus importante (150 km) et il nécessite un temps de recharge de seulement 15 minutes, ce qui est loin des sept-huit heures de recharge d'une batterie conventionnelle.

L'invention s'inscrit dans un projet beaucoup plus ambitieux qui prévoit la production de toute une "flotte" de vélos à hydrogène, avec un système de rechargement composé d'un panneau solaire photovoltaique et d'un électrolyseur pour la production d'hydrogène à partir de l'eau. Cela permettrait d'abaisser le coût du combustible (en l'état, un "plein" coûterait environ 18 euros avec une dépense de 12 centimes au km) et de fermer la boucle en termes d'émission zéro.

Ce prototype a été développé par le Laboratoire conjoint de l'Institut de Technologies Avancées pour l'Energie (Itae-CNR) de Messine et TRE S.p.A (Tozzy Renewable Energy) qui mène diverses activités de recherche dans le domaine énergétique : aérogénérateurs de petite taille, cellules photovoltaiques de troisième génération (Dssc), phyto-dépuration à partir de micro-algues ou encore production et emploi d'hydrogène.

BE

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top