RTFlash

RTFLASH Recherche & Technologie
NUMERO 627
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 08 Décembre 2011
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
L'achat sur mobile passe par la reconnaissance d'images
Cardiopad, la tablette qui sauvera des milliers de vies
Une connexion sans fil aussi rapide qu'avec la fibre optique
Réseaux sociaux : une architecture pour protéger les données privées
Le cartable numérique se généralise
Avenir
Troubles du rythme cardiaque : la robotique dope la clinique du Tonkin à Villeurbanne (Rhône)
Matière
Des chercheurs américains créent une structure de stockage d'hydrogène
Les dépenses mondiales dans les énergies renouvelables dépassent celles en faveur des énergies fossiles
Total se lance en tandem dans le carburant renouvelable
L'Allemagne modernise et recycle son parc éolien
Un ingénieux système canadien de chauffage distingué
Villa Vision, une maison passive inférieure à 15 kWh/m²/an
Espace
Hubble prend la température d'un quasar
Un robot à la recherche de la vie sur Mars
Terre
La BBC filme "le doigt glacé de la mort"
Vivant
Découverte du fonctionnement d'une enzyme auxiliaire de la photosynthèse
Les neurotrophines : futurs outils thérapeutiques ?
Les antidépresseurs contre Alzheimer ?
La dépression en plein cœur
Le régime méditerranéen serait la clé d'un sommeil réparateur
Maladies auto-immunes : l'espoir de l'interleukine
Nouveau pas vers un vaccin contre le SIDA
Rendre les cellules cancéreuses fluorescentes pour mieux les détecter
La choline contre la démence
Santé : bientôt la fin des ordonnances papier
Découverte d'un nouveau mécanisme immunitaire de réaction aux infections virales
Perte de volume de l’hippocampe, un trait phénotypique de la schizophrénie
L'empathie aurait des bases génétiques
Découverte d'une "clé" moléculaire essentielle dans le contrôle du vieillissement
La musique rend intelligent
Une hypophyse obtenue à partir de cellules souches embryonnaires
Le cancer colorectal est-il provoqué par une bactérie ?
Recherche
Renforcer la croissance : la Commission annonce un investissement de 80 milliards d'euros en faveur de la recherche et l'innovation
L'automobile du futur par General Motors
Edito
Il faut dépasser les objectifs de Kyoto



Alors que la Conférence internationale sur le climat vient de s'ouvrir le 28 novembre à Durban (Afrique du Sud) pour essayer, sans trop d'illusions compte tenu du contexte économique de crise mondiale, de préparer l’après-Kyoto et trouver un nouvel accord de réduction mondiale des gaz à effet de serre, la réalité et l'ampleur du réchauffement climatique sont venues se rappeler depuis plusieurs semaines de manière implacable aux sept milliards d'humains qui peuplent désormais notre planète.

L’Himalaya, le "château d'eau" du monde, est en effet touché de plein fouet par le réchauffement climatique : selon une étude publiée par le britannique Environmental Research Letters, les glaciers chinois ont considérablement reculé depuis 50 ans et les lacs d’altitude ont vu une augmentation sans précédent de leur volume, menaçant d'inondations catastrophiques plusieurs régions et notamment le Bhoutan. Les scientifiques de l’Académie chinoise des sciences ont constaté une augmentation des températures de 1,7°C dans la chaîne himalayenne entre 1961 et 2008, soit plus qu’au cours des cent dernières années !

L'Europe n'est pas épargnée par ce phénomène mondial et, dans les Pyrénées, l'observation par comparaison photographique des principaux glaciers montre qu'ils ont perdu les trois quarts de leur volume depuis 1850 ! Enfin, des observations récentes du Groenland par satellite confirment l'accélération considérable de la fonte de cet immense glacier qui perd plus de 22 milliards de tonnes d'eau par an. Si cette tendance se poursuit, la fonte de ces glaciers, combinée à celle de l’Antarctique, risque d'entraîner une hausse du niveau des mers de plus de 30 cm d'ici 2050 alors que cette hausse n'a été que de 20 cm depuis un siècle.

Une étude du GIEC, publiée récemment, confirme, sur des bases scientifiques très solides, que le réchauffement climatique accéléré aura également au cours de ce siècle un impact considérable sur l'intensité et la fréquence des "phénomènes météorologiques extrêmes" : le nombre de jours caniculaires pourrait ainsi être multiplié par 10 d'ici 2100, provoquant des sécheresses persistantes dans plusieurs régions du monde. Mais, dans le même temps, les inondations, cyclones et ouragans dévastateurs seront également plus fréquents et plus puissants (Voir article).

Le prochain rapport du Giec qui sortira en 2013 confirmera la réalité, l'ampleur et l'impact catastrophique de ce réchauffement global et il est frappant de constater que, même dans le "noyau dur" des scientifiques "climatosceptiques", plusieurs défections de taille ont eu lieu ces derniers mois. C'est notamment le cas de Richard Muller, professeur de physique à l'Université de Californie, à Berkeley, qui vient de publier un article très remarqué confirmant la réalité du réchauffement climatique dans le "Wall Street Journal", jusqu'à présent très proche des climatosceptiques.

En prélude à ce futur rapport du GIEC, les meilleurs climatologues du monde, réunis lors du congrès du WCRP à Denver, sont formels : réduire les émissions humaines de CO2 qui sont malheureusement reparties à la hausse après le léger tassement en 2009 dû à la crise mondiale (30,6 gigatonnes en 2010, soit 5 % de plus qu'en 2008) risque de ne pas être suffisant pour stabiliser le climat de la planète. Il est vrai que les engagements internationaux pris à Copenhague et à Cancun ne représentent que 60 % de l'effort minimal nécessaire de réduction de GES pour limiter à 2 ou 3°C le réchauffement mondial.

C'est pourquoi, dans le cadre de l’après-Kyoto, beaucoup de scientifiques proposent un deuxième objectif spécifique sur le méthane et la suie pour lutter plus efficacement contre le réchauffement climatique. « Tout est une question de priorité : si on se préoccupe de la fonte des glaces aux pôles, il faut s’attaquer au dioxyde de carbone (CO2) qui est le principal facteur du réchauffement à long terme. Mais si l’on veut limiter les feux de forêt (liés à un réchauffement de 1 à 2°C) dans les 10 ou 20 ans à venir, il est plus judicieux de réduire d’abord les agents à durée de vie courte », souligne Susan Solomon, chercheur au MIT et spécialiste de l'impact des chlorofluorocarbones (CFC) sur le climat.

Des études récentes prouvent en effet que la réduction de certains gaz et particules à courte durée de vie ont un impact important et rapide sur le climat. En revanche, si l’on cessait d’émettre du CO2, le réchauffement mondial se poursuivrait pendant au moins 1 000 ans à cause du phénomène physique d'inertie thermique lié au stockage de la chaleur dans les océans.

Le méthane, qui a un pouvoir réchauffant beaucoup plus important que le CO2, a une durée de vie bien plus courte, de l'ordre de 10 ans. L’ozone, la suie et les aérosols sont, pour leur part, dégradés en quelques semaines.

Le cadre du protocole de Kyoto place tous les gaz à effet de serre dans le même « panier », sans tenir compte de leur durée de vie très différente et leurs émissions sont "unifiées" et évaluées en équivalent CO2, en utilisant la méthode du pouvoir de réchauffement global (PRG) sur un siècle.

Pour un nombre croissant de scientifiques, il est urgent de distinguer les gaz et substances à durée de vie courte (méthane, aérosols, ozone troposphérique et suie) et les gaz beaucoup plus persistants, comme le CO2. Il existe en effet un lien de corrélation direct entre le rythme de diminution des gaz à faible durée de vie et la réduction du pic du réchauffement.

Beaucoup des scientifiques réunis à Denver suggèrent de s'inspirer du Protocole de Montréal qui a remarquablement atteint ses objectifs en traitant de manière spécifique, selon leur durée de vie, les familles de gaz détruisant la couche d’ozone.

Bien entendu, cette priorité qui serait donnée à la réduction des émissions de gaz à brève durée de vie ne devrait en aucun cas entraîner ou justifier un relâchement sur les objectifs de réduction des émissions de CO2. En pointe sur ces recherches, Susan Solomon propose de prendre comme base de calcul la totalité du carbone accumulé dans l'atmosphère et pas uniquement les flux annuels d’émissions. Il s'agit par cette nouvelle approche d’intégrer l’effet considérable lié aux rétroactions du cycle du carbone.

Partant de cette méthode, l'humanité ne devrait pas dépasser un plafond de 1 000 gigatonnes de carbone, soit le double du CO2 émis depuis deux siècles. Le monde devrait donc tout mettre en oeuvre pour rester à l'intérieur de cette "enveloppe carbone" permettant de limiter le réchauffement global à 2°C. Concrètement, cela signifie que les émissions moyennes d'un terrien doivent passer de 4,5 tonnes à 2 tonnes d'ici 2050 (en tenant compte de l'augmentation de la population mondiale). Pour un européen (8 tonnes de CO2 par an), cela signifie diviser par quatre ses émissions annuelles, pour un Français (6 tonnes par an), les diviser par trois !

S'agissant de la panoplie de moyens à mettre en oeuvre pour parvenir à stabiliser le climat, Robert Socolow, professeur mondialement réputé d’ingénierie mécanique et aérospatiale à l’université de Princeton (États-Unis), continue de penser qu’il est possible de stabiliser les émissions de CO2 sur une période de 50 ans avec les technologies disponibles. En 2011, le total des émissions mondiales de GES est estimé à 9 gigatonnes de carbone contre 7 gigatonnes en 2004.

Selon Socolow, 9 leviers complémentaires (soit 225 gigatonnes à éviter) seront nécessaires avec une cible revue à la hausse de 550 ppm, pour limiter la hausse de la température mondiale estimée à 3°C : efficacité énergétique (à croissance économique constante, la consommation moyenne d'un terrien doit passer de 1,7 tep par an à moins d'une tep par an), économies d'énergie, agriculture et forêts, solaire, hydrogène, biomasse, éolien, nucléaire et capture du CO2.

Partant de l’hypothèse d’un prix du carbone à 35 euros qui est le seuil nécessaire de basculement pour stimuler les investissements, Socolow estime à 45 trillions de dollars (32 000 milliards d’euros), le coût global sur 50 ans de la stabilisation du climat mondial.

Ce coût peut sembler considérable mais il faut le ramener à d'autres ordres de grandeur comparables : il représente moins d'un an de produit mondial brut (40 000 milliards d’euros en 2010) et mobiliserait environ 2 % de la richesse mondiale produite chaque année pendant le prochain demi-siècle, ce qui serait non seulement supportable pour l'économie mais bénéfique pour la recherche et l'innovation.

Ce colloque de Denver aura eu le mérite de consacrer la réalité et l'ampleur du réchauffement climatique mondial et de réduire encore les incertitudes sur la part de responsabilité humaine dans ce réchauffement. Ces conclusions du congrès de Denver rejoignent celles du dernier rapport de l'AIE qui vient d'être publié. Selon ce rapport très documenté, au rythme actuel, le charbon deviendra la première source d'énergie dans le monde en 2035, passant devant le pétrole ! Ce rapport souligne que pour stabiliser le climat, il est impératif que la consommation de charbon diminue à partir de 2017, sous peine de subir d'ici la fin du siècle une augmentation de la température mondiale bien plus importante que les deux degrés déjà annoncés (Voir le rapport 2011 de l’AIE).

Nous sommes donc à la croisée des chemins. Nous avons encore la possibilité de maîtriser le changement climatique actuel si nous actionnons simultanément et avec force tous les leviers économiques, technologiques et sociaux à notre disposition. Ce défi de civilisation est à notre portée mais, pour le relever, nous devons éviter les deux écueils du catastrophisme et du fatalisme et transformer par l'innovation technologique, mais également sociale et démocratique, l'organisation globale de nos sociétés de façon à laisser un monde vivable et si possible meilleur aux générations qui nous succéderont.

René TREGOUET

Sénateur Honoraire

Fondateur du Groupe de Prospective du Sénat


TIC
Information et Communication
L'achat sur mobile passe par la reconnaissance d'images
Jeudi, 08/12/2011 - 00:20

Pour favoriser l'achat d'impulsion, la start-up polonaise iTraff Technology a mis au point SaveUp, une application permettant de réaliser des achats en un clic par le biais d'une simple photo. Il suffit de photographier à l'aide de son téléphone portable la couverture d'un livre, la pochette d'un CD ou une affiche publicitaire sur un jeu vidéo dans la rue pour que le programme trouve automatiquement l'offre la moins chère sur des sites de vente en ligne partenaires. L'application redirige également, si elle existe, vers la version dématérialisée du produit photographié. L'achat se fait ensuite simplement grâce au remplissage préalable d'un formulaire d'informations personnelles contenu sur le mobile et envoyé aux serveurs des différents sites quand c'est nécessaire.

"Nous nous sommes basés sur des études récentes qui montrent que l'idée derrière un achat impulsif ne reste que quelques secondes dans l'esprit du consommateur", explique Arek Skuza, co-créateur de SaveUp, à L'Atelier. "Nous essayons d'offrir à l'utilisateur la liberté d'assouvir cette pulsion où qu'il se trouve, sinon il l'oubliera rapidement". L'évolution technologique des smartphones et notamment l'amélioration de la qualité des caméras embarquées permet de plus de mettre en place des logiciels de reconnaissance d'images performants. Cette initiative rappelle celles de PixlinQ, dont avait parlé L'Atelier il y a quelques mois, et de ShopGate en Allemagne dans le domaine de la vente par catalogue. Le recours à la photo évite également aux utilisateurs d'avoir à taper des noms sur leur mobile qu'ils ne savent pas toujours orthographier.

Contrairement à des plates-formes internationales comme Amazon, SaveUp se concentre uniquement sur les produits culturels et établit ses partenariats en ce sens, pour plusieurs raisons. D'une part, "plus de 60 % des revenus du m-commerce en Europe provient de la vente de livres, CD, DVD ou jeux vidéo. Nous souhaitons rester une passerelle très spécialisée entre le client et les sites." D'autre part, l'achat d'impulsion ne fonctionne que sur des articles dont le prix est peu élevé (aux alentours de 10-15 euros). Si SaveUp est déjà bien implanté en Pologne avec 50 magasins partenaires, la société souhaite exporter son activité hors de ses frontières. "Nous avons prévu prochainement de nous lancer en Grande-Bretagne et en Allemagne et recherchons activement des accords en France", conclut Arek Skuza.

L'Atelier

Cardiopad, la tablette qui sauvera des milliers de vies
Mardi, 06/12/2011 - 00:30

Arthur Zang, ingénieur camerounais de 24 ans, a conçu la première tablette tactile africaine à usage médical : Cardiopad.

Au Cameroun, on compte une trentaine de cardiologues pour 20millions d’habitants. La situation dans les zones rurales est encore plus inquiétante, car ces spécialistes ne s’y rendent pas toujours, ­préférant s’installer dans les métropoles. Dans les rares hôpitaux dotés d’un service de cardiologie, les files d’attente sont interminables, et il n’y a pas toujours le ­matériel adéquat pour le diagnostic. Conséquence : des milliers de Camerounais meurent chaque année d’accidents cardio-vasculaires ou de toute autre maladie liée au cœur faute de soins. Face à ce constat, Arthur Zang, 24 ans, ingénieur en génie informatique et diplômé de l’Ecole nationale supérieure polytechnique de Yaoundé, a décidé d’agir. Son stage académique à l’hôpital général de Yaoundé en 2010 y a été pour beaucoup. Le jeune homme a donc conçu une tablette tactile : Cardiopad.

Dans un premier temps, cette tablette fait transiter les fréquences ­cardiaques du malade (captées par un terminal spécialement conçu) vers des serveurs, où elles sont stockées et traitées avant d’être transmises au ­cardiologue via le réseau GSM. Le spécialiste détient aussi un Cardiopad, sur lequel il reçoit les résultats, les interprète et prescrit une médication. Une encyclopédie de maladies cardio-vasculaires est intégrée à l’appareil pour aider le cardiologue à faire son diagnostic.

Ainsi, un patient du village de Gado, dans l’est du pays, à des centaines de kilomètres de Yaoundé et de Douala, n’aura pas à se déplacer vers la ville pour consulter. Le prototype est un écran tactile de 10 pouces (25 cm). Toutefois, l’ingénieur indique qu’il peut avoir plusieurs tailles. Combien coûtera le Cardiopad ? “Il ne sera pas trop cher. En général, les appareils médicaux sont très onéreux. L’électrocardiographe, par exemple, n’autorise pas le transfert des résultats cardiaques ni leur sauvegarde. Il permet juste de les analyser et de les imprimer et coûte au minimum 2 millions de francs CFA (3 000 euros). Cardiopad sera beaucoup moins cher”, explique l’inventeur.

Présenté à la compétition internationale Imagine Cup 2011 aux Etats-Unis, ce projet, ainsi que le détaille Fatimatou Sow, responsable des relations publiques de Microsoft Afrique, s’est classé premier dans la catégorie “développement embarqué”. La compétition réunissait les meilleures écoles des pays avancés en matière de technologie, tels que la Corée du Nord, le Japon, l’Inde, la Chine ou encore les Etats-Unis. Mais, parce qu’il n’a pas eu de challengers dans cette ­catégorie en Afrique, le projet n’a pas été retenu pour la finale, qui avait à la clé un prix de 100 000 dollars (75 000 euros)… Il faut absolument un concours régional pour être sélectionné, explique Arthur Zang. Et les Africains engagés dans cette compétition avaient tous opté pour la catégorie “conception logicielle”, moins compliquée que celle dans laquelle Arthur Zang avait choisi de concourir.

Actuellement, le jeune homme est en quête de financement pour concrétiser son projet : doter toutes les régions du Cameroun de centres de télécardiologie. “Avec 25 000 ou 30 000 euros, je peux ­produire vingt ou vingt-cinq tablettes ­Cardiopad. Certains Cardiopad seront ­destinés aux cardiologues et d’autres iront dans les centres de télécardiologie de chaque région. Donc, avec ce montant, je peux couvrir la totalité du territoire camerounais”, explique-t-il. Contrairement aux tablettes tactiles occidentales, qui servent à communiquer avec des proches, à travailler ou encore à frimer, Cardiopad, première tablette tactile camerounaise et africaine à usage médical, est destiné à sauver des vies humaines.

Courrier International

Une connexion sans fil aussi rapide qu'avec la fibre optique
Dimanche, 04/12/2011 - 00:10

Alors que la fibre optique est encore en cours de déploiement en France, des chercheurs japonais de l'université d'Osaka et le fabricant de composants électroniques Rohm sont parvenus à créer une puce capable de transférer des données sans fil à des vitesses comparables... à celles obtenues par la fibre optique.

En effet, deux de ces puces ont échangé des données sans fil à un débit de 1,5 Gb/s (un record du monde ! ) en utilisant des ondes "térahertz", ondes situées entre la lumière et les ondes radio sur le spectre électromagnétique. Ces puces ont été développées en utilisant l'effet tunnel, découvert par un chercheur japonais (Leo Esaki) qui a reçu le prix Nobel de physique en 1973 pour cette avancée. Les chercheurs affirment qu'il est possible, grâce à cette technologie, d'atteindre une vitesse de 30 Gb/s.

Le semiconducteur, d'une longueur de deux centimètres et d'une hauteur d'un centimètre, est attaché à une antenne de la taille d'un grain de riz. Il peut être produit pour seulement quelques centaines de yens (soit quelques euros). Cela diffère fortement des puces actuelles de 20 cm, coûtant plusieurs millions de yens (plusieurs dizaines de milliers d'euros) et n'atteignant au maximum que 100 Mb/s en débit de transmission.

Le processus de fabrication en série de ces puces devra être développé, afin de pouvoir équiper de futurs téléphones portables et autres équipements électroniques dans trois ou quatre années.

Bulletins Electroniques

Réseaux sociaux : une architecture pour protéger les données privées
Samedi, 03/12/2011 - 00:40

Des chercheurs américains proposent une nouvelle architecture décentralisée combinant de multiples technologies de sécurité, pour résoudre le problème du respect de la vie privée et des données sur les réseaux sociaux.

Réseaux sociaux et vie privée ne font jusqu’ici pas très bon ménage. De nombreuses failles, accidentelles ou malveillantes, menacent les données des internautes, sur des réseaux sociaux comme Facebook ou Google+. Des chercheurs de l’université de l’Illinois et de l’université d’Indiana, ont planché sur la question, et proposent une nouvelle architecture - qui porte bien son nom- DECENT (Decentralized Architecture for Enforcing Privacy in Online Social Networks) qui permet de renforcer les contrôles d’accès à un réseau social, sachant prendre en compte la confidentialité, l’intégrité et la disponibilité des données, mais aussi de protéger les relations d’un utilisateur donné, même en présence d’un noeud malveillant.

  • Des tentatives non abouties

Les chercheurs sont partis sur un principe, et ce n’est pas une révélation, que les réseaux sociaux souffrent d’un manque cruel de respect de la vie privée. Non seulement les utilisateurs ne contrôlent pas leurs données privées hébergées sur ces réseaux, mais ils n’ont pas la possibilité de mettre en place des politiques de contrôle d’accès fines. Par exemple, l’utilisateur peut contrôler l’accès à ses statuts en utilisant ses listes de personnes autorisées ou ses cercles, mais aucune politique ne peut être définie sur les commentaires ou les likes. Le problème est souvent exacerbé par l’opérateur du réseau social, qui passe constamment son temps à changer les règles. Selon les chercheurs, jusqu'alors, les propositions pour régler le problème n’offrent pas un niveau suffisant de protection. Des solutions comme Diaspora, Peerson, Safebook, Lotusnet et Persona se sont penchées sur le problème en utilisant chiffrement et décentralisation vis à vis du fournisseur. Mais selon les chercheurs, ils ne sont pas suffisamment aboutis, et ne permettent pas à l’utilisateur de mettre en place une politique «privée» suffisamment fine.

  • La pertinence de Decent, validée

DECENT, leur proposition, est une architecture décentralisée. Son originalité est qu’elle combine diverses technologies destinées à assurer la sécurité et le respect de la vie privée. Elle utilise à la fois des mécanismes de chiffrement pour la confidentialité des données, combinés à des algorithmes de cryptographie avancés afin de garantir l’intégrité. L’utilisation d’un DHT (Distributed Hash Table) permet l'identification de l'utilisateur et le stockage des informations. Ce dernier peut agir sur ses données, et doit impérativement s'identifier pour pouvoir agir dessus. Si une attaque malveillante survient, les données sont chiffrées et donc non exploitables. Les chercheurs ont réalisé diverses simulations et expérimentations sur PlanetLab qui a validé la faisabilité de cette architecture. Mais ils prévoient de continuer à améliorer sa résilience et sa performance avant tout.

L'Atelier

Le cartable numérique se généralise
Samedi, 03/12/2011 - 00:20

Une expérimentation sur l’usage du cartable numérique vient d’être lancée dans six collèges du Val-d’Oise, des Yvelines et de la Somme, en partenariat avec les conseils généraux et les académies des départements concernés. Chanceux, 300 élèves et leurs professeurs ont reçu une tablette tactile. Il s’agit de la toute nouvelle Samsung Galaxy Tab 10.1.

Ce modèle de 10 pouces a été retenu, au détriment de l’iPad, pour son système d’exploitation Android qui offre une plus grande souplesse d’utilisation. La tablette de Samsung présente le double avantage d’être compatible avec tous les formats de ressources numériques (notamment les vidéos en flash) et de permettre toutes sortes de développements.

C’est justement le but de l’expérimentation : évaluer les nouveaux usages pédagogiques que les enseignants peuvent tirer de cet outil, qu’il s’agisse d’offrir des contenus d’illustrations plus riches lors des cours ou des modes de travail, par groupes ou en individuel. Les enseignants ont carte blanche, quelle que soit la matière enseignée.

« Les tablettes sont livrées avec un minimum d’applications installées, comme celle de Wikipédia, un dictionnaire de français, une calculatrice et Google Earth. Elles permettent aussi de consulter les manuels au format numérique, d’aller sur le Web, d’accéder à des vidéos », explique Thierry Coilhac, adjoint au directeur de l'anticipation stratégique d'Orange, partenaire de l’expérimentation.

L’intérêt de la tablette ne se limite pas à ses contenus. Sa fonction d’enregistrement audio peut ainsi la transformer en laboratoire de langue. Un professeur de sport a même eu l’idée de se servir de la caméra pour que les élèves enregistrent leurs mouvements lors d’un exercice. L’objectif est de leur permettra grâce à la vidéo de décortiquer leur geste et d’améliorer leur technique.

L’expérimentation va durer un an, période au cours de laquelle le laboratoire de l’Ecole normale supérieure de Cachan va recenser et analyser les usages mis en place dans les classes. Un premier rapport sera remis en février 2012. Pour le moment, les tablettes ne sont remises aux élèves que dans le cadre scolaire. Un temps d’adaptation nécessaire pour les familiariser avec l’outil et pour les responsabiliser. Des réunions d’information avec leurs parents sont aussi programmées. Car, dès le mois de janvier, les 300 élèves rentreront chez eux avec la Galaxy Tab. Quant à leurs camarades, ils peuvent s’initier aux joies de la tablette, grâce aux dix exemplaires disponibles dans le centre de documentation des six collèges participants.

01Net

^ Haut
Avenir
Nanotechnologies et Robotique
Troubles du rythme cardiaque : la robotique dope la clinique du Tonkin à Villeurbanne (Rhône)
Vendredi, 02/12/2011 - 05:00

La clinique du Tonkin mise sur la robotique. Après le robot chirurgical Da Vinci, elle a investi- 500 000 euros hors taxes - dans un robot Sensei de Hansen pour traiter les troubles du rythme cardiaque. Une centaine d’établissements dans le monde en sont équipés mais seulement trois en France : Marseille depuis 2007, la clinique lyonnaise, depuis septembre 2010 et plus récemment le CHU de Rennes. Mais la clinique du Tonkin s’est rapidement hissée au rang de premier établissement européen en nombre de patients traités pour une ablation de la fibrillation auriculaire par robot. Le 250e patient va ainsi être opéré ces jours-ci. La durée totale d’intervention reste comprise entre deux et quatre heures - la procédure d’ablation est plus courte mais l’installation plus longue - mais « nous sommes moins fatigués car nous travaillons assis et non plus debout. On peut donc opérer jusqu’à trois patients dans une journée et même deux patients complexes », explique le Docteur Hervé Poty, rythmologue. Le médecin est aussi totalement protégé de l’exposition aux rayons X puisqu’il travaille à distance du patient, derrière une vitre blindée. Mais « comme le temps de procédure a diminué, la durée d’exposition du patient est elle aussi diminuée », précise le Docteur Poty.

Selon le médecin, le robot permet aussi d’avoir un geste « plus précis et plus sûr ». L’intervention reste la même que pour la procédure classique : une ou plusieurs sondes (cathéters) sont introduites au niveau de l’aine, dans l’artère fémorale, puis acheminées jusqu’à l’intérieur de l’oreillette gauche. Les veines pulmonaires - à l’origine des activités électriques anormales dans la fibrillation auriculaire - sont alors encerclées par un courant de radiofréquence à l’aide du cathéter : c’est l’ablation par radiofréquence. Selon le Docteur Poty, l’un des avantages du robot est de pouvoir atteindre des régions difficiles et d’améliorer le contact avec la zone. Le taux de guérison après une ablation est de 70 à 90 %. Mais selon le Docteur Poty, l’intervention par robotique permettrait de faire baisser le taux de rechute de 10 %. L’équipe du Tonkin devrait publier une étude dans ce sens d’ici 6 à 12 mois.

Cependant, cette intervention restera toujours proposée en seconde intention après les traitements médicamenteux, qui sont efficaces dans « moins de 50 % des cas », précise le Docteur Alexis Durand Dubief.

La fibrillation auriculaire est le trouble du rythme le plus fréquent. Il touche 750 000 personnes en France et se révèle très handicapant. « A la fin, j’étais réveillé quatre à cinq fois par nuit. Je ne pouvais plus rester allonger. Je devais être assis pour pouvoir reprendre mon souffle », explique ainsi Jacques Rougemont. Opéré fin juin, ce patient de 67 ans revit : « Le bien-être a été immédiat : enfin je pouvais dormir sans sentir les battements de mon cœur dans ma tempe et aujourd’hui je peux pratiquer une activité physique conforme à mon âge. »

Le Progrès

^ Haut
Matière
Matière et Energie
Des chercheurs américains créent une structure de stockage d'hydrogène
Jeudi, 08/12/2011 - 00:10

Les chimistes de l'Université de l'Oregon (UO) ont développé un matériau (solide) efficace de stockage d'hydrogène sous une forme chimique, fonctionnant en toute sécurité à température ambiante, un procédé qui ouvre la voie à des applications dans le domaine des transports. L'inconvénient de l'hydrogène (gaz), reste qu'il peut être stocké uniquement dans des réservoirs à haute pression ou cryogéniques.

Dans une étude publiée en ligne dans le Journal de l'American Chemical Society (ACS), une équipe de 4 scientifiques de l'UO a décrit le développement d'une plate-forme en amine, basée sur le cycle géochimique du borazane appelé BN-méthylcyclopentane. Car en plus de la température et des propriétés stables, elle dispose également de la faculté de désorption d'hydrogène, (... transformation inverse de la sorption, par laquelle les molécules sorbées se détachent du substrat) sans aucun changement de phase, a la fois propre, rapide et contrôlable. Le système mis au point utilise également du chlorure de fer (facilement disponible) comme un catalyseur pour la désorption, et permet le recyclage du combustible usé, même dans un état chargé.

Les grands défis pour que cette plate-forme de stockage décolle sont la nécessité d'augmenter le rendement de l'hydrogène d'une part et le développement d'un mécanisme plus efficace de régénération de l'énergie d'autre part. « En plus de la production d'hydrogène renouvelable, le développement des technologies de stockage de l'hydrogène continue d'être un axe de recherche important afin d'aboutir à la mise en place d'une infrastructure énergétique basée sur l'hydrogène », a déclaré Shi-Yuan Liu, professeur de chimie et chercheur à l'Institut des Sciences de la Matière à l'UO.

Le département américain de l'Énergie (DOE), qui a financé cette recherche, s'efforce de développer un liquide viable et un support solide pour le "carburant hydrogène" d'ici 2017. La nouvelle approche de l'UO diffère de nombreuses autres technologies étudiées en ce qu'elle est à base de liquide plutôt que de solide, qui, selon Liu, "faciliterait une transition possible d'une infrastructure de type essence à celle d'hydrogène."

La clé réside en fait dans la chimie. L'équipe de Liu a découvert initialement que 6 chaînons cycliques de borazane étaient facilement trimérisables - formant une molécule plus grande - avec un dégagement d'hydrogène. Ces matériaux de base, cependant, étaient des solides. En ajustant la structure, notamment en réduisant la taille du cycle de 6 à 5 chaînons, les chercheurs ont réussi à créer une version liquide qui possède une basse pression de vapeur et ne change pas sa propriété liquide lors de la libération d'hydrogène.

Enerzine

Les dépenses mondiales dans les énergies renouvelables dépassent celles en faveur des énergies fossiles
Jeudi, 08/12/2011 - 00:00

En 2011, pour la première fois, l'investissement dans la production d'énergie renouvelable va dépasser les sommes injectées dans la construction de centrales fonctionnant aux énergies fossiles : 187 milliards de dollars d'un côté, 157 milliards de l'autre, selon les calculs de Bloomberg New Energy Finance.

"Ce qui n'est pas le moins remarquable, c'est que cet investissement a lieu alors que l'on est au milieu d'une crise économique et financière", souligne Achim Steiner, le secrétaire général du Programme des Nations unies pour l'environnement, cité par le Los Angeles Times. Il y a quelques jours, The Economist avait publié ce tableau récapitulatif des énergies renouvelables dans le monde, par source et par région géographique. Le magazine notait, par exemple, que le solaire a fait un bond de 70 % en 2010 (40 gigawatts en 2009).

Globservateur

Total se lance en tandem dans le carburant renouvelable
Mercredi, 07/12/2011 - 00:30

La signature d'accords entre Total et Amyris a été annoncée dans l'objectif de renforcer d'une part leur partenariat R&D et de créer d'autre part une société commune qui développera, produira et commercialisera une gamme de produits et de carburants issus de matières premières renouvelables.

Les deux entités amplifient leur partenariat de R&D afin d'accélérer le développement du Biofene® et de mettre au point un biodiesel grâce à cette molécule issue du sucre d’origine végétal.  Cet ambitieux programme démarré en 2010 et mené conjointement par les chercheurs des 2 sociétés, vise à développer les étapes nécessaires à l’industrialisation et à la commercialisation de biocarburants de nouvelle génération. Total s'est déjà engagé à participer à hauteur de 105 millions de dollars au financement de ce programme estimé à 180 millions de dollars.

Parallèlement, Total et Amyris ont décidé de créer une joint-venture (50/50) qui détiendra les droits exclusifs de production et de commercialisation des biodiesels et biojets fuels (carburants pour avions) dans le monde entier ainsi que des droits non exclusifs pour d’autres produits d’origine renouvelable tels que les fluides de forage, les solvants, les polymères et des biolubrifiants spécifiques. Cette joint-venture devrait être opérationnelle dès le premier trimestre 2012.

« La création de cette joint-venture et le lancement de ce nouveau programme de R&D sur le biodiesel sont deux nouvelles étapes majeures pour Total qui ambitionne de devenir un fournisseur important de biocarburants, » a déclaré Philippe Boisseau, directeur général Gaz & Energies Nouvelles de Total. « Le biodiesel issu de la technologie avancée Amyris bénéficiera du savoir-faire et des capacités d’accès aux clients de l’ensemble du groupe Total présent dans plus de 130 pays. Il permettra de renforcer les positions du Groupe sur un marché mondial du biodiesel qui devrait doubler d’ici à 2020, passant de 17 Mt en 2010 à 32 Mt par an. »

« Des carburants à la chimie, Amyris entend proposer aux clients et aux consommateurs des produits renouvelables de qualité aussi performants que les produits issus du pétrole, » a ajouté John Melo, Président directeur général d’Amyris.

  • La technologie d'Amyris

Amyris a mis au point des technologies (engineering et screening) qui lui permettent de modifier la façon dont les micro-organismes transforment le sucre. Elle utilise sa plate-forme technologique de biologie synthétique pour concevoir des micro-organismes, principalement des levures, qui deviendront de véritables usines vivantes intégrées aux processus de fermentation nécessaires à la conversion du sucre des végétaux en produits chimiques et biocarburants.

Amyris dispose de laboratoires et d’une usine pilote en Californie ainsi que d’un site de démonstration et d’une usine pilote au Brésil. Sa production de Biofene est répartie, selon différents accords de production, entre ses sites en Europe, aux États-Unis et au Brésil où de nouvelles usines sont actuellement en construction.

Cette technologie permettra d’atteindre des taux d’incorporation de composants renouvelables (biomasse, déchets organiques, etc.) aux carburants bien supérieurs aux 7 % actuellement fixés par la règlementation européenne notamment. Le biodiesel produit ainsi par Total et Amyris se caractérisera par des qualités comparables aux meilleurs diesels issus du pétrole (densité énergétique, performances moteurs, propriétés de stockage), voire supérieures (lubrification et résistance aux basses températures).

Enerzine

L'Allemagne modernise et recycle son parc éolien
Lundi, 05/12/2011 - 00:20

En Allemagne, on parle beaucoup de "repowering" pour l'éolien terrestre. Il s'agit de remplacer plusieurs éoliennes anciennes par un nombre inférieur de nouvelles dans le but d'augmenter les rendements. En Saxe-Anhalt, des modèles des années 90 de type "WW750/52", de 74m de haut, sont actuellement remplacés par des "E-82" de 138m, pouvant produire jusqu'à quatre fois plus de courant électrique que les premières. Cette opération de repowering est soutenue par l'Etat allemand pour les éoliennes de plus de dix ans, ce qui a permis d'ouvrir un marché pour lequel certaines entreprises, comme "Deutschen Wind Technik AG" ou "psm Wind Service", se sont désormais spécialisées. Il reste qu'en 2020 ces "anciennes éoliennes" représenteront 20.000 tonnes de déchets (matériaux du rotor et des pâles). La plupart d'entre elles peuvent trouver une deuxième vie dans d'autres pays, en Europe de l'Est ou dans les Etats baltes par exemple. A mesure que la législation de ces pays évolue, cette pratique devient cependant difficile à mettre en oeuvre.

La nouvelle approche consiste à démanteler l'éolienne pour revaloriser chaque partie. Le béton et l'acier utilisés dans le mat sont facilement valorisables. En revanche, les pales ont une composition plus complexe qui rend leur recyclage difficile : de la fibre de verre issue de gaines de verre fixées avec de la résine. Leur dépôt en décharge étant désormais interdit, deux entreprises du Nord de l'Allemagne - Zajons et Holcim - ont mis au point un procédé chimique permettant de les utiliser dans la fabrication de ciment. Les pales sont d'abord broyées puis enrichies pour servir de substitut aux matières premières dans la fabrication de ciment, traditionnellement du charbon ou du sable.

Le recyclage des éoliennes est une question nouvelle qui ne concerne actuellement que peu d'installations et dont le coût n'a pas encore réellement impacté les coûts d'investissement. Il pourrait cependant inquiéter demain les exploitants, car ils sont, comme en France, responsables de la remise en état des sites d'exploitation.

Bulletins Electroniques

Un ingénieux système canadien de chauffage distingué
Samedi, 03/12/2011 - 00:30

Le quartier de la communauté solaire canadienne - Drake Landing (CSDL) a remporté l'édition 2011 de l'Energy Globe World Award par la mise en oeuvre d'un système ingénieux grâce auquel la chaleur du soleil est stockée sous la surface de la Terre.

La CSDL a réussi à combiner la technologie canadienne en matière d’efficacité énergétique à une source énergétique renouvelable et illimitée, le soleil. Ce genre de communauté est sans précédent  dans le monde. Elle constitue la plus grande subdivision de Maisons R-2000 au Canada, chacune d’entre elles présentant une efficacité énergétique de 30 % supérieure à une habitation courante. Elle répond ensuite à 90 % des besoins en chauffage de chaque maison grâce à l’énergie solaire, ce qui diminue la dépendance envers les combustibles fossiles ; enfin, elle permet de réduire chaque année de 5 tonnes les émissions de gaz à effet de serre de chaque maison.

Ce projet représenté par Doug Mc Clenahan comprend 52 foyers de la ville d'Okotoks, dans l'Alberta, qui profitent ainsi d'un système permettant à la chaleur estivale d'être stockée sous la surface de la Terre. Pour se faire, le réseau héliothermique comprend 800 panneaux solaires plats à vitrage simple (inclinaison 45° - Sud) placés en 4 rangées sur les garages détachés qui se trouvent derrière les maisons.

Un liquide antigel - un mélange d'eau et de glycol non toxique - est pompé à travers des capteurs solaires et chauffé par le soleil. Les 800 collecteurs sont reliés entre eux via un réseau de canalisations souterraines qui transportent le liquide chauffé jusqu'à la centrale d'énergie de la communauté. Les capteurs solaires produisent 1,5 mégawatt de puissance thermique au cours d’une journée courante d’été.

La centrale d’énergie de la CSDL constitue le cœur même du réseau d’énergie de quartier. Située dans un coin du parc de la communauté, elle abrite les deux réservoirs thermiques à court terme  de 120 m3, la chaudière de secours au gaz naturel, ainsi que la plus grande partie de l’équipement mécanique, comme les pompes, les échangeurs de chaleur et les dispositifs de commande.

La boucle des capteurs solaires, la boucle du réseau d’énergie de quartier et la boucle du stockage thermique saisonnier en puits passent au travers de la centrale d’énergie.

Pendant les mois chauds, l'eau chauffée est transférée du réservoir de stockage - à court terme - vers le stockage d'énergie thermique souterrain (TSEI) à l'aide d'une structure comprenant un réseau de puits - 144 trous forés qui s'enfoncent sous 37 mètres - couvrant une superficie de 35 mètres de diamètre.

Le réseau de stockage thermique saisonnier en puits est une structure souterraine permettant d’emmagasiner de grandes quantités d’énergie solaire recueillies l’été pour servir l’hiver. L’eau chauffée par énergie solaire est pompée pour le stockage thermique saisonnier en puits à travers un ensemble de canalisations en U.

Comme l'eau chauffée se déplace à travers les canalisations, le flux de chaleur est transféré au sol et aux rochers ambiants qui atteignent une température de 80°C d'ici la fin de l'été. Pour assurer un bon contact thermique avec le sol, le réseau de forage est rempli d'un matériau à haute conductivité thermique.

Lorsque l'hiver arrive et lorsque les habitants réclament du chauffage, l'eau chaude stockée dans le TSEI passe alors vers le réservoir de stockage - à court terme - du centre énergétique avant d'être distribuée aux foyers à travers une boucle de chauffage urbain. La température de l'eau qui circule à travers ces conduites est généralement comprise entre 40 et 50°C. Dans chaque maison, l’eau chauffée passe au travers d’un système de traitement de l’air installé au sous-sol, évitant ainsi le recours à une chaudière classique. La chaleur est transférée de l’eau à l’air pour, ensuite, être distribuée partout dans le bâtiment à l’aide de conduits.

Pour répondre à la demande en eau chaude, chaque maison est équipée sur le toit de deux capteurs solaires automatiques uniques en leur genre. Ces derniers sont reliés à un chauffe-eau à énergie solaire installé au sous-sol. L’énergie solaire permet ainsi de répondre, chaque année, à près de 60 % des besoins domestiques en eau chaude. Lorsque cette sorte d’énergie n’est pas disponible, un appareil à eau chaude, à conversion de puissance et alimentée au gaz naturel, prend alors la relève.

Les résultats obtenus :

  • Les besoins en énergie d’une maison canadienne courante se répartissent ainsi : 60 % de ceux-ci portent sur le chauffage des espaces, 20 % sur le chauffage de l’eau, et 20 % sur le fonctionnement des appareils, l’éclairage et diverses autres fins.
  • Le chauffage des espaces : Plus de 90 % de l’énergie utilisée pour le chauffage des espaces dans une maison de la CSDL au cours d’une année est constituée d’énergie solaire. Même dans un hiver et un printemps inhabituellement froids, 85 % de la chaleur nécessaire est tirée du soleil.
  • Le chauffage de l’eau : La combinaison de conduits à haut rendement, de chauffe-eau au gaz naturel et de dispositifs d’économie d’eau permet à chaque maison de la CSDL de consommer entre 65 et 70 % moins de gaz naturel pour chauffer l’eau que les maisons neuves courantes.

Ce bilan signifie des économies annuelles d’une tonne d’émissions de gaz à effet de serre par maison.

Enerzine

Villa Vision, une maison passive inférieure à 15 kWh/m²/an
Vendredi, 02/12/2011 - 05:30

la villa Vision bâtie à Carros, dans les Alpes-Maritimes, n'a rien à voir avec une maison traditionnelle. Véritable habitat "écolo", elle consomme moins de 15 kWh/m²/an, soit 30 fois moins que la moyenne française et 3 fois moins qu'une construction BBC (basse consommation). La villa Vision est l'une des huit maisons aujourd'hui officiellement certifiées “passives“ en France, un standard ouvert de bâtiment très basse consommation, défini en Allemagne par le PassivHaus Institut de Darmstadt.

Dépourvue de tout système de chauffage et de climatisation, elle procure toutefois un confort idéal à ses occupants avec une température constante de 21 à 23° C, quelle que soit la saison. Elle puise ses ressources dans son isolation thermique, son étanchéité à l'air et les apports solaires passifs. Pour atteindre cette performance, l'ensemble des techniques courantes de construction ont été revues et enrichies d'un système domotique afin d'optimiser la consommation d'énergie. « L'isolation de la maison par l'extérieur est un élément clé de sa performance énergétique, explique Victoric Bailleul, responsable communication de la société Vision Eco-habitats, conceptrice de la villa passive de Carros. Chaque matériau est étudié selon ses coefficients et sa conductivité thermiques et tous les ponts thermiques, sources de déperditions d'énergie, sont neutralisés. »

Le traitement de l'air intérieur est, lui, assuré par une VMC double flux très performante. « Tempéré, recyclé et purifié en permanence, l'air intérieur est d'une qualité supérieure à celui d'un habitat traditionnel, reprend Victoric Bailleul. C'est comme si on laissait les fenêtres ouvertes 4 heures par jour, mais sans aucune déperdition thermique. »

Quant à la température ambiante, elle est régulée par géothermie. L'air extérieur circule dans un tuyau enterré à 1,50 m dans le sol, selon le système du puits canadien. Il chauffe ou se refroidit par géothermie passive et sort du puits à une température de 15° C environ. Cet air arrive dans la VMC double flux et croise un récupérateur de chaleur, un entrelacement de tuyaux dans lequel l'air vicié transmet ses calories à l'air entrant. On gagne là encore quelques degrés. Enfin, l'éclairage par halogènes basse consommation, l'ensoleillement, et la vie à l'intérieur de la maison contribuent à réchauffer encore un peu l'atmosphère pour finalement atteindre une température ambiante constante et agréable.

A la pertinence des techniques de construction vient s'ajouter l'intelligence d'un système domotique. Celui-ci régule la consommation énergétique en pilotant l'éclairage, les volets roulants, mais aussi l'arrosage automatique du jardin, en fonction de divers paramètres. Par exemple, la lumière s'allume sur détection de mouvement et selon des scénarios pré-définis (extinction générale au départ de la maison, allumage de l'entrée au retour). Les occupants évitent ainsi tout gaspillage d'énergie. Les volets roulants sont, eux, abaissés ou relevés en fonction de la température et de la luminosité extérieures, mesurées par une station météo installée sur le toit ; un dispositif de “sun tracking“ permet de définir l'orientation des lamelles pour optimiser les apports d'énergie gratuits.

« Nous avons choisi un système KNX Schneider Electric qui présente une réelle longueur d'avance en regard des attentes de nos clients, aussi bien celles des concepteurs de la maison que celles de ses occupants, déclare Nicolas Colombi, l'intégrateur de la société Cust'Home Paca qui a mis en œuvre cette solution. Les habitants n'ont rien à faire, tous les paramètres sont gérés automatiquement pour maintenir la performance énergétique de la maison. Ils n'interviennent que sur les scénarios d'éclairage et de pilotage des volets roulants, en fonction de leurs habitudes et de leurs activités. »

Enfin, le système KNX est associé à un superviseur qui, via un coffret de communication Alvidis de Schneider Electric, permet de remonter toutes les informations relatives à l'énergie et de les visualiser sur un écran : courbe de température extérieure / intérieure, hygrométrie extérieure / intérieure, consommation instantanée, équivalent production en CO2, production d'eau chaude, production photovoltaïque. L'occupant peut ainsi mesurer les économies réalisées en comparaison avec une maison traditionnelle. « La construction d'une maison passive représente un surcoût de 5 % à 10 %, surcoût amorti en seulement 5 ans par les seules économies d'énergie, conclut Victoric Bailleul.

Enerzine

^ Haut
Espace
Espace et Cosmologie
Hubble prend la température d'un quasar
Jeudi, 08/12/2011 - 00:40

Des astrophysiciens ont mis au point une nouvelle méthode pour étudier les trous noirs supermassifs résidant au cœur des galaxies distantes.

Un quasar est un trou noir supermassif entouré d'un disque de gaz et de poussière, ou disque d'accrétion. En raison d'intenses frottements, le gaz est porté à très haute température, de sorte que le quasar rayonne intensément. Les quasars sont trop petits et trop éloignés pour que les télescopes usuels permettent d'étudier la distribution de la température dans le disque d'accrétion. José Muñoz de l'Université de Valence et ses collègues ont pourtant mis au point une nouvelle méthode utilisant le télescope spatial Hubble, et réussi à mesurer la température dans différentes régions du disque d'un quasar.

Pour ce faire, les astrophysiciens ont tiré parti d'une galaxie située entre le quasar et le télescope. Les rayons lumineux provenant du quasar et passant près de la galaxie située en avant-plan sont déviés par son champ gravitationnel, et focalisés : la galaxie agit comme une loupe. Cette « lentille gravitationnelle » crée plusieurs images du quasar et amplifie la lumière issue de celui-ci.

Cette amplification est en partie atténuée par l'absorption due à la poussière présente dans la galaxie. La lumière collectée par Hubble porte des informations sur le quasar et sur la poussière traversée. Les images multiples, provenant d'une source unique (le quasar) mais correspondant à des parcours différents de la lumière, permettent d'isoler ces deux informations : un rayon lumineux passant à l'intérieur de la galaxie sera plus absorbé qu'un rayon dévié passant à l'extérieur. La comparaison des différents trajets permet ainsi d'estimer l'abondance de poussière dans la galaxie. L'analyse spectrale indique la présence de carbone dans ces poussières.

De plus, si une étoile de la galaxie d'avant-plan est alignée avec le quasar et le télescope, on observe un effet d'amplification de la lumière similaire, nommé microlentille gravitationnelle. La déviation de la lumière est trop faible pour être observée, mais la lumière collectée correspond à une zone restreinte du disque. On peut alors étudier différentes régions du disque, et notamment mesurer leur température par analyse du spectre.

Les astronomes ont appliqué cette technique à six quasars magnifiés par une galaxie en avant-plan. Dans trois cas, ils ont observé une atténuation due à la poussière contenue dans la galaxie. Pour l'un des quasars, l'effet de microlentille gravitationnelle a été mis en évidence. L'étude de différentes régions du disque d'accrétion a permis de mettre en évidence comment la température augmente à mesure que l'on se rapproche du trou noir,  et de confirmer ainsi les prédictions de certains modèles théoriques.

Pour La Science

Un robot à la recherche de la vie sur Mars
Vendredi, 02/12/2011 - 05:40

La NASA a lancé samedi 26 novembre un robot d’exploration en direction de Mars. La mission de Curiosity : trouver des indices permettant de déterminer si la vie a pu se développer sur la planète rouge.

La mission de la NASA Mars Science Laboratory (MSL) est partie en direction de la planète Mars, samedi 26 novembre. La fusée américaine Atlas V, qui propulse le robot explorateur (ou rover) Curiosity, a décollé de Cap Canaveral, en Floride, à 16h02 heure de Paris.

Le périple du rover vers la planète rouge durera 9 mois. En août 2012, Curiosity se posera à l’intérieur du cratère Gale (voir l'animation vidéo). Ce dernier, dont le diamètre est de 155 kilomètres, possède une montagne de 5000 mètres de hauteur en son centre. C’est dans cette zone que Curiosity cherchera notamment des molécules carbonées, indices d’une éventuelle forme de vie passée. Il dispose pour cela d’une dizaine d’instruments tels que des caméras, spectromètres, et des analyseurs d’échantillons. Parmi les instruments de la mission MSL, deux seront pilotés depuis Toulouse par les ingénieurs du Centre national d’études spatiales. Il s’agit de ChemCam et de SAM, deux outils d’analyse de la composition chimique des roches et de l’atmosphère martiennes.

Comparé à ses prédécesseurs, Curiosity est un poids lourd avec ses 900 kilogrammes. Spirit, un rover lancé en 2004, n’en pesait que 185. Avec autant d’instruments à son bord, ce rover dispose de capacités d’analyse très sophistiquées.

Le prochain robot à se poser sur Mars sera européen. Prévu pour 2019, il devrait être le premier à ramener sur Terre les échantillons récoltés.

La Recherche

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
La BBC filme "le doigt glacé de la mort"
Mercredi, 07/12/2011 - 00:10

Image stupéfiante d'un phénomène rare : une colonne de glace qui s'enfonce dans une mer gelée et y fait des ravages.

Le phénomène s'appelle un brinicle. Il se produit rarement, et n'avait jamais été filmé jusqu'à présent. Une équipe en tournage pour la série "Frozen Planet" de BBC One a assisté à cet événement sous-marin dans l'Antarctique.

La BBC diffuse cette étonnante vidéo, filmée en accéléré, où l'on voit une colonne de glace descendre peu à peu vers le fond, puis geler tout ce qu'elle touche, y compris les êtres vivants.

Surnommé le doigt glacé de la mort, un brinicle se produit quand un froid intense s’engouffre sous la glace d’une mer salée et gelée.

Atlantico

BBC Nature

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Découverte du fonctionnement d'une enzyme auxiliaire de la photosynthèse
Jeudi, 08/12/2011 - 00:30

Des chercheurs de l'Institut Max-Planck de Biochimie (MPIB) de Martinsried (Bavière) ont réussi à caractériser une protéine méconnue jusqu'à présent, qui aide la photosynthèse des algues rouges (ou Rodophyta) : la Rubisco-Activase. "Nous avons pu décrypter sa structure et son mécanisme fascinant", explique Manajit Hayer-Hartl, chef d'équipe au MPIB. "La comparaison de son mécanisme avec celui des plantes vertes pourrait servir à développer des plantes plus efficaces". On pense notamment à la réduction de la photorespiration nocturne.

Plantes, algues et planctons transforment le dioxyde de carbone (CO2) et l'eau en oxygène et en sucre. Sans ce processus, appelé photosynthèse, la vie d'aujourd'hui serait impossible. La photosynthèse est donc l'un des processus biologiques les plus importants du monde végétal. Il est pourtant chez les plantes bien moins efficace qu'il le pourrait.

Au cours de la photosynthèse, une protéine joue un rôle clé, il s'agit de la Rubisco, de son nom complet ribulose-1,5-diphosphate carboxylase-oxygénase. Elle relie les molécules de CO2 et déclenche la transformation en sucre et en oxygène. Elle est ainsi l'une des protéines les plus importantes.

Comme le souligne Manajit Hayer-Hartl, "malgré son importance, la Rubisco commet plein d'erreurs". L'un des problèmes est que la Rubisco lie les mauvaises molécules de sucre, ce qui a pour effet d'inhiber son activité. Afin que la Rubisco puisse reprendre son travail, les molécules de sucres doivent être éliminées par une enzyme spéciale, la Rubisco-Activase. Les scientifiques du Max-Planck ont justement découvert l'existence de deux Rubisco Activase, l'une chez les plantes vertes et l'autre chez les algues rouges, qui ont évolué au cours du temps. Elles diffèrent par leur structure tridimensionnelle et leur mécanisme d'action.

Deux voies mènent à la reprise de l'activité Rubisco. La Rubisco-Activase des algues rouges répare la protéine Rubisco bloquée en tirant sur une extrémité de la protéine - comme quelqu'un qui tire sur ses lacets - le centre actif de la Rubisco s'ouvre et le sucre se libère. La Rubisco-Activase des plantes vertes fonctionne au contraire plutôt comme un étrangleur. Elle enserre la protéine Rubisco inactive et la contraint à libérer la molécule de sucre. "La compréhension de la structure et de la fonction des deux enzymes pourrait aider les plantes et les microorganismes à produire un travail efficace et ainsi transformer davantage de CO2 en biomasse", explique Manajit Hayer-Hartl.

Bulletins Electroniques

Les neurotrophines : futurs outils thérapeutiques ?
Mercredi, 07/12/2011 - 07:13

Il est à présent démontré que des déficits en neurotrophines (comme le BDNF, Brain-derived neurotrophic factor, facteur neurotrophique issu du cerveau) peuvent contribuer à la physiopathologie de diverses affections psychiatriques (dépressions, troubles bipolaires, schizophrénie…), de certaines maladies neurodégénératives (Alzheimer, Huntington, Parkinson) et de certaines formes d'addictions à l'alcool ou aux drogues. S'appuyant sur cette découverte, les chercheurs tentent maintenant de mieux évaluer le rôle du BDNF dans le déclenchement de ces maladies et sa possible utilisation comme nouvel outil thérapeutique.

Polypeptide essentiel pour la croissance, la différenciation et la survie des neurones, ce facteur neurotrophique concourt aussi à la plasticité synaptique et agit avec des récepteurs de la famille protéine-tyrosine-kinase (TrkB). Prescrire du BDNF pourrait constituer une démarche simple, mais ce nouveau médicament serait alors dégradé par les enzymes digestifs (lors d’une prise par voie orale) ou arrêté par la barrière hémato-encéphalique (en cas de délivrance systémique). Et l’apport direct du produit in situ (via le LCR) semble également exclu, vu le caractère invasif de cette approche.

Une autre perspective thérapeutique serait d’envisager l’administration de BDNF par thérapie génique, mais on ne maîtrise ni le niveau de sa production sur le long terme, ni la spécificité de son impact cellulaire. Autre possibilité : recourir à des médicaments eux-mêmes susceptibles d’augmenter la production de BDNF endogène (cela semble être le cas avec les antidépresseurs et les ampakines). Une autre stratégie s’inspire des rétro-régulations, communes en endocrinologie.

On pourrait activer la voie BDNF-TrkB par l’intervention d’une substance simulant les propriétés du facteur neurotrophique naturel. Un tel médicament (BDNF-mimétique) pourrait se lier au récepteur TrkB afin de déclencher l’activation des stimuli en aval de cette voie (trigger activation of the downstream signaling pathway). Pour les chercheurs, le défi consiste donc à identifier de petites molécules pouvant se lier aux récepteurs du type TrkB pour activer la production endogène de neurotrophines, et en particulier du BDNF. Selon l’auteur, il s’agit là d’un « outil viable » pour affiner nos connaissances sur la physiologie et la physiopathologie des processus neurotrophiques. Et cette voie de recherches « nouvelle et passionnante » conduira sans doute vers des stratégies thérapeutiques inédites dans une grande variété de troubles neuropsychiatriques.

World Journal of Pediatrics

Science Daily

Les antidépresseurs contre Alzheimer ?
Mercredi, 07/12/2011 - 00:00

Selon une étude d'équipes de Saint Louis et Philadelphie, la prise d'antidépresseurs diminue la quantité de plaques amyloïdes présentes dans le cerveau, associées à la maladie d'Alzheimer. John Cirrito et ses collègues ont procédé d'abord sur des souris, puis sur des malades. En injectant pendant quatre mois un antidépresseur classique (le Citalopram) à des souris présentant une pathologie similaire à la maladie d'Alzheimer, ils ont constaté que les plaques amyloïdes s'accumulaient deux fois moins chez ces animaux.

Une étude a réuni 186 personnes atteintes de la maladie d'Alzheimer qui avaient consommé ou non des antidépresseurs. Les personnes ayant consommé des antidépresseurs durant trois ans et demi en moyenne, et celles n'en ayant jamais pris, ont subi des tests d'imagerie cérébrale permettant d'évaluer la quantité et la répartition des plaques amyloïdes dans leur cerveau. Celles qui avaient consommé des antidépresseurs présentaient deux à trois fois moins de plaques que les personnes n'en ayant jamais consommé.

Comment les antidépresseurs empêchent-ils la formation de ces plaques ? Elles résultent de l'agrégation d'un peptide naturellement produit par les cellules du cerveau à partir d'un précurseur de ce peptide. Les équipes américaines ont montré que, chez la souris, les antidépresseurs stimulent l'activité d'une enzyme nommée alpha-secrétase, qui découpe le précurseur, de sorte que le peptide délétère ne s'accumule plus. Cette stimulation repose sur l'enrichissement du milieu cérébral en sérotonine, un neuromédiateur qui enclenche des cascades de réactions biochimiques dans les neurones en se fixant sur un récepteur présent à leur surface.

Cette découverte pourrait avoir des conséquences sur le traitement des formes précliniques de la maladie d'Alzheimer, avant même l'apparition des premiers symptômes, notamment les pertes de mémoire ou la désorientation. En aidant à limiter la concentration de plaques amyloïdes, les antidépresseurs pourraient retarder, voire éviter l'apparition de la maladie. À condition que les mécanismes d'action des antidépresseurs sur les plaques amyloïdes soient confirmés chez l'homme.

Pour La Science

La dépression en plein cœur
Mardi, 06/12/2011 - 00:40

De récentes études tendent à prouver l’impact négatif des troubles de l’humeur sur la santé cardiaque, beaucoup plus important qu’imaginé.

Les personnes atteintes de dépression sévère sont deux fois plus susceptibles d’être victimes d’un infarctus du myocarde que celles qui ne le sont pas, révèle une étude canadienne publiée dans la revue Psychophysiology.

Les causes de cet état de fait étaient mal comprises jusqu’à présent : « Deux théories opposées ont été avancées pour expliquer le lien entre dépression et maladie cardiovasculaire. La première suppose que les sujets déprimés prennent moins soin de leur santé, ce qui favoriserait l’apparition de problèmes cardiaques. L’autre théorie est physiologique et tient à un dysfonctionnement de la réaction de stress appelée réaction de combat ou de fuite » explique Jennifer Gordon, principale auteure de l’étude.

Et c’est bien la seconde hypothèse qui serait la bonne : la dépression s’accompagne d’un dysfonctionnement de la réaction biologique au stress qui perturbe la récupération physique après un effort. « Nous avons découvert qu’il fallait plus de temps aux sujets déprimés pour retrouver une fréquence cardiaque normale. Nous pensons que ce dysfonctionnement peut contribuer à majorer leur risque de maladie cardiaque » expliquent les auteurs après avoir étudié le cœur de 886 sujets dépressifs ou non.

Ils estiment que leurs résultats devraient inciter les médecins qui prennent en charge les patients dépressifs à pratiquer chez eux un dépistage systématique des maladies cardiovasculaires.

Sciences et Avenir

Le régime méditerranéen serait la clé d'un sommeil réparateur
Mardi, 06/12/2011 - 00:20

Des chercheurs grecs ont mis en évidence le fait que le régime méditerranéen associé à une activité physique régulière permettrait d'améliorer les symptômes du syndrome d'apnées obstructives du sommeil (SOAS).

Le SOAS est un trouble du sommeil caractérisé par des pauses anormales respiratoires ou une diminution respiratoire anormale pendant le sommeil. Chaque pause respiratoire, appelée apnée, peut durer de quelques secondes à quelques minutes et se produit de 5 à 30 fois ou plus en une heure. Le SOAS est l'un des troubles de respiration pendant le sommeil les plus fréquents ; en effet, de 2 à 4 % des adultes en souffrent. L'obésité augmente fortement le risque de développer ce trouble et les médecins conseillent souvent de perdre du poids pour l'éviter.

Dans leur article publié dans la revue European Respiratory Journal, l'équipe présente les résultats basés sur une analyse de l'impact du régime méditerranéen sur les personnes obèses souffrant d'apnées du sommeil par rapport à d'autres sujets suivant un régime prudent, à savoir faible en matières grasses saturées et insaturées, et faible en cholestérol et en sel.

Le régime méditerranéen, malgré quelques variations régionales, se base sur l'alimentation traditionnelle de Crête, de certaines régions grecques et du sud de l'Italie. Il s'agit d'une alimentation basée sur des légumes, des fruits frais et de l'huile d'olive, principale source de matière grasse, ainsi que des produits laitiers tels que le fromage et les yaourts. Les personnes suivant ce régime consomment du poisson, de la volaille et de la viande rouge en quantités faibles ou modérées, et un maximum de quatre oeufs par semaine.

L'équipe, composée de chercheurs de l'université de Crête en Grèce, a examiné 40 patients obèses souffrant de SOAS. La moitié des patients devait suivre un régime prudent, tandis que les vingt sujets restants suivaient un régime méditerranéen. Les deux groupes étaient encouragés à augmenter leurs activités physiques, et devaient marcher pendant au moins 30 minutes par jour.

Tous les patients ont également suivi un traitement de pression positive continue en ventilation spontanée (PPC-VS), qui implique le port d'un masque générant un flux d'air pour maintenir les voies aériennes supérieures ouvertes pendant le sommeil. Au début de l'étude, les chercheurs ont suivi les patients pendant un examen de sommeil, ou polysomnographie. Ce type d'examen recherche plusieurs indicateurs du SOAS tels que l'activité électrique cérébrale, les mouvements oculaires et les ronflements. Six mois plus tard, l'équipe a soumis les patients à un second examen pour voir si les changements alimentaires avaient un effet sur le rythme du sommeil.

Les résultats ont révélé que les patients suivant le régime méditerranéen présentaient un nombre réduit d'apnée pendant la phase de sommeil paradoxal (une phase pendant laquelle le mouvement oculaire est rapide, et qui constitue 25 % du sommeil total pendant une nuit).

L'auteur principal de l'étude, Christopher Papandreou, explique : «Il s'agit de la première étude à examiner l'impact du régime méditerranéen associé à une activité physique sur le SOAS par des changements dans le corps. Nos résultats montrent que le nombre de perturbations pendant le sommeil paradoxal était davantage réduit dans le groupe ayant suivi le régime méditerranéen que dans l'autre groupe. Des rapports récents ont associé une augmentation des troubles pendant le sommeil paradoxal au risque de développer des conséquences systémiques comme le diabète de type II. Néanmoins, son importance clinique reste incertaine. Davantage d'études sont nécessaires pour examiner l'effet de l'alimentation susmentionnée sur les troubles respiratoires du sommeil en prenant compte de ses propriétés anti-inflammatoires et antioxydantes.»

Cordis

Maladies auto-immunes : l'espoir de l'interleukine
Mardi, 06/12/2011 - 00:10

Deux équipes françaises viennent de publier dans le New England Journal of Medicine (NEJM), des travaux qui ouvrent des perspectives résolument nouvelles dans le traitement de certaines maladies auto-immunes. De faibles doses d'interleukine 2, administrées à des patients souffrant d'une complication auto-immune de l'hépatite C, ont en effet permis d'améliorer l'état général des malades. Ces premiers résultats suscitent l'espoir d'étendre ces bénéfices à d'autres affections auto-immunes: le diabète de type 1 et la sclérose en plaques mais également par exemple, la polyarthrite rhumatoïde…

En France, entre deux et trois millions de malades souffrent d'une affection dite auto-immune. Dans ce cas, le système de défense, engagé dans la lutte contre les attaques extérieures (microbes), s'emballe et attaque les propres cellules du malade. Ce travail est le fruit d'une collaboration entre des équipes de l'Hôpital de la Pitié-Salpêtrière, l'Assistance Publique –Hôpitaux de Paris (AP-HP), de l'Université Pierre et Marie Curie, du CNRS et de l'INSERM. Les auteurs ont traité des patients présentant une vascularite, c'est-à-dire une complication vasculaire induite par une hépatite C. L'interleukine 2, administrée à faibles doses a permis de stimuler les lymphocytes T régulateurs. Or la majorité des maladies auto-immunes se caractérisent précisément par une insuffisance en lymphocytes T régulateurs.

L'interleukine 2 est connue depuis plus de 20 ans. Elle est en effet indiquée dans la prise en charge de certains cancers du rein ou mélanomes. Cependant, son efficacité est modeste et elle entraîne? à fortes doses, des effets indésirables importants. L'étude publiée dans le NEJM a été menée sur seulement 10 patients. Elle démontre néanmoins pour la première fois, que l'interleukine 2 peut être efficace dans la prise en charge d'une maladie auto-immune. Des essais de traitement du diabète de type 1 sont déjà en cours à l'hôpital de la Pitié-Salpêtrière.

NEJM

Nouveau pas vers un vaccin contre le SIDA
Mardi, 06/12/2011 - 00:00

Des chercheurs américains ont réussi à protéger des souris contre le virus du sida en utilisant une stratégie équivalente à la thérapie génique, avec une seule injection. Cette stratégie a permis d'induire une production permanente d'anticorps neutralisants anti-VIH chez des rongeurs génétiquement modifiés, après une seule injection dans le muscle de la patte des animaux.

La technique repose sur l'utilisation d'un vecteur, en l'occurrence un virus inoffensif (un virus associé à l'adénovirus ou AAV), qui transporte les gènes chargés de programmer la fabrication, directement dans le muscle, des anticorps protecteurs, qui ensuite diffusent dans l'organisme.

Etant donné le niveau de protection obtenu, avec ce procédé surnommé VIP (pour vectored immunoprophylaxis), l'équipe de biologistes de Caltech (Institut de technologie, Californie) dirigée par le prix Nobel David Baltimore, espère pouvoir transposer cette approche chez l'humain. Cette immunoprophylaxie VIP a un effet similaire à celui d'un vaccin mais sans faire travailler le système immunitaire, explique Alejandro Balazs, auteur principal de l'étude dans un communiqué de presse de Caltech.

Schématiquement, un vaccin comprend un antigène, une bactérie tuée ou un élément reconnaissable d'un virus, et après injection dans le corps, le système immunitaire apprend à fabriquer des anticorps pour le combattre. Mais cette approche classique n'a jusque là pas permis de mettre au point un vaccin efficace contre le virus du sida. L'équipe projette de tester cette méthode dans des essais cliniques limités, d'abord pour vérifier s'il est possible d'obtenir une production suffisante d'anticorps au niveau du muscle humain.

"Comme nous savons déjà que les anticorps (utilisés dans l'expérience, ndlr) marchent, mon avis est que si nous pouvons induire la production de suffisamment d'anticorps chez des gens, les chances que la méthode VIP réussisse sont réellement assez élevées", avance Balazs.

Nature

Rendre les cellules cancéreuses fluorescentes pour mieux les détecter
Lundi, 05/12/2011 - 07:40

De récents travaux de recherche conjoints des équipes menées par le professeur Yasuteru URANO de l'université de Tokyo et le professeur Hisataka KOBAYASHI du National Cancer Institute américain basé à Bethesda, ont conduit au développement d'une sonde moléculaire permettant de rendre les cellules de certains cancers fluorescentes et de faciliter ainsi la détection des tumeurs.

La tomographie par émission de positrons et l'imagerie par résonance magnétique sont des examens couramment employés pour détecter des masses tumorales par exemple. Cependant, les résolutions des images obtenues par ces techniques ne permettent pas l'observation de petites tumeurs (inférieures à 1 centimètre). Des sondes moléculaires peuvent également être utilisées mais requièrent souvent une administration préalable de plusieurs heures.

Le réactif développé par les scientifiques exploite la ?-glutamyltranspeptidase (GGT). Cette glycoprotéine enchâssée dans la membrane cellulaire est notamment impliquée dans le métabolisme du glutathion et dans le transport d'acides aminés à l'intérieur des cellules. La GGT présente une activité particulièrement importante dans les cellules cancéreuses du poumon, du sein, du cerveau, des ovaires et de l'utérus.

Dans le but d'exploiter cette forte d'activité enzymatique, les chercheurs ont développé la ?-glutamyl Hydroxymethyl Rhodamine Green (gGlu-HMRG), sonde moléculaire fluorescente jouant le rôle de substrat. L'enzyme GGT coupe la molécule gGlu-HMRG en gGlu et HMRG. Une fois cette coupure réalisée, la molécule HMRG va pénétrer dans la cellule et émettre une puissante lumière de couleur verte. L'accumulation d'une grande quantité de molécules HMRG facilitée par l'activité importante de la GGT, entraîne alors une émission accrue de lumière et une identification facilitée des tumeurs, même celles d'une taille inférieure à un millimètre. Les résultats des calculs effectués par les chercheurs ont indiqué que les cellules cancéreuses émettent une lumière 20 fois plus importante que les cellules saines.

D'après les expériences réalisées sur des souris femelles atteintes de cancer des ovaires, l'application du réactif à l'aide d'un spray a permis l'activation de la gGlu-HMRG en une minute. Cette sonde moléculaire fluorescente pourrait être utilisée dans le cadre d'opérations chirurgicales lourdes nécessitant par exemple l'ablation de l'intégralité des cellules cancéreuses, notamment les petites tumeurs mobiles à l'origine des métastases.

Les scientifiques travaillent actuellement au développement d'autres sondes permettant de détecter les tumeurs de l'estomac et du colon notamment. Le compte rendu exhaustif de ces travaux de recherche financés par la Japan Science and Technology Agency a été publié dans la revue scientifique Science Translational Medicine datée du 23 novembre.

Bulletins Electroniques

La choline contre la démence
Lundi, 05/12/2011 - 00:40

La chercheuse Rhoda Au et son équipe du département de médecine de l'université de Boston ont réalisé une étude de longue haleine, observant l'alimentation de 1 400 adultes sur 10 ans.

Les participants dont l'alimentation comportait du poisson contenant en quantité importante de la choline -- un nutriment essentiel généralement classé dans la catégorie des vitamines B -- ont obtenu de meilleurs résultats aux tests de mémoire et seraient moins susceptibles de souffrir de problèmes mentaux comme la démence que ceux qui ne disposaient pas de choline dans leur régime alimentaire ? La choline est présente dans les légumes (soja et haricots blancs ou rouges), le poisson, le foie, le lait selon le site australien ninemsn.

Mais la chercheuse précise «aucun nutriment ne peut servir d'arme absolue contre la démence», comme le rapporte le Huffington Post UK.

Certaines études affirment que la consommation d'oméga 3 favoriserait la lutte contre le déclin lié au vieillissement des fonctions cognitives. De plus, selon une étude parue en 2010, les buveurs de thé obtiendraient de meilleurs résultats lors de tests de mémoire et d'assimilation d'informations que ceux qui n'en consomment pas.

Cyberpresse

Santé : bientôt la fin des ordonnances papier
Lundi, 05/12/2011 - 00:30

La Sécurité sociale, qui reçoit 750 millions d’ordonnances sur papier par an, va accélérer la modernisation de ce système coûteux en temps et en argent.

Après les feuilles de soin, les ordonnances papier vont progressivement disparaître des pharmacies et des cabinets médicaux, au profit de prescriptions électroniques qui permettront de gagner du temps, de la place et de l’argent. « Nous sommes confrontés à une masse de papier considérable », a expliqué hier Philippe Ulmann, directeur de l’offre de soins à l’Assurance maladie, ce qui entraîne « une gestion très lourde pour les pharmaciens » et pour l’assurance maladie, qui doit « les récupérer, les trier, les traiter » et les archiver. Celle-ci reçoit 750 millions d’ordonnances par an, ce qui représente 420 km d’archives. A Paris, c’est un camion de 6 tonnes de papiers qui arrive chaque semaine à la Caisse primaire.

Le classement et la mise sous pli « représentent deux heures de travail chaque soir dans une pharmacie moyenne », a précisé le directeur général de la Caisse nationale d’assurance-maladie des travailleurs salariés (CNAMTS), Frédéric van Roekeghem. Et la collecte des ordonnances coûte 4 millions d’euros par an à la Cnam. Leur traitement mobilise 4 000 agents.

  • Télétransmission

Elle a donc entamé l’an dernier la dématérialisation des ordonnances dans les pharmacies, qui voient passer 550 millions de prescriptions par an. Environ 900 officines volontaires les scannent lorsque le patient est au guichet, puis gravent des CD, envoyés tous les quinze jours à l’Assurance maladie. Progressivement, le système va être généralisé aux 23 000 pharmacies de France d’ici fin 2012, début 2013, a précisé Van Roekeghem. Les pharmacies seront aidées à hauteur d’environ 400 € annuels pour s’équiper, a-t-il détaillé. Parallèlement, certaines pharmacies expérimentent la télétransmission directe de ces ordonnances vers l’assurance maladie, comme elles le font déjà pour les feuilles de soins qui permettent le remboursement à l’assuré. Cette transmission vers un serveur informatique sécurisé sera aussi généralisée progressivement. Puis, l’objectif est « d’aller à une dématérialisation complète du processus » avec la prescription médicale électronique, qui existe déjà aux Pays-Bas ou en Suède, a expliqué Philippe Ulmann.

La dématérialisation existe déjà en France pour les arrêts de travail et le choix du médecin traitant, a rappelé la Caisse. Son application aux ordonnances, notamment de médicaments, a été validée par la convention signée en juillet entre médecins et assurance maladie. Les professionnels de santé (pharmacies, kinés, labos…) pourront alors, sur un portail Internet professionnel, avoir accès à l’ordonnance du médecin, ce qui n’empêchera pas ce dernier de continuer à délivrer une prescription papier au patient.

Le Républicain Lorrain

Découverte d'un nouveau mécanisme immunitaire de réaction aux infections virales
Lundi, 05/12/2011 - 00:10

L'équipe de Karl Lang, du programme de recherche coordonnée (SFB) 575 "Hépatologie expérimentale" de Düsseldorf, a découvert que la rate contenait des cellules dont la tâche est de multiplier les virus entrés dans l'organisme. Ce qui peut apparaitre comme un paradoxe garantit au contraire une réponse immunitaire forte contre ces intrus. Les travaux ont été publiés en ligne dans la revue "Nature Immunology" le 20 novembre 2011.

Le combat contre les virus est principalement mené par les lymphocytes T et B qui produisent des anticorps spécifiques neutralisants. Or, pour ce faire, les lymphocytes nécessitent un contact intensif avec les particules infectieuses. Ainsi, sans la multiplication de celles-ci, la production d'anticorps ne serait pas possible et l'infection causerait des dégâts considérables.

Les chercheurs se concentrent à présent sur deux questions : dans quelle mesure ce processus influence les infections chroniques causées par les virus hépatiques (VHB et VHC) ou virus d'immunodéficience humaine (VIH) ? Et peut-il avoir des applications thérapeutiques ?

Bulletins Electroniques

Perte de volume de l’hippocampe, un trait phénotypique de la schizophrénie
Lundi, 05/12/2011 - 00:00

L’hippocampe est l’une des « rares structures cérébrales capables d’engendrer des nouveaux neurones » tout au long de l’existence. Tout dysfonctionnement affectant cette partie du cerveau risque donc d’avoir d’importantes répercussions neuro-psychiatriques. Confirmés par des analyses post-mortem montrant une réduction significative de la taille des neurones de l’hippocampe, des travaux antérieurs ont montré ainsi que la schizophrénie s’accompagne d’une réduction du volume de l’hippocampe. Mais on méconnaît encore l’évolution de ce phénomène et son importance relative comme trait caractéristique de cette psychose.

Portant sur une cohorte de 89 patients avec une schizophrénie débutée dans l’enfance, sur 78 frères ou sœurs (non cliniquement affectés) des intéressés et sur 79 sujets-contrôles, âgés de 10 à 29 ans, une étude effectuée aux États-Unis évalue les volumes hippocampiques (volume droit, gauche et total) en imagerie par résonance magnétique. Comparativement aussi bien aux sujets-contrôles qu’aux membres non atteints de leurs fratries, les schizophrènes présentent une « perte de volume permanente » (fixed volume loss) de l’hippocampe pour les trois paramètres mesurés, perte « reliée apparemment » à leur maladie.

Si elle ne traduit pas une « forte corrélation génétique », cette baisse des différents volumes de l’hippocampe constitue néanmoins, selon les auteurs, un « trait important » caractérisant le phénotype de la schizophrénie à début précoce. D’autres recherches devront affiner ces résultats, pour préciser notamment quelles sous-structures hippocampiques se trouvent surtout concernées par cette atrophie relative de l’hippocampe. Mais cette étude ne révèle pas non plus si le phénomène en question correspond vraiment à un facteur étiologique de la schizophrénie ou s’il s’agit plutôt, à l’inverse, d’une de ses conséquences au niveau neuro-anatomique.

JIM

L'empathie aurait des bases génétiques
Dimanche, 04/12/2011 - 00:20

Des chercheurs américains viennent en effet de montrer, de manière expérimentale, que les personnes plus attentionnées seraient porteuses de formes particulières du gène du récepteur à l'ocytocine, une hormone impliquée dans les relations affectives et sociales. Ces travaux, publiés récemment dans la revue Proceedings of the National Academy of Sciences (PNAS), occultent un peu la dimension éducative de l'ouverture à l'autre, également transmise par les parents, mais autrement que par leurs gènes.

Pour aboutir cette conclusion, les chercheurs de l'université de l'État de l'Oregon ont recruté 23 couples d'amoureux. Pour chacun d'eux, ils ont demandé à l'un des partenaires d'évoquer un moment douloureux de son existence, pendant que l'autre était filmé en vidéo et qu'un prélèvement de salive était effectué pour faire une analyse de son ADN afin d'examiner le gène de l'ocytocine.

Les films ont été ensuite analysés par des psychologues neutres qui ont évalué chaque «écoutant» selon son comportement prosocial (pour les plus empathiques) ou peu attentif. Puis, en corrélant ces évaluations avec l'analyse ADN, les chercheurs ont découvert que les plus empathiques avaient tous une forme commune du gène de l'ocytocine. Les plus «autistes» présentaient entre eux une forme similaire de ce gène, mais différente de celle des «empathiques».

PNAS

Découverte d'une "clé" moléculaire essentielle dans le contrôle du vieillissement
Dimanche, 04/12/2011 - 00:00

Des chercheurs de l'Université de l'Illinois au Chicago College of Medicine ont identifié pour la première fois l'une des principales cibles des enzymes qui contrôlent la stabilité des extrémités chromosomiques par la télomérase, une enzyme qui joue un rôle clé dans le cancer et vieillissement. Les télomères sont les extrémités des chromosomes et permettent la division cellulaire. Ces télomères raccourcissent à mesure que les cellules se divisent.

Si les télomères deviennent trop courts, une cascade de réactions enzymatiques peut entraîner l'apparition de cancers et un vieillissement prématuré chez l'homme. L'étude de l'UIC, dirigé par Toru Nakamura, professeur de biochimie et de génétique moléculaire, a été centrée sur la compréhension des deux enzymes impliqués dans le contrôle de l'ADN : l' ATM et l' ATR qui contribuent à la régulation de la télomérase.

L' étude, largement financée par l'Institut Américain de la Santé, a été réalisée à l'aide de cellules de levure et a révélé que l'ATM et l'ATR agissent sur les des télomères en modifiant chimiquement une protéine cible spécifique lié à l'ADN télomérique, qui attire alors la télomérase "Un peu comme les abeilles sont attirées par les fleurs à couleurs vives" selon l'explication du professeur Nakamura.

"Dans la mesure où la dérégulation des mécanismes de contrôle des télomères est un événement clé dans la formation des tumeurs, comprendre comment les composants cellulaires interagissent pour générer des télomères fonctionnels est essentiel pour développer de puissants outils de prévention des cancers " souligne le Docteur Nakamura.

Science Daily

La musique rend intelligent
Samedi, 03/12/2011 - 00:00

Selon une étude de l'Université de Toronto au Canada, la pratique de la musique augmenterait l'intelligence verbale des enfants, c'est-à-dire leur capacité de compréhension du discours d'autrui et leur propre expression. D'autres travaux de l'Université de Porto, au Portugal, montrent que la pratique régulière d'un instrument par un adulte améliore la compréhension des émotions d'autrui, car ces personnes sont plus sensibles aux intonations de la voix.

La première étude a consisté à faire participer des enfants âgés de quatre à cinq ans à des programmes d'initiation à la musique, où ils écoutaient des mélodies, apprenaient à les reconnaître, à identifier le timbre des instruments, etc. Les enfants devaient ensuite passer des tests d'intelligence verbale (compréhension de l'oral, raisonnement à partir de situations exposées verbalement, etc.). Comparativement à des petits n'ayant suivi aucun programme préalable, ou ayant suivi un programme d'introduction aux arts graphiques, les enfants initiés à la musique ont déployé des capacités supérieures d'intelligence verbale. Les psychologues y voient le signe d'un transfert de capacités cognitives musicales (mémorisation, repérage de structures temporelles et sonores) vers le domaine du raisonnement et du langage.

Dans la seconde étude, les psychologues ont fait écouter à des adultes âgés de 18 à 30 ans ou de 40 à 60 ans des phrases enregistrées, dont le ton exprimait six émotions différentes : la peur, la colère, le dégoût, la joie, la tristesse ou la surprise. Les résultats ont montré que les adultes ayant un bon niveau de pratique musicale identifient mieux, quel que soit leur âge, la plupart des émotions exprimées à travers la voix. Les personnes sans pratique musicale se trompent plus souvent.

La musique exerce l'oreille à déceler les variations dans la hauteur des sons, et familiarise en outre au monde émotionnel, qu'il s'agisse d'exprimer des émotions par des sons, d'identifier ses propres émotions, ou d'affûter sa sensibilité aux inflexions des phrases musicales et aux nuances associées aux différentes interprétations. L'avantage acquis en société est alors notable, étant donné que l'identification des émotions dans les voix fait partie de l'intelligence émotionnelle, liée au succès social et professionnel.

Pour La Science

Une hypophyse obtenue à partir de cellules souches embryonnaires
Vendredi, 02/12/2011 - 05:20

Des équipes du Riken Center for Developmental Biology et de la Nagoya University ont réussi pour la première fois à créer une adénohypophyse fonctionnelle à partir de cellules souches embryonnaires. L'adénohypophyse constitue le lobe antérieur de l'hypophyse et sécrète de nombreuses hormones indispensables au développement et à la reproduction. Cette percée scientifique constitue un nouveau pas vers la médecine régénérative et survient juste après deux autres avancées japonaises concernant la culture en trois dimensions de tissus du cortex cérébral en novembre 2008 et de la rétine en mai 2011.

Les cellules souches embryonnaires sont capables de se différencier en n'importe quel type de cellule d'un organisme. L'expérience réalisée par les scientifiques japonais a permis de mettre en culture tridimensionnelle environ 10.000 cellules souches embryonnaires de souris. Contrairement à la technique de culture classique en monocouche, la culture en trois dimensions permet de reconstituer un milieu chimique et un environnement physique proches des conditions réelles, influant directement sur la morphologie et les voies de communication des cellules.

Une fois les conditions chimiques embryonnaires reproduites, les cellules se sont agrégées et la poche de Rathke s'est alors formée, témoignant des premières étapes du développement de l'adénohypophyse. Une fois l'adénohypophyse complètement créée, les chercheurs l'ont transplantée dans des souris préalablement adénohypophysectomisées. Après huit semaines, 85 % des souris ont survécu à leur opération et leur taux d'adrénocorticotrophine, hormone sécrétée par l'hypophyse, a retrouvé un niveau normal.

Nature

Le cancer colorectal est-il provoqué par une bactérie ?
Vendredi, 02/12/2011 - 05:10

Deux études menées par des chercheurs de l'Université Simon Fraser de Vancouver (SFU) et  publiées dans Genome Research ont établi un lien pour la première fois entre le cancer colorectal humain et un microorganisme spécifique. Ces études ont montré que, dans 99 cas de patients atteints du cancer colorectal sur 100, la bactérie de type Fusobacterium était plus de cent fois plus présente dans les tumeurs que dans les tissus sains. Le cancer du côlon est la deuxième cause de mortalité liée au cancer.

L'un des auteurs de cette étude, Rob Holt, maître de conférences en biologie moléculaire et en biochimie, et chercheur à l'Agence du Cancer de Colombie Britannique (BC Cancer Agency), précise : "Nous avons été surpris par ces résultats. Bien que la bactérie Fusobacterium soit connue en tant qu'agent infectieux, elle est rarement présente dans l'intestin et n'avait jamais été associée au cancer jusqu'à présent". Il faut maintenant établir si l'infection par Fusobacterium cause ou précède les tumeurs colorectales.

"Nous allons pousser les études pour étudier la possibilité que Fusobacterium soit la cause directe du cancer du côlon, et dans ce cas, par quels mécanismes", dit Holt. "Si il est prouvé que Fusobacterium est la cause de ce type de cancer, on pourrait alors envisager de nouvelles approches dans la prévention ou le traitement du cancer du côlon en ciblant cette bactérie avec des antibiotiques ou des vaccins".

L'étude souligne que "Les cancers gastriques ont déjà été reliés à des inflammations causées par le microorganisme H. Pylori. Il est maintenant bien établi que les patients atteints de maladies du côlon ont des taux de cancer colorectal plus élevés", dit Holt. "Et environ 15 % de tous les cancers sont d'origine infectieuse. Il est donc possible que quelques espèces de microbes trouvées dans l'intestin puissent être associées avec le cancer colorectal".

Genome Research du 23-11-2011

The New York Times

^ Haut
Recherche
Recherche & Innovation, Technologies, Transports
Renforcer la croissance : la Commission annonce un investissement de 80 milliards d'euros en faveur de la recherche et l'innovation
Mercredi, 07/12/2011 - 00:20

Le 30 novembre dernier, la commissaire européenne en charge de la recherche, de l'innovation et de la science, Máire Geoghegan-Quinn, a annoncé un paquet de 80 milliards d'euros de mesures visant à promouvoir la recherche, l'innovation et la compétitivité en Europe. Si elle est acceptée par le Conseil et le Parlement européen, l'initiative «Horizon 2020» constituera le pilier de l'initiative de l'Union de l'innovation de l'UE, une initiative phare de la stratégie Europe 2020 qui vise à renforcer la base scientifique et technologique ainsi que la compétitivité de l'Europe.

Mme Máire Geoghegan-Quinn déclarait : «Une nouvelle vision de la recherche et de l'innovation en Europe est nécessaire en ces temps de profonds changements économiques. Horizon 2020 stimule directement l'économie et préserve notre base scientifique et technologique ainsi que notre compétitivité industrielle pour le futur, avec la promesse d'une société plus intelligente, plus durable et plus inclusive.»

Mme Androulla Vassiliou, membre de la Commission européenne, a présenté un programme stratégique d'innovation pour l'Institut européen d'innovation et de technologie (EIT), qui recevra 2,8 milliards d'euros de financement au titre d'Horizon 2020. En parallèle, M. Antonio Tajani, vice-président de la Commission, a annoncé un nouveau programme complémentaire en vue de stimuler la compétitivité et l'innovation des PME, doté d'un budget additionnel de 2,5 milliards d'euros.

Tous ces programmes de financement couvrent la période de 2014 à 2020, après la clôture du septième programme-cadre (7e PC) de recherche de la Commission, prévue pour 2013.

Contrairement aux précédents programmes de recherche, Horizon 2020 rassemble pour la première fois tous les financements de l'UE en matière de recherche et d'innovation en un seul programme. Plus que jamais, il s'attache à transformer les découvertes scientifiques en produits et services innovants qui créent des débouchés commerciaux et apportent des améliorations dans la vie des citoyens.

Parallèlement, Horizon 2020 fonctionne selon une approche simplifiée. Il réduit considérablement les formalités administratives en simplifiant les règles et les procédures, dans le but d'attirer davantage de chercheurs de haut niveau et un éventail plus large d'entreprises dans le domaine de l'innovation. Un objectif fondamental est de réduire de 100 jours en moyenne le délai de réception d'un financement à la suite d'une demande de subvention, de sorte que les projets puissent débuter plus rapidement.

Un budget de 24,6 milliards d'euros a été consacré à la science, dont une augmentation des financements de 77 % pour le très utile Conseil européen de la recherche (CER), en vue d'atteindre 13,2 milliards d'euros. Le CER aide les scientifiques les plus talentueux et les plus créatifs à mener des activités de recherche exploratoire de la plus haute qualité en Europe.

Un autre programme consacré au soutien des chercheurs individuels est le programme d'actions Marie Curie, qui soutient la formation, la mobilité et le développement de compétences de plus de 50 000 chercheurs depuis son lancement en 1996. Ainsi, la proposition de la Commission prévoit d'y affecter 5,75 milliards d'euros.

Horizon 2020 espère préserver le leadership européen en matière d'innovation industrielle avec un budget de 17,9 milliards d'euros, qui comprend un investissement majeur de 13,7 milliards d'euros dans les technologies génériques, ainsi qu'un accès élargi au capital et un soutien aux PME.

Enfin, 31,7 milliards d'euros seront consacrés à des domaines de préoccupation majeurs intéressant tous les Européens, regroupés sous six thèmes : la santé, l'évolution démographique et le bien-être ; la sécurité alimentaire, l'agriculture durable, la recherche marine et maritime et la bioéconomie ; les énergies sûres, propres et efficaces ; les transports intelligents, verts et intégrés ; la lutte contre le changement climatique, l'utilisation efficace des ressources et les matières premières ; et des sociétés inclusives, innovantes et sûres.

La Commission fera le maximum pour élargir le programme à un grand nombre de participants de toute l'Europe, en recherchant les synergies avec les fonds de la politique de cohésion de l'Union. Horizon 2020 recensera les centres d'excellence potentiels dans les régions qui réalisent de moins bonnes performances et leur proposera des conseils et un soutien stratégiques, tandis que les Fonds structurels européens pourront être utilisés pour mettre à niveau les infrastructures et les équipements.

La somme de 3,5 milliards d'euros sera consacrée à une utilisation renforcée et élargie des instruments financiers qui favorisent le financement par les institutions financières du secteur privé. Ces instruments ont démontré leur grande efficacité lorsqu'il s'agit d'inciter le secteur privé à investir dans une innovation directement génératrice de croissance et d'emplois. Quelque 8,6 milliards d'euros seront consacrés aux petites et moyennes entreprises (PME), en reconnaissance de leur rôle fondamental dans l'innovation.

Au titre de l'initiative Horizon 2020, près de 6 milliards d'euros seront investis dans le développement des capacités industrielles européennes relatives aux technologies clés génériques, dont la photonique, la microélectronique, la nanoélectronique, les nanotechnologies, les matériaux avancés, les systèmes de fabrication et de transformation avancés et les biotechnologies.

Cordis

L'automobile du futur par General Motors
Samedi, 03/12/2011 - 00:10

Le concept d'EN-V (Electric Networked-Vehicle) préfigure une petite voiture électrique à deux places, entièrement automatisée, qui vient à vous quand vous l'appelez et qui va se garer toute seule quand vous êtes arrivés à destination. Vous montez dedans, lui indiquez votre destination, et vous pouvez dormir, ou manger tranquillement votre jambon beurre cornichon avec un verre de Pomerol, en regardant le paysage.

Non vous rigolez, les choses ne sont pas prévues comme ça ! Reprenons : vous montez dedans, vous lui indiquez votre destination et vous pouvez entrer en vidéo-conférence ou vous connecter sur le système d'information de votre entreprise. L'EN-V resulte d'une vision entièrement nouvelle du trafic automobile dans la cité qui anticipe un monde de 9 milliards de personnes entassées dans des mégapoles et s'agitant dans tous les sens.

L'EN-V descend d'un projet de Segway, démarré en 2009 sous le nom de Personal Urban Mobilty and Accessibility (PUMA). L'EN-V  fait appel à des technologies de connectivité et de calcul, qui restent à inventer mais qui ne sont pas impossibles. Il est présenté comme un modèle de déplacement durable.

En avril dernier le consortium sino-singapourien Eco-City Invetsment and Development a signé un accord avec General Motors pour intégrer le système En-V dans un projet de ville chinoise dite "écologique et durable" à 150 km de Pékin et nommé Eco-City. Sauf à imaginer que le système s'intègrera dans des villes entièrement nouvelles, le problème reste néanmoins de le faire cohabiter avec le trafic routier actuel.

Certes l'EN-V est conçu pour fonctionner en mode manuel ou automatique, mais l'idée qui prédomine est de le développer dans des zones circonscrites (zones d'habitation, zones de bureau ou zones commerciale) de manière à prendre le relais du réseau routier, ou du réseau de transport public pour les deux ou trois derniers kilomètres. Ceci se transcrit dans ses caractéritiques techniques : 40 km d'autonomie, 40km/h, moins de 500kg, 1,5 mètre de longeur, capacité à tourner sur lui-même, c'est à dire sur moins de deux mètres.

dd magazine

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top