RTFlash

RTFLASH Recherche & Technologie
NUMERO 605
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 07 Juillet 2011
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
Internet : une révolution en vue dans l'extension des noms de domaine
L'analyse thermique affine la reconnaissance visuelle
Une plate-forme standardisée pour l'Internet des objets
Êtes-vous un internaute «multi-connecté» ?
Nouveau record de transmission de données sur une fibre optique
Avenir
Des nanopores biomimétiques pour pénétrer dans le noyau des protéines
Matière
Utiliser le méthane en tant que matière première
Efficacité énergétique : une nouvelle directive européenne envisage des objectifs contraignants en 2014
Antimatière : des atomes d' antihydrogène piégés pendant plusieurs minutes !
Recharger sa voiture électrique en cinq minutes
Un mur solaire pour limiter son empreinte écologique
Une puce mémoire qui marie électronique et magnétisme
Un projet financé par l'UE met au point des batteries pour les automobiles du futur
Nanotechnologies : IBM prépare des puces en graphène
Un procédé qui transforme les déchets liquides en eau
Terre
La CPU : une technologie Air Liquide pour un futur plus vert
Le niveau des mers n’a jamais augmenté aussi rapidement
Vivant
L'importance du repos dans le processus de mémorisation
L'accident vasculaire cérébral, une maladie immunologique ?
Découverte d'une des causes de l'athérosclérose
Cancer du sein : une radiothérapie additionnelle réduit le risque de récidive
Vers de nouveaux vaccins thérapeutiques anti-cancer
Moins de risque de cancer grâce aux vaccins ?
Résultats prometteurs pour le vaccin contre la dengue
Cerveau : identification d'un "interrupteur" responsable de l'épilepsie
Le sang fluidifié par un champ magnétique
Automobilistes : fermer ses vitres peut prévenir du cancer de la peau
La biologie de synthèse crée des usines vivantes
Recherche
Voiture électrique : une route semée d’embûches...
Pierre Falson reçoit le « Prix CNRS recherche et innovation » des Amis de l’Université de Lyon
Edito
La voiture de demain ne sera pas la voiture électrique d'aujourd'hui



Le Centre d’analyse stratégique (CAS) a publié  15 juin un rapport sur la voiture de demain qui n'a pas fini de faire parler de lui. Cette étude se montre en effet très circonspecte vis à vis du véhicule électrique. «Pour qu’un marché de masse se développe, explique le rapporteur Jean Syrota, il faudrait que le véhicule électrique soit moins cher que le thermique".

Le problème est que, dans tous les scénarios envisagés par cette étude, le coût de la voiture électrique reste supérieur à celui de la voiture thermique. Autre point faible, l’autonomie qui est au maximum de l’ordre de 150 kilomètres (plutôt 100 km en conditions réelles d'utilisation), soit l’équivalent de 6 à 8 litres de carburant, ce qui correspond à la "réserve" disponible d'essence quand le voyant de carburant s’allume.

Le rapport du CAS insiste également sur la question-clé des infrastructures de recharge qui ne sont pas du tout à la hauteur des ambitions affichées par les pouvoirs publics et certains constructeurs. Quant à l’argument écologique, il est également fortement relativisé : "Selon le mix énergétique de certains pays, le véhicule électrique, entre la fabrication de la batterie et son utilisation, finit par émettre plus de CO2 que le thermique" précise Jean Syrota. Par exemple, si les émissions de CO2 d’un véhicule électrique en France sont de l'ordre de 40 g de CO2/km, grâce à la forte proportion dans notre Pays d’électricité produite à partir du nucléaire, soit bien en-dessous des 130 grammes actuellement émis par un véhicule thermique, au Japon ou en Corée ces émissions atteignent 130g et le record est atteint en  Chine, avec 200g, centrales au charbon oblige !

Ce qui signifie qu’utiliser un véhicule électrique en Chine, pays où le nombre de voitures croit le plus vite, est plus polluant que rouler avec un véhicule à moteur thermique…

Ce constat gênant mais incontestable est également confirmé par une étude sans précédent réalisée en grande Bretagne (Voir étude britannique) qui a comparé les émissions de CO2 des voitures thermiques et électriques. Cette étude démontre que la production d'une voiture électrique engendrerait 8.8 tonnes d'émissions de CO2 contre seulement 5.6 tonnes pour une voiture essence et serait donc beaucoup plus polluante à produire.

En revanche, sur la durée totale du cycle de vie et grâce à ses faibles émissions de CO2 à l'usage, la voiture électrique affiche un bilan carbone plus sobre que la voiture thermique : 19 tonnes de CO2 émis en fin de vie contre 24 tonnes pour une voiture essence. Il faut cependant souligner que ces calculs d'émissions de CO2 reposent sur le mix énergétique anglais qui a été évalué à 500 g/kWh. En France, grâce au nucléaire, le kWh électrique produit seulement 90 g de CO2 et le bilan carbone donne largement gagnant la voiture électrique. Par contre, il n’en est pas de même en Chine !

Le CAS reconnaît cependant que, dans les zones urbaines, le véhicule électrique pourrait s’imposer plus rapidement, à condition de mettre en place «des encouragements réglementaires pour l’achat d’une voiture électrique, et des interdictions ou restrictions de circulation des voitures thermiques». L'étude du CAS souligne également que les voitures électriques n’émettent pas de NOx et de particules fines qui sont les deux principaux polluants de l'air urbain et seraient responsables, selon les études, de 5000 à 10 000 morts par an en France.

Ce que confirme ce rapport, c'est qu'en dépit des progrès technologiques indéniables accomplis depuis 20 ans, la voiture électrique souffre de trois handicaps majeurs pour constituer une alternative crédible au véhicule thermique : elle est trop chère, elle a trop peu d'autonomie et son temps de recharge est trop long.

Pour surmonter ces trois obstacles il faut cesser de voir la voiture électrique comme le substitut universel à la voiture thermique et admettre, d'une manière plus pragmatique et plus modeste que pour les années à venir, la voiture électrique non hybride restera presque exclusivement une voiture urbaine destinée à des déplacements de moins de 50 km par jour.

Il faut également changer notre conception des déplacements personnels et voir le véhicule électrique urbain comme un service que l'on peut mutualiser et optimiser entre utilisateurs grâce au covoiturage intelligent dans un premier et grâce à l’automatisation de tous les déplacements dans les grandes agglomérations ensuite, et non comme un bien que l'on doit posséder. En adoptant ce changement d'habitude, nous pourrons surmonter l'obstacle rédhibitoire du coût d'achat de la voiture électrique qui restera durablement plus chère et moins autonome que la voiture thermique.

Toutefois, comme je le défends dans cette Lettre depuis 12 ans (Voir mon édito du 18 septembre 1999), la voiture de demain ne fonctionnera pas selon le principe sur lequel elle s’appuie aujourd’hui (batteries+ recharges) mais bien sur le fait que les moteurs électriques qui entraîneront cette voiture recevront leur électricité de piles à combustible capables de produire du courant en mélangeant de l’hydrogène, stocké sans danger sous forme solide dans le véhicule et l’oxygène de l’air. Ce véhicule du futur ne rejettera alors que de l’eau !

Mais tout ne sera pas résolu pour autant. Comment fabriquerons-nous alors l’hydrogène ? Soit nous le fabriquerons avec des énergies naturelles (solaire, vent, géothermie, biomasse, biogaz, etc.) ou éventuellement avec l’énergie nucléaire (mais alors c’est un autre débat qu’il faudra affronter) et alors le bilan en CO² pour la planète sera très bénéfique. Soit cet hydrogène sera un sous-produit du pétrole, ce qui indubitablement est le plus facile à réaliser et sera sponsorisé par des groupes très puissants, mais alors, nous n’aurions fait que déplacer le problème et l’avenir de notre planète Terre ne serait en rien assuré. 

René TRÉGOUËT

Sénateur Honoraire

Fondateur du Groupe de Prospective du Sénat


TIC
Information et Communication
Internet : une révolution en vue dans l'extension des noms de domaine
Mercredi, 06/07/2011 - 01:20

Jusqu'ici, l'Icann n'autorisait qu'une vingtaine d'extensions de noms de domaine de premier niveau génériques (GTLD, generic top-level domains) telles que le .com, le .org, le .net. On devrait en voir apparaître des centaines de nouvelles à l'avenir, qu'il s'agisse de marques (.google, .apple, .facebook, .01net, etc.), de noms de villes ou de régions (.paris, .toulouse, .bzh, .london, etc.), de concepts (.banque, .amour, etc.)... A Singapour, le comité de direction de l'organisme a en effet approuvé ce 20 juin 2011 un plan de libéralisation des GTLD [PDF en anglais] qualifié d'« historique » par l'Icann même.

« Les adresses Internet pourront se terminer avec presque n'importe quel mot de n'importe quelle langue, offrant aux organisations du monde entier l'opportunité de mettre en avant leur marque, leurs produits, leur communauté ou leur cause, de façon innovante », affirme un communiqué.

L'Icann précise qu'elle enregistrera les demandes du 12 janvier au 12 avril 2012, sans préciser si un autre créneau sera ouvert à l'avenir. Les dossiers seront examinés « avec une publication de la liste des candidats déclarés fin avril 2012 et une publication des résultats d'évaluation initiaux en novembre de la même année avant un lancement opérationnel des nouveaux GTLD douze mois après (fin 2013) », indique l'Afnic, qui, en France, gère le .fr.

Pour l'Icann (et pour les professionnels des noms de domaine), cette libéralisation sera peut-être une belle source de revenus, puisque les organisations privées ou publiques qui souhaitent utiliser une extension de nom de domaine à leur image devront débourser 185 000 dollars pour l'évaluation, puis 25 000 dollars par an et par extension si elles obtiennent satisfaction. Des sommes qui ne seront donc pas à la portée de tout le monde et devraient limiter le cybersquatting.

Le guide de l'Icann sur les nouveaux GTLD (PDF, 352 pages).

L'analyse thermique affine la reconnaissance visuelle
Mercredi, 06/07/2011 - 01:10

Pour aider les machines à voir comme les humains, et notamment pour améliorer les moteurs de recherche en trois dimensions, la vision des robots, l'imagerie médicale ou encore les jeux vidéo, des chercheurs américains de l'université de Purdue se sont inspirés d'anciens travaux en analyse thermique. Dans cette recherche expérimentale qui n'utilise pas de laser 3D, les chercheurs ont associé la cartographie et la distribution thermique en les modélisant dans des algorithmes. Ces méthodes, relatives à  la diffusion de chaleur pour les surfaces, permettent donc aux machines de voir en trois dimensions. Elles sont en effet capables de distinguer des segments sur une forme comme une main afin d'en extraire sa forme, et cela même si cette dernière est inclinée, ou tordue.

Le principe est simple : de la chaleur se diffuse sur la surface des objets et les enrobe parfaitement. De ce fait, en la visualisant, il est possible de caractériser la nature d'un objet. Ici, en séparant la main en plusieurs segments, c'est-à-dire une paume et cinq doigts, le système arrive à caractériser la nature de l'objet. Il faut cependant que ce dernier ait été alimenté d'une base de données qui lui permette d'identifier facilement les formes, en renseignant des informations quant au nombre de segments dont dispose chaque forme. Mais à l'avenir les recherches s'orienteront davantage vers le "machine learning", notamment grâce à la combinaison de deux anciennes théories.

En effet, les contributions d'Einstein au modèle de diffusion thermique et la loi de Fourier ayant établi l'équation de la chaleur de Jean Baptiste Joseph Fourier au XIXème siècle ont permis le développement de tels algorithmes. La méthode mise en place par les chercheurs, bien qu'encore expérimentale, fonctionne également sur les formes complexes. Cela car la cartographie thermique casse un objet en un maillage de triangle dans un premier temps, puis y calcule les flux de chaleurs présents. A la différence d'un laser, l'objet peut donc être reconnu quelle que soit sa position puisqu'il n'y a aucune imperfection sur la simulation. En attribuant un "poids" à des segments spécifiques, la machine peut ensuite déterminer la forme de l'objet.

L'Atelier

Une plate-forme standardisée pour l'Internet des objets
Mercredi, 06/07/2011 - 01:00

L'Internet des objets gagne progressivement en puissance, il est en effet aujourd'hui possible de connecter son réfrigérateur ou le chauffage à son smartphone par exemple. Le principal problème c'est que beaucoup d'appareils utilisent des technologies différentes, les applications ne sont alors pas compatibles dans certains cas pour communiquer entre elles. C'est pour palier ce problème qu'un groupe de chercheurs norvégiens de l'Université des sciences et des Technologies de Norvège ont mis en place une plate-forme ISIS sur laquelle il est possible de développer des services standard et surtout compatibles entre les appareils.

Lorsqu'une application est créée, les utilisateurs peuvent directement l'acheter et la télécharger sur le site en ligne ISIS app store. Plusieurs applications peuvent alors être utilisées simultanément sur des appareils différents sans qu'il n'y ait jamais aucune incompatibilité. Pour cela, les chercheurs ont également créé un système de gestion des applications, l'ICE Composition Engine qui, grâce à un décodeur installé chez l'utilisateur, permet de vérifier cette compatibilité et faire en sorte que les outils communiquent tous correctement.

Il s'agit en fait d'une vraie plate-forme de collaboration à destination d'une part des développeurs et d'autres part de constructeurs d'appareils afin qu'ils puissent proposer ensemble des solutions adaptées au consommateur. Ils ont donc inclus dans la plate-forme ISIS un outil de programmation pour les développeurs d'applications qu'ils ont nommé Arctis. Chaque application est alors facilement modifiable et en temps réel afin de l'adapter aux différents appareils.

L'Atelier

Êtes-vous un internaute «multi-connecté» ?
Mardi, 05/07/2011 - 01:20

Les adeptes de la multi-connexion à Internet, ou «everynautes», représentent maintenant le tiers des internautes français et passent en moyenne plus de quatre heures connectés à la Toile chaque jour, selon une étude réalisée par l'institut CSA en partenariat avec iligo. «L'everynaute est celui qui se connecte quotidiennement à internet sur au moins deux types d'écran» - smartphone, ordinateur, télévision connectée, portable ou tablette - indique Bernard Sananes, président de l'institut. Cette nouvelle catégorie d'individus multiconnectés «représente déjà un tiers des internautes (30 %) et leur temps moyen de connexion sur Internet est de 4h12 par jour», ajoute-t-il. Ce phénomène de masse «traverse toute la société avec une légère sur-représentation des hommes et des catégories socio-professionnelles supérieures», soutient-il.

Selon cette étude, les everynautes «se distinguent des internautes par une propension plus forte à faire du net un outil de travail, un outil relationnel essentiel et aussi un outil de divertissement».

Les everynautes utilisent le web comme outil de travail, à 67 % contre 61 %. Ils sont aussi 91 % à déclarer avoir leur téléphone portable toujours sous la main contre 73 % des internautes, et 78 % sont sur les réseaux sociaux face à 67 % des internautes. Même connecté en permanence, l'everynaute «associe des usages à différents écrans : l'ordinateur fixe pour les opérations bancaires, le smartphone pour l'actualité et pour la recherche d'informations pratiques, et la tablette pour les réseaux sociaux et les contenus multimédias», soutient M. Sananes. Enfin, l'everynaute est un adepte du e-commerce : 54 % d'entre eux achètent souvent en ligne contre 43 % des internautes.

Cette enquête a été réalisée du 6 au 28 avril auprès de 4605 personnes de 18 à 64 ans représentatifs de la population internaute française.

Cyberpresse

Nouveau record de transmission de données sur une fibre optique
Samedi, 02/07/2011 - 01:30

Un nouveau record de transmission de données a été battu par des scientifiques de l’Institut de technologie de Karlsruhe (KIT) en Allemagne. Ces derniers ont en effet réussi à transmettre 26 térabits de données par seconde- soit l'équivalent de 700 DVDs ou 400 millions de conversations téléphoniques simultanées- sur une distance de 50 km et sur un seul rayon laser. Ils ont battu leur propre record de 10 terabits par seconde obtenu il y a un an. Cette performance a été possible grâce l’élaboration d’une nouvelle procédure de décodage des données. Cette avancée trouvera probablement son application dans les réseaux à très haut débit de demain, pour répondre aux nouveaux besoins en bande passante et en transferts de données, que le cloud computing, la voix, ou la vidéo requièrent de plus en plus.

Pour ce faire, les chercheurs ont eu l'idée d'adapter la technologie OFDM (Orthogonal Frequency Division Multiplexing), utilisée depuis de nombreuses années dans les réseaux de communication mobiles à haut débit, aux réseaux optiques. « Notre challenge n’était pas de multiplier les capacités de transmission par mille mais bien par millions. Nous avons eu l'idée de faire une implémentation optique des routines mathématiquesde l'OFDM » explique Jürg Leuthold, Directeur de l’équipe de recherche de l’Institut d'Electronique Photonique et Quantique de KIT. Cette transposition dans le monde optique a révélé de nouvelles capacités pour cette technologie. Les chercheurs ont non seulement obtenu des transmissions extrêmement rapides (un million de fois plus rapide qu'avec les réseaux mobiles), mais elles se sont aussi révélées très économes en énergie. "L'énergie n'est requise que pour le laser et seulement pour quelques étapes du processus", ajoute le directeur.

La modulation OFDM a la particularité de fragmenter un signal en plusieurs sous porteuses orthogonales entre elles. Elles se chevauchent mais n'interfèrent pas. La bande passante est ainsi utilisée dans son intégralité, ce qui permet d'atteindre de très hauts débits. Le KIT a donc appliqué le même principe, en fragmentant  le rayon laser en 325 fréquences différentes. « Il y a quelques années, le transfert de données à la hauteur de 26 téraoctets par secondes était une utopie, même pour les systèmes comportant plusieurs lasers » souligne Jürg Leuthold. D'autres records pourraient bien être encore obtenus dans les mois à venir. "Même à de tels débits, nous n'avons pas encore atteint les limites physiques" conclut le chercheur.

L'Atelier

^ Haut
Avenir
Nanotechnologies et Robotique
Des nanopores biomimétiques pour pénétrer dans le noyau des protéines
Jeudi, 07/07/2011 - 01:10

Des chercheurs suisses et néerlandais ont développé un nanopore biomimétique qui offre une plate-forme sophistiquée de tests et de relevés sur la méthode de pénétration nucléaire des protéines. Cette étude apporte des preuves sur la manière dont un pore nucléaire biomimétique peut être conçu pour suivre la progression de protéines simples dans un pore. Présentée dans la revue Nature Nanotechnology, l'étude a été partiellement financée par les projets européens NANOSCI-EPLUS et READNA.

La biomimétique est le domaine scientifique dans lequel les processus, substances, dispositifs ou systèmes manufacturés imitent la nature. Dans leur étude, les chercheurs introduisent un nanopore artificiel collaborant avec des protéines clés imitant le pore nucléaire normal. Cette innovation permet à une nouvelle plate-forme puissante de suivre les progressions des protéines simples dans la cellule.

En étudiant cette progression dans le pore biomimétique, les scientifiques de l'université de technologie de Delft, (TU Delft, Pays-Bas) et de l'université de Bâle (Suisse) ont découvert que la majorité des protéines n'en sont pas capables tandis qu'un certain nombre de protéines spécifiques en sont capables. Selon l'équipe, le pore biomimétique fonctionne correctement et peut être utilisé en tant que plate-forme test pour déterminer si les médicaments parviennent au noyau cellulaire ciblé.

«Les cellules humaines possèdent un noyau et les protéines et l'ARN (acide ribonucléique) ont besoin d'y entrer et d'en sortir», explique Cees Dekker, chercheur responsable de l'Institut Kavli de nanoscience de la TU Delft. «Cela est régulé par de petits trous, appelés complexes de pore nucléaire. Ces pores sont essentiels dans le monde biologique car ils servent de gardiens d'entrée du noyau cellulaire. Ils transportent les protéines et l'ARN à l'intérieur et à l'extérieur du noyau de manière sélective, ce qui signifie que certaines sont admises et d'autres non», ajoute-t-il. «Il existe de nombreuses interrogations sur l'intrigante sélectivité de ce processus. Étant donné la difficulté de réaliser des relevés à haute résolution dans l'environnement complexe qu'est la cellule vivante, il est très complexe de comprendre ce mécanisme de manière exacte.»

Le professeur Dekker explique que la biomimétique est une approche prometteuse pour l'étude du transport nucléaire. «Les progrès en nanotechnologie permettent d'étudier et d'utiliser de la matière à l'échelle nanométrique, ouvrant la voie pour l'imitation de structures biologiques à l'échelle moléculaire pour l'étude et l'exploitation de leur ingénuité», fait-il remarquer.

Le groupe de Dekker a produit des nanopores biomimétiques en attachant les protéines à de petits trous dans un support à l'état solide, tandis que son collègue, le Docteur Roderick Lim de Bâle et son équipe ont purifié les protéines des pores nucléaires.

Cordis

^ Haut
Matière
Matière et Energie
Utiliser le méthane en tant que matière première
Jeudi, 07/07/2011 - 01:00

Une équipe de chercheurs de l'UE a progressé dans l'étude de l'utilisation du méthane en tant que matière première. Financés au titre de l'appel «Chemical activation of carbon dioxide and methane» dans le cadre du programme de chimie de l'Espace européen de la recherche, les scientifiques du projet originaires de France et d'Espagne sont parvenus à transformer du méthane en une molécule organique plus complexe. L'équipe, composée de chercheurs des universités de Valence, de Huelva et de Toulouse, a étudié, publié dans la revue Science, comment le méthane, l'hydrocarbure le plus simple et principal composant du gaz naturel, peut être utilisé comme source pour la production de composés organiques plus complexes.

Cette découverte pourrait avoir des implications positives d'un point de vue économique et environnemental : le méthane peut être utilisé en tant que matière première dans l'industrie chimique. Pour les environnementalistes, le méthane en tant que combustible est l'un des plus écologique car lorsqu'il est consumé, il produit moins de CO2 par unité de chaleur émise. Le méthane est également le principal élément du gaz naturel compressé, un substitut propre pour les combustibles traditionnels très polluants tels que le pétrole et le diesel.

Toutefois, jusqu'à présent, les scientifiques s'étaient toujours heurtés à plusieurs problèmes dans leurs recherches sur le méthane. En raison de ses liaisons C-H très solides par rapport aux autres alkanes, manipuler du méthane n'est pas une tâche aisée. De plus, la nature gazeuse du méthane et sa faible solubilité dans les solvants habituels posent d'autres problèmes pour une transformation par voie chimique. Ces caractéristiques compliquent le contact entre le méthane et les catalyseurs et agents réactifs de réaction chimique ; ainsi, soit la réaction se réalise très difficilement, soit il ne passe simplement rien.

C'est pour ces raisons que très peu de processus se sont avérés efficaces pour la fonctionnalisation de cet hydrocarbure, mais l'équipe franco-espagnole a pu résoudre tous ces problèmes en développant une méthodologie pour transformer le méthane en molécules organiques complexes.

La réaction implique un catalyseur d'argent spécialement conçu pour activer les liaisons C-H du méthane, un processus qui s'était avéré efficace sur les hydrocarbures plus lourds dans le passé. Le défi d'atteindre un contact efficace entre le catalyseur et les agents réactifs nécessaires à la transformation du méthane a pu être réalisé par l'utilisation du dioxyde de carbone dans un état supercritique en tant que milieu de réaction.

Bien que le dioxyde de carbone soit un gaz dans des conditions normales, il se transforme en fluide presque liquide et est capable de solubiliser les molécules impliquées dans la réaction lorsque les températures et la pression atteignent des valeurs critiques. Ces propriétés du dioxyde de carbone ont diverses applications industrielles, telles que la décaféinisation du café, par exemple. De plus, l'inertie chimique du CO2 l'empêche de réagir avec le catalyseur ou le réactif impliqué dans la conversion du méthane, ainsi il s'avère être le solvant idéal pour ces réactions. Cette étude a ouvert la voie à d'autres recherches sur le processus de fonctionnalisation du méthane et des hydrocarbures en général.

Cordis

Efficacité énergétique : une nouvelle directive européenne envisage des objectifs contraignants en 2014
Mardi, 05/07/2011 - 01:00

L'Union européenne a pris en 2008 trois engagements pour 2020 au titre de la lutte pour le climat : réduire ses émissions de gaz à effet de serre de 20 % par rapport à leurs niveaux de 1990, utiliser 20 % d'énergies renouvelables et réaliser 20 % d'économies grâce à l'efficacité énergétique. Trois ans plus tard, la Commission dresse un constat d'échec pour l'efficacité énergétique : l'Union européenne n'a en effet réalisé que 3 % de son objectif en 2010. Et si rien n'est fait pour renverser cette tendance, elle ne réalisera que 9 % de son objectif en 2020.

La Commission européenne a donc décidé, dans une proposition de directive publiée le 22 juin, d'adopter des mesures pour accélérer les choses. Le commissaire en charge de l'Energie Günther Oettinger a ainsi exposé une stratégie en "deux temps" pour inciter les Etats à respecter leurs engagements. "Dans un premier temps, pendant les années 2012 et 2013, nous laissons les Etats agir avec des mesures volontaires. Mais si nous ne constatons aucun progrès significatif à la fin de l'exercice, alors nous mettrons en place en 2014 des mesures contraignantes", a-t-il expliqué. "Tout le monde doit être impliqué dans l'effort : les particuliers, les pouvoirs public et les industriels", a-t-il souligné.

Le bâtiment est évidemment le terrain d'action privilégié grâce aux techniques d'isolation.

Voici les mesures phares proposées par la Commission :

  • l'obligation légale, pour tous les États membres, d'établir des plans d'économie d'énergie : les entreprises de distribution d'énergie ou de vente d'énergie au détail seront tenues de réaliser chaque année, au niveau des consommateurs finaux, des économies d'énergie représentant 1,5 % de leurs ventes en volume, par la mise enœuvre de mesures d'efficacité énergétique, telles que l'amélioration du système de chauffage, l'installation de double vitrage ou l'isolation du toit. Alternativement, les États membres pourront proposer d'autres dispositifs d'économie d'énergie, par exemple des programmes de financement ou des accords volontaires, conduisant aux mêmes résultats, mais n'imposant pas d'obligation aux entreprises de distribution ou de vente d'énergie ;

Pour justifier cette clause, Günther Oettinger a expliqué : « les Etats membres doivent pouvoir mettre en œuvre les économies d'énergie de la manière dont ils le veulent. Il y a des modèles qui ont fait leurs preuves, mais ils ne doivent pas être obligatoires. Nous voulons un concours d'idées ».

Ces plans sont censés économiser 108 à 118 mtep, soit 6,4 % d'économies d'énergie d'ici 2020 sur les 10 % qui restent à trouver pour parvenir à 20 % d'économies. A la place, les Etats membres « peuvent, par exemple, proposer des programmes de financement ou des accords volontaires.

  • un secteur public qui doit donner l'exemple : "12 % des bâtiments dans l'UE appartiennent au secteur public, mais seulement 1,5 % sont aménagés chaque année pour répondre aux objectifs d'efficacité énergétique", a souligné Günther Oettinger. Les organismes publics devront donc favoriser la pénétration sur le marché de produits et services économes en énergie, par l'obligation légale qui leur incombera d'acheter des bâtiments, produits et services à faible consommation d'énergie. Ils devront en outre réduire progressivement la consommation d'énergie dans leurs propres locaux en faisant réaliser chaque année les travaux de rénovation requis, qui devront couvrir au moins 3 % de la surface au sol totale, ce qui leur permettrait "de montrer l'exemple" aux particuliers ;
  • des économies d'énergie importantes au niveau des consommateurs : les consommateurs doivent être en mesure de mieux gérer leur consommation d'énergie grâce à un accès aisé et gratuit aux données relatives à leur consommation en temps réel et à leur historique de consommation, établies à l'aide de compteurs plus précis. La facturation devrait être basée sur la consommation réelle, calculée à partir des données fournies par les compteurs ;
  • entreprises : les PME seront encouragées à se soumettre à des audits énergétiques et à diffuser les bonnes pratiques, tandis que les grandes entreprises seront tenues de procéder à un audit de leur consommation d'énergie, censé les aider à déceler où des économies d'énergie sont possibles ;
  • efficacité de la production d'énergie : la proposition prévoit un contrôle du niveau d'efficacité des nouvelles capacités de production d'énergie, ainsi que l'établissement de plans nationaux en matière de chauffage et de climatisation comme base de planification saine et efficace des infrastructures de chauffage et de climatisation, y compris avec récupération de la chaleur perdue ;
  • transport et distribution de l'énergie : il s'agit de réaliser des gains d'efficacité énergétique en imposant aux régulateurs nationaux de tenir compte de critères en la matière dans leurs décisions, notamment lorsqu'ils approuvent les tarifs de réseaux.

Proposition de Directive 2011/0172 du 22-06-2011

Antimatière : des atomes d' antihydrogène piégés pendant plusieurs minutes !
Lundi, 04/07/2011 - 01:30

Des atomes d'antimatière, de l'antihydrogène, ont été piégés pendant plus de 16 minutes, lors d'une expérience réalisée au Centre européen de recherches nucléaires (CERN) à Genève, qui devrait faciliter l'étude de l'antimatière, selon une étude publiée le 19 juin. "Nous pouvons piéger des atomes d'antihydrogène pendant 1.000 secondes", un temps "assez long pour commencer à les étudier", explique Jeffrey Hangst (Université d'Aarhus, Danemark) au nom des participants à l'expérience ALPHA du Cern.

Matière "miroir" de celle que nous connaissons, l'antimatière reste difficile à observer car tout atome d'antimatière s'annihile au contact de la matière, en produisant une énorme quantité d'énergie. Un atome d'hydrogène est formé d'un proton ayant une charge électrique positive et d'un électron négatif. Un atome d'antihydrogène est constitué d'un proton négatif (antiproton) et d'un électron positif (positron).

Matière et antimatière auraient été créées en quantité égale dans les instants suivant le Big Bang, mais il ne reste guère que la matière. Où est passée l'antimatière ? Cette question taraude les physiciens qui souhaitent analyser les propriétés de l'antimatière créée dans les accélérateurs de particules. De premiers atomes d'antihydrogène avaient été produits au CERN dès 1995. Mais ils s'étaient annihilés quasi-instantanément au contact de la matière.

L'équipe ALPHA du CERN avait fait récemment une avancée, en mettant au point un nouveau type de piège magnétique : 38 atomes d'antihydrogène y étaient restés pendant 0,17 seconde. La durée de confinement a pu être portée à 1.000 secondes, selon l'étude publiée en ligne par la revue scientifique Nature Physics. Et 309 atomes d'antihydrogène ont pu être piégés assez longtemps pour qu'on puisse "commencer à étudier leurs propriétés en détail", précise le Cern dans un communiqué.

L'antimatière est-elle soumise à une antigravité ? C'est une des questions que se posent les physiciens. Découvrir une telle "gravité répulsive" pourrait apporter une réponse à une autre énigme, celle de l'énergie inconnue qui favoriserait l'accélération de l'expansion de l'univers. La gravité tend au contraire à pousser les galaxies à se rapprocher l'une de l'autre. Lorsqu'elle subit certaines transformations, cette matière "miroir" respecte-t-elle les mêmes "symétries" des lois physiques que la matière normale ?

Selon la symétrie CPT (charge électrique, parité, temps), "une particule qui progresse dans le temps dans notre univers devrait être impossible à distinguer d'une antiparticule reculant dans le temps dans un univers miroir", résume le CERN. "Tout indice de brisure de la symétrie CPT obligerait à repenser sérieusement notre compréhension de la nature", souligne M. Hangst, dont l'équipe s'apprête à sonder des anti-atomes pour comparer leurs propriétés avec celles de la matière.

CERN

Recharger sa voiture électrique en cinq minutes
Dimanche, 03/07/2011 - 01:30

Alors qu’il faut normalement plusieurs heures pour recharger les batteries d’une voiture électrique, dorénavant, quelques minutes pourraient suffire. En effet, le chercheur japonais Mr. Kanno de la compagnie Energy Use Technology Research K.K. vient de déposer un brevet pour un chargeur rapide qui recharge complètement une voiture électrique en 5 minutes chrono.

Le temps de charge des véhicules electriques est souvent posé comme un frein à leur développement, puisque cela empêche d’effectuer de longs trajets. En effet, plusieurs heures peuvent être nécessaires pour recharger complètement une voiture électrique. Ce dernier problème pourrait donc disparaître d’ici peu grâce à l’invention de M. Kanno. Car 5 minutes, cela représente un temps comparable à la durée nécessaire pour faire un plein d’essence pour une voiture classique.

Selon ce spécialiste qui possède une expérience d’une vingtaine d’années dans le développement de batteries, la longue durée de recharge des batteries serait tout simplement liée à la quantité insuffisante d’énergie circulant dans les câbles des bornes de recharge actuelles. À partir de ce constat, M. Kanno crée un système permettant de stocker l’énergie électrique et de la transférer en un temps record. D’ici quelque temps, les voitures électriques ne réclameront plus que quelques minutes pour faire le plein d’énergie. Une invention qui semble très prometteuse et pourrait enfin faire décoller l’industrie.

Voiture Electrique

Un mur solaire pour limiter son empreinte écologique
Dimanche, 03/07/2011 - 01:20

C’est une première en France : un mur solaire intégré à un site industriel. Dans l’usine d’Onnaing de Toyota, à Valenciennes (le site de production de la Yaris), un système de chauffage solaire de l’air, nommé SolarWall®, est en test. D’une hauteur de 12 mètres sur 33 mètres de longueur et d’une surface totale de 400 m2, le mur SolarWall® est intégré à la façade sud du bâtiment des presses. « Cette installation permettra de réduire de près de 25 % l’énergie normalement utilisée pour une unité de chauffage du bâtiment, ce qui représente une réduction de 20 tonnes de CO2 par an. De plus, il permettra de réaliser une hausse moyenne de la température de l’air entrant de 9°C durant les mois les plus froids », assure son concepteur.

Le système SolarWall® est une technologie de chauffage solaire de l’air composée d’un capteur métallique micro-perforé, d’un cadre interne de fixation et d’éléments de fermeture permettant de créer un caisson d’air étanche à l’air. Ce revêtement énergétique installé contre la paroi du bâtiment est ensuite raccordé à l’entrée d’air du système de ventilation. Lors de l’utilisation du chauffage/ventilation, une dépression d’air est ainsi créée dans le SolarWall® : l’air extérieur, devenu chaud au moyen des radiations solaires, est acheminé vers l’une des unités de ventilation du bâtiment.

Business Immo

Une puce mémoire qui marie électronique et magnétisme
Samedi, 02/07/2011 - 01:10

Une autre piste pour la puce mémoire du futur : la mémoire à contenu adressable (CAM pour Content Adressable Memory). La première de ce type vient d’être développée par NEC en coopération avec l’Université Tohoku, au Japon. Elle est un produit de la spintronique, une nouvelle science mariant l’électronique et le magnétisme.

La spintronique vise à créer des circuits intégrés encore plus denses et plus performants en utilisant les propriétés magnétiques des électrons : le moment magnétique de spin. La mémoire CAM exploite cette propriété pour stocker des données. Ce procédé offre l’avantage d’être non volatile, c’est-à-dire que l’information se conserve en l’absence de courant électrique, comme pour la mémoire flash actuelle. L’une des applications potentielles est de l’utiliser comme mémoire centrale des ordinateurs, au lieu et place des mémoires Dram actuelles (qui perdent leurs informations après coupure de courant), ce qui se traduirait par un démarrage instantané et une réduction de la consommation de courant.

Cette technologie se distinguerait, selon NEC, par un grand potentiel de miniaturisation des cellules mémoires, tout en offrant une vitesse élevée de 5 ns et une faible consommation de courant de 9,4 mW. L’adressage est simplifié en diminuant le nombre de transistors de huit à trois par couple de cellules. Il en résulte une réduction de la taille de 50 %.

NEC et l'Université de Tohoku poursuivent le développement de circuits intégrés sur la base de la spintronique.

Industrie & Technologies

Un projet financé par l'UE met au point des batteries pour les automobiles du futur
Vendredi, 01/07/2011 - 06:30

Une équipe de chercheurs financée par l'UE conduit la mise au point d'un type unique de batterie au zinc, destinée aux véhicules électriques (VE) ou hybrides (VEH). Le projet PolyZion («Fast rechargeable zinc-polymer battery based on ionic liquids») a reçu un financement de 2,4 millions d'euros via le thème «Énergie» du septième progamme-cadre de l'UE (7e PC). Il regroupe des organismes de recherche du monde entier pour étudier de très nombreux sujets relatifs aux batteries pour VE tels que les liquides ioniques, les plastiques conducteurs, le dépôt de zinc, le chargement par impulsions et les batteries.

Le marché mondial des VE et VEH devrait connaître une croissance notable pour 2015, mais les technologies de batteries ne sont pas prêtes à répondre à sa demande. Actuellement, les batteries plomb-acide, NiMH ou ion Lithium utilisées dans les véhicules électriques présentent des conséquences négatives aux niveaux technologique, financier et de l'environnement, outre de fréquents problèmes de court-circuit. Ces travaux de recherche sont par conséquent essentiels pour s'assurer que la technologie sera prête à accompagner la demande.

Claire Fullarton, chercheur au département de chimie de l'université de Leicester (l'un des partenaires du projet), explique comment l'équipe a conçu un nouveau type de prototype de batterie, améliorant les performances, la sécurité et la durabilité : «Les travaux portent sur la mise au point d'une nouvelle catégorie de batterie à recharge rapide, basée sur un système zinc-plastiques et utilisant un solvant original, peu coûteux et respectueux de l'environnement. Cette approche est nécessaire au vu des problèmes associés aux véhicules diesel ou essence, comme l'impact sur l'environnement, l'augmentation du coût des carburants, l'épuisement des réserves de pétrole, et les limitations des batteries actuellement disponibles pour les véhicules électriques.»

Le projet PolyZion s'est appuyé sur une nouvelle catégorie d'électrolytes, peu coûteuses, insensibles à l'air et à l'humidité et respectueuses de l'environnement, ainsi que sur un dépôt de zinc nanostructuré et des conducteurs en polymères pour charge ultra rapide. La batterie résultante aura la densité de puissance nécessaire pour concurrencer les autres technologies VE et VEH. Le projet réalisera également des prototypes de batterie à fins de tests standards.

Le consortium se compose de partenaires d'Espagne, de France, des Pays-Bas, du Portugal et du Royaume-Uni, ainsi que du Canada et de la Russie. Le projet s'appuie en outre sur une collaboration étroite entre les universités et les entreprises, avec des PME spécialisées dans des matériaux particuliers et de grandes entreprises du secteur de la fabrication de batteries, qui viennent partager les meilleures pratiques.

Le Dr Karl S Ryder de l'université de Leicester commente l'avancement du projet: «C'est un projet très intéressant, visant à explorer et mettre au point de nouvelles technologies de stockage pour diverses utilisations, mais plus particulièrement les véhicules électriques. Le poids des batteries et la nécessité de les recharger souvent est un problème que rencontrent de nombreuses voitures électriques. Les technologies plus récentes comme l'ion lithium sont excellentes mais plutôt coûteuses, sans oublier de sérieux problèmes de sécurité puisqu'elles déclenchent de violents incendies en cas d'accident ! Nos travaux visent une toute nouvelle technologie de batterie, légère et respectueuse de l'environnement, efficace et sûre.»

Cordis

Nanotechnologies : IBM prépare des puces en graphène
Vendredi, 01/07/2011 - 06:20

Depuis sa découverte en 2004, qui permit à Andre Geim, chercheur au département de physique de l'université de Manchester, d'obtenir le prix Nobel de physique, le graphène concentre toute l'attention des fabricants de semi-conducteurs. En effet, ce cristal de carbone possède trois propriétés physiques très intéressantes qui le placent en première position sur la liste des alternatives au silicium pour la production de puces informatiques.

Car le graphène est un meilleur conducteur électrique que le silicium : les électrons y circulent 30 fois plus vite. On peut donc, en théorie, exécuter 30 fois plus de calculs sur une même période de temps. Autre point intéressant, le graphène refroidit très rapidement : il s'échauffe donc moins que le silicium. "Dans la plupart des matériaux, la chaleur électronique dépasse largement l'auto-refroidissement" explique le professeur William King, responsable du projet. "Cependant, nous avons constaté qu'avec les transistors en graphène, il y a des régions où le refroidissement thermoélectrique dépasse la chaleur générée, ce qui permet à ces puces de se refroidir elles-mêmes". Adieu les ventilateurs ? Enfin, la structure moléculaire du graphène est mieux adaptée à des finesses de gravures nanométriques.

En conjuguant ces trois propriétés, on obtient des puces électroniques dont le rapport performances par watt est exceptionnel. IBM l'avait déjà démontré en fabriquant un transistor cadencé à la fréquence de 155 GHz. Plus récemment, Big Blue a révélé dans le magazine Science avoir fabriqué un circuit intégré complet (un convertisseur de fréquence radio) fonctionnant à 10 GHz. Cerise sur le gâteau, le circuit intégré a été conçu avec les technologies actuellement utilisées pour produire des puces en silicium. La fabrication à l'échelle industrielle serait donc possible d'ici quelques années.

Les applications de ces nouvelles puces ne se limitent pas à de nouveaux processeurs plus économes en énergie. La finesse des puces permettrait de les intégrer directement dans la matrice d'un écran plat. Et d'autres propriétés du graphène laissent présager des batteries plus légères, de plus grande capacité, et qui se rechargeraient en quelques minutes à peine.

Indexel

Un procédé qui transforme les déchets liquides en eau
Vendredi, 01/07/2011 - 06:00

Innoveox dévoile au grand jour sa technologie de rupture avec une première unité industrielle, située à Arthez-de-Béarn, près de Pau (Pyrénées-Atlantiques). Il s'agit d'une solution de traitement des déchets liquides et autres effluents industriels, grâce à une technologie d'oxydation hydrothermale supercritique. Détruisant la quasi-totalité des déchets (99,99 %) en moins d'une minute, le procédé restitue une eau propre et l'industriel peut récupérer les métaux et les minéraux résiduels. Cette technologie concrétise les travaux réalisés dans les années 1990 par François Cansell, directeur de recherche au CNRS, qui est aujourd'hui directeur général de l'Institut polytechnique de Bordeaux et président du comité scientifique d'Innoveox. Cette approche est plus écologique et plus compétitive que les solutions classiques de traitement, comme l'incinération.

La plate-forme de démonstration présentée par Innoveox près de Pau est un véritable laboratoire industriel tourné vers les prospects. L'unité dispose d'une petite capacité de traitement de 100 litres par heure qui servira à tester les effluents de potentiels clients. Constitué d'un réacteur associé à diverses options industrielles, le site permettra aussi de travailler sur la conception des futures unités commerciales de la société.

Comment fonctionne la technologie d'oxydation hydrothermale supercritique ? "Comme dans une cocotte minute ! Vous mettez les liquides sous une pression à 221 bars, avec une chaleur supérieure à 374 degrés. A cette température et sous ses conditions de pression, les liquides ne sont plus tout à fait liquides, et pas encore des gaz. À ce moment, nous injectons de l'oxygène, qui va venir oxyder directement toute la matière organique et la détruire. A la sortie ne reste que de l'eau, et les métaux et minéraux sont récupérés très facilement", explique Jean-Christophe Lépine.

Tous les déchets liquides, effluents et boues industrielles peuvent être traités, même les plus dangereux (pesticides, pyralène, huiles et solvants usagés, déchets pétroliers ou corrosifs, réfractaires, voire explosifs). La combustion de la matière organique est "froide" et ne produit que de l'eau et de l'énergie. Le bilan carbone est présenté comme neutre. En début de processus, un préchauffage est nécessaire, mais ensuite, le système de chaleur fonctionne en boucle fermée grâce à un échangeur thermique.

La Tribune

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
La CPU : une technologie Air Liquide pour un futur plus vert
Mardi, 05/07/2011 - 01:10

La CPU (Cryogenic Purification Unit), unité de purification cryogénique, est une technologie de premier plan qui contribue à réduire les émissions industrielles de dioxyde de carbone (CO2).

De nombreux experts considèrent que les émissions de CO2, contribuant à l’effet de serre, sont l’une des causes majeures du réchauffement climatique. Aujourd’hui, une alternative au rejet de CO2 dans l’atmosphère consiste à capter et stocker les émissions des procédés de combustion industriels : c’est le captage et stockage du CO2. (CCS : Carbon Capture and Storage). Pour une efficacité maximale, ces fumées doivent être aussi concentrées que possible en CO2.

L’une des voies pour y parvenir est le procédé de combustion à l’oxygène pur dit oxycombustion. Résultat : des émissions naturellement plus riches en CO2, mais encore trop chargées d’impuretés. C’est à ce stade qu’entrent en scène les CPU. Leur objectif : transformer ces fumées en un CO2 purifié et sous pression, transportable par canalisations ou voie maritime et finalement injectable dans le sous-sol.

  • Voyage au centre de la Terre

Les CPU s’appuient sur un procédé de purification cryogénique qui refroidit les fumées et les condense à une température de - 50 °C. Durant ce processus, l’eau et certains composés (dioxyde de soufre, oxydes d’azote) sont successivement éliminés, jusqu’à obtenir un CO2 purifié et à haute pression. Le CO2 peut alors être injecté dans les couches géologiques profondes, comme par exemple les gisements d’hydrocarbures épuisés. Initialement développées pour répondre aux besoins des centrales thermiques au charbon, les CPU trouvent des utilisations au-delà de la production d’électricité : hauts fourneaux sidérurgiques, cimenteries, raffineries… Les CPU constituent de fait une brique technologique essentielle du procédé d’oxycombustion, une solution toujours plus efficace et compétitive pour le captage et stockage du CO2.

Dans cette technologie encore en développement, Air Liquide est à la pointe du progrès. Grâce à son expertise reconnue en matière de liquéfaction de CO2, le Groupe est aujourd’hui le premier à démontrer la valeur technologique des CPU et à valider, techniquement et économiquement, cette nouvelle technologie à l’échelle industrielle. Après une phase de tests et d’essais démarrés il y a cinq ans, le développement de la CPU est maintenant entré en phase pilote.

Parmi les différents projets de captage et stockage de CO2 menés par le Groupe sur trois continents, deux intègrent des solutions CPU :

  • En Australie, une unité pilote pour une centrale thermique à charbon doit démarrer fin 2011, en partenariat avec Callide Oxyfuel.
  • Aux États-Unis, Air Liquide a été sélectionné par le Département de l’Énergie américain avec le partenaire technologique Babcock & Wilcox Power Generation Group pour le projet FutureGen 2.0, première centrale électrique de grande taille à oxycombustion intégrant le CCS.

Air Liquide

Le niveau des mers n’a jamais augmenté aussi rapidement
Dimanche, 03/07/2011 - 01:10

Une étude scientifique publiée dans Proceedings of the National Academy of Sciences montre que le niveau des océans sur la côte atlantique des Etats-Unis n’a jamais augmenté aussi rapidement que pendant ces dernières années et cela en comparant des données relatives aux 2.100 dernières années.

Pour reconstituer l’évolution du niveau marin, une équipe internationale de chercheurs a examiné les fossiles d’une zone marécageuse de Caroline du Nord. Avec les scientifiques du laboratoire de recherche du niveau marin de Pennsylvanie, les chercheurs ont utilisé des restes de foraminifères –un type de planctons qui se dépose au fond des océans- pour retracer l’évolution du niveau marin. L’ordre des foraminifères comprend de nombreuses espèces qui vivent à des profondeurs différentes et fournissent donc des informations intéressantes pour retracer l’évolution des mers. En comparant les résultats relatifs à la modification des températures de surface, les experts ont établi un lien entre les températures élevées et l’augmentation du niveau des mers.

Ainsi, d’après les résultats de l’étude, le niveau des mers est resté assez stable de 200 avant JC à l’an 1.000. Puis, pendant 400 ans, soit une période appelée «anomalie climatique moyenâgeuse», le niveau des mers a progressé d’un demi-millimètre chaque année. Ensuite, le climat s’est refroidi et le niveau marin s’est stabilisé, voire a un peu décru, pendant une « petite ère glaciaire », c’est-à-dire jusqu’à la fin du XIXe siècle. Depuis la fin de cette période, le niveau des mers augmente, en moyenne, de 2 millimètres par an en Caroline du Nord.

Selon Stefan Rahmstorf, professeur à l’Institut de recherche sur le climat de Potsdam, l’un des auteurs de l’étude, ces résultats confirment les estimations datant de 2009 qui annonçaient que le niveau des mers augmenterait de 0,75 à 1,9 mètre entre 1990 et 2100. «Cela vient confirmer nos projections. Le phénomène d’augmentation du niveau des mers répond au principe suivant : plus il faut chaud et plus le niveau des mers augmente rapidement», précise-t-il.

PNAS

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
L'importance du repos dans le processus de mémorisation
Jeudi, 07/07/2011 - 01:30

Publiées dans le Journal of Neuroscience, des recherches conduites par le RIKEN Brain Science Institute apportent de nouveaux indices sur les mécanismes biologiques et moléculaires liés à la mémoire et à l'apprentissage. Le cerveau est soumis à un flot d'informations qu'il traite et qu'il "archive" dans sa mémoire selon un système d'encodage sur lequel interviennent de nombreux facteurs entraînant des effets encore mal compris. Parmi eux, il existe "l'effet d'espacement" désignant une amélioration de l'assimilation et de la mémoire à long terme des êtres humains et des animaux lorsque l'information est répétée au cours d'intervalles de temps espacés. De nombreux scientifiques ont supposé que cet effet était lié au processus de consolidation de la mémoire mais les mécanismes sous-jacents restaient encore flous...

Afin d'en apprendre davantage sur ceux-ci, les chercheurs du RIKEN Brain Institute ont développé une technologie permettant de quantifier les effets de l'apprentissage moteur par l'exploitation de la réponse optocinétique horizontale (HOKR). En étudiant ce mouvement de l'oeil chez la souris, les scientifiques ont remarqué que l'efficacité de l'apprentissage dépendait grandement de l'espacement des séances par des périodes de repos. En effet, si les effets d'une séance intensive semblent disparaître en 24h, ceux obtenus grâce à des séances espacées perdurent.

De précédentes recherches suggéraient que l'effet d'espacement est le produit du transfert de la mémoire de travail du flocculus (région du cortex cérébral) vers les noyaux vestibulaires. Afin de vérifier cette théorie et le transfert de l'information, les chercheurs ont administré localement un anesthésique au niveau du flocculus des souris dès la fin des séances d'entraînement. Les résultats des souris ayant subi un entraînement long, condensé et sans repos ont été quasi inexistants. Au contraire, ceux obtenus dans le cas de souris s'étant reposées pendant plusieurs heures entre chaque séance sont restés identiques, suggérant ainsi que durant ces 4h de repos, l'information était d'ores et déjà traitée comme de la mémoire à long terme.

L'injection de deux antibiotiques (Anisomycine et Actinomycine D) inhibiteurs de synthèse protéique dans le flocculus des souris juste avant leurs séances n'a pas permis d'observer un effet d'espacement car les résultats se sont révélés identiques avec le lot de souris ayant subi un apprentissage intensif pendant une heure sans repos. La conclusion de cette dernière expérience indique que les protéines produites durant l'apprentissage joueraient un rôle clé dans l'élaboration de la mémoire à long terme. Ceci constitue un progrès notable dans la compréhension des phénomènes liés à la mémoire et à l'apprentissage. Il s'agit des premiers travaux de recherche apportant une explication neurologique aux bienfaits des pauses entre des séances de travail et d'apprentissage.

Bulletins Electroniques

L'accident vasculaire cérébral, une maladie immunologique ?
Jeudi, 07/07/2011 - 01:20

L’accident vasculaire cérébral (AVC) constitue un problème de santé publique majeur. Ainsi, on estime que 25 % des sujets de plus de 80 ans présenteront un AVC. Malgré toutes les recherches entreprises à visée thérapeutique (plus de 1 000 molécules et de 250 essais thérapeutiques), le fibrinolytique alteplase reste le seul traitement disponible actuellement. Ce manque de succès peut avoir plusieurs explications. En effet, la physiopathologie de l'AVC est complexe et met en jeu de nombreux mécanismes dont l'inflammation. Une équipe de Caen a publié dans Lancet Neurology une revue générale sur ce sujet précisant les nombreux arguments en faveur du rôle de l'immunité.

Plusieurs maladies inflammatoires systémiques comme la polyarthrite rhumatoïde, les maladies inflammatoires intestinales et le syndrome des anti phospholipides augmentent le risque d’AVC. De manière générale, 30 % des patients avec un AVC ont un antécédent récent d'infection. L'incidence d'AVC augmente en période épidémique de grippe. Ces facteurs infectieux et inflammatoires peuvent contribuer à la survenue d'un AVC via une augmentation du risque thrombogène, une perturbation de la réactivité vasculaire, voire une vasculopathie ou une accélération de la thrombogénèse. Des travaux récents ont suggéré a contrario que certains états pré-infectieux pouvaient, via une activation des lymphocytes th1, avoir un effet protecteur. Cependant, la plupart des études confirment le rôle délétère de l'inflammation mais considèrent que l’implication exacte des différentes populations cellulaires (lymphocytes, microglie,…) reste encore à préciser.

Les relations entre le système nerveux central et le système immunitaire sont actuellement considérées comme bidirectionnelles. Ainsi le cerveau ischémique peut relarguer un certain nombre de neuromédiateurs et des cytokines susceptibles d’agir sur la régulation immunitaire systémique via des structures cérébrales comme l’hypothalamus. Quelques heures après le début d'un AVC, il peut exister une down regulation de l'immunité systémique entraînant un stroke-induced immunodepression (SIDS). La majorité des cellules immunitaires possède des récepteurs à la noradrénaline pouvant entraîner une stimulation de l'interleukine 10 par les monocytes et à terme diminuer l'activité des cellules immunes. Cette immunodépression peut avoir des conséquences chez les patients ayant eu un AVC car le risque infectieux est augmenté en raison des troubles fréquents de déglutition et de l'environnement microbien hospitalier.

Est-ce que ceci suggère qu’il pourrait être possible de prévenir la survenue d’un AVC ? Une étude a montré que la vaccination combinée antipneumococcique et antigrippale diminuait le risque d’accidents vasculaires ischémiques. Certaines équipes ont suggéré l'implication de certaines protéines d'adhésion comme l’ICAM1. Malheureusement, un essai thérapeutique utilisant des anticorps murins dirigés contre cette protéine a abouti à un échec avec notamment une augmentation de la mortalité. D'autres essais exploitant cette hypothèse immunologique sont actuellement en cours. Toutes ces études confirment le rôle de l'immunité dans la survenue d’AVC avec l’espoir d'ouvrir ainsi de nouvelles pistes thérapeutiques.

JIM

Découverte d'une des causes de l'athérosclérose
Mercredi, 06/07/2011 - 01:30

L'équipe de Christian Weber de l'Université Ludwig Maximilian de Munich (LMU - Bavière) et celle d'Alma Zernecke de l'Université de Wurtzbourg (Bavière) a montré comment une forte activation du système immunitaire pouvait mener à l'apparition d'athérosclérose. Leurs résultats ont été publiés en ligne dans la revue scientifique "Journal of Clinical Investigation" le 1er juin 2011.

L'athérosclérose est une des plus fréquentes causes de décès dans les pays industrialisés. Elle est souvent confondue avec le terme artériosclérose, qui désigne le vieillissement normal des artères. "L'athérosclérose évolue en plusieurs phases. Les lésions débutantes ressemblent à de simples traînées surélevées sur la paroi interne de l'artère (intima), contenant des dépôts graisseux, appelées stries lipidiques. Les lésions caractéristiques surviennent dans un second temps. L'endothélium se couvre alors d'un noyau jaune-gris, rempli de fibres, de cellules inflammatoires, de débris cellulaires et de lipides. Une des étapes cruciales de l'athérogenèse provient de l'infiltration des monocytes (cellules sanguines) dans l'espace sous-endothélial des artères : là, ils se différencient en macrophages qui entraînent une réaction inflammatoire chronique locale (production de cytokines), favorisant le développement puis la fragilisation de la plaque. Les lésions évoluées peuvent parfois se compliquer de calcification. Le revêtement de l'endothélium se fissure. Des plaquettes sanguines s'agrègent aux fibres collagènes et aux lipides accumulés en plaque, ce qui provoque l'apparition d'un thrombus (caillot) qui ralentit, puis bloque la circulation sanguine." L'athérosclérose est une cause majeure de crise cardiaque et d'accident vasculaire cérébral.

Selon les chercheurs, les cellules dendritiques émettent une molécule signal, CCL17, qui inhibe un mécanisme d'autorégulation du système immunitaire. Celui-ci atténue en temps normal la réaction du système immunitaire. Lorsqu'il est réprimé, l'inflammation s'installe donc de façon permanente. Pour parvenir à cette conclusion, l'équipe à travaillé sur des souris démunies de lymphocyte T régulateur ou dont les cellules dendritiques ne produisaient pas de CCL17.

Les scientifiques sont déjà sur la piste d'un médicament potentiel : "Avec un anticorps contre CCL17, nous pourrions empêcher la progression de l'athérosclérose.", explique Christian Weber.

Bulletins Electroniques

Cancer du sein : une radiothérapie additionnelle réduit le risque de récidive
Lundi, 04/07/2011 - 01:10

Une radiothérapie additionnelle améliore le taux de survie des femmes atteintes d'un cancer du sein au stade précoce, et réduit également le risque de récidive, selon un essai clinique réalisé par l’Institut national du cancer du Canada.

Cette étude a été effectuée auprès plus de 1800 femmes ayant subi une chirurgie mammaire conservatrice (lumpectomie), suivie d'une chimiothérapie adjuvante ou d'une endocrinothérapie. Toutes les patientes avaient été traitées par radiothérapie complète du sein, et certaines d’entre elles avaient également reçu une radiothérapie additionnelle des ganglions lymphatiques avoisinants. Après un suivi de cinq ans, une analyse des données a indiqué que chez les femmes ayant été traitées avec une radiothérapie additionnelle, le taux de survie sans récidive s'était amélioré de plus de 30 %. Ces données comprenaient une diminution de 41 % du taux de récidive du cancer du sein et des ganglions lymphatiques, et une diminution de 36 % de la récidive du cancer dans d'autres parties du corps.

«Dans le cas des femmes atteintes d'un cancer du sein avec ganglions positifs et qui présentent un risque de récidive, ces conclusions fournissent une nouvelle option thérapeutique intéressante. Nous croyons que cette recherche va modifier la pratique clinique», a expliqué Christine Williams, directrice de la recherche à la Société canadienne du cancer.

Canoe

Vers de nouveaux vaccins thérapeutiques anti-cancer
Lundi, 04/07/2011 - 01:00

Les scientifiques ont mis au point une technique -en se servant d’une bibliothèque d’ADN prélevé sur des organes sur lesquels des tumeurs peuvent se former et affecter la réponse immunitaire du corps- pour créer un vaccin contre le cancer. Dans une étude publiée dans le journal Nature Medicine, des chercheurs de Grande-Bretagne et des Etats-Unis ont déclaré que lors de premiers tests réalisés sur des souris ayant un cancer de la prostate, leur vaccin expérimental avait pu réduire les tumeurs, suggérant qu’il pourrait être développé à l’avenir en traitement pour les patients atteints d’un cancer.

Les traitements d’immunothérapie –les médicaments qui aident le système immunitaire à lutter contre la maladie –sont une forme relativement nouvelle de traitement potentiel contre le cancer. Un médicament d’immunothérapie –appelé ipilimumab ou Yervoy, produit par Bristol-Myers Squibb, a été approuvé par l’Administration américaine pour l’Alimentation et les Médicaments en Mars dernier comme étant le premier médicament pouvant aider les patients atteints d’un mélanome avancé à vivre plus longtemps.  En avril dernier, la FDA a approuvé un vaccin thérapeutique conçu pour stimuler le système immunitaire afin qu’il attaque les cancers de la prostate.

A la différence des vaccins traditionnels, les vaccins thérapeutiques ne sont pas conçus pour prévenir les maladies mais pour les traiter. Ils contiennent des gènes qui stimulent le système immunitaire afin de produire des protéines appelées antigènes, qui activent le système immunitaire pour tuer les cellules cancéreuses. Plusieurs fabricants de médicaments tentent de développer des vaccins contre le cancer mais la tâche s’avère difficile parce que chaque tumeur a des protéines spécifiques et l’identification des bons antigènes s’avère difficile. Beaucoup s’inquiètent aussi du fait que si davantage de gènes sont utilisés pour augmenter les chances de produire des antigènes réussis, cela pourrait provoquer une réponse immunitaire qui soit trop puissante pour le corps.

En travaillant avec des scientifiques de la Clinique Mayo à Rochester dans le Minnesota, l’équipe d’Alan Melcher a fabriqué le vaccin à partir d’un virus qu’ils ont modifié génétiquement pour qu’il contienne une « bibliothèque » d’ADN comprenant de multiples fragments de gènes –et ainsi de nombreux antigènes possibles. Ils ont découvert que cette approche ne provoquait pas chez le système immunitaire une suractivité. A la place, la grande gamme d’ADN permet au vaccin de cibler la tumeur par le biais de nombreux chemins. Surtout, la bibliothèque d’ADN provient du même organe que la tumeur, d’après ce qu’explique Alan Melcher. Cela signifie que le système immunitaire « choisit lui-même » les antigènes contre le cancer pour y répondre et ne réagit pas contre des parties saines du corps.

Actualités-News-Environnement

Moins de risque de cancer grâce aux vaccins ?
Dimanche, 03/07/2011 - 01:40

En dépit d’intenses recherches, 95 % des cancers restent de cause indéterminée. Parmi les quelques pistes dont on dispose, il semble cependant que le retard à l’exposition aux maladies infectieuses communes pourrait prédisposer aux leucémies. Or les vaccins entraînent une réponse immunitaire similaire à l’infection naturelle et pourraient moduler l’immunité par stimulation non spécifique de macrophages et de cellules NK dirigés contre les tumeurs. Plusieurs études montrent ainsi l’effet protecteur relatif apporté par le vaccin anti-hémophilus (Hib) vis-à-vis des leucémies de l’enfant.

Au Texas, une étude cas témoins a comparé la fréquence de différents cancers de l’enfant entre 1995 et 2006 en fonction du taux de couverture vaccinale, variable selon les comtés. Le schéma vaccinal dans 11 régions comportait dans tous les cas 4 injections de DT coqueluche, 3 d’anti-poliomyélite et 1 de ROR -rubéole, oreillons, rougeole- (schéma 4-3-1), plus ou moins 3 Hib (4-3-1-3) ou en plus, 3 anti-hépatite B (4-3-1-3-3) ou en plus, un vaccin anti-varicelle. Pour chacun de ces vaccins, le taux de couverture vaccinale, par région se situait entre 80 % et 90 %. Le registre des cancers du Texas a permis d’identifier 2 800 cas de cancers chez des enfants nés dans cet état et survenus entre l’âge de 2 à 17 ans. Grâce aux données des certificats, 11 200 cas témoins, appariés pour l’âge et le sexe ont pu être sélectionnés. Une analyse de régression multiple à plusieurs niveaux, prenant en compte les différents facteurs de risque, a permis de comparer les taux de vaccinations et de cancers par région.

Le risque de cancers de tous types est diminué chez les enfants nés dans les comtés où la couverture par vaccin anti-hépatite B est la plus élevée (odd ratio OR 0,81 ; intervalle de confiance à 95 %  IC 95 : 0,67-0,98) et spécialement le risque de leucémies aiguës lymphoblastiques (LAL) (OR 0,63 ; IC95 : 0,46-0,88). Une baisse du risque de LAL est également observée dans les comtés où les taux de vaccinations anti-polio sont les plus importants (OR 0,67 ; IC 0,49-0,92) et avec le schéma vaccinal 4-3-1-3-3 (OR 0,62 ; IC : 0,44-0,87). En conclusion, certaines vaccinations communes semblent diminuer le risque de cancer, surtout de leucémies.

JIM

Résultats prometteurs pour le vaccin contre la dengue
Dimanche, 03/07/2011 - 01:00

Les premiers tests du vaccin contre la dengue développés par le français Sanofi Pasteur ont donné des résultats "très positifs", a annoncé récemment un chercheur associé aux évaluations. Le traitement, dont la commercialisation est prévue en 2014, est expérimenté dans quinze pays par les divisions vaccins du laboratoire Sanofi-Aventis. Les premiers résultats publiés proviennent de Thaïlande, où les tests ont débuté en 2009 auprès de 4.000 enfants. Des progrès ont été observés au cours des deux années, et aucun patient n'a manifesté de réaction inquiétante au vaccin.

"C'est très prometteur. Il est démontré que le vaccin est sûr. Nous avons suivi les enfants très étroitement et aucun n'a montré de réaction inquiétante au vaccin", a déclaré Arunee Sabcharoen, professeur émérite de médecine pédiatrique tropicale à l'université Mahidol, à Bangkok. L'étude, qui doit durer quatre ans, est menée en Thaïlande dans la province de Ratchaburi, à une centaine de kilomètres à l'ouest de Bangkok. Les enfants, âgés de quatre à onze ans, ont reçu trois doses à six mois d'intervalle.

La dengue, maladie tropicale véhiculée par les moustiques, touche chaque année 220 millions de personnes dans le monde, dont deux millions, surtout des enfants, développent une variante plus grave de fièvre hémorragique. Aucun traitement préventif ou curatif n'existe encore contre cette maladie. Sanofi, premier laboratoire à atteindre le stade des derniers tests dans ce domaine, avait annoncé en 2009 avoir l'intention d'investir 350 millions d'euros dans la construction d'un site de production de 100 millions de doses par an.

Sanofi Pasteur

Cerveau : identification d'un "interrupteur" responsable de l'épilepsie
Samedi, 02/07/2011 - 01:40

Formidable espoir dans le traitement de certaines formes d'épilepsie à la suite de la découverte d'une équipe marseillaise.

Christophe Bernard, directeur de recherche Inserm, et son équipe (U751 "épilepsie et cognition" à la Timone, à Marseille) viennent de découvrir, en collaboration avec une équipe américaine (université de Californie à Irvine), un gène-clé dans le mécanisme qui conduit à la transformation d'un cerveau sain en cerveau épileptique. Ce gène, activé à la suite d'une agression cérébrale, contrôle l'expression de 1 800 autres gènes dont les dérèglements participeraient à l'apparition de l'épilepsie. Ces travaux viennent d'être publiés dans la revue Annals of Neurology.

L'épilepsie est la maladie neurologique la plus fréquente après la migraine. Elle touche 1 à 2 % de la population mondiale. Chez l'adulte, elle se manifeste le plus souvent après une agression du cerveau comme un traumatisme crânien ou une infection de type méningite, et elle concerne alors en général le lobe temporal. Malheureusement pour les personnes atteintes, cette forme d'épilepsie est résistante à tout traitement médicamenteux dans 30 % des cas. De plus, elle est souvent associée à des déficits de mémoire et d'apprentissage ainsi qu'à des états dépressifs ou anxieux. Ces désordres sont fréquemment vécus par les malades comme plus invalidants encore que les crises d'épilepsie elles-mêmes.

  • Bientôt des traitements préventifs

Des travaux de recherche fondamentale ont montré qu'une agression du cerveau pouvait conduire à une réorganisation considérable des réseaux de neurones qui le composent. Cette dernière est responsable de l'apparition des crises et des désordres associés. "Un des éléments les plus frappants de cette réorganisation est une modification de l'expression de milliers de gènes", explique Christophe Bernard. Avec son équipe, ils ont identifié un gène, baptisé NRSF (Neuron Restrictive Silencing Factor), qui, une fois activé par l'agression initiale, peut contrôler l'expression de 1 800 autres gènes. Car la protéine NRSF alors générée va recruter d'autres protéines qui vont empêcher la lecture de l'ADN au niveau de certains gènes, et donc interdire la production des protéines correspondantes.

Les chercheurs ont ensuite fabriqué des leurres chimiques qui captent et fixent la protéine NRSF produite, empêchant son action sur ses gènes cibles. Et ils les ont injectés à des modèles animaux chez qui une épilepsie du lobe temporal avait été provoquée. Ce traitement a permis de restaurer l'expression des gènes bloqués par NRSF, la production des protéines codées par ces gènes et les fonctions assurées par ces protéines. "Les effets sont immédiats et impressionnants, note Christophe Bernard : le ralentissement de la progression de l'épilepsie, la diminution du nombre de crises et la restauration d'une activité cérébrale qui joue un rôle central dans de nombreuses fonctions de mémorisation et d'apprentissage."

Grâce à ces résultats, il sera peut-être possible de mettre au point des traitements préventifs chez les personnes risquant de développer une épilepsie, à la suite d'une agression cérébrale. Car des dizaines d'années peuvent s'écouler entre cette agression et l'apparition des premières crises.

Le Point

Le sang fluidifié par un champ magnétique
Samedi, 02/07/2011 - 01:20

Vous n'avez pas le sang assez vif ? Prenez donc un petit coup de champ magnétique ! C'est le conseil que pourraient vous donner Rongjia Tao, physicien à l'Université Temple, aux États-Unis, et son collègue Ke Huang, de l'Université de Chicago. Ils ont en effet montré qu'une impulsion de champ magnétique intense est capable de diminuer notablement la viscosité du sang pendant quelques heures.

La viscosité du sang est un paramètre important dans les maladies cardiovasculaires. Quand elle est trop élevée, en raison par exemple d'une concentration trop importante de globules rouges, le sang peut endommager les parois des vaisseaux où il circule et ainsi augmenter le risque d'accident cardiaque. La prise d'aspirine ou d'autres médicaments analogues est la seule méthode disponible pour fluidifier le sang, mais ces substances ont des effets secondaires indésirables. D'où l'intérêt des travaux des deux chercheurs américains.

Les expériences de R. Tao et K. Huang ont montré qu'en appliquant pendant environ une minute un champ magnétique parallèle à la direction de l'écoulement sanguin et d'intensité égale à 1,3 tesla, on diminue la viscosité sanguine de 20 à 30 pour cent. La viscosité remonte ensuite lentement et retrouve sa valeur initiale au bout de deux ou trois heures.

Par quel mécanisme la viscosité est-elle réduite ? L'application d'un champ magnétique intense a pour effet de polariser magnétiquement les globules rouges : chaque globule, qui a grossièrement la forme d'un disque, acquiert grâce au fer qu'il contient un dipôle magnétique dirigé selon l'un de ses diamètres, c'est-à-dire perpendiculairement à l'axe de symétrie du globule. Les forces d'interaction entre dipôles tendent alors à les regrouper en petites chaînes de quelques globules accolés par leurs bords.

Ce regroupement a pour conséquence trois effets physiques connus pour diminuer la viscosité. Les deux premiers sont l'augmentation de la taille moyenne des particules en suspension et un élargissement de la gamme de tailles de ces particules (on retrouve des chapelets de deux, trois, quatre, etc. globules). Le troisième est le fait que les chaînes de globules soient alignées dans la direction de l'écoulement, ce qui réduit la friction, donc la viscosité dans cette direction.

La méthode semble intéressante : l'application du champ peut être répétée à volonté, et la fonction des globules rouges n'est pas perturbée puisque leur surface reste presque entièrement libre. R. Tao et K. Huang pensent ainsi qu'à l'aide d'impulsions magnétiques d'intensité et de durée appropriées, la viscosité sanguine pourrait être contrôlée et maintenue dans la gamme de valeurs souhaitée.

Pour La Science

Automobilistes : fermer ses vitres peut prévenir du cancer de la peau
Vendredi, 01/07/2011 - 06:40

Selon une étude initialement publiée par des chercheurs de l'Université de Seattle dans le Journal of the American Academy of Dermatology et reprise lundi 20 juin par USA Today, les automobilistes qui conduisent l'été la fenêtre ouverte ont un risque plus important que les autres de développer un cancer de la peau. Selon eux, conduire l'été les fenêtres fermées réduirait le risque de développer un mélanome ou un carcinome sur la partie gauche de son corps.

Ainsi, il apparaît qu'aux Etats-Unis, 53 % des cas de cancers de la peau se développent sur le côté gauche du corps. Plus inquiétant encore, 55 % des cas cliniques impliquant des carcinomes naissent directement sur le bras gauche. Ces statistiques sont d'ailleurs confirmées dans les pays où les automobilistes roulent à gauche, où il apparaît que les cancers naissent principalement dans le bras droit.

De fait, le bras du côté de la fenêtre ouverte se retrouve particulièrement exposés aux UV au grand air alors qu'une vitre fermée protège des UVA, les rayons les plus dangereux pour l'organisme. Même si elle laisse souvent passer les UBV, la vitre fermée constitue un rempart relativement efficace contre les dangers du soleil lors de la conduite.

Outre les automobilistes, cette étude est aussi destinée à la prévention des professionnels de la route, à commencer par les chauffeurs de camion. En 2010 aux Etats-Unis, plus de 68000 personnes ont été diagnostiquées avec un melanoma. Près de 9000 en sont morts.

Le Parisien

La biologie de synthèse crée des usines vivantes
Vendredi, 01/07/2011 - 06:10

De nouveaux biocarburants, molécules thérapeutiques, diagnostics vont voir le jour grâce à la biologie de synthèse, selon les pionniers de cette technique d'ingénierie qui inquiète car elle brouille la frontière entre le vivant et l'artificiel. L'objectif est de "faire faire de la chimie à des micro-organismes", explique Vincent Schächter, directeur de la recherche et du développement chez Total Gaz énergies nouvelles. "La technique arrive, on peut programmer la chimie de manière extrêmement précise", ajoute le généticien Philippe Marlière, co-fondateur de Global Bioenergies. Une bactérie dispose de gènes responsables de la production de quelque 3.000 enzymes différents. Comment les manipuler pour leur faire produire autre chose que ce qu'elles produisent naturellement ?

Comme des ingénieurs définissent les circuits de production d'une usine chimique, la biologie de synthèse vise à transformer des bactéries ou autres micro-organismes en usines, créant les produits souhaités. Des médicaments, comme l'artémisinine contre le paludisme ou l'hydrocortisone, tirent déjà profit de ces techniques, ainsi qu'un outil de diagnostic permettant le suivi de patients atteints du sida et d'hépatites. En matière de biocarburants, il s'agit de "faire du diesel à partir du sucre grâce à la biologie de synthèse" au lieu d'utiliser des plantes oléagineuses "trop chères", a souligné Vincent Schächter lors d'un colloque organisé au Collège de France.

Grâce à une bactérie E.coli largement modifiée, la société Global Bioenergies, créée en 2008 à Evry, a déjà mis au point un procédé pour utiliser les sucres issus de déchets forestiers, de la paille ou de la mélasse de betteraves pour produire de nouveaux biocarburants. Antibiotiques, bactéries détectant d'infimes taux d'arsenic dans l'eau, micro-organismes capables de dégrader des substances toxiques : de nombreux projets tablent sur des techniques sophistiquées de manipulation du vivant.

Pour créer un organisme génétiquement modifié, on se sert de gènes et de processus biologiques existant dans le règne du vivant, dans le cas de la biologie de synthèse, les modifications peuvent concerner une douzaine de gènes en même temps, voire aller au-delà de ce qui existe dans la nature. N'y a-t-il pas de risques ? Certains chercheurs minimisent l'impact de leurs "bricolages" en assurant que "ça n'arrive pas aux chevilles" de ce que crée la nature, remarque Philippe Marlière.

Selon lui, "inventer, innover dans le vivant c'est beaucoup plus facile qu'on croit". Or, la création "d'objets biologiques artificiels" pose un "défi majeur" : éviter qu'ils interagissent avec le vivant naturel. "Est-ce qu'on est capable de créer des organismes qui ne vont pas influer sur la biodiversité, de créer un deuxième arbre de la vie qui ne va pas influer sur le premier ?", interroge M. Marlière.

Plusieurs techniques de xénobiologie (forme de vie étrangère) sont envisagées pour créer une "Tour de Babel" empêchant tout échange entre vivant naturel et "objets biologiques artificiels". Deux sucres, le désoxyribose et le ribose, différencient le squelette des molécules d'acide désoxyribonucléique (ADN) et d'acide ribonucléique (ARN) dans le règne du vivant. Un autre type de sucre pourrait être utilisé pour créer "des acides nucléiques surnaturels", précise le généticien. Autre piste explorée : élargir "l'alphabet" de quatre molécules de base ou nucléotides sur lesquelles repose le code génétique du vivant.

AFP

^ Haut
Recherche
Recherche & Innovation, Technologies, Transports
Voiture électrique : une route semée d’embûches...
Lundi, 04/07/2011 - 01:20

Selon le dernier rapport du Centre d’analyse stratégique (CAS) à moins d’une «innovation technologique majeure», le véhicule électrique «restera un marché de niche pour les 15 à 20 ans à venir». Cette étude est plus que réservée pour le tout électrique. «Pour qu’un marché de masse se développe, explique le rapporteur Jean Syrota, il faudrait que le véhicule électrique soit moins cher que le thermique. Or dans tous nos scénarios, et même ceux favorables à l’électrique, il reste supérieur ou comparable au thermique.» Avec des performances moindres : «L’autonomie affichée est de l’ordre de 150 kilomètres, soit l’équivalent de 6 à 8 litres de carburant, c’est-à-dire ce qu’il vous reste dans votre réservoir quand le voyant avertissant qu’il est temps de retourner à la pompe s’allume.» Et Jean Syrota d’enfoncer le clou: «De plus, cette autonomie théorique est calculée dans des conditions très différentes de l’utilisation réelle. Par exemple, elle ne prend pas en compte l’utilisation d’accessoires, de chauffage ou de climatisation…»

La liste des inconvénients dressée par le CAS est longue : problèmes d’infrastructures de recharge, d’intervention des secours en cas d’incendie de la batterie…. . Quant à l’argument écologique «Selon le mix énergétique de certains pays, le véhicule électrique, entre la fabrication de la batterie et son utilisation, finit par émettre plus de CO2 que le thermique, a calculé Jean Syrota. Exemple : les émissions de CO2 d’un véhicule électrique en France seraient de 41g de CO2/km, soit bien en-dessous des 130 grammes actuellement émis par un véhicule thermique dans le pays. Mais au Japon ou en Corée ce taux grimperait à 130g, et irait même jusqu’à 200g pour un véhicule chinois. «Le côté décarboné de la voiture électrique est un mythe et une illusion pour beaucoup de pays.»

Le CAS admet cependant que, dans les zones urbaines, le véhicule électrique pourrait s’imposer plus rapidement, à condition de mettre en place «des encouragements réglementaires pour l’achat d’une voiture électrique, et des interdictions ou restrictions de circulation des voitures thermiques», ceci dans un but de réduction de la pollution atmosphérique. Car si pour les émissions de CO2 – qui n’est pas un polluant mais un gaz à effet de serre, les performances de l’électrique sont discutables, elles ne le sont pas en ce qui concerne les émissions de Nox et de particules, les deux principaux polluants qui frappent les grandes villes, et qui sont dus à une mauvaise combustion.

Pour une diminution rapide de cette pollution, et pour anticiper la raréfaction des ressources pétrolières, le CAS mise plutôt sur le développement de l’hybride. «Avec l’amélioration des moteurs thermiques, et leur électrification partielle, on peut rapidement diviser par deux la consommation des véhicules», assure Vincent Chriqui, directeur du CAS. Il suggère également d’imposer les systèmes de « stop and start (système coupant automatiquement le moteur quand il est à l’arrêt)» sur tous les véhicules, de «modifier les méthodes réglementaires de mesure des consommations énergétiques et des émissions de CO2 afin qu’elles soient plus représentatives de l’utilisation réelle des véhicules», de «réduire le stationnement résidentiel en augmentant son tarif», «d’imposer une norme pour les bornes de recharge électriques», et de «renforcer l’incitation à l’achat de véhicules peu polluants».

Centre d'Analyse Stratégique

Pierre Falson reçoit le « Prix CNRS recherche et innovation » des Amis de l’Université de Lyon
Samedi, 02/07/2011 - 01:00

Le "Prix CNRS recherche et innovation" est une nouvelle distinction parmi la quarantaine de prix remis chaque année en juin à des chercheurs, étudiants et doctorants de Lyon/Saint-Etienne par l’Association des Amis de l’Université de Lyon (AAUL). Il a été décerné à Pierre Falson, membre de l’Institut de biologie et chimie des protéines (IBCP, CNRS/Lyon 1) et cofondateur de la jeune société innovante CALIXAR.

Pierre FALSON est directeur de recherches CNRS à l'Institut de biologie et chimie des protéines (IBCP, CNRS / Université Lyon 1), Lyon 7e. Il est cofondateur avec Emmanuel Dejean de la jeune entreprise innovante CALIXAR, née de l’IBCP et incubée à Crealys. Pierre Falson y occupe un poste de consultant. Il est l'inventeur des deux brevets licenciés, à la base des activités de Calixar.

Portée par Emmanuel Dejean, CALIXAR met à disposition une technologie d’extraction de protéines membranaires qui ne déstructure pas ces dernières. Par cette technologie unique, leur étude fiable est maintenant possible. Cela se révèle particulièrement important quand on sait que les protéines membranaires représentent plus de 60 % des cibles thérapeutiques impliquées dans les maladies les plus diverses (cancer, Alzheimer, diabète, malaria,....).

Parmi les enjeux : le développement de médicaments et de vaccins plus efficaces, avec diminution d’effets secondaires. CALIXAR propose ses services aux industries pharmaceutiques, aux biotechs et aux équipes académiques. La jeune société connaît actuellement un fort développement.

Pierre Falson est distingué pour l’aspect réellement innovant de sa contribution : étudier des protéines membranaires non dénaturées était impossible auparavant. De plus, cette innovation est porteuse d’enjeux importants en sciences du vivant et en santé. Par ailleurs, sa démarche illustre de manière très pertinente le passage entre recherches fondamentales et recherche appliquée. Enfin, il a concrétisé le transfert technologique - allant du brevet à la création de CALIXAR - en s’appuyant efficacement sur des dispositifs de valorisation, comme ceux offerts par le secteur « valorisation » du CNRS et ceux de l’incubateur Crealys. Pierre Falson était par ailleurs en 2010 lauréat du Concours national de création d'entreprises innovantes, en catégorie "Emergence". CALIXAR a également reçu le prix Lyon Science Transfert la même année.

CNRS

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top