RTFlash

RTFLASH Recherche & Technologie
NUMERO 650
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 03 Mai 2012
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
Google Drive est opérationnel
Quand les capteurs adaptent la voiture aux personnes âgées
Construction du premier mégaordinateur du monde basé sur la technologie des téléphones portables
La reconnaissance oculaire atteint un niveau presque parfait
Visitez votre futur appartement en 3D !
Avenir
Une éponge anti-pollution en nanotubes de carbone !
Bouger "par la seule force de la pensée", une première mondiale à l'EPFL
Des nano-fils plastiques intelligents
Matière
Une cellule solaire émettrice de lumière serait encore plus efficace !
Vers des cellules solaires liquides imprimables ?
Intel lance les premiers processeurs gravés en 22 nm
Un catalyseur efficace pour la maîtrise de la photosynthèse artificielle
Des enzymes bactériennes qui se comportent comme une pile
Un électron peut parfois se briser !
500 milliards d’euros d’énergie partent en fumée chaque année en Europe !
Espace
La formation de la Voie lactée remise en question
Terre
Agreenium lance sa plate-forme d'information et de services en ligne
Tectonique des plaques : un pas en avant vers la reconstitution du passé et la prédiction de l'avenir
Un gène résistant à la sécheresse : une révolution biotechnologique en Argentine
Le réchauffement climatique affecte la flore des montagnes
Vivant
En 2016, les services de santé seront mobiles aux Etats-Unis
L'espérance de vie des hommes rattrapera celle des femmes en 2030
Réparer le cœur sans recourir à la chirurgie
Un jeu vidéo pour remédier à la dépression chez l’ado
Se parler à soi-même procurerait des avantages !
Autisme : de nouveaux gènes impliqués dans le risque de développer la maladie
Des machines qui « sentent » le danger
Vers un nouveau vaccin sans injection pour protéger les bébés
Un traitement expérimental réduit les troubles de l'autisme chez des souris
Des cellules souches capables de régénérer l'intestin
Manger moins tout en ayant l'impression de manger plus
La géométrie du cerveau est-elle à angle droit ?
Une prise de sang pour diagnostiquer la dépression ?
Découverte d’un interrupteur moléculaire du glucose
Edito
Les astéroïdes seront-ils l'eldorado du XXIème siècle ?



Il y a bientôt 80 ans, le génial et visionnaire scientifique russe, Konstantin Tsiolkovsky, considéré comme le fondateur de l'astronautique, avait non seulement imaginé une station spatiale permanente mais avait également eu l'idée d'une exploitation industrielle des astéroïdes pour en tirer de fabuleuses ressources.

Dans un futur relativement proche, la réalité pourrait bien rejoindre la fiction.

Il y a quelques semaines, des scientifiques chinois ont publié, dans la revue chinoise Research in Astronomy and Astrophysics, un article qu'on pourrait croire tout droit sorti d'un roman de science-fiction "Comment capturer des astéroïdes proches de la Terre" (Voir Capturing Near Earth Objects). Pourtant il s'agit d'un projet tout à fait sérieux qui s'appuie sur un constat incontournable : la demande mondiale globale en matières premières explose, tirée par la croissance en Asie et la production de certaines matières premières stratégiques, notamment les "terres rares", indispensables aux secteurs de l'électronique et de l'informatique, ne parvient plus à répondre à la demande croissante.

Tous les spécialistes soulignent que l’ère des minerais abondants et peu onéreux est à présent définitivement révolue. Seuls une vingtaine de métaux sur 60 couramment utilisés par l'industrie sont recyclés à plus de 50 %, et la plupart des 17 "terres rares", indispensables aux secteurs high tech (Gallium, Indium, Tellure de sélénium, Lanthane, Néodyme), sont recyclées à moins de 1 % !

Auteur d'un rapport qui fait autorité sur la question, Thomas Graedel, professeur à l'université Yale souligne que « les pays développés ont fait l'impasse sur le recyclage de ces métaux stratégiques et payent à présent le prix de leur imprévoyance». En seulement deux ans, la consommation mondiale totale de terres rares est passée de 115 000 tonnes à 185 000 tonnes et tout laisse à penser que cette demande va continuer à augmenter au même rythme.

Or la Chine, qui impose déjà des quotas stricts d'exportation au reste du monde, pourrait très bien, si elle le décidait, stopper purement et simplement la vente de ces matières premières absolument indispensables à nos économies modernes. Mais la question centrale de l'accès aux matières premières dépasse largement la problématique des terres rares et métaux précieux et toutes les prévisions montrent qu'au rythme actuel de la demande, des minerais que l'on croyait pratiquement inépuisables, comme le cuivre, le cobalt ou le titane et même le plomb et le lithium, pourraient bien commencer à manquer d'ici la fin de ce siècle ! (Voir l'étude Metal stocks in society and recycling rates). Or, il n'existe pas ou peu d'alternatives à l'utilisation de ces substances et sans elles c'est tout simplement toute notre industrie qui cesserait de fonctionner.

Face à ce défi très sérieux, les scientifiques, les politiques et les industriels réfléchissent depuis plus de 20 ans à la possibilité d'aller chercher ces matières premières là où elles se trouvent en quantité gigantesque, dans l'Espace. Jusqu'à présent, la perspective d'une telle exploitation industrielle de l'espace se heurtait à un double obstacle, technologique d'abord et économique ensuite. Mais avec l'augmentation vertigineuse du prix de certaines matières premières, l'idée d'une conquête industrielle de l'Espace est en train de s'imposer.

Il est vrai que, selon l'étude chinoise publiée l'an dernier, un astéroïde de 2 kilomètres de diamètre contiendrait environ pour 20 000 milliards d'euros de matériaux et minerais, presque deux fois le PIB des Etats-Unis ! L’idée de ces chercheurs chinois n'est pas nouvelle : elle consiste à dévier légèrement la trajectoire d’un astéroïde jusqu'à ce qu'il devienne un satellite de la Terre et puisse alors faire l'objet d'une exploitation industrielle de ses immenses ressources minières.

Les scientifiques chinois ont analysé les orbites de tous les astéroïdes dont l'orbite est située à moins d'1,5 million de kilomètres de notre planète. Ils ont alors identifié un "candidat" potentiel à l'exploration, l'objet 2008EA9. Cet astéroïde d'une dizaine de mètres de diamètre doit passer à un million de km de la Terre en février 2049 et il pourrait faire l'objet d'un vol habité qui pourrait partir en 2019 et durerait 6 mois. En modifiant légèrement la vitesse de l’astéroïde d’environ un kilomètre par seconde, il serait possible de l'amener jusqu'au fameux point de Lagrange, où les forces gravitationnelles s'équilibrent et de le placer sur une orbite stable autour de la Terre à environ une semaine de vol spatial de distance.

Dans un article publié la semaine dernière (Voir l'article) la revue d'informations du prestigieux MIT (Institut de Technologie du Massasuchetts) a également confirmé l'intérêt de ces nouvelles perspectives d'exploration spatiale et d'exploitation industrielle des ressources et matières premières contenues dans les astéroïdes de notre système solaire.

On comprend mieux les enjeux économiques d'une telle exploitation quand on sait que la production mondiale annuelle de minerai de fer est de l'ordre du milliard de tonnes !  Or, un astéroïde d'un diamètre d'un km peut contenir plus de 2 milliards de tonnes de fer. A titre d'exemple, l'astéroïde Psyché (250 km de diamètre), orbitant entre Mars et Jupiter, contiendrait assez de fer et de nickel pour répondre aux besoins de l'humanité pendant plusieurs siècles !

Notre système solaire compte plus de 500 000 astéroïdes dont une grande quantité sont métalliques et se composent de fer et de nickel ainsi que d'autres métaux plus rares et plus précieux. Les diamètres de ces corps célestes sont très petits, de quelques dizaines de mètres à un kilomètre de diamètre. Seuls quelques centaines de ces astéroïdes ont un diamètre supérieur à 100 km.

Les scientifiques qui travaillent sur cette question font un calcul assez simple : un astéroïde "moyen" de 500 mètres de diamètre ayant une concentration en nickel de 15 % contiendrait 260 000 tonnes de nickel. Avec un prix moyen qui pourrait atteindre 25.000 euros (la tonne) vers 2030, cet astéroïde aurait une valeur marchande de plus de 6,5 milliards d'euros. Un astéroïde un peu plus gros, de l'ordre du kilomètre de diamètre, vaudrait plus de 25 milliards d'euros et assurerait à lui seul 70 % de la demande mondiale annuelle de nickel.

Même si on estime que seuls 25 000 de ces astéroïdes seraient exploitables de manière rentable, cela représente tout de même un chiffre d'affaires théorique gigantesque, de l'ordre de 150 000 milliards d'euros, c'est-à-dire presque quatre fois le produit brut mondial annuel ! 

Il reste à surmonter des difficultés considérables mais pas infranchissables selon les experts les plus reconnus. En fonction du type d'astéroïde, plusieurs méthodes d'exploitation sont possibles. Première option, extraire seulement le minerai et le transporter ensuite sur la lune ou sur la Terre pour y être transformé. Deuxième option, raffiner et transformer le minerai sur place et produire également le carburant nécessaire au retour sur Terre. Troisième possibilité, amener progressivement l'astéroïde sur une nouvelle orbite, plus proche de la Terre ou de la Lune. 

Chaque option présente des avantages et des inconvénients : transformer le minerai sur place permet de réaliser des économies décisives en matière d'énergie mais suppose d'acheminer l'ensemble du matériel de raffinage sur place. Quant à l'extraction proprement dite, plusieurs solutions sont également envisagées : extraction à ciel ouvert, récupération magnétique grâce à des aimants ou creusement de mines dans l'astéroïde.

Fondée notamment par Larry Page, le patron de Google, une société américaine "Planetary Resources" s'est récemment constituée dans le but avoué d'être la première à profiter de cette manne céleste quasi-inépuisable. L'objectif de cette exploitation spatiale des ressources minières est de tirer économiquement partie des concentrations de minéraux rares et de métaux précieux bien plus importantes sur les astéroïdes que sur Terre (jusqu'à 20 fois la teneur terrestre). A titre d'exemple, selon Planetary Resources, un astéroïde de 500 mètres de diamètre pourrait contenir une quantité de platine aussi importante que toute celle déjà extraite par l'homme ! Quant on sait que le platine vaut plus cher que l'or (environ 45 euros le gramme) et qu'il est indispensable dans de multiples secteurs industriels comme l'électronique ou l'automobile, on mesure mieux l'enjeu financier, économique et industriel de cette "industrialisation" de l'Espace.

Mais ce qu'on sait moins c'est que certains types d'astéroïdes ne recèlent pas seulement minerais et métaux en grande quantité mais contiennent également en abondance une autre substance très précieuse et indispensable à la conquête et à l'exploration spatiale : l'eau. Contenue en grande quantité sous forme de glace, cette eau de l'espace a sans doute joué un rôle déterminant, selon certaines études scientifiques récentes, dans l'apparition de la vie sur Terre, il y a près de quatre milliards d'années.

Mais à présent, l'eau emprisonnée dans les 1 500 astéroïdes proches de la Terre et d'un accès facile pourrait fournir, après décomposition en oxygène et hydrogène, les ressources permettant de rendre autosuffisants en énergie et en carburant les astéroïdes qui seraient retenus pour l'exploitation minière.

La firme "Planetary Resources " va déployer en 2014 des télescopes spatiaux sur orbite basse pour identifier les astéroïdes les plus rentables et les plus aptes à cette exploitation. Elle enverra ensuite sur ces objets spatiaux de petits robots qui pourront les explorer et évaluer plus précisément les ressources disponibles.

Parallèlement à cette nouvelle "ruée vers l'or" spatiale, l'exploration purement scientifique des astéroïdes va s'accélérer avec la mission OSIRIS-REx (Origins-Spectral Interpretation-Resource Identification-Security-Regolith Explorer) de la NASA qui prévoit le lancement d'un engin spatial en 2016 qui devrait se poser sur l'astéroïde 1999 RQ36 en 2020 et ramener sur Terre plusieurs échantillons de ce corps spatial.

On voit donc, à la lumière de ces récents projets, que la conquête de l'Espace est en train de changer de nature : au pilier originel, purement scientifique et axé sur la progression de la connaissance fondamentale de l'Univers et de ses lois va venir s'ajouter un pilier clairement industriel et commercial, axé sur recherche du profit et la rentabilité.

Mais ces deux piliers, loin de s'opposer ou de s'ignorer, vont mutuellement s'enrichir et se renforcer. En effet, l'exploitation industrielle de l'Espace et des corps célestes, qu'il s'agisse d'autres planètes ou d'astéroïdes, va nécessairement devoir s'appuyer sur les connaissances scientifiques que nous avons accumulées depuis plus d'un demi-siècle sur notre système solaire. Mais en retour, l'exploration scientifique du Cosmos va trouver dans l'exploitation industrielle de l'Espace un extraordinaire moteur d'accélération.

Cette synergie entre la dimension scientifique et la dimension économique de la conquête spatiale apparaît donc comme particulièrement prometteuse et notre Pays qui a la chance d'être à la pointe mondiale en matière de technologies spatiales, doit absolument participer dès à présent à cette nouvelle aventure humaine que constitue l'exploitation économique des fantastiques richesses que recèle notre système solaire. Comme nous l'avons affirmé à plusieurs reprises dans notre Lettre, au risque parfois de susciter le scepticisme, nous sommes convaincus que le destin de l'humanité se jouera un jour moins lointain qu'on ne l'imagine en dehors de son berceau d'origine et que l'espèce humaine partira à la conquête de son Univers, à commencer par notre système solaire, parce que sa curiosité et sa soif de connaissance sont infinies et que rien ne peut les arrêter.

Alors que les grands pays développés, à commencer par les Etats-Unis et la Chine, sont déjà entrés de plain-pied dans cette compétition économique décisive pour l'exploitation de l'Espace, nous devons très rapidement prendre la mesure de ce nouveau défi mondial et nous y préparer en confortant notre excellence et notre avance dans le domaine spatial.

René TRÉGOUËT

Sénateur Honoraire

Fondateur du Groupe de Prospective du Sénat 


TIC
Information et Communication
Google Drive est opérationnel
Jeudi, 03/05/2012 - 01:20

Google Drive est devenu une réalité. Entre serpent de mer et pur délire, ce service de stockage en ligne vient d’être dévoilé sur le blog officiel de la société sous le titre, « Google Drive, oui, c’est vrai ». Voici, en quelques phrase, ce que Google en dit : « Drive est un espace centralisé pour créer, partager, collaborer et conserver vos documents. Que vous établissiez un budget prévisionnel avec vos collaborateurs, que vous élaboriez une présentation avec un groupe de travail ou que vous organisiez un séminaire, vous pouvez désormais le faire dans Drive. » Et, une vidéo propose de vous faire une visite guidée.

Si vous possédez un compte Gmail, tout se passera de manière fluide et vous disposerez en quelques secondes, et gratuitement, d’un espace de 5 Go. S’il vous faut plus, vous pouvez accéder à 25 Go pour 2,49 $/mois, à 100 Go pour 4,99 $/mois et à 1 To pour 49,99 $/mois. Certaines promesses de ce nouveau service, que nous testons actuellement, font rêver.

En plus de pouvoir accéder à vos documents où que vous soyez et de les rechercher facilement par mots-clés, Google assure que Drive est compatible avec trente types de documents depuis votre navigateur, sans même disposer du logiciel adéquat. Et, parmi les formats compatibles, Google cite deux logiciels d'Adobe : Photoshop et Illustrator. Vous pouvez profiter de ce nouveau service dès maintenant que vous soyez sur Mac, sur PC ou sur un appareil Android. En revanche, guéguerre avec Apple oblige, il faudra que les possesseurs d’iPhone et d’iPad attendent encore un peu.

01Net

Quand les capteurs adaptent la voiture aux personnes âgées
Jeudi, 03/05/2012 - 01:10

Avant même d’être vraiment incapables de conduire, les automobiliste âgés ne prennent plus le volant. La raison ? Une perte de confiance en leurs propres jugement et réflexes. C’est à partir de ce constat que l’équipe Intelligent Transport de l’université de Newcastle, menée par le professeur Phil Blythe, projette de développer une voiture bardée de technologies qui assisteraient le conducteur et faciliteraient ses manœuvres. Les chercheurs ont étudié le comportement au volant de dix-neuf personnes âgées de 60 ans et plus, en situation, sur des routes du nord-est de l’Angleterre, autour de Sunderland et Newcastle afin d’identifier les habitudes et les points sensibles dans leur manière de conduire. Ils ont pour cela utilisé une voiture équipée de capteurs, le « DriveLab » : lunettes pour repérer les mouvements oculaires, capteurs des rythmes cardiaque et respiratoire, de la température de la peau (pour détecter le stress), caméra pour repérer le positionnement de la voiture sur la voie, enregistreur de vitesse, freinage, changement de rapport…

Ces tests, conjugués à des entretiens et des séances en simulateurs de conduite, ont permis d’établir que ces conducteurs âgés n’étaient pas forcément plus lents que les autres ; au contraire, sur des zones limitées à 30 miles à l’heure (un peu moins de 50 km/h) ils s’efforcent de garder une vitesse constante, frôlant l’excès de vitesse. Autre enseignement : ils stressent à l’approche des ronds-points, quand leur route se connecte à un grand axe et n’aiment pas tourner à droite à une intersection car ils estiment mal évaluer la vitesse des voitures arrivant en face (pour rappel, les Britanniques roulent à gauche). L’équipe Intelligent Transport envisage de développer un système de navigation sur-mesure pour personnes âgées, qui proposerait par exemple des itinéraires limitant le nombre de « tourner à droite » ou évitant les routes à quatre voies. Autre pistes : une technologie de vision nocturne et l’affichage d’informations sur le pare-brise plutôt que sur le tableau de bord.

Le projet fait partie d’un programme plus vaste, appelé « Intégration sociale par l’économie numérique » mené par l’université de Newcastle. Il a pour enjeu de préserver l’autonomie des personnes âgées, notamment dans les zones rurales, et d’éviter leur isolement. Il ouvre aussi des pistes pour l’industrie en montrant comment développer des outils technologiques et multimédias accessibles aux personnes âgées ; ces dernières ne sont pas par principe réfractaires au multimédia, mais elles sont souvent rebutées par des outils qui ont été clairement conçus pour des générations plus jeunes. D’après le professeur Phil Blythe, les instruments développés par son équipe pourraient être intégrés par les industriels d’ici 5 à 10 ans.

L'Atelier

Construction du premier mégaordinateur du monde basé sur la technologie des téléphones portables
Mercredi, 02/05/2012 - 01:20

La suprématie nord américaine et asiatique en matière d'ordinateur géant pourrait être menacée par le Barcelona Supercomputing Center- Centre National de Supercalculateur (BSC-BNS). En effet, des chercheurs de l'Université Polytechnique de Catalogne (UPC) construisent ce qui sera le premier super ordinateur du monde basé sur des téléphones portables. Les super ordinateurs d'aujourd'hui utilisent la technologie des PC et mobilisent énormément d'énergie puisqu'il s'agit en fait d'un grand nombre d'ordinateurs ordinaires interconnectés entre eux. Le projet, baptisé Mont Blanc, vise à utiliser la moindre consommation énergétique des smartphones et tablettes, capables de fonctionner plusieurs heures sans être rechargés et sans produire de surchauffe, afin de construire un mégaordinateur plus économe.

Un financement de 14,5 millions d'euros sur 3 ans permettra la réalisation du projet Mont Blanc, desquelles 8,1 millions proviennent des fonds de l'Union Européenne. Les travaux de création de ce mégaordinateur énergétiquement efficient ont commencé en novembre 2011 et devraient aboutir en septembre 2014.

Actuellement, une première version constituée à partir de 128 processeurs de téléphones portables est presque prête. Une seconde version plus puissante est attendue pour cet été et une troisième phase prévue pour la fin de l'année. Le prototype final devrait être construit par une entreprise. Le résultat sera un ordinateur gigantesque de nouvelle génération, dix fois plus efficace que les super ordinateurs les plus avancés existants.

Alex Ramirez, chercheur du projet Mont Blanc, se sent fier de travailler au sein du BSC-BNS sur ce projet mais regrette que peu d'entreprises espagnoles puissent bénéficier de ces avancées. " La plus grande partie des entreprises partenaires sont étrangères et c'est à elles que nous transférons la technologie ". Et il ne le dit pas seulement par rapport au projet du nouveau super ordinateur mais de manière générale sur toutes les technologies déjà existantes au sein du BSC.

Bien que le BSC possède une technologie de pointe (El Mare Nostrum, en son temps quatrième ordinateur le plus puissant du monde aujourd'hui relégué au 299ème rang, le Mino Tauro septième mégaordinateur le plus efficient du monde), il n'y a pas de tissu industriel existant dans le secteur de l'informatique de pointe. Sans l'existence d'initiative publique comme la création du BSC, la capitale catalane n'apparaîtrait pas dans le monde de l'informatique.

Dans le cadre du projet communautaire Mont Blanc, le principal associé du BSC est l'entreprise française Bull spécialisée en supercalculateurs. Les autres membres sont les entreprises anglaise ARM et Gnodal respectivement spécialisées sur les processeurs de tablettes et sur les réseaux d'interconnexion, deux centres de supercalculateurs allemand (Juelich et Leibniz-Rechenzentrum), l'agence de supercalculateur Genci et le CNRS, tout deux français, ainsi que le consortium interuniversitaire italien Cinesa.

Bulletins Electroniques

La reconnaissance oculaire atteint un niveau presque parfait
Lundi, 30/04/2012 - 01:20

L'analyse morphologique de l'iris est l'un des moyens principaux et indispensables pour identifier une personne, tant dans le domaine criminalistique que dans celui de la sécurité. Pourtant, elle n'est pas infaillible. En effet, selon les chercheurs de l'Institut national des normes et de la technologie américain, le pourcentage de faux négatifs s'élèverait en moyenne à 1,5 %, parfois plus avec certains algorithmes. Un chiffre non négligeable lorsque l'on pense, par exemple, au risque de laisser s'échapper un criminel.

Pour en arriver à ce chiffre, les chercheurs ont testé pas moins de 95 algorithmes à la base de logiciels de lecture d'iris, issus de deux laboratoires universitaires et de neuf entreprises privées. Ils ont analysé leurs capacités d'identification en s'appuyant sur une base de données oculaires de 2,2 millions de personnes. Parmi les raisons découvertes par les chercheurs à ces faux négatifs : les anomalies de l'iris, la mauvaise qualité de l'image scannée (image mal axée, constriction de la pupille, reflet environnemental...), la mauvaise préparation ou le stockage défectueux de celle-ci (défauts de quantification ou de compression) et les erreurs de terrain (plusieurs personnes identifiées sur un même iris).

La solution à ces facteurs d'échecs de reconnaissance de l'iris ? La lecture des deux yeux simultanément. En effet, le taux de faux négatifs s'abaisse à 0,7 % lorsque l'on scanne les deux iris en même temps. De plus, les chercheurs préconisent aux contrôleurs d'iris de s'attarder un peu plus sur la manipulation des logiciels de lecture. Pour cela, il serait nécessaire de créer un protocole plus rigoureux pour encadrer l’usage de ces outils. Enfin, le rapport rappelle qu'avec une meilleure fiabilité, ces logiciels, capables de rechercher dans une base de données l'équivalent de la population américaine en seulement dix secondes, pourraient détrôner la lecture de l'empreinte digitale dans l'identification d'individus.

L'Atelier

Visitez votre futur appartement en 3D !
Samedi, 28/04/2012 - 01:00

Le spécialiste de l’immobilier neuf utilise la technologie d’expérimentation virtuelle de Dassault Systèmes pour proposer aux futurs acheteurs des visites en 3D de ses programmes. La fin de la vente sur plans ! Explorimmoneuf, spécialiste de la vente de programmes immobiliers neufs, a profité du Salon National de l’immobilier, qui se tenait à Paris début avril, pour présenter en avant-première une application de visite virtuelle en 3D des appartements qu’il commercialise. Cette visite virtuelle utilise la plate-forme d’expérience 3D basée sur le Cloud 3DVia développée par Dassault Systèmes, qui est accessible en permanence grâce à un simple navigateur web.

Explorimmoneuf souhaite en effet offrir sur son site, aux internautes à la recherche d’un logement, la possibilité de visiter leur éventuelle prochaine acquisition au sein d’un environnement interactif et immersif, conforme à la réalité. Les interactions sont multiples : on peut par exemple sélectionner le revêtement de sols de son choix ; masquer le mobilier pour une meilleure vue de l’espace ; ou encore composer sa visite en fonction de l’heure ou encore de la météo.

« Cette plate-forme est un véritable gain de temps : tout le monde pourra prochainement se projeter dans son futur logement en temps réel, sans se déplacer et sans rendez-vous. Une expérience qui pourra être partagée avec ses proches », estime Guillaume Teilhard de Chardin, Directeur d’Explorimmoneuf. Pour une immersion totale, des lunettes 3D permettent de vivre l’expérience en 3D relief dans une ambiance sonore spatialisée. Véritable projection dans son futur appartement, l’aménagement et l’ambiance pourront être choisis, parmi des propositions d’architectes d’intérieur. Pour ce lancement, Ligne Roset s’est ainsi associé à cette plate-forme en proposant l’ensemble de son expertise et son catalogue de meubles, pour une simulation authentique.

Industrie & Technologies

^ Haut
Avenir
Nanotechnologies et Robotique
Une éponge anti-pollution en nanotubes de carbone !
Mercredi, 02/05/2012 - 01:30

Les nanotubes de carbone sont décidemment prometteurs. Des chercheurs américains des Rice University et Penn State University viennent d’annoncer une nouvelle application pour ces matériaux aux propriétés physiques originales. Dans un papier publié par Science, ils décrivent la fabrication d'une éponge particulièrement efficace pour nettoyer les flaques de pétroles lors des marées noires.

Leur éponge en nanotubes de carbone est à la fois hydrophobe et lipophile. Comprendre : sa répulsion pour les molécules d’eau lui permet de flotter, et son affinité avec l’huile l’aide à capter le pétrole dans un mélange. Selon l’expérience décrite dans l'article, elle  absorbe ainsi jusqu’à 100 fois son propre poids en hydrocarbures. Mieux : une fois chargée, elle peut être débarrassée de sa récolte par combustion, et réutilisée ! Pour parvenir à cette éponge aux propriétés exceptionnelles, les chercheurs ont dû créer une structure renforcée.

Jusqu’ici, les constructions tridimensionnelles en nanotubes pêchaient en effet par leur faible cohésion. Les différentes couches de carbone, enroulées sur elles-mêmes pour former les nanotube, n'étaient pas solidement maintenues entre elles. Grâce à l’ajout d’atomes de bore lors de la synthèse des feuilles de carbone, les chercheurs sont parvenus créer de doubles-liaisons physiques, particulièrement robustes, ente les atomes.

Au delà d’une éponge anti-marées noires, le concept pourrait engendrer des membranes de filtration industrielles extrêmement performantes. La recherche sur les nanotubes de carbone ouvre également des perspectives dans des domaines aussi divers que des électrodes de batteries électriques plus efficaces, des matériaux composites robustes et légers, ou la reconstruction des tissus osseux.

Industrie & Technologies

Nature

Bouger "par la seule force de la pensée", une première mondiale à l'EPFL
Mardi, 01/05/2012 - 08:20

Le centre de neuroprothèses de l'Ecole polytechnique fédérale de Lausanne (EPFL) a présenté mardi 24 avril une première mondiale : un paraplégique a fait bouger à distance un ordinateur sur un support mobile "par la seule force de sa pensée".

Coiffé d'un bonnet équipé d'électrodes, un patient hospitalisé à Sion, à quelque 60 km de Lausanne, a envoyé mentalement une commande à un ordinateur placé devant lui, faisant ainsi bouger un deuxième ordinateur équipé d'une caméra et placé dans la salle de conférence à Lausanne.

Avec la même technologie, une personne en chaise roulante peut faire avancer son engin uniquement grâce aux impulsions électriques transmises par son cerveau. "Une fois le mouvement lancé, le cerveau peut se relâcher, sinon la personne serait rapidement épuisée", a précisé le professeur José Millan , directeur de la chaire en interfaces cerveau-machine non invasives.

Cette méthode a toutefois ses limites, les signaux transmis pouvant être facilement brouillés. Si de nombreuses personnes entourent par exemple le fauteuil roulant, ce dernier ne pourra pas être guidé de manière optimale. Enfin, d'autres chercheurs du centre de neuroprothèse de l'EPFL veulent permettre aux paraplégiques de remarcher, grâce à l'implantation d'électrodes dans la moelle épinière, une alternative à la reformation de tissus nerveux.

Selon le professeur Grégoire Courtine, directeur de la chaire en réparation de l'épine dorsale du centre de neuroprothèses, le mouvement est provoqué par stimulation électrique. Cette approche a permis d'obtenir en 2011 le premier mouvement volontaire chez un patient paraplégique américain. Le professeur Courtine est en train de mettre en place des essais cliniques en Suisse : "le but est qu'après un an d'entraînement avec une aide robotisée, le patient puisse marcher sans robot, les électrodes restant implantées à vie".  Le chercheur espère pouvoir démarrer les essais à l'hôpital universitaire zurichois de Blagrist dans un an.

EPFL

RTS

Des nano-fils plastiques intelligents
Lundi, 30/04/2012 - 01:40

Deux équipes du CNRS et de l’Université de Strasbourg ont réussi à fabriquer des fibres plastiques fortement conductrices, de quelques nanomètres d'épaisseur. Les travaux ont été révélés par la revue Nature Chemistry ce 22 avril. Ces nano-fils sont "peu coûteux à obtenir et faciles à manipuler contrairement aux nanotubes de carbone", souligne le CNRS dans un communiqué. Ils ont pour avantage d’allier les propriétés des deux matériaux utilisés à ce jour pour conduire le courant électrique : les métaux et les polymères organiques plastiques.

Cette étude fait suite à de précédents travaux publiés en 2010. A l’époque, Nicolas Giuseppone et ses collègues était parvenus à obtenir pour la première fois des nano-fils en modifiant chimiquement des molécules de synthèse utilisées dans l'industrie pour un processus de photocopie. Ils avaient observé qu'à la lumière et en solution, leurs nouvelles molécules s'empilaient spontanément de manière régulière pour former des fibres miniatures.

Les chercheurs, en collaboration avec l'équipe de Bernard Doudin, ont ensuite étudié les propriétés électriques de leurs nano-fibres. Ils ont mis les molécules en contact avec un microcircuit électronique comportant des électrodes en or séparées de 100 nm. Puis ils ont appliqué un champ électrique entre celles-ci. Ils ont constaté que sous l'action d'un flash lumineux, les fibres se construisent uniquement entre les électrodes. Autre constat important : ces structures se sont révélées capables de transporter des densités de courant supérieures à 2 106 Ampère par centimètre carré, approchant celles des fils de cuivre.

Et après toutes ces étapes, les chercheurs n’ont pas prévu d’en rester là. Ils entendent désormais démontrer que ces fibres peuvent être intégrées industriellement dans des appareils électroniques comme écrans souples, cellules solaires, transistors, nano-circuits imprimés, etc.

L'Usine Nouvelle

^ Haut
Matière
Matière et Energie
Une cellule solaire émettrice de lumière serait encore plus efficace !
Jeudi, 03/05/2012 - 01:00

Afin de produire une quantité d'énergie optimale, les cellules solaires sont généralement conçues pour absorber le maximum de lumière possible. Cependant, des chercheurs de l'Université de Californie à Berkeley ont démontré un concept paradoxal : ces cellules devraient ressembler davantage aux LEDs, à la fois capables d'émettre et d'absorber la lumière du soleil.

Depuis 1961, les scientifiques savent que, dans des conditions idéales, il y a une limite à la quantité d'énergie électrique qui pourrait être convertie à partir de la lumière du soleil frappant une cellule solaire. Théoriquement, cette limite est de 33,5 % environ. Cela signifie qu'au plus, 33,5 % de l'énergie des photons entrants seront absorbés et convertis en énergie électrique utile.

Pourtant, pendant 5 décennies, les chercheurs ont été dans l'incapacité de se rapprocher au plus près de cette efficacité : à partir de 2010, le plus haut rendement obtenu était un peu plus de 26 %. Ce taux concerne les cellules solaires à simple jonction (couche unique) qui absorbent les ondes lumineuses au-dessus d'une fréquence bien spécifique. A contrario, les cellules dit "Multi-jonctions", qui possèdent comme leur nom l'indique plusieurs couches, sont en mesure d'absorber des ondes différentes et donc d'atteindre des rendements plus élevés.

L'équipe du Professeur Yablonovitch a donc essayé de comprendre pourquoi il y avait un tel écart entre la limite théorique et celle que les chercheurs ont pu effectivement réaliser. Lorsqu'ils se sont penchés sur la question, "une image cohérente a émergé" a indiqué Owen Miller, étudiant diplômé de Berkeley et membre du projet de recherche. Ils ont trouvé une solution relativement simple, basée sur un lien mathématique entre l'absorption et l'émission de lumière. "Fondamentalement, c'est parce qu'il y a un lien thermodynamique entre l'absorption et l'émission," a précisé O. Miller. Concevoir des cellules solaires qui émettent de la lumière - de sorte que les photons ne soient pas 'perdus' dans une cellule - a pour effet naturel d'augmenter la tension produite par la cellule solaire. "Si vous avez une cellule solaire émettrice de lumière, alors elle produira également une tension plus élevée, qui à son tour augmentera la quantité d'énergie électrique provenant de la cellule pour chaque parcelle de la lumière du soleil."

La théorie qui veut que l'émission de lumière et la tension vont de pair n'est pas nouvelle. Mais l'idée n'avait jamais été prise en considération dans la conception de cellules solaires avant aujourd'hui, a reconnu O. Miller. L'année dernière, une société du nom de Devices Alta, co-fondée par Yablonovitch, a utilisé ce nouveau concept pour créer un prototype de cellule solaire en arséniure de gallium (GaAs), un matériau couramment utilisé pour fabriquer des cellules solaires spécialisées à destination des satellites.

Selon Devices Alta, le prototype a battu un record, passant de 26 % à 28,3 % d'efficacité. La société a réalisé cette étape, grâce en partie, par la conception même de la cellule permettant à la lumière de s'échapper aussi facilement de la cellule - en utilisant des techniques comprenant, par exemple, l'augmentation de la réflectivité de la face arrière, qui renvoie des photons entrants vers la face avant du dispositif.

Les cellules solaires produisent de l'électricité lorsque les photons frappent le matériau semi-conducteur de la cellule. L'énergie des photons casse les électrons libérés à partir de ce matériau, ce qui permet aux électrons de circuler librement. Mais ce processus a la capacité de générer de nouveaux photons, par le phénomène appelé luminescence. L'idée derrière la conception de cette nouvelle cellule solaire reste que ces nouveaux photons - qui ne viennent donc pas directement du Soleil - devraient être libérés de la cellule le plus facilement possible.

"La première réaction qui vient à l'esprit est : pourquoi faudrait-il aider cette évasion de photons ?" a indiqué Owen Miller. "Puisque vous ne voulez pas garder ces photons dans la cellule, peut-être qu'ils pourraient créer plus d'électrons ?" Cependant, d'un point de vue mathématique, en autorisant les nouveaux photons à se libérer, cela a pour effet d'accroître la tension électrique que la cellule est en mesure de récupérer. Le Professeur Yablonovitch espère que les chercheurs seront capables d'utiliser cette technique pour réaliser des taux d'efficacité proches de 30 % dans les années à venir.

Enerzine

Vers des cellules solaires liquides imprimables ?
Mardi, 01/05/2012 - 01:30

Les scientifiques de l'université de Californie Sud (USC) ont annoncé une voie prometteuse dans la conception de cellules solaires bon marché capables d'être utilisées sous forme d'encre liquide en peinture ou en impression sur des surfaces en verre.

Les nanocristaux 'solaires' mesurent environ 4 nanomètres - cela signifie que vous pourriez en faire tenir plus de 250.000.000.000 sur une tête d'épingle - et les faire flotter dans une solution liquide, "de sorte que, comme un journal papier, vous pourrez également imprimer des cellules solaires", a déclaré Richard L. Brutchey, professeur adjoint de chimie au Collège des Lettres, des Arts et des Sciences, à l'USC Dornsife.

R. Brutchey et David H. Webber ont développé un nouveau revêtement en nanocristal, qui est fait de semi-conducteurs en séléniure de cadmium. Leur recherche a été présentée le mois dernier dans la revue internationale de chimie inorganique "Dalton Transactions".

Les cellules solaires liquides en nanocristal sont moins coûteuses à fabriquer que celles conçues à partir de tranches de silicium monocristallin, mais demeurent par contre moins efficaces pour convertir la lumière solaire en électricité. Les deux chercheurs ont toutefois résolu un des problèmes clés dans la fabrication des cellules solaires liquides : "comment créer un liquide stable qui conduise également de l'électricité ?"

Dans le passé, les molécules organiques (ligands) étaient reliées à des nanocristaux afin de conserver une certaine stabilité et surtout de les empêcher de s'agglomérer. Ces molécules isolaient également les cristaux, ce qui rendait la chose terriblement compliquée en termes de conductivités électriques. "Cela demeurait un véritable défi dans ce domaine," a précisé le professeur R. Brutchey.

Les 2 acolytes ont donc découvert un 'ligand' synthétique qui non seulement joue un rôle dans la stabilisation des nanocristaux, mais s'applique à créer de petits ponts reliant les nanocristaux entre eux, aidant à leur tour à conduire le courant.

Dans un process à basse température, la méthode des chercheurs permettrait également d'imprimer des cellules solaires sur du plastique à la place du verre sans rencontrer le problème de fusion - ce qui donnerait un panneau solaire flexible façonnable à volonté et adaptable n'importe où.

Dans la continuité de leurs recherches, R. Brutchey a indiqué qu'il envisageait toujours de travailler sur des nanocristaux basés à partir de matériaux autres que le cadmium, qui est limité commercialement en raison de sa toxicité. "Alors que la commercialisation de cette technologie reste encore éloignée, nous voyons une possible intégration dans les prochaines générations de cellules solaires," a t-il déclaré pour conclure.

Enerzine

Intel lance les premiers processeurs gravés en 22 nm
Mardi, 01/05/2012 - 01:00

Suivant la loi de Moore (doublement du nombre de transistors sur une puce tous les 18 à 24 mois), la fabrication de puces électroniques passe, une fois encore, à une gravure plus fine. Et c’est Intel qui donne le coup d’envoi en lançant ses premiers processeurs "Ivy Bridge" gravés en 22 nm. Limitée à 14 modèles quadricoeurs destinés aux PC de milieu et haut de gamme, l’offre devrait s’étendre à des versions double cœurs et s’enrichir pour atteindre 75 puces à la fin de l’année.

La génération précédente de processeurs Sandy Bridge, introduite par Intel en 2010, bénéficie d’une gravure de 32 nm. En augmentant la densité en transistors, le passage au 22 nm booste la puissance de traitement. Mais la miniaturisation atteint aujourd’hui un niveau tel qu’elle pose de sérieux problèmes de conception. La taille des différents éléments du transistor, à la base des circuits intégrés électroniques, devient si minuscule qu’elle n’empêche plus les courants de fuites, synonymes de pertes d’énergie, d’échauffement et de baisse des performances. Ces courants de fuites augmentent de façon exponentielle à chaque étape de miniaturisation.

Pour pallier cet inconvénient, Intel combine deux innovations. La première consiste à remplacer, pour la grille du transistor, la silice par un oxyde de hafnium, un matériau à constante diélectrique six fois plus élevé, et donc capable de bloquer davantage les courants de fuite. Cette technologie de transistor "High-k" est mise en œuvre depuis la génération de processeurs gravés en 45 nm, lancée par Intel en 2008. Mais avec le passage au 22 nm, elle ne suffit plus. Aussi Intel a-t-il réinventé une nouvelle fois le transistor en lui donnant une structure 3D. Les processeurs Ivy Bridge sont les premiers circuits intégrés du marché à faire appel à cette technologie de transistor baptisée Tri-Gate.

"A elle seule, la gravure en 22 nm aurait conduit à une augmentation des performances de seulement 20 % par rapport à la génération précédente. Combinée avec la technologie Tri-Gate, elle porte le gain à 37 %. Et à performances égales, la consommation est réduite de moitié", explique-t-on chez Intel.

Le modèle haut de gamme destiné aux PC de bureau intègre 1,4 milliard de transistors sur une puce de 160 mm2 et affiche une enveloppe thermique de 77 W. Son équivalent dans la génération précédente réunit 1,14 milliard de transistors dans un circuit de 216 mm2 et présente une consommation de 95 W. La densité a donc augmenté de 65 %, mais la consommation a néanmoins été réduite de près de 20 %.

Mais le géant californien ne s’est pas contenté de miniaturiser. Il a également optimisé les fonctions de traitement graphique intégrées dans la puce. Intel annonce un gain de performance de 70 % de ce côté. Le processeur satisfait ainsi 80 à 85 % des besoins graphiques sur les PC portables, sans passer par une carte graphique. Résultat : des machines plus compactes, plus légères et moins énergivores, avec une autonomie de batterie plus longue. L’américain est le premier fabricant de semi-conducteurs au monde à réussir le passage au 22 nm. La production se déroule dans trois usines : deux aux Etats-Unis et une en Israël. IBM, AMD et autre TSMC devraient suivre en 2013.

L'Usine Nouvelle

Un catalyseur efficace pour la maîtrise de la photosynthèse artificielle
Lundi, 30/04/2012 - 01:00

Une équipe internationale emmenée par un chercheur de l'Institut Català d'Investigacio Quimica (ICIQ) a réussi à produire une enzyme permettant une oxydation rapide de l'eau. Cette découverte est une avancée capitale pour la mise en place de solutions énergétiques basées sur l'hydrogène.

La grande majorité de l'énergie disponible sur Terre provient du processus fondamental de la photosynthèse. Le monde du vivant en dépend presque entièrement et les énergies fossiles - gaz et pétrole - sont issues de la transformation de matière organique. Une solution pour résoudre les besoins énergétiques de la planète serait donc de maîtriser le phénomène de la photosynthèse et plusieurs voies de recherche sont actuellement menées dans ce sens.

L'étape première de la photosynthèse est la décomposition de la molécule d'eau en oxygène et ions hydrogène. Pour réaliser ce processus très coûteux en énergie, les plantes font appel à l'énergie lumineuse et à un catalyseur naturel dont le rôle est de favoriser et accélérer la réaction chimique. Cette réaction était la plus difficile à reproduire artificiellement. Jusqu'à maintenant.

Les travaux de recherche dans le domaine ont pour priorité de reproduire artificiellement cette réaction chimique avec un rendement au moins aussi bon que celui obtenu naturellement. Il fallait pour cela produire un catalyseur artificiel aussi efficace que le composé de manganèse et de calcium (Mn4CaO5) utilisé par les plantes. L'avantage des chercheurs sur la nature est leur possibilité d'utiliser une palette plus large d'éléments pour cette tâche.

L'équipe internationale de Antoni Llobet a produit un composé de ruthenium qui permet d'obtenir un rendement pour la réaction d'oxydation de l'eau du même niveau que celui observé dans la nature. La force d'action de ce catalyseur est 60 fois supérieure à celle des catalyseurs artificiels produits jusqu'à présent.

Cette découverte est capitale dans le développement de la filière énergétique basée sur l'hydrogène. Cette filière est basée sur un cycle commençant par la production d'hydrogène à partir de l'énergie solaire, processus similaire à la première étape de la photosynthèse. L'hydrogène est ensuite utilisé pour alimenter en énergie différents processus pour produire par exemple de l'électricité au travers de piles à combustible. Dans ces processus, le "déchet" produit est à nouveau de l'eau qui peut être réutilisée dans le premier processus. Ce cycle propre permet ainsi de stocker sous la forme chimique de molécules de dihydrogène l'énergie lumineuse sans produire de déchets.

Bulletins Electroniques

Des enzymes bactériennes qui se comportent comme une pile
Samedi, 28/04/2012 - 01:20

Une étude menée à l'Université Concordia et publiée dans le Journal of The American Chemical Society, a démontré qu'il est possible de faire passer de quelques secondes à plusieurs heures la capacité de stockage d'énergie d'une enzyme qui se comporte comme une pile.

Le professeur agrégé László Kálmán a examiné une enzyme bactérienne essentielle au captage de l'énergie solaire avec l'aide de ses collègues Sasmit Deshmukh et Kai Tang, étudiants au troisième cycle du Département de physique de Concordia (Canada). L'exposition à la lumière provoque dans cette enzyme une séparation des charges, induisant une charge négative à une extrémité et une charge positive à l'extrémité opposée, comme dans une pile.

Dans la nature, l'énergie ainsi créée est utilisée immédiatement. Le Professeur Kálmán explique cependant que, pour pouvoir emmagasiner ce potentiel électrique, ses collègues et lui devaient trouver un moyen de conserver plus longtemps l'enzyme dans cet état où les charges sont séparées. « Nous devions créer une situation dans laquelle les charges ne veulent pas, ou ne peuvent pas, retourner à leur état précédent, et c'est ce que nous avons fait dans cette étude », ajoute-t-il. Avec son équipe, le Professeur Kálmán a démontré qu'il est possible, en ajoutant différentes molécules à l'enzyme, de modifier sa forme et, ainsi, de prolonger la durée de vie de son potentiel électrique.

Dans sa configuration naturelle, l'enzyme se trouve parfaitement englobée dans l'enveloppe de la cellule, nommée membrane lipidique. La structure de l'enzyme lui permet de rapidement recombiner les charges pour revenir de cet état où les charges sont séparées. Toutefois, lorsque différentes molécules lipidiques composent la membrane de la cellule, comme dans les expériences du Professeur Kálmán, il se crée une disparité entre la forme de la membrane et celle de l'enzyme qui s'y trouve. L'enzyme et la membrane finissent toutes deux par changer de forme pour trouver un bon ajustement. Ces modifications compliquent cependant la tâche de l'enzyme, qui cherche à recombiner ses charges, et permettent ainsi au potentiel électrique de durer beaucoup plus longtemps.

« Ce que nous faisons équivaut à mettre une voiture de course sur une route couverte de neige », explique le Professeur Kálmán. Les conditions du milieu empêchent le bolide de rouler aussi vite qu'il le ferait sur une piste de course, tout comme les différents lipides empêchent l'enzyme de recombiner ses charges aussi efficacement qu'elle le ferait dans des circonstances normales.

La photosynthèse existe depuis des milliards d'années ; elle est l'un des premiers systèmes de conversion d'énergie. « Tout, qu'il s'agisse de notre nourriture ou de nos sources d'énergie comme l'essence et le charbon, est le produit d'une quelconque activité photosynthétique ancienne », poursuit le Professeur Kálmán.

Enerzine

Un électron peut parfois se briser !
Vendredi, 27/04/2012 - 06:30

Bien que l'électron soit, en théorie une particule élémentaire et à ce titre "incassable", une équipe de  physiciens allemands et suisses annoncent dans la revue Nature qu’ils ont observé la séparation d’un électron en deux entités distinctes, le spinon et l’orbiton. Il s’agit de quasiparticules dont l’existence a été théorisée depuis une quinzaine d’années.

Les électrons isolés sont des particules élémentaires qui ne peuvent pas être séparées en d’autres entités. Il en va autrement des électrons au sein d’un matériau : ils interagissent avec leur environnement et adoptent des comportements différents. Ces électrons ont trois propriétés : sa charge électrique, son spin (sa rotation qui en fait un micro-aimant), et son orbite autour du noyau atomique. Ces trois propriétés forment chacune une entité qui se propage dans une direction. Il en découle trois quasiparticules : l’orbiton, le spinon et le holon. Les deux dernières avaient déjà été observées expérimentalement il y a quelques années. C’est désormais aussi le cas de l’orbiton.

Thorsten Schmitt, de l’Institut Paul Scherrer (Suisse) et ses collègues européens ont réussi à observer la désintégration d’un électron en spinon et en orbiton dans un oxyde de cuivre (Sr2CuO3). Pour y parvenir, ils ont utilisés une source synchrotron, bombardant la surface de rayons X afin d’exciter les électrons, qui absorbent une partie de l’énergie. Ensuite, c’est en comparant la différence entre le rayonnement reçu et le rayonnement émis par le matériau que les physiciens déduisent les propriétés des nouvelles particules obtenues. Ou plutôt des quasiparticules car elles n’existent pas en dehors de ce matériau.

Sciences et Avenir

Nature

500 milliards d’euros d’énergie partent en fumée chaque année en Europe !
Vendredi, 27/04/2012 - 06:20

L’énergie perdue chaque année dans l’Union européenne s’élève à 1.000 euros par citoyen, selon les calculs de Euroheat & Power, l’association internationale des réseaux de chaleur et de froid. Celle-ci se base sur les pertes de chaleur évaluées en 2008 à 6,7 milliards de barils de pétrole, soit environ 502,5 Md€ pour 500 millions d’Européens (avec la référence de 75 € le baril).

La chaleur représente pourtant l’énergie la plus convoitée dans le monde. Selon l’Agence internationale de l’énergie (AIE), elle représente 37 % de la fourniture d’énergie, contre 21 % seulement pour l’électricité. La majeure partie de cette énergie non exploitée provient des centrales électriques, des installations de traitement des déchets, des systèmes de refroidissement des systèmes informatiques et des industries.

En France, les réseaux de chaleur sont encore peu développés. Selon l’association de promotion Via Seva, ils ne chauffent que 6 % de la population de l’Hexagone, alors que la moyenne européenne dépasse les 30 %.

Journal de l'Environnement

^ Haut
Espace
Espace et Cosmologie
La formation de la Voie lactée remise en question
Jeudi, 03/05/2012 - 01:40

Et si la formation de notre galaxie ne s'était pas passée comme nous le croyons aujourd'hui ? Les découvertes de l'astrophysicien suisse Helmut Jerjen pourraient modifier nos connaissances.

Grâce à un nouveau télescope surpuissant, les découvertes de l'astrophysicien suisse installé en Australie, Helmut Jerjen, pourraient modifier la théorie de la matière sombre et de la formation de notre galaxie.

L'astrophysicien bâlois Helmut Jerjen est à la tête d'une équipe de scientifiques des plus prestigieux centres de recherches pour mener à bien son ambitieux projet : «The Stromlo Milky Way Satellite Survey». De son site de travail au Mont Stromlo, près de la capitale de l'Australie, à Canberra, le ciel parait limpide. Pas suffisamment cependant et c'est à Siding Spring, à 600 kilomètres de là, que s'installe un tout nouveau télescope SkyMapper de 11 millions de dollars australiens (10,5 millions de francs). Il sera opérationnel dès le second semestre 2012. Ses futures découvertes devraient amener Helmut Jerjen à revoir la théorie sur la formation des galaxies naines et de la Voie lactée.

  • «Au bon moment»

«Peut-être allons-nous vers une nouvelle loi de l'attraction universelle, qui sait ! Tout est possible. Nous sommes au bon moment. La technique et la science ont atteint un niveau suffisant pour permettre de réaliser un immense progrès dans l'explication de notre monde», sourit-il modestement. Les enjeux seront prochainement détaillés dans la publication de la Société d'astronomie australienne.

Grâce à une bourse du Fonds national suisse (FNS), Helmut Jerjen s'est installé au Mont Stromlo il y a 17 ans. Il est maintenant employé par l'Université nationale australienne (ANU). Sa spécialité : l'exploration des galaxies naines invisibles.

Les galaxies naines sont formées d'amas d'étoiles quasi impossibles à identifier visuellement en raison de leur faible densité. «Elles sont enveloppées de cette matière appelée matière sombre. Cette substance particulière échappe à toute détection. Elle est encore d'une nature inconnue», se passionne le chercheur.

  • Le plus puissant de l'hémisphère sud

Les plus célèbres de ces formations de la Voie lactée visibles dans l'hémisphère sud sont le Grand et le Petit Nuages de Magellan. «La théorie prédit que notre galaxie doit contenir 1000 phénomènes de ce type. Or à ce jour, avec les moyens techniques à disposition, il n'en a été observé que 24», explique Helmut Jerjen. Son étude est la suite logique de la «Sloan Digital Sky Survey» menée dans l'hémisphère Nord par une autre équipe. Celle-ci, conduite à moindre échelle a permis de trouver 13 nouvelles galaxies naines, portant à 24 le total connu de ces phénomènes dans la Voie lactée.

Le nouveau télescope australien permettra de balayer l'espace de l'hémisphère Sud sur deux fois plus de vastitude que l'étude Sloan : «Dans sa catégorie, notre télescope est le plus puissant dans l'hémisphère Sud», souligne l'astrophysicien.

  • Théories à revoir

Plusieurs hypothèses sont envisagées par le chercheur. S'il trouve des galaxies naines dans des proportions similaires à l'étude Sloan, la théorie sur la matière sombre qui en prédisait un millier serait à revoir. Mais, théoriquement, il pourrait aussi découvrir un millier de galaxies naines dans l'hémisphère Sud, prouvant que la théorie actuelle sur la matière sombre est correcte. Il faudrait alors expliquer la raison pour laquelle il y en aurait un grand nombre dans le sud et non pas dans le nord. Une modification de la loi de la gravitation serait probable.

Tribune de Genève

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
Agreenium lance sa plate-forme d'information et de services en ligne
Mardi, 01/05/2012 - 01:20

« Agreenium portail », www.agreenium.org, a été lancé le 26 avril dernier. Ce portail web, vitrine du dispositif de recherche et de formation des membres d’Agreenium, s’adresse en priorité à la communauté scientifique et universitaire ainsi qu’aux étudiants et aux jeunes chercheurs étrangers. Il donne notamment accès à l’offre de formation en master portée par les membres, à un programme de mobilité internationale pour de jeunes chercheurs, ou encore à des ressources documentaires en ligne. La mise en place de cette plate-forme bilingue répond à la mission première d’Agreenium : renforcer la visibilité, la reconnaissance, l’attractivité et les capacités d’action à l’international du dispositif de recherche et de formation agronomique et vétérinaire français.

La plate-forme d’information et de services (PFIS) constitue à la fois un portail d’accès à des ressources et des services,  et une vitrine de présentation et de promotion des actions d’Agreenium. Elle s’appuie sur les contributions des membres et s’inscrit dans un paysage plus large de portails ressources dans les domaines de la recherche et de la formation, avec lesquels un dialogue est engagé.

Au-delà de la composante de présentation institutionnelle,  les fonctionnalités attendues et l’ambition de ce portail sont de permettre de :
• Faire valoir l’offre globale de recherche et formation
• Porter des projets communs
• Partager des ressources
• Animer et mobiliser la communauté des membres

Entièrement bilingue français-anglais, Agreenium portail constitue une première étape de la réalisation de cette plate-forme. Il est structuré en 4 grandes rubriques : institutionnelle dont actualités ; recherche et formation ; international et ressources et outils.

Cette ambition collective d’Agreenium s’appuie sur une coopération entre les membres,  l’animation de réseaux d’interlocuteurs  et l’implication de  personnels des membres comme porteurs de projets.

INRA

Tectonique des plaques : un pas en avant vers la reconstitution du passé et la prédiction de l'avenir
Dimanche, 29/04/2012 - 01:40

Nicolas Coltice et Stéphane Labrosse du Laboratoire de Géologie de Lyon (Université Claude Bernard Lyon 1/CNRS/ENS de Lyon), associés à Tobias Rolf et Paul Tackley de l'Institute of Geophysics de l'E.T.H. (Zurich, Suisse), ont mis au point un nouveau modèle de convection du manteau terrestre qui démontre l'importance du rôle des continents et devraient permettre de prévoir l'avenir de la géographie de la planète, mais aussi de reconstituer son évolution dans le passé. Ces travaux ont été publiés le 20 avril 2012 dans la revue Science.

Alors que la climatologie dispose de modèles physiques et numériques pouvant être utilisés pour la prédiction, la tectonique terrestre n'avait jusqu'à présent pas de modèle suffisamment réaliste pour prévoir les déplacements futurs des continents ou reconstituer l'évolution des fonds marins dans le passé lointain (avant 200Ma). En particulier, les modèles des mouvements de convection du manteau terrestre, basés essentiellement sur la mécanique des milieux continus, ne pouvaient pas expliquer la distribution des âges de fonds océaniques, dont dépendent les forces tectoniques, la chaleur perdue par le globe, le niveau des mers et par conséquent le climat à long terme. Dans les modèles classiques, les plaques rentrent en subduction lorsqu'elles sont suffisamment froides, c'est-à-dire suffisamment anciennes et lourdes. Or, sur Terre on observe que des plaques jeunes et chaudes ont la même probabilité de plonger dans le manteau dans une zone de subduction que les plaques anciennes.

Dans cet article, les chercheurs présentent les premiers modèles 3D sphériques qui permettent de rendre compte de ce phénomène grâce à l'introduction dans les calculs de continents simplifiés et d'un comportement mécanique permettant la formation de plaques. La combinaison de ces deux ingrédients produit une tectonique de surface suffisamment proche de la tectonique terrestre pour reproduire la distribution des âges des fonds marins. Elle permet aussi d'explorer la variabilité tectonique et d'estimer les changements de vitesse d'expansion du plancher océanique et de dérive des continents liés à la formation et la disparition de nouvelles frontières de plaques.

Depuis que la tectonique des plaques a été établie, il y a 50 ans, ce sont les premiers modèles qui font un lien aussi direct entre les mouvements profonds et les observations de surface. Il est donc maintenant envisageable d'utiliser ces modèles, à l'instar de la climatologie, pour prédire l'évolution tectonique à venir, à l'échelle de 100 millions d'années et probablement de reconstituer la tectonique des plaques à l'œuvre avant même que la Pangée n'ait été formée.

CNRS

Un gène résistant à la sécheresse : une révolution biotechnologique en Argentine
Dimanche, 29/04/2012 - 01:20

C'est dans un modeste laboratoire, en pleine région agricole argentine, que la chercheuse Raquel Chan a réussi à isoler un gène de tournesol résistant à la sécheresse et à le placer dans du soja, ce qui promet une révolution biotechnologique. L'Argentine est le deuxième exportateur mondial de maïs, le principal fournisseur international d'huile et de farine de soja et le troisième en graine de soja. Or, ces cultures se trouvent dans des régions souvent touchées par la sécheresse.

A la tête de l'Institut d'agrobiotechnologie de l'Université nationale du Litoral (UNL), Raquel Chan, 52 ans, a conduit l'équipe de chercheurs qui ont réussi à identifier le gène de HAHB-4, qui rend le tournesol résistant à la sécheresse. Une fois inoculés avec ce gène, le soja, le blé ou le maïs "augmentent énormément leur productivité", dit-elle d'une voix calme qui dissimule à peine sa passion pour la recherche.

"Pour les producteurs, augmenter leur productivité de 10 % est déjà merveilleux et cette découverte permet d'obtenir bien davantage, parfois même le double", relève la chercheuse avec fierté. "Plus l'environnement est dur et plus l'avantage de la plante transgénique est grande", poursuit-elle. Ce qui ne veut pas dire qu'elle soit apte au désert. "Elle a besoin d'un peu d'eau", dit-elle avec le sourire, en précisant que 500 mm par an suffisent.

C'est un 1993, à son retour de Strasbourg (France) où elle a obtenu son doctorat, qu'elle s'est lancé dans ce projet sur "les gènes et le milieu naturel". Cette découverte, qui devrait pouvoir être commercialisée à partir de 2015, est le fruit de près de 20 ans d'efforts. "Si nous avions voulu trouver le gène résistant à la sécheresse, nous ne l'aurions sans doute jamais trouvé", avoue-t-elle, ajoutant : "Nous y sommes parvenus presque par hasard".

Tout autour d'elle, les étagères sont remplies de revues scientifiques. Son bureau est minuscule, mais, au-delà de la vitre, on voit des jeunes chercheurs travaillant face à une grande baie vitrée avec vue sur la lagune de Setubal, près de Santa Fe, ville de 450.000 habitants, 475 km au nord de Buenos Aires. Des années durant, son équipe a inoculé en laboratoire des plantes herbacées appelées arabidopsis, dont la résistance à la sécheresse a augmenté considérablement.

Pour faire la même expérience sur du soja, du blé ou du maïs, il fallait des moyens énormes dont l'université ne disposait pas. Une convention a donc été signée avec la compagnie Bioceres, fondée par des producteurs argentins, maintenant propriétaire des droits. Cette compagnie s'est associée à son tour au groupe américain Arcadia, qui prévoit d'investir 20 millions de dollars dans la commercialisation. La découverte a été annoncée en février par la présidente Cristina Kirchner elle-même.

"L'idée n'est pas de repousser les frontières des terres cultivables", précise cette ancienne étudiante de l'université de Jérusalem, où elle s'était exilée pendant la dictature (1976-1983), aujourd'hui mère de deux garçons : l'aîné, 21 ans, qui suit déjà ses pas, et le cadet, 17 ans, qui "travaille moins". "Au contraire, dit-elle, elle permettra d'avoir la même rentabilité avec moins de terres".

Le Nouvel Observateur

Le réchauffement climatique affecte la flore des montagnes
Samedi, 28/04/2012 - 01:10

Il faudra monter de plus en plus haut pour trouver gentianes et edelweiss dans nos montagnes. L'accélération du réchauffement climatique crée en effet un stress important chez les plantes des montagnes du continent européen et les pousse à migrer vers des altitudes plus élevées, révèle une étude publiée dans la revue américaine Science. Ces travaux s'appuient sur un inventaire détaillé de la flore de 66 sommets situés entre le nord de l'Europe et la Méditerranée. Un groupe international de scientifiques, coordonné par l'Académie autrichienne des sciences et l'université de Vienne, a établi une carte de toutes les espèces de plantes se trouvant sur chacun des sites étudiés en 2001 puis en 2008.

"Nos résultats montrent un déclin des variétés de plantes sur les sites méditerranéens", explique Harald Pauli, du Global Observation Research Initiative dans les environnements alpins (Gloria), qui a coordonné ce projet. En revanche, un accroissement du nombre des espèces a été observé sur les montagnes dans le nord et le centre de l'Europe. Par ailleurs, "les disparitions d'espèces ont été les plus prononcées sur les sommets les moins élevés, où les plantes souffrent plus tôt du manque d'eau, que sur les montagnes plus élevées, qui restent plus longtemps enneigées", précise Harald Pauli.

Le réchauffement du climat et la diminution des précipitations dans la région méditerranéenne au cours des dernières décennies correspondent parfaitement à la diminution du nombre d'espèces végétales constatée.

Le phénomène risque donc de s'accentuer. Selon les projections, "la plus grande partie de la région autour de la Méditerranée va devenir encore plus sèche au cours des prochaines décennies", souligne Georg Grabherr, président du Gloria. Conséquence : "L'impact du changement climatique avec la montée des températures, combiné à la sécheresse grandissante, va probablement menacer de plus en plus la flore des montagnes de cette région sur le continent européen, mais aussi dans le reste du monde".

francetvinfo

Science

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
En 2016, les services de santé seront mobiles aux Etats-Unis
Jeudi, 03/05/2012 - 01:30

Aux Etats-Unis, la mSanté se développe rapidement et devrait permettre aux patients comme aux professionnels de santé de changer leur rapport à ce secteur. En effet, suivi du patient, diagnostic ou apprentissage sont autant de possibilités offertes par les services mobiles. Plus rapides, et moins coûteuses.

Un patient isolé ayant besoin d'un suivi régulier est-il obligé de se déplacer pour chaque visite médicale de routine ? Aujourd'hui, peut-être, mais pas forcément dans les cinq ans à venir. La solution ? La mSanté qui se développe rapidement aux Etats-Unis, à en croire l'étude sur les services de santé mobiles de Compass Intelligence. Et pour cause, ces services représentent, en 2012, 26,8 % des dépenses totales de eSanté, et la dépense devrait augmenter dans les cinq années à venir. La plus forte croissance devrait provenir des applications mobiles qui totalisent une dépense de 18,2 milliards de dollars en 2012 et devraient connaître un taux annuel de croissance de 7 % environ pour atteindre 23,7 milliards de dollars en 2016. Viennent ensuite les services et l'équipement à distance dont les dépenses, avec un taux annuel de croissance de 4,8 % environ,  devraient représenter 14,9 milliards de dollars en 2016. Suivis par la dépense en matériel informatique qui atteindra 9,5 milliards de dollars en 2016 contre 8,9 actuellement.

  • Des usages divers

L'utilisation des technologies mobiles donne lieu à différents usages en matière de santé. D'abord, ces services aident au diagnostic et au suivi du patient, notamment via la télémédecine, l'échange d'information ou la prescription par message texte. Ils permettent également de récolter des données sur l'ensemble des patients, que ce soit à l'échelle d'un professionnel ou à l'échelle nationale, permettant ainsi de créer une base de données sur les patients accessible rapidement, quel que soit le lieu. Par exemple, pour connaître ses antécédents et ses allergies lors d'une prescription ou encore pour effectuer un état des lieux de la santé publique. Enfin, de tels usages mobiles en matière de santé permettent l'éducation des professionnels de santé et des patients. En effet, les premiers y trouveront un moyen de maintenir leur niveau de connaissance via le mLearning, par exemple pour un nouveau médicament, lorsque les seconds pourront accéder à des informations, par exemple sur les gestes dans le cadre d'épidémies.

  • Quatre moteurs de croissance

Outre leur utilité, l'investissement dans ces services est le fruit de coupes budgétaires des dépenses de santé des Etats s'inscrivant dans la crise économique. Néanmoins, la croissance de la dépense dans la mSanté devrait être principalement portée par quatre facteurs. Premièrement, l'augmentation de la connectivité dans les régions éloignées aujourd'hui encore peu connectées. Ensuite, l'accès à des technologies de plus en plus robustes et moins onéreuses. Puis, l'utilisation toujours plus importante de Smartphones. Et, enfin, le besoin grandissant de solutions à distance. Quatre moteurs qui devraient non seulement développer le recours aux solutions mobiles aux Etats-Unis mais également dans les pays émergents. Néanmoins, il reste une difficulté à surmonter. En effet, ces services connaissent aujourd'hui un retour sur investissement et un financement insuffisant pour permettre le développement de start-up et de projets innovants.

L'Atelier

L'espérance de vie des hommes rattrapera celle des femmes en 2030
Mercredi, 02/05/2012 - 01:40

Les hommes britanniques rattrapent les femmes en terme de durée de vie. D'ici 2030, les courbes de leur espérance de vie devraient converger. La gent masculine, en Europe de l'Ouest, aurait une vie plus saine que dans les décennies passées.

Une inégalité homme-femme tend à disparaître en Europe et l'espérance de vie des hommes du Royaume-Uni pourrait bien égaler celle des femmes d'ici quinze à vingt ans, selon une étude du bureau des statistiques nationales britanniques. Les hommes ont ainsi gagné six ans d'espérance de vie depuis les années 90, explique le Professeur Les Mayhew, de la Cass Business School de Londres. Si rien ne bouleverse cette progression, les hommes, comme les femmes, vivront en moyenne jusqu'à 87 ans d'ici 2030, selon le statisticien.

Pour le Professeur David Leon de l'Ecole d'hygiène et de médecine tropicale de Londres, l'écart se réduit car les hommes et les femmes adoptent de plus en plus les mêmes habitudes de vie. "Le tabagisme est en chute libre chez les hommes britanniques", déclare-t-il à la BBC. Ils sont moins affectés par les maladies dues au tabac qu'autrefois. Par contre, ces maladies touchent plus les femmes, chez qui la cigarette s'est généralisée plus tard. En 2009, 18 000 cancers du poumon ont été diagnostiqués chez les Anglaises contre 8 000 en 1975.

La progression masculine est aussi favorisée par un meilleur accès à la santé. Les conditions de travail et les activités qu'ils pratiquent sont également moins périlleuses. Autrefois, les hommes avaient plus de métiers à risques alors qu'aujourd'hui, ils travaillent davantage dans des bureaux.

BBC

Réparer le cœur sans recourir à la chirurgie
Mercredi, 02/05/2012 - 01:10

Cette technique révolutionnaire, mise au point par le Professeur Cribier, est aujourd'hui pratiquée partout dans le monde. C'était il y a dix ans, le 16 avril 2002. Le Professeur Alain Cribier, cardiologue à l'hôpital Charles-Nicolle, à Rouen, réalisait une première mondiale en posant une valve cardiaque sans ouvrir le thorax. À l'époque, personne n'y croyait : seuls les patients les plus robustes étaient opérés. Les autres étaient condamnés. Dix ans plus tard, l'«implantation transcutanée de bioprothèse aortique» a permis de poser près de 50.000 valves dans le monde. Le rétrécissement aortique est une maladie redoutable dont la cause n'est pas bien connue. Il s'agit d'un épaississement fibreux et calcifié de la valve aortique, cette fine membrane qui joue le rôle de soupape et qui se situe à la sortie du cœur, entre le ventricule gauche (la pompe cardiaque) et l'aorte, le conduit artériel par où passe le sang éjecté du cœur. Une fois épaissie, cette valve ne peut plus s'ouvrir et entrave alors le passage du sang vers l'aorte.

Les conséquences sont très graves. La maladie se manifeste par un essoufflement à l'effort, des douleurs d'angine de poitrine, des vertiges ou des syncopes. «Elle évolue très lentement mais lorsque les symptômes apparaissent, huit malades sur dix meurent dans les deux ans si l'on n'agit pas», explique le Professeur Alain Cribier. Cette pathologie touche 6 % des sujets de plus de 65 ans et sa fréquence augmente très vite avec l'âge. C'est la valvulopathie la plus fréquente dans les pays développés. Il n'existe aucun traitement purement médical, la seule solution consiste à changer la valve défectueuse. Son remplacement par une valve artificielle a longtemps été une affaire de chirurgien. L'opération est lourde puisqu'elle nécessite une ouverture du thorax au niveau du sternum et une circulation extracorporelle permettant d'arrêter le cœur durant l'intervention. Elle est bien tolérée et demeure la technique de référence. Malheureusement, un tiers des patients qui ont besoin d'être opérés ne peuvent l'être en raison de leur fragilité, de leur grand âge ou de l'existence de maladies associées.

La technique percutanée développée par Alain Cribier est destinée à ces patients inopérables ou ayant un risque élevé de complications opératoires. La valve, faite de tissu animal spécialement traité pour éviter les calcifications, est mise en place à l'aide d'un cathéter introduit par l'artère fémorale ou, plus rarement, par la pointe du cœur. «C'est une vraie révolution thérapeutique qui nous a permis de résoudre le problème des patients inopérables», reconnaît, admiratif, le Docteur Thierry Lefevre, cardiologue à l'Institut cardiovasculaire Paris Sud. Aujourd'hui, 33 hôpitaux sélectionnés par le ministère de la Santé peuvent réaliser cette implantation.

Depuis 2008, 3500 patients, en moyenne âgés de 82 ans, ont été implantés mais le rythme s'accélère : il frôle actuellement le cap des 200 par mois. Il faut dire que le remboursement, obtenu il y a deux ans, en a largement facilité l'accès, même si les indications restent très encadrées. Outre la chirurgie, l'implantation transcutanée permet également d'éviter aux malades de subir une anesthésie générale. Une anesthésie locale suffit, avec une durée d'hospitalisation réduite à quelques jours, ce qui n'est évidemment pas le cas avec l'opération à cœur ouvert.

En dix ans, cette technique a d'ores et déjà sauvé des milliers de vies. Et connaît un succès croissant : «Les médecins n'hésitent plus à nous adresser des patients qu'ils pensaient inopérables, constate le Docteur Thierry Lefèvre. Depuis son apparition, ce sont 30 % de patients en plus qui sont soignés chaque année.» Enfin, l'implantation transcutanée d'une bioprothèse aortique a un autre atout : elle ne coûte pas cher. En ces périodes d'économies tous azimuts sur la santé : elle ne revient qu'à 23.000 euros, une somme très inférieure au coût d'une opération aussi lourde qu'une intervention à cœur ouvert…

Santé.Le Figaro

Un jeu vidéo pour remédier à la dépression chez l’ado
Mercredi, 02/05/2012 - 01:00

A l'encontre des préjugés et des jugements hâtifs qui stigmatisent les jeux vidéos comme étant responsables d’une certaine violence, des chercheurs néo-zélandais ont mis au point un jeu qui pourrait, en étant utilisé à bon escient, être un outil efficace pour lutter contre la dépression des ados. C’est ce que révèle une étude qui vient de paraître dans la revue British Medical.

Alors qu’en France, les experts estiment que 8 % de la population adolescente et enfantine est touchée par une dépression, plus d’un quart en serait affectée en Nouvelle-Zélande. Face à ce constat, Sally Merry et Karolina Stasiak, de l’Université d’Auckland, ont créé un jeu vidéo, baptisé Sparx et qui a pour objectif de permettre aux jeunes de développer la pensée positive.

Comme dans la plupart des RPG (Role Playing Game), le joueur crée, tout d’abord, un avatar, qui va le représenter dans l’univers fantastique qui sert de décor à Sparx. Par ailleurs, afin de mener à bien sa mission et de sortir de sa dépression, l’ado devra, au fur et à mesure des quêtes, passer par sept niveaux correspondant à des progressions importantes vers la guérison. Au premier stade du jeu, le joueur a pour principale mission de détruire les « gloomy » qui personnalisent les pensées négatives. Puis, en avançant dans le jeu, l’ado devrait interagir avec la machine et notamment dialoguer avec des êtres surnaturels. Seul un discours allant vers des pensées positives permet de passer à l’étape suivante.

Afin de vérifier l’efficacité de leur jeu, les chercheurs néo-zélandais l’ont testé sur 187 adolescents âgés de 12 à 17 ans, tous ayant montré des signes de dépression. Plus précisément, alors qu’une partie de ces jeunes patients ont, pendant 4 à 7 semaines, exploré l’univers du jeu Sparx, l’autre partie, suivait une thérapie traditionnelle comportant cinq séances avec un psychologue.

Les premiers résultats montrent que 44 % des joueurs sont sortis de leur dépression, contre seulement 26 % des ados en thérapie. Étonnant paradoxe, alors que quasiment 100 % de ces derniers étaient prêts à recommander cette méthode à leurs amis, ils n’étaient que 81 % à souhaiter proposer le jeu comme solution pour sortir de dépression.

D’après les chercheurs néo-zélandais, ces premières données sont plutôt encourageantes et montrent qu’il existe des alternatives efficaces et moins coûteuses que les thérapies traditionnelles pour sortir d’un état dépressif.

Information Hospitalière

Se parler à soi-même procurerait des avantages !
Mardi, 01/05/2012 - 01:10

Les gens qui se parlent à eux-mêmes peuvent passer pour des fous. Pourtant, cela pourrait être bénéfique dans certaines situations, notamment quand on cherche un objet. En prononçant le mot, on préparerait mieux notre cerveau à le trouver ! Le langage pourrait-il être davantage qu’un outil de communication ?

Il ne faut pas s’en cacher, nous avons tous tendance à nous parler à nous-mêmes chaque jour. Des chercheurs l’ont affirmé, et ont aussi montré qu’on le faisait à des fréquences régulières. Chez les enfants, ce phénomène a été davantage étudié, il semblerait bien qu’il les aiderait dans l’apprentissage de certaines tâches, comme lacer ses chaussures, en récitant une à une les étapes.

Mais en est-il de même chez les adultes ? Oui, si l’on en croit des scientifiques de l’université du Wisconsin-Madison qui viennent de prouver dans le Quarterly Journal of Experimental Psychology que la parole autodirigée pouvait permettre de retrouver plus rapidement un objet qu’on recherchait, comme lorsqu’on perd ses clés. Au-delà de cet aspect pratique, c’est la fonction du langage qu’il faudrait peut-être reconsidérer, car il pourrait être plus qu’un outil de communication.

  • Se parler pour mieux préparer son cerveau

L’idée leur est venue de Gary Lupyan lui-même, l’un des deux auteurs de ce travail. Il confesse se parler à lui-même à haute voix lorsqu’il essaie de trouver un objet particulier. C’est ce qui lui a inspiré un protocole expérimental pour comprendre ce qui le poussait à agir ainsi.

Dans une première expérience, une vingtaine d’images représentants autant d’items (avion, maison, télévision, tabouret…) ont été diffusées à 24 volontaires, à qui on avait demandé de se focaliser sur un seul d’entre eux. La moitié des sujets devaient répéter à haute voix l’objet qu’ils cherchaient, la seconde restait silencieuse. Finalement, ceux qui se parlaient mettaient ente 50 et 100 ms de moins pour repérer leur item que les autres.

Dans une deuxième expérience, il s’agissait de plonger les volontaires dans les rayons d’un supermarché virtuel, toujours à l’aide de photographies. Une fois encore, il leur fallait retrouver un produit en particulier le plus vite possible. Lorsqu’ils recherchaient un objet de consommation courante, dont la forme et la couleur était connue, là encore, ceux qui parlaient à haute voix étaient plus rapides. Cependant, les résultats s’inversaient quand il fallait retrouver un produit très peu usité.

De cela, les chercheurs concluent que le langage va au-delà de la seule communication, et qu’il prépare également le cerveau à mieux discerner certains éléments de l’environnement. Leur souhait serait maintenant de réitérer l’expérience en pratiquant simultanément des scanners cérébraux pour visualiser les régions qui s’activent lorsque l’on parle à haute voix.

Futura Sciences

Autisme : de nouveaux gènes impliqués dans le risque de développer la maladie
Lundi, 30/04/2012 - 01:30

Une équipe de chercheurs de l’hôpital Brigham and Women, du Massachusetts General Hospital, de la Harvard Medical School, et du Broad Institute a étudié les anomalies chromosomiques et leur déséquilibre, en cas de trouble du spectre autistique. Ils ont pu montré que des anomalies dans les échanges génétiques et que 22 nouveaux gènes peuvent contribuer au développement ou augmenter le risque d'autisme ou de troubles du développement neurologique anormal.

Lorsque chromosomes se répliquent, expliquent les chercheurs, il se produit un échange de matériel génétique dans un chromosome ou entre deux ou plusieurs chromosomes, sans perte importante de matériel génétique. Cet échange, connu sous le nom d’anomalie chromosomique équilibrée (balanced chromosomal abnormality- BCA), peut entraîner des réarrangements dans le code génétique.

Ces chercheurs constatent qu'en raison de ces réarrangements, cet échange implique un réservoir de perturbations dans le code capable de conduire à l'autisme et à d'autres troubles du développement neurologique. Par ailleurs, ils ont pu identifier, au cours de leur recherche, 22 nouveaux gènes à l’origine de risque d'autisme ou d’autres troubles neurologiques.

L’étude, menée dans le cadre du Developmental Genome Anatomy Project (DGAP) a utilisé les techniques de séquençage sur BCA pour révéler ces gènes puis montrer que ces gènes, au moment des échanges de matériel génétique, sont liés à l'autisme. Les chercheurs ont découvert que le code génétique peut être perturbé à différents sites (loci) distincts, dans différents groupes de gènes, dont certains déjà soupçonnés d'être impliqués dans un neurodéveloppement anormal.

« Cette étape d’échange ou BCA offre une occasion unique d'identifier un gène et de valider sa responsabilité » commente le Professeur Cynthia Morton, directeur de la cytogénétique à l’hôpital Brigham and Women, et chercheur principal du Developmental Genome Anatomy Project.

Cell

Des machines qui « sentent » le danger
Lundi, 30/04/2012 - 01:00

On le savait depuis quelques années déjà : des chiens peuvent détecter des cancers du poumon, rien qu’en humant l’haleine du malade. Mais cette « méthode » se heurtait à une certaine réticence du corps médical : deux équipes de chercheurs ont récemment démontré qu’un nez artificiel permettait de faire ce diagnostic de façon très sûre. Plus généralement, l’étude des compétences olfactives des animaux est une voie de recherche très prometteuse dans de nombreux domaines.

Mis au point par l’entreprise Metabolomx, une start-up californienne, le nez artificiel détecte la présence de cancer avec des taux de succès élevés, après en avoir identifié la signature chimique, c’est-à-dire la présence de certaines molécules dans l’air expiré (le toluène, par exemple). Une autre équipe, celle du Professeur Hossam Haik (Techion, Israël) a développé le Na-Nose avec des résultats également encourageants. Les avantages de cette méthode sont remarquables dans la mesure où ils permettent d’éviter des examens pénibles et parfois dangereux ou coûteux (biopsie, radiologie, etc.).

La détection d’éléments chimiques présents dans l’air est un enjeu vital pour beaucoup d’espèces vivantes. Les acacias d’Afrique du Sud, par exemple, dégagent de l’éthylène quand ils sont broutés par les antilopes : ce signal chimique est transmis par le vent aux arbres voisins, ce qui déclenche la production de tanins qui déplaisent aux antilopes ! Ce type de défense naturelle est très étudié dans la mesure où il pourrait permettre de lutter contre des prédateurs, surtout des insectes, sans employer de pesticides.

Concernant l’homme et sa sécurité, l’olfaction et la détection de substances chimiques dans l’air apparaissent comme un immense champ de recherche. Au niveau européen, le projet BOND (Bioelectronic Olfactory Neuron Device) vise à produire des « nez électroniques » performants. Pour exemple en France, les recherches menées par le laboratoire de Biologie de l'Olfaction et Biosenseurs (BOB) de l’INRA ou Biotox de l’Institut National de Recherche et de Sécurité pour la surveillance des expositions à des substances chimiques de l’environnement de travail (biométrologie).

Les applications utiles ou nécessaires semblent innombrables et vont de la sécurité alimentaire (présence de bactéries, de toxines...), à la sécurité des personnes (présence de gaz toxiques, allergènes...), sans oublier la sécurité civile (explosifs, drogues, bioterrorisme...). Finalement très utiles, les nez électroniques pourraient se greffer bientôt sur nos téléphones mobiles.

INRIA

Vers un nouveau vaccin sans injection pour protéger les bébés
Dimanche, 29/04/2012 - 01:30

Des chercheurs de l'Université de Saskatchewan (UofS) se rapprochent de la mise au point d'un vaccin sans aiguille contre le virus respiratoire syncytial (RSV), une cause majeure de maladie chez l'enfant de moins de 2 ans.

Sylvia Van den Hurk, professeur de microbiologie et d'immunologie au collège de médecine à UofS et chercheur au laboratoire VIDO-InterVac (Vaccine and Infectious Disease Organization-International Vaccine Centre), a développé un vaccin prometteur contre le RSV, s'appuyant sur des essais cliniques de deux ans. "C'est l'une des infections respiratoires les plus importantes chez les jeunes enfants. Et il n'y a pas de vaccin", dit Van den Hurk.

Pour la plupart des enfants, l'infection au RSV signifie des écoulements de nez, une toux sèche, un mal de gorge, une faible fièvre et un léger mal de tête. Chez les jeunes enfants, le virus peut causer une pneumonie ou une bronchiolite, avec une toux sévère, beaucoup de fièvre et de la difficulté à respirer. Lorsque les enfants ont accès aux soins, en particulier à l'apport supplémentaire d'oxygène par respirateur, le pronostic est généralement favorable. Dans le cas contraire, c'est un réel problème. "Dans certains pays en développement, et dans certaines régions au nord du Canada, beaucoup de bébés en meurent", précise Van den Hurk.

Cela pourrait bientôt changer. Van den Hurk et son équipe ont découvert que le vaccin candidat marche bien sur les souris et les rats. L'équipe vient de recevoir une gratification de 740.000 CAD$ du CIHR (Canadian Institutes of Health Research) pour s'attaquer aux étapes suivantes. Le vaccin est délivré par le nez. "Le challenge est de vacciner pendant que les anticorps (de la mère) circulent, car ces anticorps peuvent inactiver le virus et protéger de l'infection, mais également inactiver le vaccin. Il faut développer le vaccin pour éviter cela", dit Van de Hurk.

Le sang du bébé est rempli d'anticorps de la mère acquis pendant la grossesse et la mise au sein. Ces anticorps reconnaissent le vaccin comme une menace et l'éliminent avant que le système immunitaire propre du bébé ne puisse réagir. En évitant l'utilisation d'une aiguille, le vaccin concentre la réponse immunitaire dans les membranes muqueuses du nez et des poumons (là où le virus attaque) avant que les anticorps de la mère présents dans le sang ne puissent désactiver ce vaccin.

Ce vaccin inclut une protéine de la surface du RSV. Cette protéine est une molécule décodeuse qui permet au virus d'obtenir la clé d'entrée à l'intérieur de la cellule pour détourner son fonctionnement, et développer l'infection. Depuis que cette protéine a été découverte à la surface du virus, elle est considérée comme candidate de premier plan pour l'amorçage par le système immunitaire de la création d'anticorps.

Bulletins Electroniques

Un traitement expérimental réduit les troubles de l'autisme chez des souris
Dimanche, 29/04/2012 - 01:10

Des chercheurs américains dirigés par Jill Silverman du National Institute of Mental Health, aux États-Unis, viennent d'expérimenter les effets d'une nouvelle molécule sur une lignée spécifique de souris présentant un comportement clairement autistique. Ils ont constaté que cette molécule agissant sur l'action du glutamate dans le cerveau, par le biais du récepteur mGlurR5, permettrait de réduire deux des principaux symptômes de l'autisme chez la souris : le comportement répétitif et le manque de sociabilité.

Cette molécule appelée GRN-529, mise au point par le groupe pharmaceutique américain Pfizer, cible le glutamate, le principal neurotransmetteur présent dans tout le cerveau et qui joue un rôle clé pour activer les neurones, les cellules cérébrales. Les chercheurs pensent que cette molécule agit sur un récepteur spécifique du glutamate et réduit son action sur les neurones.

La molécule fait actuellement l'objet d'un essai clinique avec des patients souffrant du syndrome de l'X fragile, première cause de retard mental héréditaire qui présente certaines similitudes avec les troubles du spectre autistique. Le fait que cette molécule a déjà été testée dans un essai clinique pour des symptômes dont certains sont similaires à ceux de l'autisme augmente les chances qu'elle pourrait aussi agir sur ces troubles.

"Les résultats de ces expérimentations sur des souris laissent penser qu'il est possible d'envisager une stratégie consistant au développement d'un seul traitement pour traiter de multiples symptômes", explique Jacqueline Crawley de l'Institut national américain de la santé mentale (NIMH). "Un grand nombre de cas d'autisme est provoqué par des mutations dans les gènes qui contrôlent des processus en cours de développement comme la formation et la maturité des synapses qui relient les neurones entre eux", poursuit-elle. "Si les défauts dans ces branchements entre les neurones ne sont pas structurels, les principaux troubles autistiques pourraient être traités avec des médicaments", juge cette scientifique.

Pour le Docteur Thomas Insel, directeur du NIMH, "ces résultats avec des souris confortent les études menées à l'Institut en vue de développer des traitements visant les principaux symptômes de l'autisme". Comme les enfants autistes, les souris de l'expérience, modifiées génétiquement pour présenter des symptômes similaires, communiquaient moins entre elles et avaient des comportements répétitifs passant beaucoup de temps à se toiletter elles-mêmes. Ce type de comportements étaient moindres chez les souris traitées avec des injections de GRN-529.

Le nombre de cas d'autisme est en nette augmentation aux Etats-Unis depuis la dernière décennie, un sur 88 en moyenne, contre un sur 110 précédemment, un phénomène qui s'explique en partie par un meilleur dépistage.

Science Translational Medicine du 25-04-2012

ScienceDaily

Des cellules souches capables de régénérer l'intestin
Dimanche, 29/04/2012 - 01:00

Pour la première fois, une équipe de scientifiques japonais de la Tokyo Medical and Dental University, a réussi à reconstituer une zone d'un intestin de souris endommagé, à partir de cellules souches intestinales adultes. Une expérience qui a fait l'objet d'une publication dans la revue Nature Medicine.

Pour réussir cette régénération, l'équipe a commencé par isoler une seule cellule intestinale chez une souris adulte saine. Cette cellule a été mise en culture, après une semaine, elle s'est multipliée au point d'obtenir un million de cellules reproduisant l'architecture du petit intestin et ses propriétés biologiques. L'ensemble de ces cellules ont été transplantées dans l'intestin endommagé d'une souris. Cette transplantation a permis d'obtenir, au bout d'un mois, un renouvellement complet de la muqueuse intestinale.

Selon les chercheurs, l'utilisation de cellules souches adultes représente une alternative d'avenir car cela permet de s'affranchir des questions d'éthique soulevées par l'exploitation des cellules souches embryonnaires.

Cette nouvelle technique pourrait un jour permettre de traiter certaines maladies inflammatoires des intestins, comme la maladie de Crohn. Mais il faudra encore de nombreuses années aux chercheurs et plusieurs études avant que cette expérience soit transposable à l'homme.

Allodocteurs

Manger moins tout en ayant l'impression de manger plus
Samedi, 28/04/2012 - 01:40

Des chercheurs japonais de l'Université de Tokyo ont trouvé un moyen révolutionnaire pour aider les gens à maigrir : en ayant recours à la réalité augmentée, il suffit de faire croire que les quantités de nourriture sont plus importantes qu'elles ne le sont réellement pour transmettre une sensation de satiété au cerveau.

Les scientifiques ont développé un dispositif de traitement d'image qui agrandit virtuellement la taille du morceau de nourriture lorsqu'on le prend dans une assiette et qu'on le met dans la bouche. L'appareil en question est une paire de lunettes spéciales dotée de caméras connectées à un ordinateur qui altère les images, a expliqué l'un des chercheurs, Takuji Narumi, dans un entretien avec Relaxnews.

L'ordinateur est capable d'augmenter la taille de la nourriture de l'ordre de 50 % ou la diminuer de 33 %. Pour parfaire l'illusion, le traitement d'image ne change pas la taille de la main qui manipule la nourriture. «En changeant la taille de la nourriture pour la faire apparaître plus grande, les participants ont consommé environ 10 % de nourriture en moins sur une journée», selon Takuji Narumi. Cela fonctionne «parce que le cerveau accorde davantage d'importance aux informations visuelles qu'aux signaux émis par l'estomac ou d'autres capteurs internes de l'organisme», précise-t-il.

Dans un test sous surveillance, les scientifiques ont demandé aux sujets de leur étude de manger des biscuits jusqu'à ce qu'ils se sentent rassasiés. Les personnes équipées des lunettes spéciales, qui augmentaient virtuellement la taille des cookies de 50 %, ont consommé en moyenne 9,3 % de biscuits en moins que celles qui en étaient dépourvu. En revanche, lorsque le dispositif était réglé de façon à faire diminuer virtuellement la taille des biscuits de 33 %, les sujets en ont consommé 15 % de plus en moyenne.

L'équipe de cinq chercheurs travaille sur ce projet depuis six mois mais n'a pas l'intention pour l'instant de passer au stade de sa commercialisation.

Cyberpresse

La géométrie du cerveau est-elle à angle droit ?
Samedi, 28/04/2012 - 01:30

Le cerveau, cet inconnu. Alors que chacun sait qu’il est le siège de notre intelligence, il reste difficile de se figurer comment cet organe à l’apparence molle et informe fonctionne et recouvre son rôle si complexe. Les réponses les plus parlantes nous viennent de l’imagerie cérébrale, dont les progrès techniques ne cessent d’accélérer. La dernière découverte en date, publiée sur Science le 30 mars, fournit un album d’images haut en couleurs de la partie interne du cerveau, la substance blanche, constituée des fibres neuronales, ou axones, qui relient les différentes aires cérébrales. Les images révèlent une organisation étonnement simple, comme celle d’une grille tridimensionnelle incurvée, autant chez l’homme que chez les quatre espèces de primates étudiés.

L’équipe de chercheurs, dirigée par Van J. Wedeen au département de radiologie du Massachussets General Hospital (Boston) a obtenu des images très détaillées du cerveau humain, ainsi que de macaque, de ouistiti, de galago et de singe hibou, en les analysant par petits cubes de 2 millimètres de côté et de 0,5 millimètres dans le cas des primates. Pour ce faire, ils ont utilisé une technique qu’ils avaient mis au point en 2005, appelée IRM du Spectre de diffusion (DSI), qui est une variante de l’IRM du Tenseur de diffusion (DTI), inventée vingt ans plus tôt par le Docteur Denis Le Bihan et couramment utilisée pour diagnostiquer les accidents vasculaires cérébraux.

La DSI et la DTI reposent toutes deux sur l’analyse de la diffusion des molécules d’eau à travers les tissus cérébraux. « La diffusion est favorisée le long des fibres neuronales et freinée dans les autres directions. Il est donc possible, grâce à la DTI, de visualiser l’orientation de ces fibres, point par point dans le cerveau, explique Denis Le Bihan, aujourd’hui directeur du centre de recherche en imagerie Neurospin. Nous avons été parmi les premiers à montrer les connexions intracérébrales, par d’extraordinaires images en couleur et en trois dimensions, dès 1998 », affirme-t-il. Cette application n’est donc pas une nouveauté absolue.

Mais la DSI est plus efficace pour identifier les fibres qui se croisent, qui font l’objet de cette étude. Elle a ainsi permis à Van J. Wedeen et ses collègues de déterminer le « voisinage » de chaque fibre cérébrale, c’est-à-dire l’ensemble des fibres qui la coupent et celles qui coupent ces dernières. Ensuite, par des élaborations mathématiques sophistiquées, les chercheurs ont obtenu une cartographie des connexions cérébrales. À leur grand étonnement, que ce soit chez l’homme ou les primates étudiés, le plan d’organisation s’est avéré le même : des fibres qui s’enchevêtrent perpendiculairement comme la chaîne et la trame d’un tissu, formant des couches superposées dans les trois dimensions, et incurvées le long des plis du cerveau.

Pour expliquer cette structure en angles droits tout à fait inattendue, les auteurs avancent qu’elle est en effet la plus logique que la sélection naturelle ait pu forger, car elle facilite les reconfigurations des connexions cérébrales. De plus, elle fournit un schéma d’orientation aux fibres en cours de développement dans le cerveau de l’embryon. Si cette découverte est validée, cette grille tridimensionnelle pourrait servir de base pour construire une cartographie du cerveau, ce qui permettrait de localiser précisément n’importe quelle structure chez n’importe quel individu.

La Recherche

Une prise de sang pour diagnostiquer la dépression ?
Vendredi, 27/04/2012 - 06:10

Selon une étude américaine, publiée dans la revue Translational Psychiatry, une simple prise de sang pourrait diagnostiquer une dépression grâce à la détection des marqueurs biologiques de cette maladie.

Les chercheurs ont prélevé le sang de 14 adolescents, âgés de 15 à 19 ans, souffrant d'une dépression majeure et de 14 autres en bonne santé mentale. Ils ont focalisé leur recherches sur 26 gènes, dont ils avaient auparavant démontré sur des rats qu'ils étaient caractéristiques d'états dépressifs sévères. La comparaison des échantillons des deux groupes a permis de déceler 11 "gènes de la dépression". "Ces 11 gènes ne sont probablement que le haut de l'iceberg car la dépression est une maladie complexe, mais cela indique clairement que nous pouvons créer un test sanguin de diagnostic pour la dépression", affirme l'auteur de l'étude Eva Redei, psychiatre à la Northwestern University à Chicago.

La dépression est à l'heure actuelle diagnostiquée sur des critères subjectifs, évalués par un psychiatre. Or, selon Alain Braconnier, psychanalyste français, "le diagnostic de la dépression chez les adolescents est compliqué par le fait qu'elle peut se cacher derrière des troubles bien plus variés que chez l'adulte, allant des difficultés scolaires à des fugues en passant par la prise de drogues", explique-t-il dans le quotidien.

Mais ce test sanguin ne pourrait pas remplacer l'examen clinique, selon le spécialiste. Il permettrait en revanche d'appliquer un traitement mieux adapté au patient.

Translational Psychiatry

Découverte d’un interrupteur moléculaire du glucose
Vendredi, 27/04/2012 - 06:00

Des chercheurs du Salk Institute viennent de découvrir un interrupteur du glucose dans le foie, une paire de molécules qui régule la production de glucose. Ces résultats publiés dans l’édition du 8 avril de la revue  Nature, qui laissent envisager comme possible le contrôle de l'activité de ces deux molécules, pourraient ouvrir une nouvelle voie pour contrôler et diminuer la glycémie et donc traiter le diabète de type II. Leur technique expérimentale vient de faire ses preuves sur des souris diabétiques.

Les scientifiques de l'Institut Salk, avec des collègues de l'Université de Columbia, de l'Université de Californie à San Diego et de l'Université d'Ottawa expliquent que si l’on peut contrôler ces commutateurs, on peut contrôler la production de glucose, soit le « cœur du problème » du diabète de type 2. Mais, pour développer de nouveaux traitements efficaces du diabète, les chercheurs ont besoin de comprendre la biologie complexe et délicate du métabolisme humain ainsi que les troubles qui se développent lorsque ce système finement réglé est déséquilibré. Pendant la journée, nous « brûlons » du glucose, rappellent ces chercheurs, dérivé de la nourriture que nous absorbons. C'est le carburant qui alimente nos muscles et les autres parties du corps qui dépensent de l’énergie. La nuit, quand nous dormons, nous revenons à la graisse stockée comme notre source d'énergie la plus fiable, une énergie qui se libère lentement.

Mais certaines parties du corps, notamment le cerveau, ont toujours besoin de glucose comme source d'énergie, même quand nous jeûnons. Les cellules des îlots pancréatiques contrôlent cet équilibre énergétique. Situés dans le pancréas, ils produisent du glucagon, une hormone libérée au cours du jeûne, qui demande au foie de fabriquer du glucose pour le cerveau. Ce processus est inversé lorsque nous mangeons, les îlots pancréatiques fabriquent alors de l'insuline qui indique au foie d'arrêter de produire du glucose. Glucagon et insuline font partie d'un système de maintien de la glycémie à un niveau stable.

Le Professeur Montminy du Salk travaille, depuis des années, sur les commutateurs centraux de la production de glucose dans le foie et d'autres interrupteurs qui contrôlent la détection du glucose et la production d'insuline dans le pancréas. Une de ses principales conclusions est que le glucagon ou hormone du jeûne est contrôlé par un interrupteur génétique (CRTC2) qui contrôle la production de glucose dans le sang. Lorsque l'insuline augmente dans le sang, l'activité de CRTC2 est inhibée, et le foie produit moins de glucose. « Mais chez les diabétiques, le commutateur CRTC2 est mis en marche trop fortement parce que le signal d'insuline ne passe pas», explique le Docteur Montminy. Donc le foie produit trop de glucose et le niveau de glucose dans le sang est trop élevé. Sur une période de 10 à 20 ans, l'élévation anormale de glucose conduit à des complications chroniques comme les maladies cardiaques, la cécité et l'insuffisance rénale.

Son étude identifie un système de relais qui explique comment le glucagon active l'interrupteur CRTC2 pendant le jeûne, et comment ce système est corrompu au cours du diabète. Ce système de relais implique un récepteur moléculaire (IP3) à l'extérieur des cellules du foie qui ouvre le robinet pendant le jeûn, ce qui permet une augmentation du calcium, puis stimule une molécule, la calcineurine, qui active à son tour CRTC2, qui permet au  foie de produire plus de glucose.

Le récepteur IP3 et la calcineurine pilotent en quelque sorte le commutateur CRTC2 et, en les ciblant, il serait possible d'abaisser la glycémie chez les patients diabétiques de type II. Lorsque les chercheurs utilisent ces composés sur les cellules hépatiques ou sur des souris diabétiques, ils parviennent à abaisser la glycémie.

Santé Log

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top