RTFlash

RTFLASH Recherche & Technologie
NUMERO 632
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 29 Décembre 2011
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
L'art de perdre ses amis sur Facebook
Internet en tête pour la recherche d'entreprises locales
Avenir
L’armée des robots marins débarque !
Biométrie, télépathie...IBM voit le futur en 4D
Le plus petit commutateur moléculaire du monde
Microsystèmes : une source d'énergie à base de nanoparticules et d'ADN
Le robot Babyloid lutte contre la dépression des personnes âgées
Un robot en matériau mou
Matière
L’énergie photovoltaïque annonce la couleur
Une nouvelle famille de plastiques façonnables comme du verre
De la fibre de verre pour compter les atomes
Accord de licence entre le CEA-List et Saphymo sur une technologie innovante de détection radiologique
Première mondiale : un test de silicium sans contact
L'EPFL crée de l'or inrayable
Espace
Découverte de deux exoplanètes d'une taille comparable à la Terre
La Nasa fabrique un harpon à comète
Terre
Stonehenge : l'origine des pierres bleues enfin connue...
Le lien entre forêts et précipitations mieux compris
L'Europe présente sa feuille de route pour l'énergie à l'horizon 2050
Vivant
Cancer : immortaliser les cellules cancéreuses pour personnaliser le traitement
L'EyeBrain Tracker utilisé dans un essai clinique sur la maladie de Parkinson
Un mécanisme de reprogrammation des neurones élucidé
Vous dormez beaucoup : c'est génétique !
Une nouvelle molécule pourrait empêcher la progression de la maladie d’Alzheimer
Manger moins préserve la jeunesse du cerveau
Schizophrénie : lorsque l'expérience acquise ne sert pas les interactions sociales
Vers une détection précoce du cancer du foie
Mieux détecter le cancer de la prostate grâce à la génétique
Une nouvelle voie pour bloquer le cancer
Se faire mal fait moins mal
L'autisme : une maladie complexe mais mieux comprise
Vers des antalgiques moins nocifs et plus efficaces
Recherche
Investissements d’avenir : 2 projets dans le Rhône pour 6,7 millions d’euros
Quel avenir pour la voiture électrique ?
Edito
Vœux 2012 : pourquoi tant de pessimisme ?



Le réseau mondial de Gallup international vient de réaliser une vaste étude auprès de 51 pays pour mesurer leur optimisme face à l'avenir.

Dans cette étude, les Français se révèlent être le peuple le plus pessimiste du monde entier. Nous somme les derniers, je dis bien les derniers, non seulement dans le domaine des anticipations économiques mais, pire encore, les inquiétudes des Français dans tous les domaines qui jouent sur leur moral ont fait un bond de 20 % en une seule année !

Jamais depuis 1978, date de la première enquête Gallup sur ce sujet, le moral des Français n'avait été aussi bas… Les Français se disent être plus pessimistes que les Irakiens ou les Nigérians qui pourtant, chaque jour, pleurent des morts dans des attentats.

Certes, les temps ne sont pas faciles. Le chômage ne fait que croître, de plus en plus de personnes n'arrivent plus à joindre les deux bouts et voient avec appréhension les fins de mois arriver.

Une telle crise, même si elle est particulièrement grave, ne peut pas expliquer à elle seule le profond pessimisme de nos concitoyens.

Une autre question taraude depuis 20 à 30 ans un nombre de plus en plus important de Français. Nos enfants seront-ils plus heureux que nous ? Depuis une quinzaine d'années, les Français sont de plus en plus nombreux à répondre NON. Ils représentent maintenant une très large majorité parmi nos concitoyens.

C'est là que se trouve le principal échec de la Politique en France (que ce soit à Droite ou à Gauche) depuis 30 ans et qu'il faut chercher la raison profonde du pessimisme actuel des Français.

Certes, il est compréhensible qu'ils éprouvent des craintes dans la tempête que nous abordons et qui pourrait même se transformer en ouragan. Cela va secouer, c'est indubitable ! Mais que diable, depuis plus de 20 siècles notre Peuple a su traverser des crises tout aussi graves, sinon plus graves et il en est ressorti toujours plus fort.

Non, la véritable raison qui peut expliquer le profond pessimisme actuel des Français ne se trouve pas dans la crise que nous abordons mais bien dans l'impression qu'ils ont d'entrer dans un long déclin qui ferait que nos enfants et petits-enfants seraient beaucoup moins heureux que nous.

Or, chers lecteurs de RTFlash, vous qui êtes assidus et lisez chaque semaine notre Lettre depuis 1998, vous savez qu'il n'en est rien, tout au contraire.

Semaine après semaine, nous vous faisons parvenir des nouvelles qui ne peuvent apporter que le bonheur tant elles annoncent des découvertes, des innovations qui vont changer le destin de l'humanité et ce, dans des délais qui sont maintenant très courts.

Dans mon édito de la semaine dernière, je vous faisais le point sur des avancées foudroyantes dans le domaine du cancer. C'est un mal qui a endeuillé tant de familles et qui va bientôt céder sous les coups de bélier que lui assène quotidiennement la communauté mondiale de chercheurs dorénavant totalement interconnectés, dont l'efficacité croît à grande vitesse.

Toujours dans le domaine de la santé, souvenez-vous comment nous parlions du sida il y a seulement 15 ans et comment nous en parlons aujourd'hui !

Dans tous les domaines de la connaissance, les progrès sont stupéfiants. N'oubliez pas, je vous l'écrivais déjà en 1999, que l'ensemble des connaissances qui déterminent l'avenir de l'Humanité et de la planète Terre doublent tous les 10 ans. Ceci signifie que nous avons acquis depuis 1999 plus de connaissances qu'on en avait acquis depuis l'origine des temps jusqu'à la fin du XXe siècle !

La vie de chacun s'allonge en moyenne d'un trimestre par an (Edito du 18/11/2011). La Terre en 2050 aura la capacité de nourrir les 9 milliards d'êtres humains qu'elle abritera alors (Edito du 07/10/2011).

Dans le domaine essentiel de l'énergie, les travaux de recherche actuellement conduit dans de nombreux laboratoires du monde entier renforcent notre conviction que dans des temps très courts maintenant, notre civilisation va entrer dans une ère nouvelle : celle de l'Hydrogène.

Cet hydrogène ne sera produit qu'avec des éléments naturels : l’eau, le soleil, le vent, la mer, la biomasse qui sont à la disposition de l'Homme depuis des millions d'années.

Grâce à cet amoncellement productif de connaissances dont le volume croît de manière exponentielle, la vie de tous les êtres humains, et non seulement celle de quelques privilégiés, va être profondément bouleversée dans ces toutes prochaines décennies.

Non seulement la vie de chacun va croître dans sa durée mais surtout la qualité de la vie de chacun, et ce jusqu'à un âge très avancé, va être très profondément améliorée.

Ainsi, le robot sous toutes ses formes (depuis le nanomètre) va venir aider l'homme dans toutes ses tâches physiques (dans une première phase), et il sera si peu cher qu’il pourra même remplacer le travail clandestin de centaines de milliers d'enfants qui, aujourd'hui encore, fabriquent des objets les plus courants des consommateurs des pays développés.

Le robot sera si spécialisé et va évoluer d'une telle manière que la vieillesse ne sera plus regardée avec une telle hantise par de nombreux êtres humains.

Le pari audacieux lancé par tous les grands constructeurs automobiles depuis quelques années avec la montée en puissance de tous les process automatiques fera que, dans moins de deux décennies, nous n'aurons plus à déplorer un seul mort causé par l'automobile.

Comme je l'annonçais dès 1999 (Edito du 18/09/1999) la voiture sera entièrement automatique (dans les agglomérations) et ne sera plus alors qu'un lieu de travail ou de loisirs. Les milliards d'heures stériles passées actuellement, dans notre seul pays, dans les embouteillages chaque année se transformeront en temps de créativité, de réflexion et d’acquisition de savoirs. Imaginons un instant le booster économique incroyable qu'apportera à notre économie cette seule innovation !

Même le travail de chacun va être profondément bouleversé dans ces toutes prochaines décennies. Tous les « enrichisseurs de signes » qui seront nettement majoritaires parmi tous les métiers alors exercés en France pourront remplir leur mission, quel que soit l'endroit où ils se trouveront, et ce, à n'importe quel moment de la journée.

Mais une des révolutions des plus essentielles qui s'annoncent est celle du virtuel. Comme je vous l'écrivais déjà le 11 novembre 1999 (Edito : Les mondes virtuels : la drogue du 21e siècle), notre cerveau qui ne possède que cinq sens de première intention (la vue, l'ouïe, l'odorat, le goût et le toucher) pour communiquer avec l'extérieur sera bientôt « trompé » car il ne pourra plus distinguer le réel du virtuel.

C'est là que devrait se concentrer l'attention de nos contemporains et non pas sur le cours de la bourse, tant les ruptures avec notre vision actuelle de la vie seront nombreuses.

Des capacités nouvelles, encore insoupçonnées jusqu'à ce jour, seront alors apportées aux êtres humains par ces mondes virtuels, et ce sans que l'argent ne soit un facteur discriminant comme il l’est depuis de nombreux siècles. Comme l'annonçait déjà Toffler à la fin des années 1980, le « pouvoir par l'argent » devra s'effacer devant le « pouvoir par le savoir ».

Les capacités d'ubiquité totale qu'apporteront ces mondes virtuels feront que l'homme pourra enfin sortir de son enveloppe charnelle pour voguer dans des lieux où il ne se trouvera pas physiquement. Bien que n'étant pas réellement sur les lieux où il se rendra ainsi virtuellement (visite touristique, conférence, spectacle, etc.…), le cerveau sera totalement trompé et donnera à son propriétaire l'impression qu'il se trouve réellement et « physiquement » dans ces lieux virtuels.

Jamais dans l'histoire de l'Homme, il n'y a eu un tel capital de connaissances qui rendent crédibles de tels bouleversements pour l'avenir de l'humanité.

Indubitablement, la communauté de l'Internet est porteuse des plus grands espoirs pour l'humanité. Voyez comment ces communautés Internet sont à l'origine des principales révolutions qui, actuellement, secouent les mondes les plus fermés qui hier encore étaient totalement inaccessibles. 2011 avec le printemps arabe, la Syrie, la Russie et demain la Chine et l'Iran met en évidence qu'avec Internet notre planète entre dans une nouvelle ère.

Cela est vrai aussi pour la communauté de l'Internet en France. Dans toutes les rencontres que je fais avec des acteurs de la toile, je ne ressens pas ce pessimisme qui, actuellement, taraude notre société.

Certes, soyons vigilants et préparons-nous à affronter l'ouragan car cela va secouer. Mais, à l'aube de cette année nouvelle, je vous présente mes vœux en vous demandant de ne pas vous laisser envahir par le pessimisme ambiant mais en étant tout au contraire convaincus qu'avec la croissance sidérante des connaissances acquises par l'humanité, nous pouvons affirmer, aujourd'hui, que tout se met en place pour que le bonheur de nos enfants et petits-enfants soit bien plus grand encore que le nôtre.

Au lieu de toujours parler des dettes de nos états, de la mauvaise santé de nos banques, de la fragilité de notre monnaie (l’argent n’a nulle autre valeur que celle que l’Homme veut bien lui donner…), sachons positiver en prenant conscience que jamais l'avenir n'a été aussi radieux pour l'Homme.

Je vous souhaite une bonne année 2012.

René TRÉGOUET

Sénateur honoraire

Fondateur du groupe de prospective du Sénat 


TIC
Information et Communication
L'art de perdre ses amis sur Facebook
Mardi, 27/12/2011 - 14:58

Si vous avez remarqué que le nombre de vos amis sur les réseaux sociaux comme Facebook, Twitter or Google+ a diminué, c'est peut-être à cause de vos commentaires insultants ou déprimants, selon une étude publiée le 19 décembre par NM Incite (une propriété Nielsen McKinsey).

Les commentaires insultants constituent la raison principale qui pousse les membres des réseaux sociaux à abandonner leurs amis (pour 55 % des personnes interrogées). Les femmes sont plus faciles à choquer avec des propos déplacés, tandis que les hommes n'aiment pas les «amis» qui cherchent à leur vendre quelque chose. Parmi les autres raisons invoquées pour se débarrasser de ses amis : le fait de ne pas bien les connaître (41 %), la publication de commentaires déprimants (23 %), le manque d'interaction (20 %) et les commentaires politiques (14 %).

«Les règles de bienséance sur Facebook jouent également un rôle là-dedans», explique NM Incite. «Certains membres peuvent vous en tenir rigueur si vous changez trop souvent ou pas assez souvent de statut, ou si vous avez trop d'amis.»

La meilleure façon d'augmenter votre nombre d'amis sur Facebook est de sortir pour rencontrer des gens dans la vraie vie. Pour 82 % des membres de Facebook, la raison principale qui les pousse à ajouter des amis à leur compte est qu'ils les connaissent. D'autres ont évoqué la présence d'une connaissance en commun, d'un réseau professionnel ou de critères physiques qui les attirent.

D'après l'étude, le membre lambda de Facebook a 130 amis en moyenne. Une autre étude publiée le 19 décembre dans la revue Proceedings of the National Academy of Sciences, portant sur l'activité d'étudiants sur Facebook sur une période de quatre ans, montre que «les étudiants qui partagent certains goûts musicaux ou cinématographiques, mais pas littéraires, ont beaucoup plus de chances de devenir amis (sur Facebook)».

Les raisons principales pour lesquelles on se débarrasse de nos amis sur Facebook, selon NM Incite :

  • Commentaires insultants – 55 %
  • Je ne le/la connais pas bien – 41 %
  • Il/elle essaie de me vendre quelque chose – 39 %
  • Commentaires déprimants – 23 %
  • Manque d'interaction – 20 %
  • Commentaires politiques – 14 %
  • Séparation / divorce – 11 %
  • Je n'aime pas ses amis – 8 %
  • Il/elle met trop souvent son profil à jour – 6 %
  • Il/elle ajoute trop d'amis – 6 %
  • Il/elle ne met pas son profil à jour suffisamment souvent – 3 %

Cyberpresse

Internet en tête pour la recherche d'entreprises locales
Dimanche, 25/12/2011 - 00:40

C'est sur les moteurs de recherche, les sites spécialisés et les réseaux sociaux que la plupart des gens cherchent les spécialités locales. Les restaurants, bars, clubs et autres commerces font tous l'objet de recherches sur Internet et sur les autres plates-formes.

Les gens font confiance à Internet, et spécialement aux moteurs de recherche, pour trouver l'information sur les entreprises locales, loin devant les autres sources d'information. Les journaux, version papier ou web, viennent en deuxième position juste devant le bouche à oreille, qui occupe également une place importante. Une étude récente de Pew Research a montré, non seulement, comment les gens cherchent où aller et où dépenser leur argent dans les environs, mais aussi, leur profil démographique.

  • Internet est plus populaire que les médias traditionnels

A la recherche de restaurants, bars ou clubs, plus de la moitié des participants (51 %) font appel à Internet. Les moteurs de recherche s'adjugent 38 % de l'ensemble des demandes, les sites Web spécialisés 17 %, et 3 % des participants utilisent les réseaux sociaux ou Twitter. Moins d'un tiers utilisent les journaux : 26 % une copie papier et 5 % passent par le site Web du journal. Près d'un quart font confiance au bouche-à-oreille et 8 % préfèrent les émissions de TV locale ou le site Internet des chaînes. La recherche d'entreprises locales se base encore plus sur les sites de recherche, sites spécialisés ou réseaux sociaux : 60 % des adultes utilisent ces canaux. 30 % utilisent les journaux, 22 % le bouche-à-oreille, 8 %, encore une fois, la TV et 5 % font confiance à la radio locale.

  • Les entreprises doivent cette tendance aux « local business-goers »

Selon l'enquête, les local business-goers forment un groupe diversifié mais leur niveau d'éducation est légèrement supérieur à la moyenne. Ceux qui cherchent l'information sur les restaurants et autres entreprises locales gagnent plus d'argent et ont un niveau d'éducation relativement élevé. 55 % des adultes à la recherche de restaurants, bars ou clubs sont plus susceptibles d'être des femmes, de jeunes adultes, citadins et technophiles. 60 % de ceux qui recherchent d'autres types de commerces locaux sont plutôt de grands adeptes des nouvelles technologies. Outre cet aspect démographique, 47 % des adultes ont obtenu l'information locale en utilisant leur téléphone portable. Les accrocs aux informations locales affichent un meilleur taux de résultat : ceux qui ont utilisé au moins six plates-formes différentes pour rassembler l'information avaient beaucoup plus de chances de trouver l'information sur les entreprises locales.

L'Atelier

^ Haut
Avenir
Nanotechnologies et Robotique
L’armée des robots marins débarque !
Jeudi, 29/12/2011 - 00:30

James Gosling veut mettre en réseau tous les océans du monde. Il est en train de créer une gigantesque flottille de robots capables de se déplacer sur les océans et de récupérer toutes sortes de données, des conditions climatiques à la présence d’hydrocarbures. A terme, ces données pourraient permettre de réduire considérablement les coûts des activités liées à la mer. Si le projet semble pour le moins ambitieux, il faut rappeler que James Gosling n’est autre que l’inventeur du Java, l’un des langages informatiques les plus utilisés au monde, et souligner que la société pour laquelle il travaille, Liquid Robotics, a investi un budget de 40 millions de dollars (30 millions d’euros) dans la mission océanographique.

Cette entreprise de la Silicon Valley produit le Wave Glider, un robot marin de la taille d’une planche de surf. Doté d’un système de propulsion utilisant le mouvement des vagues et équipé de deux panneaux solaires pour alimenter ses circuits, le Wave Glider traverse lentement les océans en enregistrant des données. Celles-ci sont d’abord stockées dans des puces électroniques à basse consommation, puis transmises par satellite ou téléphone portable à de puissants ordinateurs pour être analysées.

“Ce n’est vraiment pas facile de faire fonctionner un ordinateur au beau milieu de l’océan, mais c’est bien tout l’intérêt”, s’enthousiasme Gosling, responsable logiciel chez Liquid Robotics. “Les océans recouvrent les trois quarts de notre planète, et pourtant ils restent un mystère.”

L’entreprise espère pouvoir lancer des dizaines de milliers de robots marins capables d’opérer en réseau. Equipés de capteurs et de systèmes informatiques leur permettant de se diriger sur les océans, ils pourraient servir dans le cadre d’études s’étalant sur plusieurs années. Liquid Robotics a déjà vendu des Wave Gliders à l’agence américaine chargée de l’étude des océans et de l’atmosphère National Oceanic and Atmospheric Administration (NOAA) pour un montant de plus de 100 000 dollars. Depuis 2009, l’entreprise a fabriqué près de soixante-dix robots, la plupart destinés à l’industrie pétrolière et aux scientifiques spécialistes des milieux marins. Elle en produit une quarantaine tous les trois mois.

D’autres sociétés, par exemple iRobot (société de robotique du Massachusetts, connue notamment pour ses robots aspirateurs Roomba), fabriquent également des robots marins équipés de capteurs (comme le Seaglider), mais ceux-ci servent davantage à réaliser des travaux sous-marins et ne sont pas destinés à fonctionner en réseau. Lorsque les Wave Gliders communiquent entre eux, ils peuvent appeler d’autres robots à les rejoindre pour accomplir une mission : mesurer l’étendue d’une marée noire ou d’une poussée d’algues, identifier certains courants marins pour alerter les bateaux, qui feront ainsi des économies de carburant, explique Gosling.

Pour cela, les robots devront également être capables de naviguer de manière autonome. Actuellement, les robots sont pilotés par groupes de dix ou quinze depuis la terre, une méthode que Gosling juge primitive. “Ce sont des outils qui datent de l’âge de pierre, souligne-t-il. Si un robot rencontre un bateau, il doit être capable de déguerpir tout seul.”

Il y a toutefois d’autres risques. Un robot a par exemple été attaqué par un requin et a perdu un capteur. Il a néanmoins réussi à revenir à sa base. En novembre, l’entreprise a lancé une grande campagne de sensibilisation en mettant à l’eau quatre robots pour une traversée du Pacifique. Deux robots mettront le cap sur Tokyo, les deux autres sur Sydney. Liquid Robotics mettra les données qu’ils collecteront à la disposition des internautes et récompensera celui qui en proposera l’utilisation la plus innovante.

Courrier International

Biométrie, télépathie...IBM voit le futur en 4D
Jeudi, 29/12/2011 - 00:10

Quelles seront les technologies qui révolutionneront notre futur ? Chaque année, IBM publie les cinq domaines de recherche sur lesquels ses équipes sont mobilisés. Certaines des prédictions formulées par le passé se sont réalisées ou sont en passe de l'être, comme Siri ou le paiement par téléphone. Pour d'autres, nous sommes toujours loin du compte : en 2006, IBM annonçait par exemple l'arrivée d'Internet en 3D.

Alors, laquelle de ces cinq prédictions a-t-elle une chance de se réaliser ?

- Produisez votre propre énergie : quand vous courez ou pédalez, vous produisez de l'énergie. Une énergie qui pourrait être collectée et stockée dans des batteries et utilisée pour faire fonctionner des appareils électroniques.

- La fin des mots de passe : peu fiables, ils pourraient être remplacés par la biométrie. Que ce soit pour retirer de l'argent ou débloquer votre téléphone, la reconnaissance faciale, rétinienne et vocale existe mais n'est pas encore au point. Elle est notamment utilisée par la version 4 d'Android, mais ne fait notamment pas la différence entre un visage et une photo.

- Réfléchissez, votre téléphone écoute : "Tiens, il faut que j'appelle maman"... Combien de fois cette pensée n'est-elle pas suivie d'effet ? Et si, à l'avenir, votre téléphone comprenait instantanément vos intentions et les traduisait lui même en acte ? Contrôler une machine par la pensée existe déjà : grâce aux électrodes, on a déjà réussi à contrôler un fauteuil roulant ou déplacer le curseur d'une souris.

- Demain, tous branchés ? : Rendre l'accès à l'information universel grâce aux téléphones portables. Un phénomène déjà en cours mais qui devrait s’accélérer : "Dans 5 ans, 80 % de la population mondiale possèdera un terminal mobile", explique IBM.

- Le perfectionnement des algorithmes de suggestions : Si le marketing se targue de connaître vos goûts et de pouvoir cibler vos centres d'intérêt, force est d'admettre qu'il n'y arrive pas encore très bien. Dans le futur, les algorithmes de suggestion (si vous aimez ceci, vous devriez aimer cela) devraient se perfectionner. IBM donne l'exemple d'un concert : Votre groupe préféré se produit dans votre ville. A l'ouverture des réservations, vous recevrez une alerte vous proposant d'acheter un billet en fonction des soirées encore libres dans votre agenda.

Atlantico

Le plus petit commutateur moléculaire du monde
Mercredi, 28/12/2011 - 00:30

Une équipe de physiciens de l’Université Technique de Munich (TUM pour Technical University of Munich) vient de mettre au point le plus petit commutateur moléculaire du monde. Le Docteur Willi Auwärter et le professeur Johannes Barth aidés d’autres physiciens, ont présenté leurs travaux dans la revue scientifique Nature Nanotechnology. L’échelle est nanométrique et précisément le coeur du nano-commutateur mesure moins d’un demi nanomètre. Il occupe une surface d’un nanomètre carré. Il a été réalisé en plaçant deux protons dans un anneau constitué d’une molécule de porphyrine. Lorsqu’un proton est retiré, le second peut alors changer d’état parmi quatre possibles.

Ainsi, le nano-commutateur permet de déplacer un unique proton d’une à quatre positions à la vitesse de 500 changements d’états par seconde (ie fréquence de 500 Hertz). Knud Seufert parle d’expériences d’importance significative : « Faire fonctionner un interrupteur à quatre états par déplacement d’un seul proton dans une molécule est vraiment fascinant et représente une véritable avancée dans les nanotechnologies.»

Un tel élément constitue un composant de base dans le domaine des nanotechnologies et les chercheurs trouveront les applications possibles qui devraient se multiplier. Sans verser dans la science-fiction, de tels systèmes moléculaires pourraient faire le lien entre la biologie et le Silicium (application de séquençage d’ADN par exemple). Car si les circuits intégrés actuels sont déjà à l’échelle du nanomètre, il s’agit ici d’un composant sub nanométrique à même donc d’interagir à l’échelle moléculaire. L’expérience démontre la commutation au niveau moléculaire. Toutefois, s’il n’y a aucune application pratique immédiate, « appuyer sur un bouton à quatre reprises, en déplaçant un seul proton dans une molécule est », comme le souligne Knud Seufert du TUM, « un vrai pas vers les technologies à l’échelle nanométrique.»

Silicon

Microsystèmes : une source d'énergie à base de nanoparticules et d'ADN
Mercredi, 28/12/2011 - 00:10

Si l'idée d'associer de l'aluminium et de l'oxyde de cuivre pour produire de l'énergie n'est pas nouvelle, en revanche celle de recourir à des brins d'ADN pour les marier l'est. Rappelons que deux brins d'ADN complémentaires s'auto-assemblent sous la forme d'une double hélice et restent solidement collés. D'où l'idée des chercheurs toulousains du Laboratoire d'Analyse et d'Architecture des Systèmes (CNRS), en collaboration avec le Centre interuniversitaire de recherche et d'ingénierie des matériaux (Université de Toulouse 3/INP Toulouse/CNRS), d'utiliser ces propriétés "collantes" de l'ADN pour concevoir un matériau compact et solide qui s'enflamme spontanément une fois chauffé à 410°C.

Pour y parvenir, les chercheurs ont commencé par greffer séparément des brins d'ADN sur des billes nanoscopiques d'aluminium et d'oxyde de cuivre, puis ont mélangé ensemble les deux types de particules coiffées de brins d'ADN. Les brins complémentaires de chaque type de nanoparticules se sont alors liés, transformant ainsi la poudre d'aluminium et d'oxyde de cuivre originelle en ce matériau composite qui, outre une faible température d'initiation de combustion, offre aussi l'avantage d'une haute densité énergétique, semblable à celle de la nitroglycérine, ce qui en fait un combustible de choix pour les nano-satellites.

Rappelons que ce nouveau type de satellite de quelques kilos qui commencent à peupler l'espace ne peuvent être équipés d'un mode de propulsion conventionnel. Or quelques centaines de grammes de ce composite à base de nanoparticules et d'ADN à leur bord produiraient suffisamment d'énergie pour corriger leur trajectoire ou leur orientation. Sur Terre, les applications de ce composite sont nombreuses ; il pourrait servir notamment de source d'énergie d'appoint pour des microsystèmes.

Bulletins Electroniques

Le robot Babyloid lutte contre la dépression des personnes âgées
Mardi, 27/12/2011 - 00:30

Pour les soulager dans leurs tâches pénibles, dangereuses ou inintéressantes, les japonais font entrer les robots dans leur quotidien. Babyloid, bébé robot qui se comporte comme un bébé a été conçu pour lutter contre la dépression qui guette les personnes âgées souffrant de solitude. Nous avions déjà parlé sur le site d'Aladom de Yotaro, le bébé robot créé pour redonner envie aux japonais de faire des enfants dans un pays à la démographie en berne. Voici son petit frère Babyloid. Un autre bébé robot à fonction thérapeutique dont l'objectif est de lutter contre la dépression des personnes âgées isolées en rompant leur solitude.

En France, quand on cherche à lutter contre l'isolement des anciens, on pense accueil de jour dans des structures, rencontre entre des enfants et des papis mamies pour du soutien scolaire etc. Tout au plus la technologie est-elle envisagée comme lien entre la personne âgée et d'autres personnes de chair et de sang. Cela ne veut pas dire que les japonais ne font pas la même chose, mais Babyloid va plus loin. Tout en douceur et en câlins, Babyloid remplit son rôle. Cette fois, on n'est plus dans une relation entre hommes, mais bien dans une relation homme-machine, cette dernière se substituant à l'humain pour des seniors moins seuls et plus épanouis. A l'instar de Yotaro, Babyloid reproduit le comportement d'un vrai bébé, il sourit, pleure et s'endort quand on le berce.

Le bébé robot peut émettre une centaine de sons différents, enregistrés par son créateur auprès de son propre bébé. Testé en situation réelle auprès des pensionnaires d'une maison de retraite ; ceux-ci manifestent l'envie de cajoler Bablyloid à raison de 90 minutes par jour. Selon les observations, le bébé robot aurait sensiblement contribué à soulager les symptômes de la dépression chez les personnes âgées auxquelles il a été confié.

Dans l'immédiat, le prototype est très onéreux, environ 2 millions de yens (autour de 19.500 €), mais à terme, son créateur, le professeur Masayoshi Kanoh espère réussir à le commercialiser aux environs de 100.00 yens (195 euros) quand il sera produit à plus grande échelle. Si vous lisez le japonais, Babyloid est présenté par son papa sur son site internet.

aladom

Un robot en matériau mou
Mardi, 27/12/2011 - 00:10

Des chercheurs de l’université d’Harvard ont construit un robot flexible qui peut ramper, changer sa démarche, et s’écrase afin de se glisser sous des obstacles. Ce nouveau dispositif est décrit par l’équipe qui la construit dans les Proceedings of the National Academy of Sciences. Il a été conçu pour pallier les inconvénients des robots équipés de pièces métalliques ou rigides souvent lourds et coûteux et dont le répertoire de mouvements est limité, ce qui les rend difficilement exploitables dans des environnements hostiles.

Pour surmonter ces limitations, les chercheurs ont construit un prototype de robot flexible composé de polymères élastiques et fonctionnant à l’air comprimé. Sa structure est directement inspirée par certains invertébrés comme les calamars ou les étoiles de mer. Chacune des « pattes » du robot est contrôlée indépendamment des autres à l’aide d’une série de canaux à air comprimé. Selon les auteurs, sa plasticité lui  permet de se déplacer sur un parcours accidenté inaccessible aux autres robots.

En combinant un design simple et des mouvements complexes, les robots en matériaux mous sont adaptés à une large variété d’applications écrivent les chercheurs. Ils sont également plus résistants à certains types de dommages mécaniques mais en revanche sont sensibles aux accidents de type « crevaison ». Leur enveloppe molle peut en effet être altérée par des débris de verre ou autres épines.

Sciences et Avenir

Harvard

^ Haut
Matière
Matière et Energie
L’énergie photovoltaïque annonce la couleur
Mercredi, 28/12/2011 - 00:20

La production d’électricité photovoltaïque pourrait trouver de nouveaux développements grâce à la réalisation de panneaux solaires à colorants, moins coûteux, moins polluants… mais aussi moins performants que la technologie silicium actuellement utilisée. Les chercheurs de l’Institut UTINAM de l’université de Franche-Comté ont mis au point de nouveaux colorants aux performances inédites. De tels résultats augurent de perspectives prometteuses pour améliorer le rendement de conversion de l’énergie lumineuse en énergie électrique grâce aux cellules solaires à colorants.

Rendement et efficacité sont les mots d’ordre guidant les recherches sur les cellules solaires à colorants. Deux nouvelles molécules sont ainsi nées des recherches menées au département Matériaux et surfaces structurés de l’Institut UTINAM. Testées dans des conditions réelles d’exploitation, ces molécules colorées ne laissent aucun doute quant à leur performance, et constituent une piste sérieuse pour développer le type de structure moléculaire le plus à même d’améliorer l’efficacité des cellules dont elles sont un composant essentiel.

Actuellement, les cellules solaires sont pour la majorité composées de silicium, matériau semi-conducteur assurant à lui seul la capture et la transformation du rayonnement solaire en électricité. Son rendement de conversion est de l’ordre de 15 %. Cependant, cette technologie impose le recours à du silicium d’une pureté quasi absolue, générant des traitements extrêmement coûteux et polluants. Pour pallier ces défauts de taille, les scientifiques étudient la possibilité de développer des technologies de substitution liées à d’autres matériaux.

Les cellules solaires à colorants ont été inventées voilà tout juste vingt ans par Michaël Graëtzel, à l’école polytechnique fédérale de Lausanne (EPFL). Très succinctement, le principe repose sur la combinaison de deux éléments : du dioxide de titane et un colorant, jouant chacun un rôle spécifique. Sous l’action de l’énergie lumineuse, les électrons de la molécule colorée passent d’un état fondamental à un état excité. Les électrons sont alors éjectés vers le dioxide de titane, ce déplacement générant de l’électricité. Depuis cette découverte, les chercheurs n’ont de cesse d’améliorer le rendement des cellules, atteignant aujourd’hui jusqu’à 8 % grâce au colorant Black Dye, la référence en la matière, mais dont la synthèse s’avère très complexe et polluante.

Issus d’une combinaison de ruthénium et de terpyridine, les deux colorants mis au point sur les paillasses de l’Institut UTINAM affichent des rendements de 4,5 à 5,5 %, parfois supérieurs à ceux du Black Dye placé dans les mêmes conditions d’observation. Les mesures sont effectuées par la société suisse SOLARONIX qui, depuis juillet dernier, effectue des tests de comparaison pour éprouver les nouveaux matériaux mis au point par le laboratoire. De telles performances sont supérieures aux résultats obtenus ces dernières années par les scientifiques, ne dépassant guère 1 %, et valent à l’équipe comtoise une reconnaissance internationale dans le domaine des cellules solaires à colorants.

Université de Franche-Comté

Une nouvelle famille de plastiques façonnables comme du verre
Mardi, 27/12/2011 - 00:00

Il aura fallu deux ans et demi de travaux à l'équipe de Ludwik Leibler, du laboratoire CNRS-Ecole supérieure de physique et de chimie industrielles de Paris pour mettre au point une famille inédite de matériaux qui allie les avantages des polymères et du verre : les vitrimères. Pour comprendre la dernière prouesse de cette équipe qui accumule les inventions de matériaux comme le caoutchouc auto-cicatrisant en 2008, il faut rappeler qu'il existe en gros deux types de polymères synthétiques : les thermoplastiques (polyéthylène des emballages, bouteilles ; PVC...), façonnables à chaud et recyclables, et les résines thermodurcissables qui servent en particulier à fabriquer des matériaux composites (à base d'époxy pour l'aéronautique, les bateaux ; de polyesters...), résistants, stables même à haute température, insolubles mais fabriqués une fois pour toutes, à chaud, ni façonnables, ni recyclables.

« Notre objectif était de concevoir une résine façonnable à chaud, recyclable, résume Ludwik Leibler. Pour cela, nous nous sommes inspirés du verre, dont la structure est un réseau tridimensionnel figé, à l'instar des résines. Il tire son incroyable capacité à être travaillé à chaud de ce qui reste un mystère de la physique, sa transition vitreuse : la plage de température très large dans laquelle le matériau passe lentement d'un état visqueux à un état vitreux. » Les chercheurs ont eu l'idée géniale de concevoir une résine qui ait une transition vitreuse comme le verre. Une première. Restait à imaginer la microstructure ad hoc.

Le réseau moléculaire des résines est composé de chaînes de polymères liées entre elles. Ces liens se forment lors de la fabrication de la pièce (ce qui donne au matériau sa résistance). Il fallait donc trouver une solution pour que les liens puissent se réorganiser à chaud de façon réversible, sans se rompre et qu'à température ambiante, ils s'immobilisent et figent la forme de la pièce. L'équipe de Ludwik Leibler privilégiant une chimie simple et robuste, adaptée à des produits utilisables en grande quantité, a choisi la résine époxy. A écouter le chercheur, la suite est une simple affaire de chimie de l'époxy avec une réaction classique de transestérification et des catalyseurs, des composants courants et économiques.

Le résultat est étonnant : le vitrimère est un polymère léger, résistant, durable et insoluble comme les résines thermodurcissables mais façonnable, recyclable, soudable et réparable comme les thermoplastiques ou le verre. Autrement dit, un matériau organique, léger et quasiment incassable que l'on peut travailler à chaud comme du verre. Autre originalité, selon la composition choisie, à température ambiante, il ressemble à des solides durs comme les résines ou à des solides élastiques, mous comme le caoutchouc. Son utilisation dans des matériaux composites est en cours de test. Quatre brevets ont été déposés par le CNRS et Arkema, qui a financé les doctorants. Les travaux ont été publiés dans la revue 'Science' du 18 novembre.

Les Echos

De la fibre de verre pour compter les atomes
Lundi, 26/12/2011 - 00:30

L'utilisation des fibres optiques en physique dépasse le cadre de la simple transmission de données : l'Institut atomique s'en sert en effet pour coupler des atomes à la lumière - et c'est actuellement le seul laboratoire de recherche au monde à réaliser cette performance. Cette technique doit notamment permettre la détection de substances à des quantités infimes.

Les chercheurs utilisent des fibres de verre particulièrement fines - quelque 500 nanomètres d'épaisseur, à comparer avec la longueur d'onde de la lumière visible, comprise entre 400 et 800 nanomètres. Ainsi, les ondes lumineuses sont sensibles à la présence d'atomes situés à proximité - mais à l'extérieur - de la fibre. La première étape préalable à la détection d'atomes est donc de piéger ces derniers de façon à ce qu'ils soient alignés de part et d'autre de la fibre. L'onde lumineuse subséquemment envoyée est modifiée par chacun de ces atomes ; par conséquent, une mesure précise des changements subis par la lumière au cours de son trajet à travers la fibre permet de compter le nombre d'atomes piégés. En effet, la présence des atomes ralentit légèrement les ondes lumineuses qui oscillent dans leur direction. Une autre onde lumineuse, polarisée dans une autre direction, ne rencontrera pas les atomes et ne sera donc pas ralentie. La différence de phase entre ces deux ondes permet alors de déterminer combien d'atomes a rencontré l'onde ralentie.

Cette méthode permet de compter les atomes avec une précision de l'ordre d'une dizaine ou d'une vingtaine d'unités, sur un nombre total de quelques centaines ou quelques milliers, piégés à une distance de moins d'un micromètre de la fibre. Les scientifiques travaillent déjà sur des améliorations techniques : par exemple, si la distance entre les atomes piégés et la fibre est réduite, la précision de l'opération de comptage peut potentiellement atteindre un seul atome.

Les applications pratiques concernent bien sûr de nouveaux types de détecteurs, mais aussi la recherche en physique quantique : ces fibres de verre rendent par exemple possible le contrôle d'états quantiques, sans pour autant les détruire. De nouvelles possibilités technologiques peuvent également être ouvertes par cette avancée.

Bulletins Electroniques

Accord de licence entre le CEA-List et Saphymo sur une technologie innovante de détection radiologique
Samedi, 24/12/2011 - 00:40

L’institut CEA-List et la société SAPHYMO annoncent l’industrialisation d’une nouvelle génération de portique de détection radiologique (neutrons et gamma). Cet accord marque une nouvelle étape dans la collaboration de longue date entre le CEA-List et SAPHYMO.

  • Des portiques pour la sécurité

De nombreux secteurs économiques utilisent des radionucléides naturels ou artificiels dans leur activité, produisant des déchets potentiellement radioactifs. Les sites concernés sont très divers : hôpitaux, centres de recherche, centres de traitement, de tri et de transfert de déchets, aciéries, etc. Ils s’équipent donc de portiques de détection permettant de vérifier l’innocuité des matériaux sortants. Ces portiques sont également utilisés dans le domaine de la sécurité, notamment pour les contrôles aux frontières.

L’entreprise Saphymo, leader européen avec plus de 1 000 portiques installés, souhaite développer une nouvelle génération de portiques de détection neutrons-gamma afin de répondre aux contraintes de performance et de coûts du marché.

  • Des technologies innovantes

Au sein du projet MA-NRBC, réalisé dans le cadre du pôle de compétitivité Systematic Paris-Région et piloté par Saphymo, l’institut CEA-List a proposé une technologie innovante de détection, basée sur un système d’analyse numérique original.

Point clef de l’innovation, l’institut CEA-List a développé de nouveaux algorithmes de traitement du signal : plus performants, ils permettent de discriminer les neutrons et les rayons gamma à partir d’un unique scintillateur plastique, peu coûteux. De plus, la numérisation à haute fréquence (1GHz) du signal permet un enregistrement particulièrement fidèle de l’information physique contenue dans le signal et son exploitation par les algorithmes.

  • Un partenariat pour la compétitivité

Convaincue de l’avantage concurrentiel de cette technologie, la société Saphymo a décidé d’industrialiser le système global en l’intégrant dans sa série de produits commerciaux DSP, avec le soutien du CEA-List. « Ce projet est structurant pour renforcer nos gammes de produits et proposer rapidement à nos clients un dispositif alternatif aux traditionnels tubes à Hélium, économiquement concurrentiel et techniquement performant » a souligné Laurent Schneider-Maunoury, Président de Saphymo. Les deux partenaires ont conclu un accord de licence sur deux technologies issues du CEA-List : les algorithmes de discrimination et la stabilisation en température des détecteurs.

Grâce à cet accord, l’institut CEA-List et Saphymo renforcent leur partenariat déjà actif et envisagent de futurs développements autour de la détection radiologique.

CEA

Première mondiale : un test de silicium sans contact
Samedi, 24/12/2011 - 00:10

STMicroelectronics revendique une première mondiale : le test d’une tranche de silicium sans utiliser de sondes à contact. L’innovation est appliquée au contrôle des tranches de circuits intégrés d’identification par radiofréquences (RFID) en utilisant des ondes électromagnétiques comme lien avec les puces. Rendements plus élevés, délais de test raccourcis et baisse du coût des produits : tels sont les avantages de cette méthode. Sans compter l’intérêt de tester des circuits radiofréquences dans des conditions proches de la réalité de leur utilisation. Cette technologie porte le nom EMWS (Electromagnetic Wafer Sort). Elle est l’aboutissement du projet de recherche et développement UTAMCIC conjointement mené par STMicroelectronics et l’Université de Catane, en Sicile.

Elle constitue une évolution de la technologie de tri électrique des tranches, dernière étape de fabrication des tranches de silicium avant l’assemblage et le test des puces montées dans leur boîtier. À cette étape, la tranche traitée contient un ensemble de circuits intégrés identiques. Habituellement, une carte-sonde reliée à un système de test automatique est déplacée au-dessus de chaque puce, tandis que les sondes microscopiques établissent un contact physique avec les plots de test du composant. Ce test sert à savoir si la puce est entièrement fonctionnelle et à éliminer ainsi toute puce non opérationnelle avant qu’elle soit assemblée dans son boîtier.

Avec la technologie de test EMWS, la minuscule antenne radio de la puce à contrôler est mise à profit pour communiquer sans contact avec le testeur par l’intermédiaire d’ondes électromagnétiques. Une approche qui réduit le nombre de plots de test sur le circuit intégré, et donc les dimensions de ce dernier, et qui supprime les risques d‘endommager la puce. Elle améliore aussi la couverture des tests. En plus, le fait de tester les circuits radiofréquences dans les conditions où ils seront utilisés dans l’application finale, garantit mieux la qualité et la fiabilité des circuits. Par ailleurs, cette technologie raccourcit de façon significative la durée des cycles, car ils autorisent un haut niveau de parallélisme en mode sans contact. Enfin, elle augmente les rendements en évitant d’endommager les plots, un problème fréquent au cours des essais ordinaires.

Industrie & Technologies

L'EPFL crée de l'or inrayable
Vendredi, 23/12/2011 - 05:30

Des scientifiques de l’EPFL sont parvenus à créer de l’or 18 carats plus dur que l’acier trempé et pratiquement inrayable.

C’est en combinant un alliage d’or avec du carbure de bore, une céramique extrêmement dure utilisée notamment pour fabriquer des gilets pare-balles, que les scientifiques de l’EPFL ont réussi à fabriquer l’or 18 carats (75 % d’or) le plus dur au monde. Sa dureté atteint les 1000 Vickers. Elle est donc supérieure à celle de la plupart des aciers trempés (environ 600 Vickers). Il ne peut donc pratiquement pas être rayé, sauf par le diamant. Cette découverte est le fruit d’une collaboration de trois ans entre l’équipe du Professeur Andreas Mortensen, directeur du laboratoire de Métallurgie Mécanique à l’Institut de Matériaux de l’EPFL, et l’entreprise suisse de montres Hublot.

  • Infiltration sous pression

Le processus d’élaboration du matériau est relativement complexe. Le carbure de bore sous forme de poudre est chauffé à une température de près de 2000°C, afin que se forme, par frittage, une structure rigide et poreuse. Un alliage d’or liquide en fusion est ensuite infiltré à très haute pression dans les pores de cette structure, puis solidifié pour produire un matériau composite exempt de pores. Le matériau final se compose ainsi de deux familles de cristaux intimement imbriquées dans l’espace, à la façon de deux labyrinthes tridimensionnels. L’or liquide utilisé étant à la base un alliage d’or 24 carats et d’aluminium (3 %) réalisé au préalable pour un premier renforcement : l’or final contient ainsi 3 % d’aluminium, 75 % d’or et 22  % de carbure de bore.

  • La difficulté : la limite des 18 carats

Par définition, l’or est très mou. Le fait de le durcir à ce point tout en maintenant la limite des 18 carats a constitué un vrai challenge pour les chercheurs de l’EPFL. Ils ont privilégié l’approche composite céramique-métal. Les matériaux composites sont créés en combinant artificiellement plusieurs matériaux, qui conservent leur individualité une fois assemblés. Ils se distinguent ainsi des alliages, où les atomes se mélangent pour former au final un matériau homogène. L’avantage des composites, c’est qu’ils comportent des propriétés qui ne peuvent être obtenues autrement.

  • A voir à BaselWorld

Les chercheurs de l’EPFL ne sont pas les premiers à jouer avec différents matériaux, dans le but de rendre l’or plus solide. Ils sont cependant les seuls à avoir atteint une telle dureté dans de l’or 18 carats. Les premières montres réalisées à l’aide de ce nouvel or seront présentées en 2012 à la Foire de Bâle (BaselWorld).

EFPL

^ Haut
Espace
Espace et Cosmologie
Découverte de deux exoplanètes d'une taille comparable à la Terre
Jeudi, 29/12/2011 - 00:00

La mission Kepler de la NASA a découvert les deux premières planètes de taille approchant celle de la Terre et orbitant autour d'une étoile semblable au soleil en dehors de notre propre système. Les planètes, appelées Kepler-20e et Kepler-20f, sont trop proches de leur étoile pour être dans la zone dite habitable (où l'eau liquide pourrait exister en surface), mais elles sont les plus petites exoplanètes jamais confirmées, elles représentent le début d’une nouvelle période d’exploration de notre galaxie à la recherche de jumelles de la Terre.

Les nouvelles planètes sont probablement rocheuses. Kepler-20e est légèrement plus petite que Vénus, mesurant 0,87 fois le rayon de la Terre, et Kepler-20f est un peu plus grande que la Terre, mesurant 1,03 fois son rayon. Les deux planètes résident dans un système à cinq planètes appelé Kepler-20, situé à environ 1000 années-lumière dans la constellation de la Lyre.

Kepler-20e orbite autour de son étoile en 6,1 jours et Kepler-20f met 19,6 jours pour en faire le tour. Ces courtes périodes orbitales indiquent des distances proches de l’étoile avec des températures de surface bien trop chaudes pour autoriser la présence d’eau liquide.

Lancé en mars 2009, le télescope Kepler est un photomètre spatial développé par la NASA pour détecter des exoplanètes et autres petits corps orbitant autour des étoiles de notre galaxie. Il est capable de mesurer l’infime baisse de luminosité d’une étoile qui se produit lors d’un transit planétaire, c’est-à-dire lorsqu’une planète passe devant elle. La taille de la planète peut être déduite de ces variations périodiques de luminosité tandis que la distance entre la planète et son étoile est calculée en mesurant le temps entre deux passages successifs. Pour pouvoir affirmer l’existence d’une planète, l’observatoire doit pouvoir détecter au moins trois transits.

L'astrophysicien français François Fressin qui est l'auteur de cette étude explique sur le site de la Nasa : "Cette découverte démontre pour la première fois que des planètes similaires à la Terre existent autour d'autres étoiles (similaires au soleil, ndlr), et que nous sommes capables de les détecter." "Les projections font penser que ces planètes sont rocheuses, avec une composition de fer et de silicate. La planète extérieure pourrait avoir développé une eau épaisse atmosphère de vapeur.", indique l'étude dans Nature.

Nature

La Nasa fabrique un harpon à comète
Lundi, 26/12/2011 - 00:40

L’instrument permettra de se passer d’un délicate manœuvre d’atterrissage pour ramener des échantillons de comète sur Terre.

Plusieurs missions humaines ont déjà tenté d’approcher au plus près des comètes et même de ramener sur terre des échantillons de poussières de la queue comme le fit la sonde Deep impact avec la comète Tempel 1. L’idéal serait pourtant de prélever directement sur la surface des carottes de matériaux pour analyse. Pour éviter d’avoir un atterrissage à effectuer, les ingénieurs de la Nasa travaillent sur la mise au point d’un harpon qui pourrait prélever rapidement des échantillons en des points déterminés par avance, avec une grande précision.

Ils sont actuellement aux premiers stades de l’étude de faisabilité et ont fabriqué une sorte d’arc métallique qui servirait à envoyer l’engin relié à un câble d’acier sur la comète, à la vitesse de 30 mètres par seconde. L’idée d’utiliser un harpon n’est pas nouvelle, la sonde Européenne Rosetta qui doit rencontrer la comète 67P/Churyumov-Gerasimenko en 2014 utilisera un tel système pour maintenir sur la surface de la comète l’atterrisseur Philae. « Le harpon de Rosetta est d’une conception ingénieuse mais il ne peut pas recueillir d’échantillon » explique Donald Wegel, de la Nasa. « Nous allons nous greffer sur leur travail et aller un peu plus loin pour inclure une cartouche de collecte d’échantillons. »

Sciences et Avenir

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
Stonehenge : l'origine des pierres bleues enfin connue...
Jeudi, 29/12/2011 - 00:40

Stonehenge est certainement l’ensemble mégalithique le plus célèbre au monde. Il doit notamment sa célébrité à l’importance de la taille des mégalithes qui le composent et à sa sophistication architecturale. Alors que les scientifiques résolvent peu à peu les énigmes liées à sa structure et à sa fonction au cours de l’histoire, des incertitudes planaient encore jusqu’il y a peu sur la provenance de certaines des pierres composant l’édifice. Jusqu’il y a peu… car deux chercheurs viennent de résoudre une partie du mystère.

Le site de Stonehenge est composé d’un ensemble de cercles concentriques de menhirs aux origines variées. Le caractère majestueux du site lui a valu d’être inscrit sur la liste du patrimoine mondial de l’Unesco. Sa construction s’est étendue de 3000 ans à 1600 ans av. J.-C. Les compositions minéralogiques de certains menhirs observés ont particulièrement attiré l’attention des scientifiques.

Le cercle intérieur de Stonehenge est composé de pierres bleues, qui ont suscité beaucoup d’étonnement dans la communauté scientifique. En effet, les roches bleues sont présentes à l’état naturel dans la région du Pembroke (à l'extrême ouest du pays de Galles), soit à plus de 240 km du site de Stonehenge ! Afin de lever toute ambiguïté sur l'origine des pierres, les Dr Bevins et Ixer, appartenant respectivement au Muséum national du pays de Galles et à l’université de Leicester, ont réalisé des études pétrographiques. Cette discipline consiste à étudier la structure chimique et minéralogique des roches. Leurs résultats ont confirmé le lien existant entre Stonehenge et le Pembroke. Non contents d’avoir pu établir ce lien, ils ont profité de leurs travaux pour déterminer avec précision le lieu où les pierres ont été extraites... et là, surprise!

Les dernières hypothèses plaçaient la zone d’origine des pierres dans la région de Preseli Hills. Or, les chercheurs ont montré que les pierres bleues provenaient en réalité d’une région située plus au nord dans une localité nommée Craig Rhos-y-felin, à proximité de Pont Saeson. Neuf mois d’études ont été nécessaires pour arriver à cette conclusion. Durant ce temps, les deux chercheurs ont parcouru toute la région de Pembroke et ont prélevé des centaines d’échantillons de roches affleurant en surface. C’est en comparant les rhyolites de Craig Rhos-y-felin et de Stonehenge qu’ils ont pu souligner que les compositions des roches observées sur les deux sites présentaient un pourcentage de similitude de 99 %. Par conséquent, la zone d’origine des pierres bleues a pu être, dans un premier temps, limitée à quelques centaines de mètres carrés. En persévérant, les deux chercheurs sont même parvenus à délimiter dans un second temps une zone de quelques dizaines de mètres carrés comme étant celle de la provenance des pierres.

  • En quoi la position du site d’origine est elle importante ?

Maintenant que les lieux d’origine et de destination des pierres bleues sont connus, les chercheurs vont pouvoir focaliser leur attention sur la manière dont les pierres ont été transportées jusqu’à Stonehenge. Une des hypothèses retenue jusqu’à présent supposait que les pierres avaient été transportées par radeau le long du canal de Bristol et de la rivière Avon. Cela avait un sens lorsque le point d’origine se situait à… Preseli Hills. Elle est donc aujourd'hui mise à mal puisque le site d’origine a changé et que beaucoup de spécialistes pensent que le transport des pierres pas voie terrestre jusqu’à la côte est impossible.

Une hypothèse alternative a dès lors refait surface. Et si les pierres bleues avaient été transportées naturellement ? Selon certains scientifiques, les blocs de rhyolite auraient pu être transportés sur de longues distances par des glaciers durant la dernière la période glacière. Là encore une autre question se pose : pourquoi ne retrouve-t-on pas d’autres roches issues du Pembroke dans la région abritant Stonehenge ? Il serait étonnant que les glaciers n’aient transporté que les roches nécessaires à la construction de Stonehenge.

Quoi qu’il en soit, Stonehenge n’a pas encore livré ses secrets et les prochaines décennies devraient nous apporter de nombreuses autres réponses à nos interrogations.

Futura Sciences

Le lien entre forêts et précipitations mieux compris
Samedi, 24/12/2011 - 00:20

La déforestation a-t-elle pour conséquence une réduction ou une augmentation des précipitations ? La question restait fortement débattue et mal tranchée. David Ellison, de l'Université suédoise des sciences de l'agriculture, et deux collègues viennent de publier une étude de synthèse qui conclut au rôle positif des forêts pour la disponibilité de l'eau.Selon une partie des spécialistes, les couverts forestiers constituent des zones qui absorbent de l'eau au détriment de l'utilisation qui peut en être faite en aval (agriculture, énergie, industrie, foyers domestiques), puisque chaque arbre consomme de l'eau. D'un autre côté, avancent d'autres spécialistes, l'évapotranspiration fournit de l'eau à l'atmosphère, facilite son transport à travers les continents et favorise les précipitations aux échelles locales, régionales et globales. Lequel des deux camps a raison ?

L'étude suédoise met en relief le fait que le premier camp, celui pour lequel les forêts constituent une demande en eau, est représenté par des travaux réalisés à l'échelle locale, tandis que le second, pour lequel les forêts constituent une offre en eau, est représenté par des travaux à des échelles plus vastes (régionales). Ainsi, soulignent D. Ellison et ses collègues, des problèmes méthodologiques, liés à l'échelle spatiale étudiée, sont à l'origine des désaccords entre les deux camps. L'analyse qu'ils effectuent aboutit à la conclusion que la déforestation est globalement défavorable aux précipitations, et que la reconstitution du couvert forestier leur est au contraire favorable, même si localement un effet inverse peut être observé.

L'étude suédoise montre que l'évapotranspiration par les végétaux contribue fortement aux précipitations sur les régions continentales. Plus précisément, cette contribution de l'évapotranspiration est de l'ordre de 1,4 à 1,8 fois plus importante que celle de l'évaporation de l'eau des océans. Pour D. Ellison et ses collègues, ces résultats indiquent que l'évapotranspiration est généralement sous-estimée dans les représentations du cycle de l'eau. Les politiques de gestion des ressources en eau ou de l'affectation des sols ainsi que les études climatologiques devraient donc en tenir compte...et deux collègues viennent de publier une étude de synthèse qui conclut au rôle positif des forêts pour la disponibilité de l'eau.

Pour La Science

L'Europe présente sa feuille de route pour l'énergie à l'horizon 2050
Vendredi, 23/12/2011 - 05:20

La Commission européenne présente, pour la première fois, sa vision globale, à l'échelle de l'économie tout entière, des moyens par lesquels l'Europe peut se transformer en une société propre, compétitive et respectueuse du climat. Reposant sur de solides modèles de prévision économique, la feuille de route montre comment l'Europe peut réduire ses émissions de gaz à effet de serre de 80 % d'ici à 2050. Une réduction de cette ampleur est possible, si l'Europe continue de développer des technologies propres et peu énergivores, telles que les voitures électriques, l'habitat passif, les énergies renouvelables et les réseaux intelligents, et qu'elle investit dans leur mise en œuvre.

La transition vers une société à faible intensité de carbone va véritablement redynamiser l'économie de l'Union européenne. La demande de voitures électriques, d'équipements industriels et électriques à rendement énergétique élevé et de matériaux de construction performants augmentera considérablement, créant ainsi de la croissance et des emplois pour les industries européennes et les prestataires européens de services en faveur de l'environnement. En redoublant nos efforts pour lutter contre le changement climatique, nous pourrions créer 1,5 million d'emplois d'ici à 2020. Il faudra pour cela, d'une part, investir massivement dans la recherche et le développement, ainsi que dans des infrastructures, et d'autre part, adopter de nouvelles normes. Ces investissements seront toutefois largement compensés par la diminution de la facture énergétique et par l'amélioration des transports publics et de la qualité de l'air.

En investissant dans des technologies propres et moins énergivores, l'Europe pourra, d'ici à 2050, réduire de 40 % sa consommation d'énergie et économiser chaque année 400 milliards d'euros sur les importations pétrolières et gazières. Le recours accru aux énergies renouvelables nous permettra d'être moins tributaires des importations d'énergie en provenances de pays tiers et renforcera la sécurité de nos approvisionnements. Nos économies seront ainsi moins vulnérables face aux hausses des prix du pétrole.

La feuille de route proposée signale aussi qu'il ne faut pas tarder à agir, sous peine de voir augmenter le coût des mesures nécessaires à la transition. La trajectoire de réduction la moins coûteuse, ou qui présente le meilleur rapport coût-efficacité, impose une réduction de 40 % des émissions de CO2 d'ici à 2030 et de 25 % d'ici à 2020. L'objectif de réduction rehaussé pour 2020 pourrait toutefois être atteint par la mise en œuvre des mesures définies dans le plan relatif à l'efficacité énergétique adopté parallèlement à la Feuille de route pour 2050. À eux deux, la feuille de route et le plan relatif à l'efficacité énergétique fournissent un cadre pour une Europe plus propre et plus respectueuse de l'environnement, et proposent des mesures concrètes qui nous mettront d'emblée sur la bonne voie. En réduisant ses émissions internes de 80 %, l'Europe assume sa part des efforts à consentir pour limiter le réchauffement de la planète à 2°C.

Feuille de route de l'Union européenne

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Cancer : immortaliser les cellules cancéreuses pour personnaliser le traitement
Jeudi, 29/12/2011 - 00:20

Une découverte qui présente un potentiel fantastique, en recherche, diagnostic, traitement et médecine personnalisée, voire médecine régénérative. Car ces chercheurs de Georgetown viennent de découvrir comment conserver les cellules normales ainsi que des cellules tumorales d'un patient atteint de cancer, vivantes en laboratoire. Les cellules normales meurent généralement après quelques divisions et les cellules tumorales ne se développaient pas à l'extérieur du corps. Cette nouvelle technique, décrite dans l’édition en ligne du 19 décembre de l'American Journal of Pathology, marque une nouvelle ère de la médecine personnalisée du cancer et pourrait même avoir des applications potentielles en médecine régénérative.

L’auteur principal de l'étude, le Docteur Richard Schlegel, président du département de pathologie au Georgetown Lombardi Comprehensive Cancer Center explique : «Parce que chaque tumeur est unique, cette avancée permettra aux oncologues d’identifier les thérapies adaptées à son cancer et non toxiques pour ses cellules non tumorales. Nous pouvons maintenant tester la résistance tout comme la chimio-sensibilité d’une tumeur à un traitement ou à une combinaison de traitements ».

Les inhibiteurs Rock pour figer les cellules : L'équipe de recherche, qui comprend également plusieurs scientifiques des National Institutes of Health (NIH), a trouvé que l'ajout de deux substances différentes pour les cellules cancéreuses et les cellules normales les pousse à se transformer en cellules souches, des cellules qui peuvent se différencier en d'autres cellules. Les deux substances sont un inhibiteur nommé Rock qui stoppe le développement des cellules et des cellules nourricières de fibroblastes. Un autre chercheur, le Professeur Alison McBride, de l'Institut national des allergies et maladies infectieuses (NIAID-NIH), avait déjà découvert qu'un inhibiteur rock permettait aux cellules de la peau (kératinocytes) de se reproduire en laboratoire. Ici, les chercheurs démontrent qu’ils sont avec cette technique, en mesure de cultiver des cellules mammaires, de la prostate, des poumons et du côlon, normales et tumorales. Cette découverte est valable quel que soit le patient et « pour toujours », déclarent les auteurs.

La capacité d'immortaliser les cellules cancéreuses va permettre aussi le développement de bio-banques viables et pertinentes, ajoute le Docteur Schlegel. Par ailleurs, ce processus d’immortalisation pourra contribuer à faire progresser le domaine de la médecine régénérative. Mais dans un premier temps, ces résultats vont permettre aux pathologistes de diagnostiquer bien plus facilement les tumeurs et de personnaliser les traitements.

Santé Log

L'EyeBrain Tracker utilisé dans un essai clinique sur la maladie de Parkinson
Mercredi, 28/12/2011 - 00:40

Déjà utilisé pour le diagnostic précoce des syndromes parkinsoniens, comme la paralysie supranucléaire progressive (PSP), la dégénérescence cortico-nasale (CBD) ou encore l'atrophie multisystématisée (AMS), l'EyeBrain Tracker, un dispositif développé par EyeBrain, une entreprise d'une quinzaine de personnes, créée en 2008 et localisée à Ivry-sur-Seine, près de Paris, l'est actuellement dans le cadre d'une étude clinique qui s'intéresse aux dyskinésies induites par le traitement à la levodopa chez les patients atteints de la maladie de Parkinson idiopathique.

Lancée en juin 2010 par le Professeur Tison, neurologue rattaché à l'équipe CNRS "Physiopathologie des syndromes parkinsoniens" (Institut des Maladies Neurodégénératives), et financée par le Centre Hospitalier Universitaire de Bordeaux, cette étude vise à trouver des biomarqueurs des complications tardives d'un traitement par levodopa. Rappelons que cette molécule qui se transforme naturellement en dopamine dans le cerveau est l'un des seuls médicaments disponibles pour ralentir les effets de la maladie de Parkinson. Néanmoins, elle entraîne chez des patients, au fil du temps, des dyskinésie qui se traduisent par des mouvements anormaux affectant préférentiellement la face et s'étendant jusqu'aux membres.

30 personnes vont être ainsi testées, dont la moitié sont des parkinsoniens traités à la levodopa avec des dyskinésies, tandis que l'autre moitié, composée de personnes non souffrantes, sert de groupe témoin. Il s'agit d'étudier si la levodopa modifie les paramètres des saccades oculaires de manière corrélée à l'amélioration de la motricité. L'utilisation de l'EyeBrain Tracker permet aux chercheurs de mesurer l'effet moteur par les mouvements oculaires, les paramètres des saccades étant liés à la motricité générale du patient.

Rappelons que la maladie de Parkinson est la seconde maladie neurodégénérative la plus fréquente, après la maladie d'Alzheimer. Sa prévalence dans les pays occidentaux est d'environ 0,3 % dans la population générale. Elle augmente avec l'âge, atteignant 1 % chez les plus de 60 ans, et jusqu'à 4 % chez les plus de 80 ans. On compte environ 100.000 malades en France, et 8.000 nouveaux cas qui se déclarent chaque année.

Bulletins Electroniques

Un mécanisme de reprogrammation des neurones élucidé
Mercredi, 28/12/2011 - 00:00

Une équipe de l'Université de Médecine d'Innsbruck, en coopération avec deux chercheurs de l'Université de Dundee (Royaume-Uni), a découvert un "interrupteur moléculaire", responsable d'une reprogrammation des cellules neuronales. La compréhension de ce phénomène laisse espérer des avancées dans le traitement des maladies neuro-dégénératives ainsi que dans l'amélioration des connaissances relatives au fonctionnement de la mémoire.

Contrairement à d'autres cellules du corps humain, les neurones n'ont pas la capacité de se diviser pour remplacer leurs congénères malades ou détruits. Dans des cas extrêmes, comme pour les maladies d'Alzheimer et de Parkinson, la perte des neurones conduit à de graves altérations des capacités mentales et motrices, menant finalement au décès de la personne atteinte. Cependant, les résultats obtenus par cette équipe de chercheurs montrent que les neurones peuvent être reprogrammés pour effectuer de nouvelles tâches s'ils en reçoivent la commande.

Les chercheurs d'Innsbruck ont étudié la façon dont les cellules du système nerveux autonome, qui contrôle entre autres le fonctionnement des organes et des glandes, peuvent altérer les propriétés des neurones. Ils ont ainsi découvert qu'une protéine portant le doux nom de p38 joue un rôle essentiel : cette protéine active en effet un nombre significatif de gènes. Les scientifiques ont alors constaté que les neurones à l'origine de l'envoi des molécules messagères d'acétylcholine, et généralement responsables pour les muscles, les vaisseaux sanguins, les os et les glandes, envoient après reprogrammation des molécules de noradrénaline - ce que font usuellement les neurones responsables de la peau et de la plupart des autres organes.

Les chercheurs s'intéressent donc aux moyens de profiter de cette plasticité. Quels sont les autres changements de fonctions neuronales possibles ? Selon les résultats obtenus, il peut être envisageable de faire assumer par des neurones sains le rôle des neurones perdus.

Bulletins Electroniques

Vous dormez beaucoup : c'est génétique !
Lundi, 26/12/2011 - 00:20

Des chercheurs européens ont identifié un gène impliqué dans la régulation du sommeil, tout en montrant que sa durée est aussi influencée par d'autres facteurs individuels ou environnementaux. Selon les chercheurs, dont les travaux viennent d'être publiés dans la revue spécialisée Molecular Psychiatry, ce gène appelé ABCC9 explique environ 5 % de la variation dans la durée du sommeil. L'équipe des chronobiologistes Till Roenneberg et Karla Allebrandt (université Ludwig-Maximilians, Munich, Allemagne) a mené une étude sur plus de 4 000 personnes de sept pays européens aussi différents que l'Estonie et l'Italie.

Leur analyse des comportements vis-à-vis du sommeil et des caractéristiques génétiques des participants à l'étude a montré que les personnes porteuses d'une variation du gène ABCC9 dormaient généralement pendant une période « significativement plus courte » que les personnes porteuses de la version non altérée du gène. « Ce n'est pas la première étude à mettre en évidence l'implication de gènes dans la régulation du sommeil, mais sa force est de mettre en évidence ce gène dans une large population et de confirmer son rôle chez la drosophile (mouche du vinaigre) », a commenté le chronobiologiste français Claude Gronfier (INSERM, Lyon). L'équipe du Professeur Roenneberg, en collaboration avec des chercheurs de l'université de Leicester (Royaume-Uni), a en effet montré que le gène ABCC9 affectait également la période de sommeil nocturne chez la mouche du vinaigre.

« Ce n'est donc pas seulement une association statistique qui donnerait un rôle à un gène qui finalement n'en a pas tant que ça, c'est un vrai rôle biologique qui est montré, une belle confirmation », explique le Docteur Gronfier. « Le rôle de ce gène dans la durée du sommeil est incontestable », ajoute-t-il. L'autre enseignement de l'étude, souligne le Docteur Gronfier, c'est le rôle de l'environnement sur la durée du sommeil. Elle montre ainsi l'influence du chronotype (le fait d'être plutôt « couche-tôt » ou « couche-tard »). Plus précisément, elle montre que la conséquence de la variation du gène ABCC9 est plus importante chez les couche-tard que chez les couche-tôt. Pour ce spécialiste, ces résultats « renforcent le message qu'une durée de sommeil suffisante, par une bonne hygiène du sommeil, est capitale pour un fonctionnement physiologique adapté et pour éviter l'apparition de troubles sérieux ».

Nature

Une nouvelle molécule pourrait empêcher la progression de la maladie d’Alzheimer
Lundi, 26/12/2011 - 00:10

Selon l’Organisation Mondiale de la Santé, la maladie d’Alzheimer est la quatrième cause de décès dans les pays développés, et avec une population mondiale vieillissante, il est prédit que cela affecterait une personne sur 85 dans le monde entier en 2050 – à moins qu’un traitement soit découvert. Des scientifiques de la Salk Institute for Biological Studies menés par David Schubert, fondent de grands espoirs sur une nouvelle molécule qu’ils ont développée : la J147. Elle a amélioré la mémoire et a empêché les lésions cérébrales sur des souris, et c’est un candidat prometteur pour le premier médicament pouvant arrêter la progression de la maladie d’Alzheimer chez les humains.

« La J147 améliore la mémoire chez les souris normales et les souris Alzheimer, et elle protège le cerveau des pertes de connexions synaptiques, » a déclaré Schubert. « Aucun médicament sur le marché pour Alzheimer n’ont ces deux propriétés. » L’équipe déclare que la J147 pourrait être testée comme traitement d’Alzheimer sur les humains dans un futur proche, et grâce à sa grande capacité à protéger les cellules nerveuses, elle pourrait aussi être efficace pour traiter les autres désordres neurologiques, tels que la maladie de Parkinson, la maladie de Huntington, le sclérose latérale amyotrophique, ainsi que les AVC (Accident Vasculaire Cérébral).

Ubergizmo

Manger moins préserve la jeunesse du cerveau
Lundi, 26/12/2011 - 00:00

Manger moins préserve la jeunesse du cerveau chez des souris en libérant une molécule qui joue un rôle essentiel dans le bon fonctionnement des cellules cérébrales, selon une recherche italienne publiée aux États-Unis. Cette molécule, appelée CREB1, active un grand nombre de gènes qui sont liés à la longévité et à la bonne santé du cerveau, explique Giovambattista Pani, de l'Institut de pathologie générale de la faculté de Médecine de l'Université catholique du Sacré Coeur à Rome (Italie), principal auteur de cette étude. «Nous espérons trouver un moyen d'activer CREB1 avec de nouveaux médicaments de manière à maintenir le cerveau jeune sans avoir à réduire l'apport en calories», explique-t-il dans un communiqué.

Cette communication paraît dans les Annales de l'académie nationale américaine des sciences (PNAS) datées du 19 au 23 décembre. Les effets d'une restriction calorique chez ces souris se produisent quand l'animal ne consomme que 70 % de la nourriture absorbée normalement. De nombreuses expériences ont montré qu'une telle réduction de l'alimentation prolonge la vie chez des animaux de laboratoire. Le plus souvent, des souris soumises à ces expériences ne deviennent pas obèses et ne développent pas de diabète.

De plus, elles montrent de plus grandes capacités cognitives et de mémorisation. Ces souris sont également moins agressives et ne développent pas en vieillissant les symptômes de la maladie d'Alzheimer ou des formes moins graves que chez les animaux plus nourris. La molécule CREB1 est déjà connue pour le rôle important qu'elle joue pour réguler des fonctions clé du cerveau comme la mémoire, l'apprentissage, le contrôle de l'anxiété. Ses bienfaits sont également réduits par le vieillissement. L'importance de cette molécule pour préserver la jeunesse du cerveau chez les souris de laboratoire a aussi été démontrée par le fait que des animaux soumis à des réductions caloriques, mais dépourvus de CREB1 ont subi les mêmes dégradations cérébrales typiques chez les animaux trop nourris ou âgés.

Cyberpresse

Schizophrénie : lorsque l'expérience acquise ne sert pas les interactions sociales
Dimanche, 25/12/2011 - 00:30

La schizophrénie est une maladie mentale qui affecte profondément les interactions sociales. Des études récentes ont montré que les personnes atteintes ont du mal à attribuer des intentions à autrui. L'une des causes de cette difficulté vient d'être révélée par des chercheurs du Centre de recherches cerveau et cognition (CNRS/Université Toulouse 3 Paul Sabatier) et du Centre de neuroscience cognitive de Lyon (CNRS/Université Claude Bernard Lyon 1). Ils ont montré que les patients schizophrènes utilisent de façon inappropriée leur expérience passée pour comprendre les intentions des autres. Ces résultats sont publiés dans la version en ligne de la revue Brain.

Lorsque quelqu'un se lève de son siège dans le métro, il peut vouloir sortir au prochain arrêt ou bien vous céder sa place. Reconnaître les intentions d'autrui est une habileté fondamentale pour vivre en communauté. Dans un précédent papier, la même équipe proposait un nouveau paradigme expliquant comment nous y parvenons. Cette capacité proviendrait de deux types d'informations. L'information visuelle tout d'abord, qui provient de l'observation des mouvements d'autrui. Mais nous avons aussi besoin d'informations a priori issues de nos connaissances et expériences passées et emmagasinées par notre cerveau. Difficile sans cela d'interpréter l'information sensorielle qui souvent nous arrive de façon parcellaire.

Les chercheurs ont fait l'hypothèse que ces deux types d'informations sont mal utilisés chez les patients schizophrènes, ce qui expliquerait pourquoi ils ont du mal à reconnaître les intentions d'autrui. Pour cela, ils l'ont testée sur des patients présentant divers symptômes de la schizophrénie : négatifs (perte d'intérêt, retrait social), positifs (hallucinations, délires), ou de désorganisation (discours incohérent, phénomène du « coq à l'âne »). Les patients visionnaient d'abord plusieurs vidéos montrant des acteurs manipulant des objets avec différentes intentions. Certaines d'entre elles étaient présentées plus fréquemment afin de manipuler l'information a priori. Ensuite, les patients visionnaient à nouveau les séquences, mais cette fois-ci tronquées. Les chercheurs contrôlaient ainsi la quantité d'information visuelle mise à la disposition des patients. Ces derniers devaient alors deviner les intentions des acteurs.

Les chercheurs ont ainsi découvert que les patients schizophrènes présentent une mauvaise utilisation des informations a priori. Les patients aux symptômes négatifs sous-utilisent ces données issues de l'expérience, comme s'ils n'avaient aucune expectative sur les intentions d'autrui. À l'inverse, ceux présentant des symptômes positifs ou désorganisés sur-utilisent les informations a priori au détriment de l'information visuelle. Ce que perçoivent leurs sens ne semble pas remettre en cause leurs convictions ou croyances. Dans tous les cas, un déséquilibre dans l'interaction entre l'information visuelle et l'information a priori conduit à des erreurs d'interprétation  sur les intentions d'autrui.

Ces résultats pourraient être à la base de nouvelles stratégies de thérapie cognitive permettant au patient d'améliorer son aptitude à utiliser son expérience et de diminuer ses difficultés à reconnaître les intentions d'autrui, symptôme sur lequel les traitements pharmacologiques n'agissent pas. De plus, ce paradigme pourrait aussi être valable pour l'autisme, maladie ayant de fortes similarités avec les symptômes négatifs de la schizophrénie.

CNRS

Vers une détection précoce du cancer du foie
Dimanche, 25/12/2011 - 00:20

Un simple test utilisant un millilitre de son sang peut permettre de découvrir si le patient est atteint de cancer du foie, même si la tumeur est de moins de deux centimètres de diamètre, selon les résultats d'une nouvelle étude médicale réalisée à Shanghai. Les médecins de l'hôpital Zhongshan, une institution médicale majeure affiliée à l'Université Fudan, ont découvert que sept microMARs, ou molécules acides ribonucléiques, sont fortement liées aux problèmes de foie. Cette découverte permet d'élever à 90 % l'exactitude des tests de détection du cancer du foie à un stade précoce.

Chaque test ne coûtera qu'environ 100 yuans (15,9 dollars), a précisé le docteur Fan Jia, vice-président de l'hôpital et un chirurgien célèbre pour le cancer du foie en Chine. Les résultats de cette étude ont été publiés sur le site Internet du Journal d'Oncologie clinique, journal officiel de la Société américaine d'oncologie clinique. Selon M. Fan, l'examen utilisé actuellement pour diagnostiquer le cancer du foie sur la base du dosage de l'alphafétoprotéine (AFP) dans le sang, n'est pas fiable pour certaines personnes, dont les femmes enceintes et les patients atteints d'hépatite B, de carcinoma gonadal et de cancer gastro-intestinal, leurs niveaux d'AFP étant possiblement aussi élevés. L'équipe de M. Fan a présenté sa demande de brevet pour les tests en Chine, au Japon, aux Etats-Unis et dans l'Union européenne, et s'efforce de développer une micropuce contenant les sept microMARs avant que le test ne soit adopté à grande échelle.

CRI

Mieux détecter le cancer de la prostate grâce à la génétique
Dimanche, 25/12/2011 - 00:10

Environ 15 % des cas de cancer de la prostate ont un mauvais pronostic. Le score de Gleason, fondé sur le degré de différenciation de la tumeur, permet d’établir la sévérité et le devenir à long terme. Néanmoins, certains patients, dont le score est initialement faible, développent un cancer agressif d’évolution défavorable. Est-il possible de reconnaître à l’avance ces malades pour lesquels le pronostic ne sera pas ce qu’il aurait dû être ?

Une approche utilisée dans le cancer du sein, et appliquée à d’autres tumeurs, consiste à analyser la concordance d’expression de séries de gènes sur- ou sous-exprimés dans les cellules souches embryonnaires (ESC). Elle définit une signature génétique ESC caractéristique qui, dans le cancer du sein, correspond presque toujours à des tumeurs présentant des mutations ou une inactivation du gène suppresseur de tumeur P53. D’autre part, plusieurs lésions moléculaires associées à un mauvais pronostic du cancer de la prostate ont été identifiées : perte d’une ou deux copies du gène suppresseur de tumeur PTEN, fusion du gène modelé par les androgènes TMPRSS2 avec le facteur de transcription oncogénique ERG (TMPRSS‐2/ERG), mutations de p53, surexpression de MYC.

Utilisant des données publiées, une équipe internationale teste différents profils de signature transcriptionnelle, issus de la littérature, dans une cohorte suédoise de 281 cancers de la prostate, signatures représentant des caractéristiques « souches » et des lésions connues dans le cancer de la prostate. Les tumeurs ont pu être classifiées en 5 groupes. Celui de pire pronostic (survie moyenne 57 mois) est caractérisé par une combinaison des signatures ESC et inactivation de p53 et de PTEN (groupe ESC/P53− /PTEN−, 11 % des cas) ainsi que des signes d’importante prolifération et d’activation de MYC. Le deuxième groupe est composé de tumeurs de signature TMPRSS‐2/ERG (groupe fusion), et se divise en 18 % de cancers agressifs et 61 % de formes bénignes. Les 3 autres groupes, de signatures cytokine/RAS/mésenchyme (inflammatoire-like), transitionnel et PRC2 (différentiel-like), ont des survies similaires et plus élevées (>103 mois).

Une validation est effectuée sur 150 échantillons de tumeurs de la prostate d’une autre base de données (131 cancers primitifs et 19 métastases). Quatre groupes proches des précédents ont pu être définis : ESC/P53− /PTEN−, fusion, PRC2, cytokine/ transitionnel. Le premier est le plus agressif avec 70 % de lésions métastatiques, les 3 autres étant intermédiaires (fusion) et bénins. Les auteurs soulignent la correspondance remarquable des 2 cohortes, en termes de profils moléculaires et pronostic.

La nouvelle classification permet d’observer 2 groupes de patients à risque élevé de mortalité. De façon intéressante, pour un même score de Gleason faible, de 6 ou 7, les risques de mortalité diffèrent selon le nouveau groupe d’appartenance (X 2,7 pour ESC/P53− /PTEN−, par rapport à un groupe bénin) ; ce qui suggère une valeur pronostique indépendante de cette nouvelle classification, qui pourrait contribuer à prévoir le risque de mauvais pronostic malgré un score de Gleason faible.

JIM

Une nouvelle voie pour bloquer le cancer
Dimanche, 25/12/2011 - 00:00

Le blocage de la production de petites molécules produites dans le corps, connues sous le nom d'acides epoxy-eicosatriènoïques (EETs), pourrait représenter une nouvelle stratégie pour traiter le cancer en éliminant les vaisseaux sanguins qui nourrissent les tumeurs cancéreuses. Cette recherche, menée sur la souris, par des scientifiques du NIH est la première à montrer que les EET travaillent de concert avec un facteur de croissance endothélial vasculaire (VEGF), une protéine connue pour induire la croissance des vaisseaux sanguins. Ensemble, EET et VEGF favorisent le développement des métastases et donc la diffusion du cancer, en encourageant la croissance des vaisseaux sanguins qui apportent des nutriments aux cellules cancéreuses.

Les EET, une « épée à double tranchant » : La recherche préclinique suggère que les patients présentant toute une gamme d'affections vasculaires, telles que le diabète, l'hypertension, l'inflammation, des antécédents d'AVC et de crise cardiaque pourraient tirer bénéfice d’une augmentation des niveaux d’acides EET, car ces molécules permettent aux vaisseaux sanguins de se dilater et contribuent à réduire l'inflammation des tissus et l’apoptose. Cependant, des études passées ont également démontré que les acides EET font se développer plus rapidement les cellules tumorales, favorisent leur migration et le développement de métastases. Le Docteur Darryl Zeldin, directeur scientifique au NIEHS et auteur de l’article, explique que le métabolisme humain doit atteindre un certain équilibre en EET : «Le corps doit produire suffisamment d’EET pour maintenir un système cardiovasculaire en bonne santé, mais sans promouvoir le cancer ».

2 modèles de souris ont été créés pour mieux comprendre l’action des EET : l'un avec des niveaux élevés d’EET, l’autre avec de faibles niveaux. Les souris avec niveau élevé d’EET ont développé plus de tumeurs métastatiques par rapport aux souris avec faible niveau d’EET. Si la tumeur elle-même produit plus d’EET, ce qui peut accélérer la croissance tumorale et sa propagation, l’étude montre que les EET produits dans les tissus environnants encouragent également la croissance tumorale. Les EET induisent directement la création de nouveaux vaisseaux sanguins, qui apportent plus d’oxygène aux cellules cancéreuses. Il existe un antagoniste d’EET : Le Docteur Dipak Panigrahy, co-auteur de l’étude et chercheur au Dana-Farber Children 's Hospital (Boston), explique que de nouveaux antagonistes pourraient contrer l’effet stimulant des EET : Cet antagoniste nommé Eeze est structurellement similaire à EET, mais il bloque son effet et ralentit considérablement la cancérogenèse.

Santé Log

Se faire mal fait moins mal
Samedi, 24/12/2011 - 00:30

Selon une étude de l'Université de Pékin, une douleur que l'on s'inflige à soi-même est moins intense qu'une douleur imposée par autrui. Dans une expérience, des neurobiologistes ont demandé à des personnes de serrer dans le creux de leur main une poignée garnie de piquants. Ils ont évalué la douleur ressentie par ces personnes au moyen de questionnaires, constatant que la douleur éprouvée par ces sujets était moins forte que si quelqu'un d'autre appliquait la poignée sur la paume de leur main en exerçant la même pression.

En observant l'activité du cerveau de ces volontaires par une méthode d'imagerie cérébrale, les neurologues ont constaté que l'activation de certaines zones clés dans la perception de la douleur diminue lorsque les personnes s'auto-infligent la douleur. Ces centres de la douleur – nommés cortex cingulaire antérieur ou cortex somatosensoriel – seraient inhibés par les mouvements que font les sujets quand ils serrent la poignée.

Selon les auteurs de cette étude, nos mouvements réduisent automatiquement les perceptions sensorielles liées aux conséquences de ces mouvements. Par exemple, les mouvements de nos yeux lorsque nous déplaçons le regard entraînent une baisse de la perception visuelle au cours du mouvement, ce qui évite un effet de flouté comparable au mouvement d'une caméra qui change rapidement de direction. De même, les mouvements de notre bouche et de notre langue lorsque nous parlons diminuent la perception auditive de nos propres paroles, ce qui permet de mieux discerner celles des autres.

Enfin, le fait que la douleur diminue quand nous agissons aurait une valeur adaptative : dans les situations de combat ou de fuite, un animal ou un être humain peut subir des blessures, mais ces dernières ne doivent pas compromettre ses chances de survie : il ne faut pas qu'elles soient ressenties trop vivement. Ce phénomène expliquerait aussi pourquoi les enfants préfèrent retirer eux-mêmes une écharde, plutôt que de laisser un adulte le faire à leur place.

Pour La Science

L'autisme : une maladie complexe mais mieux comprise
Samedi, 24/12/2011 - 00:00

L'un des grands points d'interrogation et de débats concerne l'explosion du nombre de cas. Entre 1975 et 2009, la proportion des troubles autistiques dans la population est passée d'un individu sur 5 000 à un sur 110, selon des statistiques parues dans Nature le 3 novembre. Soit, en apparence, une multiplication par cinquante en trente-cinq ans ! Pour certains, cette évolution, constatée dans de nombreux pays, est surtout due à l'élargissement des critères de diagnostic (beaucoup de patients avec un retard mental sont aujourd'hui reconnus autistes et plus seulement "attardés mentaux") et à une plus grande sensibilisation du corps médical et des parents.

Pour d'autres scientifiques, ces deux paramètres n'expliquent respectivement que 25 % et 15 % de l'augmentation des cas, et l'élévation de l'âge parental, 10 %. Près de 50 % des cas de l'"épidémie" d'autisme seraient donc inexpliqués, ce qui donne lieu à de multiples hypothèses faisant intervenir des facteurs d'environnement combinés à des traits génétiques.

Le caractère familial de l'autisme est connu de longue date : la concordance des troubles est de 60 % à 90 % chez les jumeaux monozygotes, et en présence d'un cas le risque pour la fratrie est multiplié par 20. Mais l'analyse du génome de patients et de leur famille met aujourd'hui en évidence des centaines d'anomalies différentes...  "Les facteurs génétiques sont bien plus importants dans l'autisme que dans des maladies comme le diabète ou l'hypertension, estime le docteur Richard Delorme, pédopsychiatre à l'hôpital Robert-Debré, à Paris. Mais c'est un sujet complexe. Deux patients avec des signes cliniques similaires peuvent être très différents sur le plan génétique." Et vice versa.

Le démantèlement des facteurs génétiques de l'autisme se poursuit, confirme le professeur Thomas Bourgeron, qui, depuis 2003, a contribué à la découverte de plusieurs gènes impliqués dans ces affections, dont ceux codant pour les neuroligines (protéines intervenant dans la formation et le fonctionnement des synapses, les contacts entre les neurones) et les gènes Shank 2 et 3, qui interagissent avec les neuroligines.

Dans ce domaine, les connaissances progressent parallèlement aux progrès technologiques. Les spécialistes ont d'abord identifié les 5 % à 10 % de cas d'autisme associés à des maladies génétiques ou à un remaniement chromosomique (comme le "syndrome de l'X fragile"). "Dans les années 2000, les puces à ADN ont permis de découvrir d'autres anomalies, de type perte ou duplication de gènes, chez 10 % à 15 % des enfants autistes", ajoute Thomas Bourgeron. L'arrivée de méthodes permettant de séquencer le génome (pour moins de 3 000 euros en moins de deux mois) va accélérer les découvertes, selon le généticien. "On devrait arriver à décrire rapidement des anomalies diverses, héritées ou non, dans au moins 35 % des cas", estime-t-il.

Ces travaux ont déjà permis la mise au point de modèles animaux et même cellulaires des troubles autistiques, ouvrant de nouvelles pistes pour tester des médicaments. "La génétique est une voie majeure pour améliorer la compréhension et le diagnostic de l'autisme", synthétise le professeur Marion Leboyer (hôpital Chenevier, Créteil). Mais pour cette psychiatre, directrice de la fondation Fondamental (www.fondation-fondamental.org), qui soutient de nombreux programmes de recherche dans ce domaine, la priorité est d'abord de repérer plus tôt les autistes, et notamment ceux de haut niveau, pour leur proposer une prise en charge personnalisée.

Le Monde

Vers des antalgiques moins nocifs et plus efficaces
Vendredi, 23/12/2011 - 05:10

Une équipe de chercheurs a découvert comment fonctionne l'un des antalgiques les plus couramment utilisés à la maison, ce qui pourrait conduire bientôt à des médicaments antidouleur ayant moins d'effets secondaires indésirables. Ces chercheurs de France, de Suède et du Royaume-Uni ont présenté leurs découvertes dans la revue Nature Communications, expliquant comment fonctionne le paracétamol, l'un des médicaments les plus utilisés au monde. Découvert dans les années 1890 et vendu comme antalgique depuis les années 1950, le paracétamol avait jusqu'ici échappé aux tentatives visant à élucider son fonctionnement.

Les chercheurs ont fait une découverte révolutionnaire en déterminant que la protéine TRPA1, présente à la surface des cellules nerveuses, est essentielle à l'action antalgique du paracétamol. L'un des auteurs de l'étude, le Docteur David Andersson du King's College London, au Royaume-Uni, commente : «C'est une découverte extrêmement intéressante, car elle dévoile le secret de l'un des médicaments les plus utilisés. Elle pourrait avoir un très grand impact sur la mise au point de nouveaux analgésiques. Le paracétamol est le traitement le plus courant des douleurs habituelles, mais si l'on dépasse notablement la dose prescrite, l'issue peut être fatale. Nous comprenons à présent les bases de son fonctionnement, aussi nous pouvons commencer à rechercher des molécules qui se comportent de la même façon pour soulager la douleur, mais qui sont moins toxiques et ne conduiront pas à de graves complications en cas de surdose.»

Des études récentes ont montré qu'une prise trop élevée et régulière de paracétamol présente un risque élevé de surdose accidentelle dont les conséquences peuvent être fatales. Outre la formulation en antalgique pur, largement utilisée, le paracétamol est aussi le composant principal de médicaments courants, par exemple contre le rhume ou la grippe. L'équipe de chercheurs a utilisé un test de «plaque chaude» pour étudier les effets du paracétamol sur la souris. Il consiste à mesurer le temps mis par l'animal pour retirer une patte posée sur une surface légèrement chaude. Le test a montré que le paracétamol augmentait cette durée, et donc qu'il réduisait la sensibilité à la douleur induite par la chaleur. Les scientifiques ont ensuite conduit des expériences pour observer les résultats en cas d'absence de la protéine TRPA1. Toujours avec le test de la plaque chaude, ils n'ont alors constaté aucun effet antalgique du paracétamol. Ceci montre que la protéine TRPA1 est une molécule essentielle à la fonction du paracétamol.

Le professeur Bevan, un autre auteur de l'étude également au King's College London, commente : «Ces résultats sont surprenants car d'autres études ont montré que la TRPA1 peut engendrer des douleurs, de la toux et une hypersensibilité, car c'est le récepteur de nombreux corps irritants comme l'oignon, la moutarde et le gaz lacrymogène. Notre découverte montre pour la première fois que son action est en fait inverse, à savoir qu'elle représente un nouveau mode d'action pour un antalgique.»

L'équipe a également découvert que la prise de paracétamol déclenche l'apparition du NAPQI, un composé de dégradation responsable des effets secondaires toxiques en cas de surdose, au niveau de la moelle épinière et du foie. Heureusement, les résultats montrent que d'autres composés pouvaient avoir un effet antalgique dans la moelle épinière et donc qu'il pourrait être possible de mettre au point des médicaments plus sûrs. Si l'équipe parvient à découvrir d'autres composés utilisant la même voie de la TRPA1 que le paracétamol pour empêcher les nerfs de transmettre le signal de la douleur au cerveau, il se pourrait que l'un d'eux n'ait pas d'effets toxiques, ce qui réduirait les risques en cas de surdose. Comme l'explique le Docteur David Andersson, la publication des résultats de cette étude donne le feu vert à l'exploitation de la TRPA1 comme nouvelle cible pour des antalgiques.

Cordis

^ Haut
Recherche
Recherche & Innovation, Technologies, Transports
Investissements d’avenir : 2 projets dans le Rhône pour 6,7 millions d’euros
Mardi, 27/12/2011 - 00:20

Laurent WAUQUIEZ, ministre de l’Enseignement supérieur et de la Recherche, et René RICOL,commissaire général à l’investissement ont dévoilé le 20 décembre les 36 projets lauréats de la deuxième vague de l’appel à projets « Equipement d’excellence ».

Cette action des investissements d’avenir a pour objectif de doter la France d'équipements scientifiques de taille intermédiaire (c'est-à-dire entre 1 et 20 millions d'euros) dans l'ensemble des domaines de recherche. L'utilisation d'équipements scientifiques de qualité, régulièrement renouvelés, conformes aux standards internationaux, est devenue une condition impérative de compétitivité au niveau international. Toutes les activités de recherche se structurent désormais autour de ces équipements, des sciences de la modélisation pour lesquelles des moyens de calcul de plus en plus puissants sont requis, aux sciences humaines et sociales qui nécessitent bibliothèques et bases de données, en passant par la physique, la chimie, les sciences de la terre, les sciences de la vie et les sciences de l'ingénieur qui s'organisent autour de plates-formes expérimentales.

A l’issue de cette deuxième vague, 210,3 M€ seront attribués aux lauréats d’ici à 2020.

Les 2 projets retenus étaient portés par le PRES (Pôle de Recherche et de l’Enseignement Supérieur :

  • Le Projet LILI, 4M€, il s’agit d’un équipement couplant l’IRM avec la tomographie de positons (IRM qui permet de mesurer en 3D l’activité métabolique d’un organe). Il n’existe que 3 dispositifs au monde comme celui-ci, ce sera le premier en France, il permettra des avancées dans le domaine de l’épilepsie, de la maladie de Parkinson, d’Alzheimer …C’est une reconnaissance du travail accompli par les neurosciences à Lyon, ceci vient couronner le projet Neurocampus.
  • Le Projet PHENOCAN, 2,7M€, il s’agit de phénotypage pour le cancer. Ainsi, l’achat des équipements, mais également une partie des coûts liés à leur fonctionnement, comme la maintenance, et certains personnels indispensables à l’installation ou à la mise au point de l’équipement, sont assurés par le financement.

Ministère de l'Enseignement supérieur et de la Recherche

Quel avenir pour la voiture électrique ?
Vendredi, 23/12/2011 - 05:00

Selon Eric Besson, ministre de l'industrie, le « marché mondial  de la voiture électrique est estimé à près de 4,5 millions d'unités par an à l'horizon 2025 » et il devrait générer en France « plus de 12 milliards d'euros d'activité par an ». Il devrait permettre ainsi « de réduire de 3 % les émissions de CO2 et de 4 millions de tonnes équivalents pétrole nos importations d'énergie fossile ». Pour les industriels, le prix élevé de la voiture électrique ne devrait pas effrayer les potentiels acheteurs.

Ainsi, pour une Peugeot Ion, et une Citroën C0 il faut débourser la somme d'environ 30 000 euros ; pour une Renault Fluence ZE, 21 300 euros ; un peu plus de 20 000 euros pour la Kangoo ZE ; et autour de 19 000 euros pour la Mia. Le tout, bien sûr, hors frais de location de la batterie, sous peine de rendre quasi inabordable le prix d’achat de ces véhicules. Renault propose la location de batterie entre 72 et 82 euros par mois, le tout agrémenté d'une assistance gratuite 24 heures sur 24.  D'autres constructeurs proposent des véhicules électriques à la location. Ainsi, la nouvelle Jazz que Honda lance aux États-Unis sera proposée en location pour l'équivalent de 300 euros par mois. Même tarif de location chez Mia. Quant à PSA, le constructeur français propose déjà des offres de leasing (location avec option d’achat).

Le temps de charge d’une batterie varie entre 6 et 8 heures pour une charge optimale sur une prise domestique. Mais si l'on veut pouvoir regonfler 80 % de sa batterie en vingt minutes, il faut des bornes plus puissantes. Ce qui suppose un déploiement vaste et coûteux. En 2010, le gouvernement s'est saisi de la question, faisant appel à 12 villes pour déployer un réseau de bornes publiques de recharge avec, pour objectif, la création de 75 000 points de recharge accessibles à tous dès 2015 et 400 000 à l’horizon 2020. Douze collectivités (Bordeaux, Grenoble, Rennes, Nice, Angoulême, Aix-en-Provence, Orléans, Paris, Rouen, Strasbourg, Le Havre et Nancy) ont donc signé une charte avec les constructeurs Renault et PSA, qui, de leur côté, se sont engagés à commercialiser 60 000 véhicules électriques en 2011 et 2012. Pouvoir recharger sa batterie partout et sans attendre des heures ne devrait donc plus relever de l’utopie…

Pour Jean Syrota, ancien président de la Cogema et auteur d'un rapport publié au printemps, la promesse annoncée des constructeurs – une autonomie de plus ou moins 150 kilomètres – ne serait réalisable qu'à condition de rouler sans embouteillage, sans chauffage et sans radio. Certains constructeurs préfèrent considérer le problème sous un autre angle. Pour eux, « 87 % des Européens parcourent moins de 60 kilomètres par jour », les déplacements en ville ou suburbains étant leur priorité avant tout.

Malgré tout, 2012 s'annonce comme une grande année pour la voiture électrique en France et en Europe. Dans l'Hexagone, aux Peugeot iOn et Citroën C-Zéro viendront s'ajouter l'utilitaire Renault Kangoo ZE lancé récemment, puis la berline Zoé au second semestre. Parallèlement, le service Autolib devrait monter en puissance pour atteindre 3 000 véhicules fin 2012, contre 250 attendus d'ici la fin de cette année. Les constructeurs étrangers ne seront pas en reste, avec notamment la Leaf de Nissan, la Mini de BMW et les Chevrolet Volt et Opel Ampera de General Motors. Carlos Ghosn, PDG de Renault,  prévoit que la voiture électrique pèsera 10 % du marché automobile en 2020.

Techniques de l'Ingénieur

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top