RTFlash

RTFLASH Recherche & Technologie
NUMERO 543
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 04 Février 2010
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
Quand la cryptographie donne à la parole valeur de contrat
Finlande : l'internet haute vitesse pour tous
Matière
Des circuits en 3D pour aller au-delà de la loi de Moore
La théorie des cordes enfin utilisée en pratique
Terre
Les prairies : des puits de carbone efficaces contre le réchauffement climatique
La fonte des glaciers reste indubitable
Vivant
Des cellules de peau transformées en neurones
La surprenante évolution du chromosome Y
Découverte d'un lien entre la régulation des graisses dans les cellules et le développement des cancers
Cancer : vers un profil moléculaire spécifique pour chaque malade
Des cellules souches embryonnaires utilisées pour soigner la maladie de Huntington
Alzheimer : une protéine potentiellement active contre la maladie
Des capsules « intelligentes » qui libèrent leur contenu à température choisie
Recherche
Un avion électrique personnel !
Edito
Edito : Fusion thermonucléaire contrôlée : une étape décisive a été franchie



Il y a quelques jours, des scientifiques américains ont réalisé deux avancées remarquables vers la maîtrise de la fusion nucléaire contrôlée qui représente une source potentielle d'énergie illimitée et propre, pouvant résoudre durablement les problèmes de gaz à effet de serre de la planète.

Dans le domaine de la fusion par confinement inertiel, les chercheurs du "National Ignition Facility" (NIF) ont réussi à franchir pour la première fois la barrière d'un mégajoule avec plus de 111 millions de degrés Celsius, en concentrant 192 rayons laser de grande puissance dans un tube pas plus grand qu'un taille-crayon, rempli de deutérium et de tritium, deux isotopes naturels légers d'hydrogène. (Voir article).

Ils se sont ainsi approchés, comme jamais jusque là, très près de la température nécessaire pour déclencher la fusion thermo-nucléaire, qui se produit naturellement dans le coeur du soleil et de la plupart des étoiles."Le NIF a montré sa capacité à produire suffisamment longtemps l'énergie requise pour mener des expériences de fusion plus tard cette année", souligne Ed Moses, le directeur du NIF, qui fait partie du Laboratoire Lawrence Livermore en Californie.

La température produite pendant quelques milliardièmes de seconde par ce dispositif de puissants lasers occupant la surface d'un terrain de football, a produit une énergie équivalente à 500 fois celle utilisée aux Etats-Unis à tout moment. Elle est aussi trente fois plus élevée que celles obtenues jusqu'à présent par tout autre groupe de laser dans le monde.

"Franchir la barrière du mégajoule nous rapproche du déclenchement de la fusion nucléaire et montre le potentiel énorme de l'un des plus grands défis scientifiques et d'ingéniérie de notre époque", a déclaré Thomas D'Agostino, le directeur du NNSA (National Nuclear Security Administration). Le deutérium est un élément qui peut être extrait de l'eau et ses réserves correspondent à plusieurs millions d'années de consommation mondiale. "Si nous pouvons dompter cette source d'énergie pour avoir une planète sans carbone et déchets nucléaires radio-actifs, ce sera tout simplement merveilleux", observe Ed Moses, dont les travaux sont détaillés dans la revue américaine Science datée du 29 janvier.

Dans l'autre grande voie de recherche sur la fusion, celle du confinement magnétique, des chercheurs du Massachussets Institute of Technology (MIT) et de l'Université américaine de Columbia ont également annoncé une remarquable avancée. Ils sont parvenus à utiliser un aimant d'une demi-tonne, aussi gros qu'un pneu de camion, maintenu en lévitation grâce à un autre aimant, afin de contrôler un gaz ionisé ou plasma.

Dans le cadre du "Levitated Dipole Experiment" (LDX), installé au MIT, l'aimant supraconducteur, refroidi à -269°C grâce à l'hélium liquide, a pu contrôler les mouvements d'un plasma porté à 10 millions de degrés, contenu dans un compartiment adjacent. Les turbulences créées "ont entraîné une concentration plus dense du plasma -une étape cruciale pour faire fusionner des atomes- au lieu de le disperser davantage comme cela survient habituellement", souligne le MIT dans un communiqué.

Observé lors de l'interaction de plasmas avec les champs magnétiques de la Terre ou de Jupiter, ce type de concentration sous l'effet d'un champ magnétique "n'avait jamais auparavant été recréé en laboratoire", selon le MIT. Cette approche "pourrait fournir une voie alternative pour la fusion" nucléaire, fait valoir Jay Kesner (MIT), co-responsable du projet LDX avec Michael Mauel (Université de Columbia). Source de déchets radioactifs, la fission nucléaire dans les centrales actuelles consiste à casser des noyaux d'atomes. Réaliser au contraire leur fusion pourrait fournir une énergie plus propre.

Dans le cadre du projet de fusion contrôlée au sein du réacteur expérimental international (ITER) à Cadarache (France), il s'agit de faire fusionner les noyaux de deux isotopes lourds de l'hydrogène: le deutérium et le tritium. Cela implique de produire du tritium radioactif et de protéger les parois du réacteur des neutrons issus de la réaction nucléaire, alors que le procédé du LDX pourrait permettre la fusion sans utiliser de tritium. Plus complexe à mettre en oeuvre, il pourrait intervenir dans "une deuxième génération" de réacteurs à fusion, selon M. Kesner.

La fusion présente trois avantages majeurs. D'abord, elle utilise comme combustible le deutérium dont les réserves terrestres sont quasiment inépuisables et le tritium relativement facile à produire ; son exploitation industrielle permettrait donc de résoudre, pour de nombreux millénaires, les problèmes liés à notre approvisionnement énergétique. L'exploitation d'une centrale électrique de 1000 MW basée sur la combustion du charbon nécessite de brûler 3 millions de tonnes de charbon par an mais la même centrale utilisant la fusion nucléaire ne consommerait qu'un quart de tonne d'un mélange basé pour moitié de deutérium et pour moitié de tritium.

Le deuxième avantage majeur de la fusion est la sécurité inhérente à ce phénomène. D'abord, seule la quantité de combustible nécessaire au fonctionnement du réacteur (à peine quelques grammes) est injectée dans l'enceinte du tokamak. Ainsi, si l'état du réacteur déviait trop des conditions normales d'exploitation, il est très simple de le mettre hors service rapidement. En fait, les quantités de plasma qui se trouveront au sein du réacteur seront si faibles qu'un incident, aussi improbable soit-il, ne pourrait jamais entraîner un événement catastrophique du type d'une explosion et limiterait ses effets à la mise hors service du réacteur.

Enfin, le deutérium (isotope naturel de l'hydrogène) peut être produit de manière aisée et non polluante. Le tritium, quant à lui, est un élément radioactif. Cependant, son temps de vie, c'est-à-dire la période pendant laquelle il émet des rayonnements potentiellement dangereux, est très courte (de l'ordre de la dizaine d'années). De plus, la réaction de fusion ne génère pas, directement ou indirectement, de sous-produits radioactifs de longs temps de vie.

On mesure mieux les enjeux énergétiques qui nous attendent quand on sait que, selon le dernier rapport de l'AIE, sorti fin 2009, à l'horizon 2030, les énergies fossiles (pétrole, gaz charbon) représenteront environ 80 % de la consommation mondiale d'énergie, contre 87 % aujourd'hui.

En outre, tirée par la croissance économique indienne et chinoise, la demande mondiale d'énergie devrait progresser de 40 % par rapport à 2007 et atteindre les 14 gigatonnes d'équivalent pétrole en 2030. Le problème est que, dans le même temps, le monde doit absolument réussir à stabiliser puis à diminuer d'au moins 20 % ses émissions de CO2 pour pouvoir limiter les effets du réchauffement climatique.

On voit bien que, ni la montée en puissance des énergies renouvelables « conventionnelles (solaire, éolien, biomasse), ni les progrès de l'efficacité énergétique ne suffiront à résoudre cette équation implacable et que l'Humanité doit parvenir, pour satisfaire sa soif croissante d'énergie, à accomplir des sauts technologique majeurs, qu'il s'agisse du solaire spatiale (Voir édito 530) de la production d'hydrogène à partir de biomasse ou de la fusion contrôlée. Nous devons tout mettre en oeuvre pour favoriser ces ruptures technologiques en développant de grands programmes et projets à long terme de recherche fondamentale qui nous permettront de relever les défis gigantesques qui nous attendent d'ici le milieu de ce siècle.

René Trégouët

Sénateur honoraire

Fondateur du Groupe de Prospective du Sénat


TIC
Information et Communication
Quand la cryptographie donne à la parole valeur de contrat
Vendredi, 05/02/2010 - 00:00

Au lieu de se déplacer pour signer leur contrat, les professionnels pourraient tout simplement sceller leur accord au téléphone. C'est en tout cas ce que préconise un groupe de chercheurs allemands, de l'Institut FRanhofer (pour Secure Information Technology) : ils ont mis au point un système de signature numérique qui permet de transformer une communication téléphonique en engagement légal à valeur de contrat. Celui-ci fonctionne pour les communications en VoIP, autrement dit les échanges téléphoniques s'effectuant via Internet ou tout autre réseau acceptant le protocole TCP/IP. Le dispositif de signature repose sur la cryptographie pour assurer un niveau élevé de sécurité.

Une empreinte cryptographique vient marquer chaque intervalle présent dans la conversation téléphonique, ce qui protège l'ordre et la cohérence de la communication", explique à L'Atelier Rachid El Khayari, l'un des scientifiques impliqués dans ce projet. En clair, lorsque les deux interlocuteurs décident de conclure un accord, ou de signer un contrat, il leur suffit d'enclencher l'enregistrement de la conversation. Le système transforme celle-ci en une chaîne cryptographique qu'il est impossible de modifier par la suite, sans laisser de traces. La conversation téléphonique est en effet "signée". Et ce de manière continue, tout au long du processus d'enregistrement.

Cela signifie que si quelqu'un tente de manipuler l'archive téléphonique (qu'il s'agisse de couper certaines parties de la conversation, ou d'intégrer d'autres parties à tel ou tel moment de la séquence) la signature enregistrée préalablement se brise, et devient inutilisable. A noter : le système peut être installé sur n'importe quel appareil qui permet d'établir des connexions VoIP. Cela comprend donc un certain nombre de téléphones mobiles. Il sera présenté à l'occasion du Mobile World Congress, qui se tiendra à Barcelone du 15 au 18 février.

Atelier

Finlande : l'internet haute vitesse pour tous
Vendredi, 05/02/2010 - 00:00

L'accès à une connexion internet haute vitesse est considéré depuis quelques mois comme un droit fondamental en Finlande, où le gouvernement s'est engagé à rendre le service accessible à toute la population au plus tard en juillet. «Nous avons depuis longtemps commencé à instaurer la société de l'information et les e-services, en particulier dans le secteur public. Or, il faut que tout le monde y ait accès. Dans notre pays, l'égalité est une valeur très, très importante», a expliqué hier à La Presse la ministre finlandaise des Communications, Suvi Linden, lors d'un entretien téléphonique.

L'objectif, dit-elle, est de s'assurer, dans un premier temps, que les 5 millions d'habitants du pays aient accès, chez eux et à prix raisonnable, à une connexion d'une vitesse minimale de 1 mégaoctet à la seconde (Mo/s).

Des fournisseurs d'accès choisis doivent fournir le service, désormais considéré comme «universel». Un citoyen se jugeant lésé pourra porter plainte auprès de l'organisme de régulation des télécommunications du pays, qui se chargera de faire le suivi auprès de l'entreprise responsable du territoire où il habite.

Pour 2015, la Finlande vise encore plus haut en généralisant l'accès à la connexion très haute vitesse, supérieure à 100 Mo/s. Un plan de financement de 300 millions de dollars, soutenu à la fois par l'État, les municipalités et le secteur privé, est en place.Seuls 2000 foyers, situés dans des régions particulièrement reculées, seront exclus du programme.«La demande pour une connexion de qualité est devenue si forte politiquement qu'il sera pratiquement impossible, pour un futur gouvernement, de revenir sur cet engagement», souligne Mme Linden.

L'approche de la Finlande trouve écho en Espagne, où le gouvernement vient d'adopter une cible similaire pour 2011. Le ministère de l'Industrie, du Tourisme et du Commerce a précisé en novembre que tous les citoyens devraient alors pouvoir s'abonner à un «service universel» de 1 Mo/s.Le Parlement européen a confirmé l'importance de l'accès internet l'année dernière en adoptant un «paquet de réformes des télécommunications» qui balise étroitement toute rupture de service dans ce domaine.

CP

^ Haut
Matière
Matière et Energie
Des circuits en 3D pour aller au-delà de la loi de Moore
Vendredi, 05/02/2010 - 00:00

C'est au sein de l'Institut de physique et de chimie des matériaux de Strasbourg que trois chercheurs, Jean-Baptiste Fleury, David Pires et Yves Galerne, ont réalisé leurs travaux de recherche, dont les résultats sont publiés sur The American Physical Society. Pour augmenter la densité des transistors, cette équipe de recherche a démontré une nouvelle technique de fabrication de microfils. L'idée est d'utiliser un cristal liquide nématique (dans un état intermédiaire entre solide cristallin et liquide) pour créer une structure tridimensionnelle de microfils directement connectés aux électrodes. Cette technique pourrait permettre la fabrication de circuits intégrés en 3D.

Comme l'expliquent les chercheurs, jusqu'à présent les différentes tentatives pour connecter des nanofils aux électrodes ont conduit à confiner le substrat en deux dimensions et à utiliser la troisième dimension pour manipuler les connexions. Ici, les microfils s'assemblent d'eux-mêmes aux électrodes avec une précision de l'ordre de quelques micromètres. Les scientifiques prennent les deux substrats à connecter, puis remplissent l'espace entre eux d'un cristal liquide nématique, qui est la même substance utilisée dans de nombreux LCD. Les molécules cylindriques du liquide s'alignent spontanément de manière parallèle entre elles, excepté le long de lignes de disclinaisons. Une des propriétés des cristaux liquides nématiques est la capacité à produire des disclinaisons programmables.

Une autre propriété est d'attirer à elles de petits objets. En appliquant des tensions différentes sur les particules adjacentes, la polymérisation aboutit à une structure cohésive. Selon les chercheurs, ce procédé pourrait être étendu afin de produire simultanément un grand nombre de microfils entre les substrats, et ainsi conduire au développement à grande échelle de circuits intégrés tridimensionnels.

Comme on le sait, l'industrie des semi-conducteurs est soumise à la fameuse loi de Moore, une théorie selon laquelle la densité des transistors sur une puce double tous les deux ans environ. C'est un postulat émis en 1965 par Gordon Moore, cofondateur d'Intel, qui s'appliquait alors au nombre de transistors dans un circuit intégré.

Erigé en loi, il a été réévalué en 1975 pour s'appliquer aux microprocesseurs. Cette deuxième loi est à peu près vérifiée depuis 1973 et devrait théoriquement buter, en 2015, sur les limites physiques du silicium : effets quantiques, désintégration alpha. A ce rythme, les processeurs devraient contenir en 2015 plus de 15 milliards de transistors. En pratique, on observe un ralentissement de cette loi dû à des difficultés de dissipation thermique qui empêchent une montée en fréquence des processeurs.

Pour contourner ces problèmes, depuis 2004, on parallélise et on augmente le nombre de processeurs sur une puce en conservant la même fréquence d'horloge. En 2007, lors de l'IDF (Intel Developer Forum), Gordon Moore a confirmé que sa loi sera caduque d'ici dix à quinze ans. L'industrie s'approche des limites de la micro-électronique, où les transistors ne seront plus constitués que de quelques atomes ; elle doit donc chercher des méthodes entièrement nouvelles telles que des structures de transistors en 3D.

Les travaux des chercheurs strasbourgeois sont donc tout à fait dans cette lignée prédite par Moore. A noter que d'autres scientifiques travaillent sur des méthodes de fabrication. Des équipes du MIT (Massachusetts Institute of Technology) ont présenté des procédés chimiques utilisant des nanotubes ou du nitrure de gallium.

OINet

La théorie des cordes enfin utilisée en pratique
Vendredi, 05/02/2010 - 00:00

La théorie des cordes cherche à expliquer les lois de la physique grâce à des "cordes" extrêmement petites qui seraient dans différents états de vibration. Cette théorie des cordes n'est en général pas considérée comme pertinente pour l'explication d'expériences pratiques en physique des particules. Cependant, deux chercheurs de la Niels Bohr International Academy ont, en collaboration avec un collègue du centre de recherche français de Saclay, montré que la théorie des cordes peut être utilisée pour déduire des relations entre processus qui peuvent être étudiés au Grand Collisionneur de Hadrons (LHC) situé au CERN, à Genève. Leurs résultats sont publiés dans la Physical Review Letter.

La théorie des cordes est l'une des voies envisagée pour concilier la théorie de la mécanique quantique (description des petites échelles) et la théorie de la relativité générale (qui décrit la gravitation de manière relativiste). La théorie des cordes ne s'arrête pas à cette réconciliation, mais cherche à unifier les quatre interactions élémentaires connues. On parle également de théorie du tout.

Si la théorie des cordes est exacte, les particules fondamentales de l'Univers ne sont pas ponctuelles, mais sont des "cordelettes" vibrantes possédant une tension, telles un élastique. Ce qui est perçu comme des particules de caractéristiques distinctes ne sont en fait que des cordes vibrant différemment. Dans ce cas, l'univers contiendrait plus de trois dimensions spatiales. Certaines d'entre elles seraient repliées sur elles-mêmes, ce qui les ferait passer inaperçues à notre échelle.

La théorie des cordes stipule que l'échelle la plus petite de l'univers consiste en une cascade de particules dans un état différent. Or, le LHC à Genève donne la possibilité d'observer les particules ayant l'énergie la plus basse. Donc, si des relations entre tous les états des cordes peuvent être déduites, alors des relations entre les processus observés dans le LHC pourront en être dérivées.

C'est la qu'interviennent nos physiciens danois : les physiciens des particules Emil Bjerrum-Bohr et Poul Henrik Damgaard de la Niels Bohr International Academy, et Pierre Vanhove de Saclay en France ont, en prenant pour base ces informations, démontré des relations surprenantes à partir de la théorie des cordes.

En principe, des méthodes plus conventionnelles sont utilisées en physique des particules pour démontrer de telles relations. Etonnamment, les nouvelles relations entre les processus observés au LHC ont été démontrées d'une manière rapide et élégante en partant de la théorie des cordes, ce qui n'avait jamais été fait jusqu'ici en physique des particules.

BE

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
Les prairies : des puits de carbone efficaces contre le réchauffement climatique
Vendredi, 05/02/2010 - 00:00

Les pâturages et parcours qui absorbent et stockent le CO2,"ont un vaste potentiel inexploité pour atténuer le changement climatique" lit-on dans un communiqué publié par l'ONU. Les 3,4 milliards d'hectares de prairies représentent 30 % de la surface de la Terre et 70 % des terres agricoles et d'après le FAO, l'exploitation de ce potentiel devrait constituer l'une des principales priorités de l'après-Kyoto. Les pâturages stockent 30 % du carbone du sol dans le monde mais sont particulièrement sensibles à la dégradation des sols. Le surpâturage, la salinisation, l'acidification et d'autres processus affecteraient en effet 70 % des pâturages alors qu'une meilleure gestion de ces puits de carbone pourrait permettre de capturer, selon certaines estimations, 1 milliard de tonnes de CO2 par an.

Le FAO préconise que la communauté internationale, pour commencer, se fixe pour objectif de gérer 5 à 10 % des terres de parcours de manière à pouvoir séquestrer le carbone d'ici à 2020. "Cela permettrait de stocker 184 millions de tonnes de carbone par an" souligne l'ONU. Et d'ajouter que cette gestion améliorée des prairies pourrait également "aider les populations pastorales à s'adapter au changement climatique parce que le carbone supplémentaire ainsi stocké améliore la capacité des sols à retenir l'eau et donc leur capacité à résister à la sécheresse".

MS

La fonte des glaciers reste indubitable
Vendredi, 05/02/2010 - 00:00

En dépit de l'erreur du Groupe d'experts intergouvernemental sur l'évolution du climat (GIEC) donnant pour quasi disparus les glaciers de l'Himalaya vers 2035, le problème du recul des glaciers d'altitude est bien réel. Or ces derniers sont essentiels à l'approvisionnement en eau des vallées. Dans l'Himalaya, explique Christian Vincent, du Laboratoire de glaciologie et de géophysique de l'environnement, "on sait que (la plupart des glaciers) sont en retrait continu depuis le milieu du XIXe siècle, mais nous avons très peu de longues séries de mesures suffisamment précises pour avoir une vision nette et globale de leur avenir à l'échelle de quelques décennies". Ailleurs, dans les Andes notamment, la situation est mieux connue.

Et plus alarmante. "Dans la Cordillère blanche, par exemple, entre 1970 et 1997, les surfaces glaciaires ont perdu 16 %. Puis encore 11 % entre 1997 et 2003,} poursuit le glaciologue Robert Gallaire de l'Institut de recherche pour le développement. C'est un phénomène qui accélère. Sur les 720 glaciers recensés en 1970, 142 avaient disparu en 2003."

LM

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Des cellules de peau transformées en neurones
Vendredi, 05/02/2010 - 00:00

Des chercheurs de l'Université de Stanford (États-Unis) sont parvenus pour la première fois à reprogrammer directement des cellules de peau de souris en des cellules neuronales fonctionnelles. Cette découverte publiée dans la revue Nature (Voir article du 27 janvier

pourrait révolutionner les techniques de thérapie génique et fournir un nouveau moyen d'étudier des maladies neurodégénératives comme Alzheimer ou Parkinson.

Les biologistes ont longtemps cru que la spécialisation cellulaire, aussi appelée différenciation, était un processus irréversible du développement : les cellules souches embryonnaires, pluripotentes et immortelles à l'origine, donnent naissance à des lignée de cellules filles qui se spécialisent en devenant mortelles et en perdant définitivement certaines fonctions.

Toutefois, le clonage de la brebis Dolly en 1997 et la découverte en 1987, d'un procédé permettant de transformer des cellules humaines de peau en cellules souches embryonnaires ont montré que cette spécialisation cellulaire pouvait être réversible.

Marius Wernig est ses collaborateurs du Stanford Institute for Stem Celle Biology se sont alors demandés s'il n'était pas possible de « reprogrammer » directement des cellules adultes spécialisées en d'autres types de cellules adultes, sans passer par l'étape « cellule souche embryonnaire ».

Pour tester cette hypothèse, ils ont manipulé le génome de cellules de peau de souris en leur injectant- par inoculation d'un rétrovirus- trois gènes impliqués dans le développement neuronal. 32 jours après ce traitement, certaines cellules de peau ont commencé à se comporter comme des neurones.

En affinant leur protocole, les chercheurs sont parvenus à obtenir jusqu'à 20 % de cellules neuronales en moins d'une semaine ; avec les techniques antérieures, on ne parvenait à obtenir, après plusieurs semaines, que 1 à 2 % de cellules souches à partir de cellules adultes.

« Notre technique est rapide, efficace et elle ne génère aucune cellule souche cancérigène, l'effet secondaire le plus gênant des techniques de médecine régénérative par thérapie génique » explique Marius Wernig dans Nature, tout en précisant que des études supplémentaires seront nécessaires pour déterminer s'il est possible de produire de cette manière des neurones humains.

« Ainsi, ces neurones reprogrammés pourraient rapidement constituer un nouvel outil puissant pour étudier la plasticité neuronale, pour modéliser in vitro les maladies neurologiques, pour tester de nouveaux médicaments et pratiquer une véritable médecine régénérative ».

Yaroslaw Pigenet

La surprenante évolution du chromosome Y
Vendredi, 05/02/2010 - 00:00

La comparaison du chromosome Y chez l'humain et chez le chimpanzé montre que le chromosome Y a évolué très vite, probablement plus vite que les autres chromosomes, en 6 millions d'années (temps estimé de la séparation entre les deux espèces).

A cause de ses nombreuses séquences répétitives de gènes et de ses palindromes (des séquences qui peuvent être lues dans les deux sens) qui compliquent les opérations de séquençage, le chromosome Y est souvent exclu des études. Pour le chromosome Y humain, ce travail a été effectué en 2003 par l'équipe de David Page, biologiste au MIT et au Whitehead Institute for Biomedical Research (Cambridge, E-U). Son équipe vient de finaliser la séquence du Y du chimpanzé avec le même degré de détail, permettant pour la première fois une véritable étude comparative.

Les chercheurs ont eu la surprise de constater que les deux chromosomes étaient très différents : plus de 30 % de leurs séquences n'ont pas d'homologue, alors que l'ensemble des deux génomes est semblable à plus de 98 %. Si sa structure est plus dépouillée, le chromosome Y humain possède un répertoire de gènes plus complexe et plus diversifié que celui du chimpanzé selon Page et ses collègues, qui publient leur étude dans la revue Nature.

Les divergences pourraient notamment découler des différences dans le mode de reproduction. La compétition est plus forte entre les mâles pour les grands singes que pour Homo sapiens, entraînant une pression de sélection plus forte pour les gènes impliqués dans la fabrication du sperme chez les chimpanzés, suggèrent les chercheurs.

L'évolution rapide est sans doute également liée à la solitude du chromosome Y (les combinaisons XYY sont rares), qui ne peut échanger de matériel génétique avec un congénère au moment de la division cellulaire, alors que ce processus permet de limiter les changements. Pour aller plus loin, Page et ses collègues prévoient de séquencer d'autres chromosomes Y de mammifères, afin de voir s'ils évoluent aussi rapidement.

Nature

Découverte d'un lien entre la régulation des graisses dans les cellules et le développement des cancers
Vendredi, 05/02/2010 - 00:00

Le comportement invasif des cellules cancéreuses est à l'origine de leur caractère pathogène : en se développant de manière anormale, elles forment des tumeurs nocives à l'organisme dans un ou plusieurs organes, provoquant leur destruction.

Lorsque ces tumeurs peuvent s'étendre à d'autres organes et croissent sans limite, elles sont qualifiées de "malignes". Certaines cellules cancéreuses provoquent des tumeurs malignes tandis que d'autres provoquent des tumeurs dites bénignes, qui ne s'étendent pas d'un organe à un autre. On peut parler d'"agressivité" des cellules cancéreuses. Les cancers sont donc plus ou moins dangereux pour la vie en fonction de l'organe qu'ils touchent mais également de l'agressivité des cellules cancéreuses qui en sont à l'origine.

Une étude menée entre 1982 et 1998 sur 900.000 personnes avait montré en 2003 un lien entre le surpoids et la mortalité causée par les cancers. Cette étude avait permis de confirmer le lien entre surpoids et cancers du sein, de l'utérus, du colon, du rectum, des reins, de l'oesophage et de la vésicule biliaire mais avait également établi un lien similaire pour les cancers du col de l'utérus et des ovaires, la maladie de Kahler, les lymphomes non-hodgkiniens, les cancers du pancréas, du foie et, chez les hommes, de l'estomac et de la prostate. Cette étude montrait qu'un excès de poids pouvait être à l'origine de 14 % des décès liés à des cancers chez l'homme et 20 % chez la femme. Le surpoids était alors considéré à la fois comme un facteur de risque pour le développement de cancers et comme une difficulté pour leur diagnostic et leur traitement.

Une équipe du Scripps Research Institute, situé à San Diego en Californie a publié une étude intitulée "Monoacylglycerol Lipase Regulates a Fatty Acide Network that Promotes Cancer Pathogenesis" dans la revue Cell du 7 Janvier 2010. Cette étude montre que les graisses jouent un rôle beaucoup plus direct sur le développement des cancers. L'équipe de Benjamin Cravatt, chairman du département de chimie physiologique au Scripps Research Institute, a mis en évidence le rôle d'une protéine appelée MAGL (pour "MonoAcylglycerol Lipase") dans le développement des tumeurs malignes.

En comparant des cellules saines et des cellules cancéreuses, l'équipe du Scripps a observé que le taux de MAGL était très supérieur à la normale dans ces dernières. En comparant les conséquences d'une inhibition ou d'une stimulation de l'activité de MAGL, les chercheurs ont montré que la suractivité de cette protéine était non seulement nécessaire mais suffisante pour augmenter l'agressivité des cellules cancéreuses.

Le rôle de MAGL est de libérer les graisses, stockées dans les cellules sous forme de lipides. Ces lipides sont des molécules volumineuses que MAGL découpe en molécules plus petites, appelées acides gras libres, qui sont à l'origine de molécules connues pour favoriser le développement des tumeurs. Les chercheurs ont ainsi montré que certaines cellules cancéreuses étaient capables, par le biais d'une suractivité de MAGL, de produire des quantités très importantes d'acides gras libres nécessaires à leur développement agressif.

Les différentes cellules cancéreuses sont plus ou moins capables de suractiver MAGL, d'où leurs différences d'agressivité. En introduisant des quantités importantes d'acides gras libres dans l'organisme, les régimes riches en graisses, qui sont généralement la cause de l'obésité, permettent aux cellules cancéreuses les moins agressives d'avoir un accès direct à des quantités importantes d'acides gras libres. Ainsi, même les tumeurs initialement bénignes peuvent acquérir un caractère malin beaucoup plus grave pour la santé.

Des expériences sont en cours pour déterminer si des traitements visant à inhiber l'activité de MAGL pourraient permettre d'enrayer la progression du cancer chez les patients.

Cette approche pourrait, si elle est possible, constituer une nouvelle voie de thérapie, présentant des effets secondaires réduits par rapport aux thérapies actuelles. En effet, ces dernières inhibent des processus nécessaires au développement de toutes les cellules et détruisent donc aussi bien des cellules cancéreuses que des cellules saines. En visant MAGL, les chercheurs espèrent pouvoir bloquer uniquement le développement agressif des cellules cancéreuses, sans toucher le développement normal des cellules saines.

BE

Cancer : vers un profil moléculaire spécifique pour chaque malade
Vendredi, 05/02/2010 - 00:00

Une collaboration internationale de scientifiques incluant des chercheurs britanniques, néerlandais et américains a publié dans le journal Nature le génome complet des cellules malades de deux individus atteints de cancers. Il s'agit là d'une avancée scientifique majeure, première du genre au monde, qui entre dans le cadre d'une étude internationale financée à hauteur de 600M£ pour identifier les mutations responsables de 50 cancers communs distincts.

L'initiative, sous la coupe de l'International Cancer Genome Consortium, compte séquencer 500 patients pour chaque type de cancer. Au Royaume-Uni, les scientifiques impliqués travaillent à l'Institute of Cancer Research et au Sanger Institute près de Cambridge, un institut de recherche appartenant à la fondation Wellcome Trust, déjà largement impliqué dans le Human Genome Project.

Grâce à des machines de séquençage de plus en plus puissantes, rapides et peu sujettes à l'erreur, les scientifiques ont effectué le séquençage du code génétique d'une cellule cancéreuse et l'ont comparé à celui d'une cellule saine, chez chaque patient.

Ceci leur a permis non seulement d'identifier les mutations génétiques touchant le génome de la cellule malade mais également de découvrir l'histoire même (origine, datage, etc.) de ces mutations grâce à un catalogue de mutations qui donne des informations importantes sur la manière selon laquelle le cancer s'est développé chez le patient. Leurs travaux ont été comparés à ceux d'archéologues, les résultats obtenus leur permettant d'observer les traces déposées (mutations) par l'ensemble des processus ayant opéré pendant plusieurs décennies antérieures aux premiers symptômes de la maladie.

Chez le premier individu de 55 ans atteint d'un cancer du poumon, la cellule cancéreuse présente près de 23.000 mutations distinctes, la majorité ayant été induites par les agents carcinogènes contenus dans la fumée du tabac. Bien entendu, la plupart de ces mutations ne provoque aucun effet néfaste, et seul un petit nombre contribue au déclenchement de la maladie.

Chez la deuxième personne de 43 ans, atteinte d'un mélanome malin, le génome de la cellule séquencée montre plus de 33.000 mutations comparé à une cellule saine. Ces mutations démontrent un pattern très éclectique, variant d'une mutation unique à des erreurs incluant plusieurs centaines de milliers de lettres de code réarrangées ou supprimées, ou encore échangées entre chromosomes différents. Dans le cas de ce patient, les scientifiques ont pu établir que la majorité des mutations provenaient de radiations d'ultraviolets.

La prochaine étape de ces recherches portera sur l'identification des mutations responsables du déclenchement de la pathologie. Pour cela, les scientifiques devront accroître le nombre de cellules cancéreuses séquencées, et donc le nombre de patients, afin d'identifier les mutations récurrentes entre individus. Une fois identifiées, ces séquences pourront devenir la cible pour la recherche de nouvelles thérapies.

A terme, il serait possible que chaque personne atteinte d'un cancer soit diagnostiquée génétiquement avant que ne soit démarré un traitement approprié. Ce diagnostic pourrait alors s'appuyer non plus sur la localisation d'une tumeur dans l'organisme mais sur son type de profil génétique. Les perspectives cliniques pourraient ainsi être profondément transformées à moyen ou long terme car la connaissance de la cause génétique du déclenchement du cancer permettra la mise au point traitements (chimio, radiothérapies) présentant moins d'effets secondaires.

BE

Des cellules souches embryonnaires utilisées pour soigner la maladie de Huntington
Vendredi, 05/02/2010 - 00:00

Depuis 2002, les CHU de Nantes, Angers et Rennes procèdent à des greffes de neurones provenant de "produits d'IVG", dans le but de soigner la chorée de Huntington. Ce que l'on appelle "produit d'IVG" est en fait constitué de cellules souches embryonnaires issues d'un avortement. Lorsqu'une femme avorte, on lui demande l'autorisation pour prélever des cellules du foetus éliminé à des fins scientifiques ou médicales. Les cellules, lors d'un protocole normal, sont incinérées.

Même si ce genre d'expérience remet en cause certaines lois bioéthiques sur l'utilisation des cellules souches embryonnaires, il permet de retarder considérablement certains aspects de la maladie de Huntington. En effet, à l'âge adulte, les neurones, sauf dans quelques zones bien définies du cerveau, ne se renouvellent plus. Or, la maladie de Huntington est caractérisée par une dégénérescence des cellules nerveuses. Il en réside une affectation des fonctions motrices et cognitives (des mouvements choréiques, des troubles de l'équilibre, une certaine léthargie) qui conduit vers la démence, puis la mort. Elle touche majoritairement les 40-50 ans et l'âge moyen du décès est de 55 ans.

Des expériences ont donc été mises en place aux CHU de Nantes, Angers et Rennes, aujourd'hui leaders au niveau mondial, afin de trouver un curatif. Comme pour beaucoup de maladies génétiques, la solution réside dans l'utilisation de cellules souches. Depuis 2002, huit patients atteints de la chorée de Huntington se sont vu injecter les neurones de seize foetus. Cette expérience semble limiter l'évolution de certains aspects de la maladie pendant plusieurs années.

Des conclusions concrètes devraient être données courant 2010, même si les résultats, pour l'instant, ne sont pas révolutionnaires d'un point de vue médical. Les scientifiques des CHU impliqués tiennent à rappeler que le premier greffé du coeur n'a vécu que sept jours alors qu'aujourd'hui, ce type de transplantation sauve des vies sur le long terme.

MS

Alzheimer : une protéine potentiellement active contre la maladie
Vendredi, 05/02/2010 - 00:00

C'est une nouvelle piste pour une pathologie qui atteint désormais 800 000 personnes en France et qu'aucun traitement n'est parvenu jusqu'ici à ralentir. Une protéine naturellement présente dans le cerveau, appelée FKBP52, pourrait peut-être permettre de lutter contre la maladie d'Alzheimer, selon des travaux préliminaires publiés dans les comptes rendus de l'Académie américaine des sciences par l'équipe du Pr Étienne-Émile Baulieu. À 83 ans, l'infatigable endocrinologue et biochimiste, célèbre pour ses découvertes concernant la DHEA et la pilule abortive RU486, poursuit ses recherches sur le vieillissement.

Le cerveau des malades d'Alzheimer se caractérise par deux types de lésions : d'une part des dépôts de plaques de protéines bêta-amyloïde autour des neurones ; d'autre part l'accumulation de protéine tau dans ces cellules, qui altère leur fonctionnement. Jusqu'à présent, c'est majoritairement la piste bêta-amyloïde qui a été explorée pour mettre au point des traitements. Avec un certain nombre d'échecs, et beaucoup d'essais en cours, notamment avec des vaccins.

Les chercheurs se penchent aussi sur les anomalies de la protéine tau, impliquées également dans d'autres dégénérescences cérébrales. Mais pour l'instant, un seul médicament «anti-tau», le Rember, a été testé chez des malades (lire nos éditions du 31 juillet 2008). C'est également à cette voie que s'attaque le Pr Baulieu avec son FKBP52. Découverte et clonée par son équipe vers 1992, cette substance appartient à la famille des immunophilines, des protéines qui se lient à certains médicaments immunosuppresseurs. La présence en grande quantité dans le cerveau du FKBP52 avait suggéré au chercheur que cette protéine avait peut-être d'autres fonctions qu'immunologiques.

En 2007, Étienne-Émile Baulieu et Béatrice Chambraud (Inserm) ont découvert que cette protéine interagit avec les microtubules cérébraux - des petits canaux indispensables au bon fonctionnement des neurones et aux communications de ces cellules. Ils viennent de franchir une nouvelle étape en démontrant, sur des cellules, que le FKBP52 peut en fait bloquer les développements délétères de la protéine tau (qui s'accroche aux microtubules). Pour le Pr Baulieu, c'est un nouvel espoir pour tenter de freiner ou de corriger les anomalies des protéines tau. Il envisage maintenant de tester cette approche sur des modèles animaux de la maladie d'Alzheimer, grâce à des collaborations avec des équipes britanniques et australiennes.

«Nos recherches ouvrent aussi des possibilités pour un diagnostic précoce de la maladie, les anomalies biochimiques étant présentes au moins cinq à dix ans avant les signes cliniques», poursuit le chercheur. Le Dr Claude Sebban (hôpital Charles-Foix, Ivry) confirme qu'une collaboration s'institue avec l'Institut de longévité de Paris, notamment pour mettre au point des méthodes de dosage.

Figaro

Des capsules « intelligentes » qui libèrent leur contenu à température choisie
Vendredi, 05/02/2010 - 00:00

Pour délivrer un contenu, par exemple un agent thérapeutique en médecine, on utilise souvent des supports en silice. La propagation se fait alors via les pores de la silice ou par dissolution de celle-ci, mais elle n'est pas ou très peu contrôlée. Afin de pallier à cet inconvénient majeur, trois chercheurs du Centre de recherche Paul Pascal, une unité propre du CNRS, ont mis au point une méthode astucieuse, tout à fait inédite : des capsules pouvant libérer leur contenu à la demande, sous l'effet d'une augmentation de température.

L'idée est simple et la fabrication du dispositif également : les scientifiques dispersent de l'huile, qui peut contenir un agent spécifique, dans de l'eau. Stabilisée sous forme de gouttes par des particules de silice, cette émulsion a pour particularité essentielle d'être constituée d'huile liquide à température de fabrication (65°C) mais solide à température ambiante.

Une coque de silice est ensuite polymérisée autour des gouttes refroidies : on obtient alors des capsules stables au stockage. Il est dès lors possible de provoquer la libération du contenu des capsules en les chauffant au-delà de la température de fusion de l'huile choisie. Le passage de l'état solide à l'état liquide s'accompagne d'une expansion volumique de l'huile confinée, ce qui suffit à casser l'écorce de silice.

La température de libération requise peut aisément être sélectionnée entre 35°C et 56°C en choisissant l'huile adéquate ou en mélangeant plusieurs types d'huile. Elle correspond à la température de fusion de l'huile ou du mélange. Un autre paramètre est ajustable : le mode de libération du contenu qui peut s'effectuer soit par trains de gouttelettes, soit en totalité et en une seule fois, ce qui permet de contrôler la vitesse de libération du contenu.

Le principe est très simple, peu coûteux et applicable à de très nombreux systèmes. Ce dispositif pourrait par exemple jouer le rôle de témoin de conservation d'aliments ou permettre la délivrance d'un parfum dans l'air, sur un textile ou sur la peau. On peut aussi penser à la libération d'un agent thérapeutique sur la peau qui pourrait, dans ce cas, être provoquée par un frottement local lors de l'étalement (le frottement induisant un échauffement). Autre exemple : l'émission d'un bactéricide lorsque la température atteint la température de prolifération de bactéries dans des conduits.

CNRS

^ Haut
Recherche
Recherche & Innovation, Technologies, Transports
Un avion électrique personnel !
Vendredi, 05/02/2010 - 00:00

C'est encore un concept mais pourquoi ne pas imaginer qu'un jour, dans les grandes villes, les livraisons urgentes et les transports rapides se feront dans les airs grâce à un petit avion électrique comme celui qu'ont imaginé des ingénieurs de la Nasa (Langley Research Center) et d'autres centres de recherches (

Propulsé par un moteur électrique, ce véhicule à une place décolle et se pose verticalement. Conçu en fibre de carbone, il pèse 135 kilos et mesure 3,7 mètres de long pour 4,1 mètres d'envergure. A cela s'ajoute 45 kilos de batteries. Grâce à son moteur électrique, il est très silencieux et devrait voler à 240 km/h. Au sol, l'avion repose sur quatre pattes -ce sont les ailes arrière qui se rejoignent pendant le vol. Le pilote s'installe quasiment debout dans l'avion. Après avoir quitté le sol, l'avion s'incline et prend une position horizontale pendant le vol, offrant au pilote un point de vue imprenable...

Ce concept a été présenté lors d'un meeting de la société américaine d'hélicoptère. Son petit nom est Puffin, autrement dit «le macareux». Les ingénieurs font notamment référence à cet oiseau marin à cause de ses courtes ailes et de sa démarche un peu malhabile qui lui donne un air curieux, relate le magazine Scientific American.

Un prototype de démonstration (mesurant un tiers de la taille finale) doit être fabriqué d'ici mars pour mener des tests. Pour l'heure, les batteries au lithium lui permettraient de voler 80 kilomètres. Cependant les chercheurs interrogés par le magazine américain sont confiants : ils pensent atteindre 240 à 320 km d'ici 2017 grâce à l'amélioration attendue des batteries. Silencieux, léger, furtif -il dégage peu de chaleur et échappe ainsi à la détection radar-, cet avion intéresse aussi l'armée et la sécurité civile.

NO

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top