|
|
|
|
|
NUMERO 443 |
|
|
|
|
|
|
|
Edition du 25 Juillet 2007
|
|
|
|
|
Edito
La machine à voyager dans le temps deviendra t-elle une réalité?
La machine à explorer le temps, immortalisée par l'écrivain Herbert Georges Wells, pourrait un jour devenir réalité, affirment des scientifiques de l'Institut israélien de technologie, le Technion. L'équipe annonce avoir mis au point un modèle expérimental qui, dans un futur lointain, pourrait permettre à nos successeurs de voyager dans le temps. Pour réaliser cette machine, les scientifiques se sont reposés sur la théorie de la relativité d'Einstein et le principe de courbure de l'espace. Selon ces physiciens, il est possible d'entraîner l'incurvation d'un espace-temps dans une direction définie pour rendre possible un retour dans le temps dans un espace-temps parallèle. "La machine devient elle-même un espace-temps", explique le professeur Amos Ori de la Faculté de physique du Technion. Et, en suivant la théorie du chercheur israélien, c'est le fait même d'en fabriquer une qui autoriserait le voyage dans le passé. "En créant aujourd'hui une machine à remonter le temps, nous rendrions possible le retour dans notre temps aux générations futures. Si nous ne pouvons malheureusement pas nous rendre dans notre passé, c'est parce que nos prédécesseurs n'ont pas créé ce type d'infrastructure pour nous". Le système développé par les scientifiques dépasse certaines des limites rencontrées jusqu'à présent pour élaborer ce type de machines. Les chercheurs de Technion sont persuadés qu'il est possible de recourir à un espace vide contenant de la matière positive pour remonter dans le temps. Mais avant de construire ce "chronoscaphe", bien des obstacles, théoriques et pratiques, restent à surmonter, à commencer par le contrôle des champs gravitationnels. D'autres scientifiques ont envisagé d'utiliser un trou noir ou un trou de vers pour voyager dans le temps. Mais encore faudrait-il pouvoir rentrer dans le trou noir sans être écrasé, étiré et détruit car la singularité centrale est d'une densité infinie. Une solution est envisageable si les trous noirs tournent autour d'un axe central. Ceci permet de définir un point par lequel il est possible de pénétrer dans un trou noir en toute sécurité. Comme dans l'oeil du cyclone, ce point serait dénué de toute force gravitationnelle ! Autre obstacle, et non des moindres, un trou blanc viole le second principe de la thermodynamique qui veut que dans un système fermé, l'entropie (désordre) ne peut pas décroître, autrement dit, on ne peut pas créer de la matière à partir du néant. Le voyage dans le temps n'est donc pas pour demain mais il n'est pas définitivement à exclure. Certains physiciens ont en effet émis l'hypothèse, parfaitement possible, en théorie, qu'il existe des "fontaines blanches", qui courberaient l'espace dans le sens inverse et qui, au lieu d'attirer la matière, la cracheraient. Le trou noir et la fontaine blanche formeraient un trou de ver, sorte de raccourci dans l'espace temps. Il serait alors possible, en théorie, de fabriquer un trou de ver dont le trou noir est immobile par rapport à nous et dont la fontaine blanche se déplace à des vitesses proches de celle de la lumière. Le temps ne s'écoulera pas de la même manière aux extrémités du tunnel : il sera plus lent du coté de la fontaine blanche. Ainsi, quand deux mois se seront écoulés à l'entrée du trou noir la fontaine blanche sera en retard, dans le passé. Il suffira alors d'emprunter le trou de ver pour remonter le temps. Au mieux, on ne pourra revenir qu'à la date de création du trou de ver. La machine à remonter le temps est donc un tunnel spatio-temporel dont l'entrée respecte l'évolution du temps, mais dont la sortie reste figée à la date de sa création. Imaginons que l'on parvienne à créer un tel tunnel le 1er janvier 2050. Si l'on utilise ensuite ce tunnel en 2100, on doit pouvoir en ressortir le 1er janvier 2050. Mais en admettant que toutes les immenses difficultés techniques et matérielles liées à la réalisation d'une telle machine puissent être surmontées, il reste à résoudre certains paradoxes redoutables comme celui du "voyageur imprudent". Que se passerait-il en effet si un voyageur temporel revenait dans le passé et tuait son grand père ? Cesserait-il d'exister ? Continuerait-il d'exister dans une autre dimension temporelle parallèle ? Autant de questions passionnantes qui n'ont pas fini de faire les beaux jours des films et romans de Science-Fiction. Le simple fait que la machine à voyager dans le temps ne soit plus considérée comme une absurdité ou une totale impossibilité scientifique et soit envisagée comme une perspective certes lointaine mais faisable est tout de même fascinant et en dit long sur les extraordinaires avancées dans la connaissance des lois physiques fondamentales qui régissent notre univers. René Trégouët Sénateur honoraire Fondateur du Groupe de Prospective du Sénat
|
|
|
|
|
|
|
|
TIC |
|
|
Information et Communication
|
|
|
|
|
|
|
|
|
A partir de septembre, 200 salariés du groupe japonais Hitachi vont "payer de leur personne" pour tester un nouveau procédé de paiement qui ne nécessite ni carte bancaire, ni pièces, ni billets, ni rien d'autre. En collaboration avec des commerçants et la société de crédit JCB. Lors du passage en caisse, les cobayes n'auront qu'à préciser qu'ils souhaitent être débités sur leur compte JCB : ils seront alors invités à placer un doigt au-dessus d'un lecteur qui captera l'image du réseau vasculaire par rayon lumineux sans contact direct. La structure des vaisseaux capillaires du doigt est unique, elle ne se modifie pas dans le temps et, selon Hitachi, est impossible à reproduire artificiellement. Ces données biométriques, transmises par liaison informatique, seront immédiatement comparées à celles préalablement enregistrées dans la base de données de JCB, aux côtés des références bancaires du client. Comme pour un achat traditionnel payé par carte, le montant sera automatiquement débité en fin de mois sur le compte courant associé. Si aucun échantillon biométrique correspondant à l'image recueillie chez le commerçant n'est identifié dans les serveurs de JCB, la transaction sera refusée. "C'est rapide, pratique et sûr", assure Hitachi. Cette expérimentation, la première du genre au Japon, vise à élaborer un modèle technique et économique viable avant un lancement commercial envisagé dans les prochains mois. La biométrie est très répandue au Japon, dans les entreprises ou les hôpitaux, par exemple pour le contrôle d'accès et les connexions au réseau. Beaucoup de banques nippones ont mis en place des outils biométriques pour authentifier leurs clients lors des opérations de retrait ou de transfert d'argent aux distributeurs automatiques multi-services. "L'usage croissant des moyens de paiement dématérialisés pousse les organismes financiers à fiabiliser leurs systèmes de sécurité, en exploitant des techniques de différenciation des caractéristiques humaines infalsifiables", souligne Hitachi. Les banques japonaises ont opté pour la reconnaissance du réseau vasculaire du doigt de Hitachi, ou celle des veines de la main de Fujitsu, car ces procédés sont sûrs et sans contact, donc plus hygiéniques et moins contraignants en termes de maintenance. Leurs clients semblent satisfaits. A l'instar des banques, qui vantent leurs techniques biométriques dans des spots publicitaires télévisés, un célèbre restaurant de nouilles de Tokyo s'en sert pour appâter le chaland. L'établissement, "Hanamaru Udon", offre une ristourne aux clients qui acceptent que chacune de leur visite soit enregistrée dans la mémoire de ses ordinateurs. Pour ce faire, ils n'ont qu'à passer le doigt sur un lecteur après s'être inscrits une fois pour toutes. La prochaine étape sera l'encaissement direct du repas sur leur compte en banque. Le paiement biométrique, par empreintes digitales, image des veines ou iris de l'oeil, viendra s'ajouter aux porte-monnaie électroniques à puce sans contact qui, intégrés dans les téléphones portables, sont déjà très utilisés au Japon. Les cartes bancaires traditionnelles sont généralement réservées aux gros montants. "Les encaissements de moins de 3.000 yens (20 euros) représentent un volume annuel de plus de 60.000 milliards de yens (350 milliards d'euros)", soit près du triple du montant des paiements par carte, souligne le directeur des services de la compagnie de téléphonie mobile NTT DoCoMo, Takeshi Natsuno. NFR
|
|
|
|
|
|
|
|
Le système se présente sous la forme d'une sorte de casque à positionner sur les tempes ou d'un accessoire à fixer sur des branches de lunettes. Relié à un appareil électronique, il permet de lui ordonner trois ou quatre types d'actions différentes telles que "lecture, stop, avance, retour" dans le cas d'un lecteur de musique. Et ce en serrant les dents de gauche, en serrant les dents de droite ou en remuant les mandibules d'une autre façon. "Il est ainsi possible de commander un instrument sans utiliser ses mains", a expliqué à l'AFP Fumio Miyazaki, ingénieur de l'université d'Osaka (ouest) et un des créateurs du concept. Des capteurs à infrarouge détectent les variations se produisant au niveau des tempes lorsque le sujet ouvre et ferme la bouche et transforment ce signal en instruction électrique. Pour être compris par le dispositif, le mouvement de la mâchoire doit durer environ une seconde, de façon à le différencier des gestes que l'on effectue en parlant, en mangeant ou en mâchant du chewing-gum. "Ce système permettra par exemple de commander son baladeur ou téléphone portable en gardant les mains libres dans un train bondé. Il autorisera aussi les personnes handicapées à manoeuvrer leur fauteuil roulant", a précisé le chercheur. Le système peut également constituer une nouvelle interface de saisie basique pour ordinateur, en lieu et place d'une souris. NFR
|
|
|
|
|
|
|
|
A l'occasion des festivités de la nuit blanche qui se tiendront le 8 septembre prochain, les habitants de Rome vont pouvoir tester un système de cartographie online révolutionnaire. Développé par des chercheurs du MIT, le projet Wiki City Rome consiste en une carte numérique capable d'afficher en temps réel les mouvements de la foule, les lieux d'événements particuliers, ou encore la position des trains et bus."La Notte Bianca de Rome c'est la ville, des gens et des événements, et Wiki City Rome va offrir une nouvelle perception aux romains de leur façon de se déplacer dans le cadre de cet exceptionnel bouillonnement d'activités", explique Kristian Kloeckl, chercheur du Senseable City Laboratory au MIT]. Le dispositif devrait également comprendre de grands écrans d'information affichant le Wiki City Rome aux quatre coins de la ville. Les badauds pourront ainsi se renseigner en temps réel sur ce qui se passe dans leur environnement immédiat. Le principe de cette invention repose sur les technologies sans fil et la détection des appareils mobiles tels que les téléphones et les navigateurs GPS. En recensant les données issues de ces appareils portables, il est ainsi possible de retracer leur parcours entre autres informations. Ces données sont finalement agrégées pour offrir une vue d'ensemble, affichée sur la carte. Les données recueillies sont bien sûr anonymes, répondant aux éventuelles critiques quant à la défense de la vie privée. Cette initiative s'inscrit dans le cadre d'un programme de recherche mené par le SENSEable City Laboratory autour de l'impact des nouvelles technologies sur les villes. Le Wiki City Rome s'inspire en outre du concept Real Time Rome qui avait été présenté à l'exposition d'art contemporain de la biennale de Venise en 2006. Pour Carlo Ratti, directeur du projet, il s'agit là d'une nouvelle évolution de l'utilisation d'Internet. "En consacrant le développement du web 2.0 et du web sémantique, Wiki City pourrait incarner l'avancée vers un "Internet des choses" qui accompagnerait l'action humaine et favoriserait l'interaction". Atelier
|
|
^ Haut |
|
|
|
|
|
|
|
Avenir |
|
|
Nanotechnologies et Robotique
|
|
|
|
|
|
|
|
|
Mathew Maye et son équipe du Brookhaven National Laboratory (New York), ont réussi à sous-traiter la fabrication de nanostructures... à des brins d'ADN. Ces ouvriers microscopiques ont assuré l'assemblage de minuscules particules d'or, ouvrant une nouvelle voie pour les nanotechnologies. Ce procédé original et prometteur vient d'être présenté aux dernières rencontres de la Société américaine de chimie, un événement annuel où il se passe toujours quelque chose d'intéressant. Sur le papier, le principe est simple. De courts brins d'ADN sont tout d'abord synthétisés, présentant certaines successions de leurs bases (au sens chimique du terme), qui sont au nombre de quatre, l'adénine, la thymine, la guanine et la cytosine. Pour ceux qui auraient oublié leurs cours de biologie, rappelons que dans une molécule naturelle d'ADN, l'ordre de ces bases (notées A, T, G et C) constitue le code génétique. Ce sont également ces bases qui assurent l'appariement des deux brins de la double hélice, l'adénine se liant à la thymine et la guanine à la cytosine. Les chercheurs ont ensuite fixé ces brins sur des particules d'or (ils semblent s'y adsorber facilement). Chaque morceau d'ADN va alors s'apparier avec un autre brin dont le code sera complémentaire (un A en face d'un T, un G en face d'un C). Comme les pièces d'un puzzle, les particules d'or, recouvertes de leurs brins d'ADN, vont se fixer les unes aux autres d'une seule et unique manière. Si l'on s'y prend bien, on peut ainsi provoquer l'auto-assemblage des particules en une structure à la forme voulue. L'équipe de Mathew Maye n'a pour l'instant rien fabriqué de concret. Mais les scientifiques ont appris à maîtriser la technique. En utilisant de multiples formes d'ADN, ils ont pu contrôler la vitesse d'assemblage des particules et, récemment, à obtenir des agrégats de tailles variées. Futura
|
|
^ Haut |
|
|
|
|
|
|
|
Matière |
|
|
Matière et Energie
|
|
|
|
|
|
|
|
|
Une batterie résistant à des températures extrêmes et à toutes formes de manipulations, respectueuse de l'environnement et qui s'imprime... Voilà le type d'appareil de stockage d'énergie que des chercheurs du Rensselaer Institute ont développé. Le composant, ultra fin et flexible, ressemble à s'y méprendre à une feuille de papier. Il est d'ailleurs fabriqué à 90 % de cellulose, et peut s'imprimer, être plié, coupé en plusieurs parties sans accuser de perte d'efficacité, ou encore être empilé, dans le but de booster son rendement énergétique. A terme, il devrait trouver sa place dans des véhicules de transport comme des automobiles, des avions et des bateaux, et dans les gadgets High-Tech de demain. Des secteurs qui requièrent des sources d'énergie toujours plus petites et puissantes. Il inègre également des nanotubes en carbone - responsables de sa couleur noire - qui agissent comme des électrodes et permettent à l'appareil de conduire l'électricité. "Les composants sont attachés les uns aux autres en imitant le système moléculaire : le nanotube en carbone imprimé est intégré au papier, et l'électrolyte est imbibé. Au final, l'appareil imite le papier à l'identique, et pèse le même poids", annonce Robert Linhardt, professeur de biocatalyse et d'ingénierie métabolique à Rensselaer. La micro-batterie fonctionne à la fois en tant que batterie à lithium-ion et en tant que supercondensateur-] - un condensateur qui permet d'obtenir une densité de puissance et d'énergie intermédiaire entre les batteries et les condensateurs électrolytiques classiques - deux fonctions généralement dissociées dans les systèmes électriques traditionnels. La batterie électrolytique est composée d'un liquide ionique, constitué principalement de sel. Celui-ci, qui ne contient pas d'eau, implique qu'aucun matériau de la batterie ne peut s'évaporer ou geler. D'où la résistance à des températures entre -100° et +300°. Autant dire qu'elle devrait également pouvoir s'intégrer dans des dispositifs médicaux implantés. En effet, la batterie peut fonctionner grâce à la sueur ou le sang humain. "C'est une nouvelle manière de faire fonctionner un appareil tel qu'un pacemaker sans introduire aucune substance chimique dans le corps, contrairement à celles contenues dans les batteries traditionnelles", ajoute Victor Pushparaj, responsable de recherches. Dernier avantage de cette batterie miracle : le matériel requis pour l'élaborer est très économique. Ce qui permettrait, dans l'avenir, de mettre au point un système d'impression en grand nombre identique à ceux utilisés pour éditer les journaux. Atelier: Atelier
|
|
|
|
|
|
|
|
Toyota Motor Corp et Electricité de France vont s'associer dans le cadre d'un partenariat sur la technologie "hybride. L'objectif de cet accord : développer un réseau de points de recharges pour les véhicules électriques et hybrides. Des tests seront effectués dans l'Hexagone : si cela s'avère satisfaisant, d'autres pays pourraient en bénéficier.Le constructeur japonais a annoncé fin juillet que son prototype, le Toyota Hybride Rechargeable, avait été homologué au Japon. :Le Toyota Hybride Rechargeable fonctionne avec un moteur essence combustion interne et un moteur électrique. La grande nouveauté est la batterie hybride, qui peut se recharger avec une prise de courant domestique traditionnelle. Prévue pour 2008, cette troisième génération devrait être rechargeable, ce qui lui permettra de fonctionner à l'électricité seulement pour une courte distance, avant d'avoir recours à son moteur à essence. Sous le capot se trouve un accumulateur au nickel-métal hydrure (NiMH), comme c'est le cas pour la Prius actuelle. Cette pile est cependant plus imposante et pèse 100 kilos de plus, éliminant du coup l'espace pour un pneu de secours. La voiture peut ainsi parcourir jusqu'à 13 kilomètres sans brûler d'essence. Elle ne consomme pas d'essence non plus durant l'accélération jusqu'à une vitesse d'au moins 100 km/h, une nette amélioration par rapport à la présente génération, qui lance la cylindrée au plus tard quand le véhicule atteint 68 km/h. Une fois vidée, la pile se recharge en environ trois heures. La possibilité de recharger les batteries de nuit, à bas tarif, augmente considérablement l'autonomie du véhicule en mode purement électrique, sans aucune émission nocive provenant du carburant fossile, ce qui réduit d'autant sa consommation et ses émissions de CO2. Il en résulte aussi un avantage financier appréciable, du fait qu'il est possible de rouler au courant de nuit à bas tarif. Toyota
|
|
|
|
|
|
|
|
Une étude du McKinsey Global Institute (groupe McKinsey&Company) passe en revue les gisements d'économie d'énergie aux Etats-Unis. Elle conclut que les Etats-Unis pourraient, en adoptant les technologies existantes, maintenir en 2020 leurs émissions de gaz à effet de serre au niveau actuel. Selon cette étude, les taux d'actualisation, trop élevés aux Etats-Unis sont responsables des barrières à l'investissement sur les technologies, notamment dans le secteur automobile et le bâtiment commercial. Les seules forces de marché seront insuffisantes pour inverser les tendances actuelles. Le gouvernement fédéral doit donc adopter des normes et concevoir un environnement plus incitatif pour l'investissement. Aux Etats-Unis, la productivité énergétique est deux fois plus faible qu'au Japon et 20% plus faible qu'en Europe. Chaque américain consomme 6 gallons d'équivalent pétrole par jour, soit 80% de plus qu'en Europe et 7 fois plus qu'en Chine. Environ deux tiers de la consommation énergétique est gouvernée principalement par la demande. Il y a donc un fort potentiel d'économies dans des secteurs comme le résidentiel/tertiaire et le transport automobile. La consommation de carburant au kilomètre des véhicules américains est 37% plus élevées que celle de leurs équivalents européens, écart qui devrait s'aggraver si les tendances se poursuivent, pour atteindre 42% en 2020. Selon l'étude, l'adoption de technologies déjà existantes pourrait réduire la consommation du pays de plus d'un quart (ce qui correspondrait à deux fois la consommation totale de la France et l'équivalent de 11 millions de barils de pétrole par jour, soit la totalité des importations du pays. Cela permettrait d'éviter l'émission de 1,3 milliards de tonnes d'équivalent CO2 (soit l'équivalent des émissions cumulées de la France et de l'Allemagne). Un quart de ces économies pourraient être réalisées dans le résidentiel pour lequel 40% des réductions de consommation pourraient être obtenues par une amélioration des appareils électro-ménagers et 17% par l'adoption de lampes fluorescentes compactes. Ces chiffres sont à comprendre à comportement constant. Ils ne tiennent pas compte des probables réductions supplémentaires qui pourraient résulter d'une attitude plus économe et vigilante de la part du consommateur américain. Les investissements à réaliser dans ce secteur s'élèveraient environ à 50 milliards de dollars, somme importante, mais qu'il est utile de comparer à la facture pétrolière des USA qui a atteint le record de 19 milliards en mai 2007 selon les statistiques les plus récentes. Les forces du marché ne suffiront toutefois pas à engager la transition vers une meilleure efficacité énergétique, comme le montre l'amélioration lente de l'efficacité énergétique dans le secteur résidentiel (+0,2% par an). Il faudra, selon l'étude, que l'Etat renforcer les normes (en particulier dans les secteurs automobile et électroménager), contraigne les compagnies énergétiques à adopter des politiques de maîtrise de la demande et incite le secteur du bâtiment à adopter les technologies nécessaires, en utilisant notamment des prêts bonifiés. BE
|
|
|
|
|
|
|
|
Des chercheurs d'un laboratoire associé CNRS/Université Lyon 1 ont mis au point un nanogénérateur capable de fonctionner avec du courant continu pour remplir certaines fonctions. Ce type de matériel de dimension nanométrique (échelle de l'atome) pourra avoir des applications dans de nombeux secteurs comme l'automobile et les communications. Le micromètre (micron) est le millionième de mètre. Le nanomètre est le milliardième de mètre. Les chercheurs du laboratoire de physique de la matière condensée et nanostructures (LPMCN) s'intéressent aux nanotechnologies qui permettent de manipuler la matière, atome par atome, et de construire nano-outils et nano-machines. Ils s'intéressent aux MEMS (Micro electro mechanical systems) et aux NEMS (Nano electro mechanical system) encore plus petits. Ils ont mis au point un NEMS alimenté par le courant continu d'une pile qui produit des effets pour lesquels on a besoin habituellement de courant alternatif. Les effets sont produits par le changement de tension. Les chimistes du laboratoire multimatériaux et interfaces (LMI) de Lyon 1 ont fourni un fil en carbure de silicium épais d'une trentaine de nanomètres et des électrodes. Le courant apporté au NEMS fait osciller le fil entre les électrodes. Auparavant, les systèmes alimentés par des sources de courant alternatif de quelques millimètres étaient trop encombrants. Ce NEMS pourra être utilisé dans des environnements plus réduits. « Les équipements contiennent de plus en plus de composants, qui consomment de plus en plus d'énergie. Il faut les miniaturiser pour réduire leur consommation », explique Pascal Vincent, qui anime l'équipe de scientifiques. Le nouveau NEMS pourra entrer dans des applications très nombreuses, par exemple dans des capteurs mesurant la pression des pneumatiques, des radars de proximité. La sensibilité du NEMS permettrait de peser des virus, des molécules et Pascal Vincent évoque des capteurs dans les sièges pour détection des vapeurs d'alcool. LP
|
|
^ Haut |
|
|
|
|
|
|
|
Terre |
|
|
Sciences de la Terre, Environnement et Climat
|
|
|
|
|
|
|
|
|
RTE estime que la consommation d'électricité va augmenter de 1,3 % par an jusqu'en 2010 et de 1 % la décennie suivante. À l'horizon 2020, la France devrait consommer 534 TWh d'énergie contre un peu plus de 450 TWh aujourd'hui. Mais ce scénario de référence pourrait évoluer à la hausse (552 TWh) dans le cas où les usages seraient favorisés ou à la baisse (506 TWh) grâce à une politique renforcée de Maîtrise de la Demande en Electricité (MDE) axée sur les usages chauffage, éclairage, électroménager, veille. En effet, RTE souligne dans son rapport que les usages spécifiques de l'électricité sont à la hausse et entraînent des pics de consommation du fait de leur utilisation sur certaines plages horaires de la journée. RTE met en évidence le développement du chauffage électrique d'appoint qui connaît un nouvel essor dans le contexte actuel de prix des énergies élevés et suggère d'observer avec attention l'impact du développement des pompes à chaleur. En 2010, RTE estime que la pointe de consommation s'élèvera à 95 GW plus ou moins 2 GW selon le scénario. Côté offre de production, au 1er janvier 2007, la capacité de production totale d'électricité de la France s'élevait à 115,5 GW dont 63,3 GW de nucléaire, 25,4 GW de thermique classique, 25,3 GW d'hydraulique et 1,4 GW d'éolien. RTE remarque que les deux dernières années ont été marquées par l'apparition d'un grand nombre de projets de nouveaux moyens de production. En témoignent les nombreuses demandes de raccordement au réseau reçues par le gestionnaire qui portent sur un volume de plus de 13.000 MW. La majorité de ces projets concernent des centrales gaz à cycles combinés auxquelles s'ajoute le prochain EPR, des turbines à combustion, des groupes fioul mais également des parcs éoliens. RTE confirme d'ailleurs que la filière a véritablement commencé à prendre son essor. Le gestionnaire du réseau reconnaît d'ailleurs que malgré l'intermittence du vent, les éoliennes ont réduit les besoins en équipements thermiques nécessaires pour assurer la sécurité d'approvisionnement. On peut parler de puissance substituée par les éoliennes. Selon le Syndicat des Energies Renouvelables (SER), très satisfait de cette reconnaissance, un parc éolien d'une puissance de 18.000 MW en 2015 pourra remplacer environ 4.500 MW thermiques soit l'équivalent de plus de 7 centrales thermiques, évitant ainsi les émissions de CO2 associées. Le gestionnaire du réseau rappelle toutefois que si l'accord de raccordement est nécessaire à un projet, il ne garantit pas que le projet soient mené à terme. RTE estime à ce sujet que la filière éolienne ne pourra peut-être pas atteindre, à la date prévue, les objectifs de développement fixés par l'arrêté du 7 juillet 2006 relatif à la programmation pluriannuelle des investissements (PPI) à savoir 13.500 MW de nouvelles éoliennes installées d'ici 2010 et 17.000 MW d'ici 2015. Selon RTE, le dynamisme de la filière en Europe et dans le monde engendre des tensions sur l'offre des machines qui se traduisent pas une augmentation des prix et des allongements de délais de livraison. Ainsi, dans son bilan RTE se veut prudent et mise sur 5.000 MW installés d'ici 2010 et 7.000 MW d'ici 2012. AE
|
|
|
|
|
|
|
|
L'avenir de l'éthanol au Québec serait dans les résidus forestiers et les matières résiduelles plutôt que dans le maïs. " Le secteur forestier est mal en point, c'est le bon moment pour reconfigurer et revitaliser cette industrie ", estime Esteban Chornet, qui travaille sur cette question depuis plus de vingt ans à l'Université de Sherbrooke. La production d'éthanol à partir de matières ligneuses comme les copeaux de bois, les résidus de coupe ou de procédés industriels permettrait de générer des revenus intéressants pour le secteur forestier tout en représentant un gain appréciable sur le plan environnemental. Les matières résiduelles pourraient également être transformées en éthanol, ce qui éviterait notamment la production de méthane lors de leur décomposition, ce gaz ayant un impact important sur l'effet de serre. Le gouvernement provincial vient d'annoncer, en partenariat avec le secteur privé, le lancement d'une chaire de recherche sur l'éthanol cellulosique à l'Université de Sherbrooke. Deux usines pilotes seront également implantées dans les Cantons de l'Est. L'investissement total est de 23,6 M$. Québec injecte 6,5 M$ et Ottawa 2,7 M$, le reste étant investi par le secteur privé. Outre Ethanol GreenField, deux entreprises issues de travaux de recherche de l'Université de Sherbrooke, Enerkem Technologies et CRB Innovations, ainsi que la papetière Kruger et la pétrolière Ultramar participent au projet. L'une des usines témoins utilisera les matières résiduelles pour fabriquer l'éthanol, tandis que l'autre se servira de résidus forestiers. La décision de bâtir une usine commerciale, qui produirait de 40 à 80 millions de litres d'éthanol par année, devrait être prise au premier trimestre de 2009, affirme le professeur Esteban, également actif au sein de l'entreprise Enerkem. L'éthanol cellulosique, ou éthanol de seconde génération, offre des bénéfices environnementaux supérieurs à ceux du carburant fabriqué grâce au maïs. Les rejets de gaz à effet de serre pourraient s'avérer de 80 % moins importants que ceux générés par l'essence. Le pourcentage est proche de 15 % avec l'emploi d'éthanol de maïs, selon un article publié par le magazine scientifique Science. " L'éthanol cellulosique est plus énergétique que l'éthanol de maïs et il fait appel à des matières abondantes non utilisées dans la production alimentaire, précise un rapport de l'ONG américaine Union of Concerned Scientists. Malheureusement, la technologie n'en est pas encore à la phase commerciale. "Cette étape approche toutefois à grands pas. L'entreprise Iogen est à l'origine depuis 2004 d'installations témoins à Ottawa - les seules au monde, soutient la porte-parole Mandy Chepeka. Ces installations ont une capacité de 2,5 millions de litres par année, et l'entreprise se prépare maintenant à passer à la production commerciale. Le Département américain de l'Énergie a d'ailleurs annoncé en mars dernier l'octroi de subventions de 385 M$ afin de construire six usines commerciales d'éthanol cellulosique. À plein régime, ces usines produiraient 500 millions de litres d'éthanol par année. VD
|
|
^ Haut |
|
|
|
|
|
|
|
Vivant |
|
|
Santé, Médecine et Sciences du Vivant
|
|
|
|
|
|
Selon un travail américain d'envergure, la simvastatine qui a inauguré voici plus de 20 ans une nouvelle génération de traitements contre l'excès de cholestérol, protégerait aussi... contre les maladies d' Alzheimer et de Parkinson. Elle permettrait en effet de diminuer de près de 50% l'incidence de ces deux affections. Le Pr Benjamin Wolozin de l'Université de Boston, a travaillé à partir d'une base de données regroupant les informations médicales de plus de 4,5 millions d'Américains. En utilisant des modèles mathématiques, il a démontré la supériorité de la simvastatine sur deux autres statines, l'atorvastatine et la lovastatine, en prévention des maladies dites neurodégénératives. BMC
|
|
|
|
|
|
|
|
Des chercheurs américains ont montré qu'un oestrogène expérimental pouvait empêcher les dégénérescences cérébrales sans augmenter le risque de cancers du sein ou de l'utérus chez la femme. Selon les chercheurs, cet oestrogène prometteur pourrait être utilisé pour traiter les dégénérescences du cerveau dans de nombreuses maladies, dont l'Alzheimer, la sclérose en plaques, la maladie de Charcot, les lésions de la moelle épinière ou même le simple vieillissement. L'oestrogène expérimental n'a été testé pour l'instant que sur des souris, mais les études ont montré qu'il permettait d'arrêter la progression de la maladie chez les souris affectées par la version animale de la sclérose en plaques. Les animaux ont même récupéré leur capacité à marcher. L'hormone n'a pas de propriétés anti-inflammatoires comme les oestrogènes classiques car elle a été modifiée de façon à limiter les risques de cancers du sein ou de l'utérus. Cette forme d'oestrogène devra donc être combiné avec d'autres traitements pour lutter contre les inflammations, notamment dans le cas de la sclérose en plaques, ont indiqué les chercheurs, dont l'étude est publiée dans les Annales de l'Académie nationale américaine des sciences (PNAS). "L'objectif principal est de protéger les neurones. C'est ce qui manque dans ce domaine", a déclaré Seema Tiwari-Woodruff, professeur assistante de neurologie à l'Université de Californie Los Angeles (UCLA), qui a travaillé sur cette étude. Alors que les personnes affectées par la sclérose en plaques ont de nombreuses options pour traiter leurs symptômes physiques avec des anti-inflammatoires, aucun traitement ne permet actuellement de traiter la dégénérescence du cerveau et de la moelle épinière. PNAS
|
|
|
|
|
|
|
|
On se dirige de plus en plus vers une vaccination au niveau mondial contre la grippe aviaire, dès lors que des chercheurs gantois sont parvenus à obtenir une immunité humaine suffisante avec des doses de vaccin extrêmement réduites. Le nouveau vaccin de l'entreprise pharmaceutique GlaxoSmithKline est actuellement en phase de test au Centre de Vaccinothérapie (CEVAC) de l'hôpital universitaire de Gand. Les chercheurs de l'hôpital universitaire de Gand ont en effet effectué des essais sur l'homme qui ont permis de constater que le vaccin, même à des doses très faibles, protège suffisamment contre les souches connues du virus de la grippe aviaire H5N1 et qu'il protège aussi partiellement contre d'éventuelles nouvelles variantes du virus. Le manque de vaccins disponibles augmente le risque d'une nouvelle pandémie. Or, le virus de la grippe aviaire peut se transmettre, après mutation, d'homme à homme. Pour pouvoir fabriquer les vaccins nécessaires à une campagne de vaccination au niveau mondial, les spécialistes ne disposent pas d'assez de matière première pour les vaccins, à savoir de l'haemagglutinine. "La capacité de production ne pouvant pas être augmentée du jour au lendemain, le défi consiste dès lors à assurer une protection efficiente avec la plus petite quantité possible de vaccin et de préférence, pour la palette la plus large possible de variantes de H5N1", expliquent les chercheurs de l'hôpital universitaire de Gand. Or, le vaccin actuellement testé au CEVAC peut probablement remplir ces différentes exigences. L'ajout d'un petit "supplément" a accru considérablement l'efficacité du vaccin en phase de test actuellement à Gand. "En ajoutant des ingrédients adjuvants qui stimulent l'immunité au vaccin, la réaction du système immunitaire est améliorée. Grâce à cette méthode, de petites quantités de matière première par dose de vaccin sont en mesure de déclencher le processus immunitaire souhaité", expliquent encore les chercheurs gantois. La combinaison du vaccin et des stimulants de l'immunité dans la lutte contre la grippe aviaire est testée pour la toute première fois à l'hôpital universitaire de Gand. Pour le moment, les résultats sont donc positifs. Au printemps 2006, 400 volontaires sains âgés entre 18 et 60 ans ont été soumis au test de vaccination. Huit groupes de 50 personnes ont ansi reçu, avec un intervalle de trois semaines, deux injections du vaccin expérimenté contre le virus H5N1. Quatre doses du vaccin ont été testées (3.8, 7.5, 15 et 30 microgrammes), chaque fois avec et ans adjuvant. "Nous avons constaté que même avec la dose la plus faible, le vaccin avec adjuvant provoque une importante réaction de défense contre le virus", expliquent les chercheurs. Chez tous les volontaires de ce vaccin, des anticorps protecteurs (neutralisants) contre les souches du virus incorporées dans le produit ont été retrouvés, et chez 77 % d'entre-eux, on a aussi trouvé des anticorps neutralisant contre une variante du virus qui n'avait pas été introduite dans le vaccin. Ces tests ouvrent dès lors la voie à la production de plus de vaccins et donc à une vaccination mondiale contre le virus H5N1. Si une autre forme du virus devait ensuite faire son apparition, tout le monde bénéficierait alors déjà d'une certaine protection. Ce qui n'est pas négligeable, étant donné que le développement et la production d'un vaccin contre une nouvelle souche peut prendre entre 4 à 6 mois. 7/7
|
|
|
|
|
|
|
|
La consommation de vin pourrait aider à réduire le risque de cancer de la prostate, selon une étude rendue publique le 1-09-2007 aux Etats-Unis. Ces résultats confirment d'autres études similaires publiées auparavant. Des chercheurs de l'université UAB de Birmingham (Alabama, sud) ont découvert qu'en incorporant à la nourriture de souris mâles du resvératrol, une molécule présente en abondance dans le vin, ces rongeurs avaient 87 % moins de risque de développer un cancer de la prostate. En outre, les souris ayant ingéré du resvératrol et atteintes d'un cancer ont développé une forme moins grave de la maladie que leurs congénères qui n'ont pas bénéficié de cette molécule présente dans la peau du raisin rouge. "Je bois un verre de vin chaque soir car je crains de développer un cancer de la prostate. Cette maladie est fréquente dans ma famille", a expliqué dans un communiqué le professeur Coral Lamartiniere, principal auteur de cette étude et professeur au département de pharmacologie et de toxicologie à l'UAB. Une autre étude de l'UAB a montré que le resvératrol pouvait également aider à réduire le risque de cancer du sein chez des souris femelles. Les chercheurs rappellent cependant que la consommation de vin ne devrait pas dépasser deux verres par jour pour un homme et un verre pour une femme et que la consommation abusive d'alcool est liée à l'augmentation des risques de cancer en général. Outre le raisin rouge et le vin, le resvératrol est présent en abondance dans les mûres et les cacahouètes. Agent de défense que le raisin produit lors d'une attaque de parasites, il est antioxydant, anti-inflammatoire, vasodilatateur et inhibe la prolifération cellulaire. Yahoo
|
|
|
|
|
|
|
|
La fièvre tend à aider le corps à se protéger des infections bactériennes et de nombreuses autres maladies. Une équipe de chercheurs américains, du Beth Israel Deaconess Medical Center, dépendant de la Harvard Medical School de Boston, a réussi à identifier la zone cérébrale qui constitue la commande de la fièvre *. Une zone clé, pas plus grande que la pointe d'une épingle, dont les neurones sont spécialement équipés pour déclencher, ou non, la montée en température du corps. Et même si cette découverte a été faite sur un cerveau de souris, elle pourrait avoir des conséquences pour l'homme. Quand un organisme doit se battre contre une infection, son système immunologique, les sentinelles de la santé, sonne le branle-bas de combat. Et déclenche, entre autres, la production d'hormones appelées cytokines. Certaines de celles-ci ont pour mission de faire produire par les vaisseaux sanguins du cerveau une autre hormone, la prostaglandine E2 (PGE2). C'est celle-là qui va se frayer un chemin jusqu'au QG de déclenchement de la fièvre, dans l'hypothalamus. Ces neurones spécialisés possèdent sur leur enveloppe un récepteur qui reconnaît la présence de PGE2. Et ils savent décrypter le message : « envoyez la fièvre, ennemi en vue ». « L'hypothalamus est une zone du cerveau qui contrôle de nombreuses fonctions métaboliques de base, la faim, la soif, l'horloge biologique ou le contrôle de la température, note Axel Kahn, généticien à l'Institut Cochin. Il est donc plutôt rassurant d'y trouver le centre de contrôle de la fièvre. D'autres fonctions, comme par exemple la douleur, semblent ne pas avoir d'interrupteur central et dépendent de plusieurs zones cérébrales. » Les conséquences de la fièvre sont que les globules blancs du système immunitaire sont plus actifs tandis que les autres fonctions du corps se ralentissent. On devient apathique, léthargique. Tout cela pour que l'énergie soit réservée à la lutte contre l'infection. D'autant que beaucoup de microbes ne supportent pas ces vagues de chaleur. Connaître l'intimité du mécanisme de déclenchement de la fièvre, outre son intérêt pour le savoir fondamental, ouvre quelques pistes thérapeutiques intéressantes. « L'homme est un homéotherme, avec une température régulée, note Axel Kahn. Connaître ce mécanisme offre deux intérêts principaux. Soigner certains dérèglements de ce thermostat, comme des hyperthermies pathologiques, ou provoquer son fonctionnement par des molécules spécifiques afin de mieux lutter contre certaines maladies. » Figaro
|
|
|
|
|
|
|
|
La revue britannique The Lancet Oncology a publié en août 2007 les résultats d'une étude européenne démarrée en 2004 et très attendue. En effet, et c'est une bonne nouvelle, les taux de survie s'améliorent, et les écarts entre les pays se réduisent. En préalable, rappelons immédiatement à nos lecteurs que les personnes ne sont pas des statistiques : « Même sévères, les statistiques ne devraient pas tuer l'espoir », estime le Pr Henri Pujol (Ligue nationale contre le cancer). « Tout cancer peut guérir. Si la survie n'est QUE de 15 %, c'est tout de même un malade sur six qui est vivant cinq ans plus tard. Et n'oublions pas que l'arsenal thérapeutique actuel n'a pas bénéficié aux malades il y a cinq ans. » Aujourd'hui, il n'est plus nécessaire pour les cancérologues d'attendre de longues années pour avoir le résultat des études épidémiologiques lourdes. Car les protocoles s'affinent, s'améliorent plus vite que le déroulé de ces grosses études ne permet d'en rendre compte. Une nouvelle méthode d'analyse intermédiaire, nommée analyse périodique, permet d'avoir des estimations de survie en utilisant des données récentes (moins complètes, mais plus actuelles en somme). Les chercheurs européens réunis dans le groupe de travail Eurocare 4 ont utilisé cette méthode pour analyser les données de survie sur 8 des plus fréquents cancers des citoyens européens adultes, diagnostiqués entre 1995 et 1999. 83 registres du cancer de 23 pays (13 pays ont des registres nationaux, les autres des registres régionaux qui ne couvrent pas toute la population) ont fourni ces données sur presque 2,7 millions de sujets qui ont été suivis jusqu'en décembre 2003. L'analyse fait apparaître un taux de survie moyen de 52 % dans les cinq ans qui suivent le diagnostic, avec un total d'environ 1,3 million de décès. Les huit cancers choisis touchent le sein, le colon et le rectum, le poumon, la peau, l'ovaire, la prostate, le testicule, ou les organes lymphoïdes avec la maladie de Hodgkin. L'indicateur principal est le taux de survie relatif : c'est le rapport du taux de survie observé sur le taux de survie attendu dans la population générale, par sexe et par tranches d'âge. Il a l'avantage d'éliminer l'effet des autres causes de mortalité que le cancer (attaques cérébrales, accidents, infections, etc.) et permet des comparaisons entre des pays ayant des mortalités de base différentes. L'âge est bien entendu un déterminant majeur de la survie relative : un standard international permet d'équilibrer l'incidence des cancers qui surviennent chez les jeunes, celle des cancers qui ne varient pas en fonction de l'âge et ceux qui surviennent majoritairement chez les personnes âgées. Il a aussi fallu prendre en compte le fait que certains pays ont une haute fréquence de cancers plus souvent mortels. Le résultat est, bien entendu, que le taux de survie relatif à cinq ans varie en fonction de l'organe atteint. Il n'est que de 10 % pour le pancréas et le foie, mais il dépasse 90 % pour le cancer du testicule. Pour le cancer du poumon, il reste inférieur à 13 % en moyenne, mais les Islandais diagnostiqués avec cette maladie entre 1995 et 1999 et survivants à cinq ans sont 14,7 %, alors que les malades français ne sont que 12,8 % et que les Anglais sont moins de 8,6 % ! Pour le cancer colorectal, la survie des Européens atteint 54 %, mais seulement 49,3 % pour les Danois et 38,8 % pour les Polonais. Globalement le cancer de la prostate épargne 76 % des malades, et le cancer du sein 79 % des femmes. Alors que la précédente étude Eurocare 3, publiée en 2003, évoquait un fossé se creusant toujours plus entre les pays de l'est et de l'ouest, les résultats d'Eurocare 4 laissent entrevoir au contraire une embellie, la réduction des différences géographiques. Pour Franco Berrino (Fondazione Instituto Nazionale dei Tumori, Milan), c'est principalement l'amélioration des services de santé dans les pays ayant précédemment un faible taux de survie qui explique ce meilleur résultat. Durant la période 1991 à 2002, le taux de survie à cinq ans dans les pays de l'est est passé de 30 % à près de 45 % pour le cancer colorectal, de 60 % à 74 % pour le cancer du sein, et de 40 % à 68 % pour celui de la prostate. Alors que la survie s'améliore globalement dans les pays où les dépenses nationales de santé sont les plus élevées. SD }
|
|
|
|
|
|
|
|
Les abeilles s'éteignent par milliards depuis quelques mois. Leur disparition pourrait sonner le glas de l'espèce humaine. C'est une incroyable épidémie, d'une violence et d'une ampleur faramineuse, qui est en train de se propager de ruche en ruche sur la planète. Partie d'un élevage de Floride l'automne dernier, elle a d'abord gagné la plupart des Etats américains, puis le Canada et l'Europe jusqu'à contaminer Taiwan en avril dernier. Partout, le même scénario se répète : par milliards, les abeilles quittent les ruches pour ne plus y revenir. Aucun cadavre à proximité. Aucun prédateur visible, pas plus que de squatter pourtant prompt à occuper les habitats abandonnés. En quelques mois, entre 60 % et 90 % des abeilles se sont ainsi volatilisées aux Etats-Unis où les dernières estimations chiffrent à 1,5 million (sur 2,4 millions de ruches au total) le nombre de colonies qui ont disparu dans 27 Etats. Au Québec, 40 % des ruches sont portées manquantes. En Allemagne, selon l'association nationale des apiculteurs, le quart des colonies a été décimé avec des pertes jusqu'à 80 % dans certains élevages. Même chose en Suisse, en Italie, au Portugal, en Grèce, en Autriche, en Pologne, en Angleterre où le syndrome a été baptisé « phénomène «Marie-Céleste» », du nom du navire dont l'équipage s'est volatilisé en 1872. En France, où les apiculteurs ont connu de lourdes pertes depuis 1995 (entre 300.000 et 400.000 abeilles chaque année) jusqu'à l'interdiction du pesticide incriminé, le Gaucho, sur les champs de maïs et de tournesol, l'épidémie a également repris de plus belle, avec des pertes allant de 15 % à 95 % selon les cheptels. Légitimement inquiets, les scientifiques ont trouvé un nom à la mesure de ces désertions massives : le « syndrome d'effondrement » - ou « colony collapse disorder ». Ils ont de quoi être préoccupés : 80 % des espèces végétales ont besoin des abeilles pour être fécondées. Sans elles, ni pollinisation, et pratiquement ni fruits, ni légumes. « Trois quart des cultures qui nourrissent l'humanité en dépendent », résume Bernard Vaissière, spécialiste des pollinisateurs à l'Inra (Institut national de recherche agronomique). Arrivée sur Terre 60 millions d'année avant l'homme, Apis mellifera (l'abeille à miel) est aussi indispensable à son économie qu'à sa survie. Aux Etats-Unis, où 90 plantes alimentaires sont pollinisées par les butineuses, les récoltes qui en dépendent sont évaluées à 14 milliards de dollars. Faut-il incriminer les pesticides ? Un nouveau microbe ? La multiplication des émissions électromagnétiques perturbant les nanoparticules de magnétite présentes dans l'abdomen des abeilles ? « Plutôt une combinaison de tous ces agents », assure le professeur Joe Cummins de l'université d'Ontario. Dans un communiqué publié cet été par l'institut Isis (Institute of Science in Society), une ONG basée à Londres, connue pour ses positions critiques sur la course au progrès scientifique, il affirme que « des indices suggèrent que des champignons parasites utilisés pour la lutte biologique, et certains pesticides du groupe des néonicotinoïdes, interagissent entre eux et en synergie pour provoquer la destruction des abeilles ». Les Echos
|
|
|
|
|
|
|
|
Des neurones fonctionnels engendrés à partir de cellules gliales adoptant configuration et fonctions électriques neuronales: telle est l'étonnante "métamorphose" obtenue par des équipes de l'Institut de Physiologie de l'Université Ludwig Maximilian (LMU) de Munich et le Centre de Recherche sur la Santé et l'Environnement (GSF) de Neuherberg. Du grec "glia" qui signifie "glue", c'est au médecin Rudolf Virchow qui les a découvertes vers le milieu du 19e siècle, que les cellules gliales doivent leur nom évocateur, témoignant d'un potentiel fonctionnel plutôt restreint. Cette étiquette de cohésion et de soutien architectural du cerveau "collant" à la fonction de ces cellules, ce n'est que relativement tardivement que les chercheurs commencèrent à s'intéresser aux qualités multiples de ce type cellulaire, qui représente près de 90% des cellules de notre cerveau. Jusqu'à présent les travaux du Professeur Magdalena Götz, titulaire de la chaire de génomique physiologique de l'Université de Munich, avaient conduit à mettre en exergue la capacité de ces cellules gliales à se comporter comme des cellules souches et à se différencier ainsi en neurones. Cependant, ces cellules ne possèdent cette capacité de différentiation que pour une durée limitée à celle du développement du cerveau. Lors des derniers stades du développement cérébral, les cellules gliales perdent, en effet, cette faculté particulière. Réactiver ce processus de génération des neurones en identifiant les leviers moléculaires inhérents à ce mécanisme représente l'un des objectifs de l'équipe du professeur Götz depuis quelques années. Les chercheurs de cette équipe ont ainsi testé l'action de protéines de régulation sur les cellules gliales d'un cerveau ayant achevé sa phase de développement. Même en quantité restreinte, ces protéines de régulation ont pu mener à l'activation des protéines concourrant à la différentiation neuronale. Les neurones obtenus, dont la physiologie a pu être appréciée et la fonctionnalité démontrée, semblent donc constituer une piste encourageante pour une éventuelle application thérapeutique dans le cadre des maladies neurodégénératives. IH
|
|
|
|
|
|
|
|
Une des caractéristiques principales de la maladie d'Alzheimer est l'accumulation de dépôts protéiques durs et insolubles -ou plaques séniles- dans le cortex des patients. La composante principale de ces plaques est la bêta-amyloïde, une protéine neurotoxique qui est décomposée et éliminée chez les individus sains. Il est maintenant possible d'établir le diagnostic de la maladie d'Alzheimer du vivant du malade à un stade relativement précoce grâce à la tomographie par émission de positons (TEP). Grâce à cette technique d'imagerie médicale, il est possible de visualiser les dépôts après injection d'un marqueur isotopique de la protéine amyloïde, le 11C] PIB (11C-labeled Pittsburgh Compound-B). Des chercheurs de l'Hôpital Austin à Melbourne, de l'Université Monash et de l'Université de Melbourne ont développé une nouvelle méthode permettant la détection des sujets possédant un risque de développer la maladie d'Alzheimer environ dix ans avant l'apparition des symptomes. Ils ont montré qu'il existe une corrélation entre les teneurs en protéine amyloïde et le degré de déficience cognitive. L'étude qui a porté sur plus de 150 sujets a consisté à analyser les relations existant entre les données PET et les résultats obtenus à une batterie de tests psychométriques utilisés pour mesurer diverses fonctions cérébrales, dont la mémoire. L'analyse a montré que les personnes agées apparemment saines qui ont des PET scans positifs présentent des troubles de la mémoire, et l'intensité de ces troubles est corrélée positivement à la quantité de protéine amyloïde présente dans le cortex. [BE
|
|
^ Haut |
|
|
|
|
|
VOTRE INSCRIPTION |
|
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
|
|
|
|
|
|