|
|
Edito
La "spintronique", prochaine révolution de l'électronique et de l'informatique
Imaginez des ordinateurs démarrant en une fraction de seconde, des mobiles et des cartes à puces pouvant stocker 100 fois plus d'informations qu'aujourd'hui, des microprocesseurs dont les circuits peuvent être instantanément reconfigurés en fonction du type de tâche qu'ils doivent effectuer. Imaginez des mémoires d'ordinateur non volatiles, des milliers de fois plus rapides que les mémoires actuelles. Ces performances deviendront banales dans les ordinateurs du futur grâce à une nouvelle révolution scientifique et technologique : la spintronique. La spintronique a commencé à se matérialiser dans nos ordinateurs en 1997 quand IBM a commercialisé ses têtes de lecture GMR (Giant Magneto-Resistance), qui ont permis de multiplier par 100 la capacité de stockage des ordinateurs qui est passée en 10 ans de 2 à 200 Go. Alors que l'électronique classique n'exploite que la charge des électrons, la spintronique tente d'exploiter les immenses potentialités d'une autre et fascinante propriété de l'électron, découlant de la physique quantique, le spin (moment cinétique créé par la rotation de l'électron sur lui même). En apprenant à contrôler et à modifier cette nouvelle variable, les physiciens espèrent multiplier de plusieurs ordres de grandeur la quantité d'informations pouvant être portées par un électron. Concrètement, l'utilisation de ce spin des électrons va permettre la mise au point de mémoires MRAM (Magnetic Random Access Memory) utilisant le magnétisme des électrons et pas leur charge. Ces mémoires présentent l'énorme avantage d'être non volatiles et aussi d'être 50 fois plus rapides que les DRAM actuellement utilisées. IBM, en association avec Infineon Technologies AG, promet de mettre en production des MRAM d'ici 2005. Grâce à l'électronique de spin, nous verrons apparaître d'ici 2 ans les premières générations de MRAM (Magnetic Random Acess Memory). Avec celles-ci, il sera possible de démarrer son ordinateur de manière quasi instantanée, comme une télévision. A terme, elles devraient également équiper la plupart des appareils nomades, domestiques et grand public (agendas électroniques, appareils photos, téléphones...). A plus long terme, ces mémoires pourraient même se substituer aux disques durs, ce qui résoudrait les problèmes entrée/sortie sur ce type de matériel, qui représentent un goulet d'étranglement majeur pour le calcul informatique. Certains vont plus loin, comme David Awschalom, directeur du Center for Spintonics and Quantum Computation à l'université de Californie. Ce chercheur s'intéresse en effet au spin du noyau de l'atome. Selon lui, la partie subatomique de l'atome pourrait contenir les données, et l'électron agirait comme un bus de données pour transporter l'information de et vers le noyau par des rayons de lumière. L'un des défis de la spintronique est de combiner électronique, photonique et magnétisme dans des semi-conducteurs, pour contourner les problèmes d'interface entre des dispositifs ayant des propriétés différentes, et ainsi réduire le temps de transfert de données. Enfin, la spintronique dans des semi-conducteurs pourrait être utilisée pour créer des portes logiques reconfigurables et donc ouvrir la voie à des processeurs optimisables pour l'exécution de certaines tâches. Tous les pays développés ont considérablement accru leur effort de recherche dans ce domaine d'avenir de la spintronique. Des chercheurs canadiens de l'Institut des sciences des microstructures du CNRC (ISM) ont ainsi mis au point en 2002 un transistor «spintronique» à spin unique constitué par un point quantique, un dispositif nanométrique qui pourrait être l'une des clés de l'accroissement de la puissance des ordinateurs et être à la source d'une véritable révolution dans le domaine de l'électronique et des télécommunications. Toujours au Canada, des chercheurs de l'université de Toronto ont mis au point un "commutateur" qui utilise cette fois les propriétés quantiques du photon (particule élémentaire de lumière et "vecteur" de l'interaction électromagnétique) et pourrait déboucher sur la réalisation de transistors optiques ultra-rapides. Ce dispositif de commutation optique repose sur le comportement quantique du photon à proximité d'un cristal optique spécial. Quand deux photons, issus de deux sources différentes, s'approchent de ce cristal simultanément, ils interfèrent et ne peuvent alors traverser ce cristal. En revanche, un seul photon provenant d'une source unique peut traverser le cristal sans difficulté. L'utilisation de ces étonnantes propriétés quantiques du photon devrait permettre de concevoir des transistors et des ordinateurs optiques dont la vitesse défie l'imagination. Les Etats-Unis ont également compris l'importance de la spintronique. La DARPA (Defense Advanced Research Project Agency) a choisi l'université de Buffalo pour diriger un consortium en spintronique. Cette université a récemment rapporté avoir fabriqué des matériaux semi-conducteurs qui présentent les propriétés essentielles à la fabrication de dispositifs spintroniques. L'alliage est composé de différentes couches alternées, de quelques couches atomiques d'épaisseur, de gallium antimoine et de manganèse. En modifiant leur semi-conducteur et en le combinant avec un semi-conducteur non magnétique, l'équipe de Buffalo envisage de pouvoir manipuler le spin des électrons. Il y a quelques semaines, des physiciens de l'Université d'Utah ont construit pour leur part un dispositif de "valve organique de spin", similaire à des interrupteurs électriques utilisant les propriétés de la spintronique. (voir article dans la rubrique "électronique" de ce numéro). Le Japon est également très engagé dans la spintronique, l'effet de la magnétorésistance tunnel (TMR) dans les matériaux ferromagnétiques, et les jonctions ferromagnétiques. Il existe un intérêt particulier de la part des industriels japonais pour cet effet TMR car la technologie de fabrication est la même que celle employée pour les semi-conducteurs, avec une application potentielle pour les mémoires vives magnétiques (MRAM ou Magnetic Random Access Memory) et les têtes de lecture magnétique. Les effets TMR et GMR (magnétorésistance géante) combinés aux techniques de nanofabrication peuvent constituer la clé qui permettrait un stockage de très haute densité (900 Gbit/cm2 ou même plus) dans un futur proche. Le record mondial actuel est détenu par Fujitsu qui a conçu un disque dur d'une densité de stockage de 270 Gbit/cm2 (Novembre 2002). De quoi permettre le stockage de 6 DVD sur un seul cm2 ! La France est également en pointe dans ce domaine stratégique. Le CNRS a en effet décerné sa médaille d'or 2003 à Albert Fert, chercheur au CNRS. On doit à ce physicien la découverte de la magnétorésistance géante (Giant Magneto-Resistance, GMR) en 1988 et sa contribution au développement de l'électronique de spin. La GMR est à l'origine de l'élaboration de têtes de lecture magnétique extrêmement sensibles, qui équipent aujourd'hui la quasi-totalité des disques durs. Grâce à ces têtes de lecture, la densité de stockage d'information sur ces supports s'est considérablement élevée : l'utilisation de cette technologie a permis d'augmenter la croissance de la densité de stockage de 120 % par an entre 1998 et 2002. Notre pays s'est par ailleurs doté d'un centre de recherche spécifiquement consacré à ce domaine stratégique majeur. Il s'agit de « Spintec », inauguré il y a un mois à Grenoble. Spintec réunit une cinquantaine de chercheurs, dont Albert Fert, le père fondateur de l'électronique de "spin". L'axe principal de recherche de Spintec concerne ces fameuses mémoires magnétiques à accès aléatoire (Magnetic Random Access Memories ou MRAM), qui combinent tous les avantages des différentes mémoires existantes (DRAM, SRAM ou Flash) sans en avoir les inconvénients. Les MRAM sont non seulement des mémoires permanentes, ce qui permet la sauvegarde des données en absence d'alimentation, mais elles sont également ultra-rapides, denses, peu gourmandes en énergie. Ces MRAM pourraient devenir des mémoires universelles et remplacer, dans une dizaine d'années, les mémoires actuelles. Depuis 10 ans, les progrès dans ce domaine fascinant de la spintronique ont été considérables et l'on sait à présent, à l'aide d'un laser, acheminer des paquets d'électrons sur plus de 100 micromètres (un dixième de millimètre) avec une perte limitée de polarisation de spins. On sait également qu'il est possible de modifier des milliers de fois des spins d'électrons, sans que ceux-ci ne perdent leur cohérence, à l'aide d'impulsions laser très brèves. On peut donc désormais affirmer que l'électronique de l'après silicium reposera, à partir de 2015-2020, sur la maîtrise et l'utilisation des extraordinaires propriétés de la physique quantique et notamment de ce spin des électrons. Formalisée au cours du premier tiers du XXe siècle par des physiciens géniaux comme Einstein, De Broglie, Heisenberg, Schrödinger, Dirac ou Pauli, la physique quantique est donc bien davantage qu'une théorie étrange et très abstraite qui décrit et régit le monde des particules et sera demain au coeur de tous nos appareils et systèmes électroniques et informatiques. Cette évolution de la spéculation théorique jusqu'à l'application technologique montre à quel point la coupure conceptuelle entre recherche fondamentale et recherche appliquée est finalement artificielle, comme le montre d'ailleurs le dernier prix Nobel de physique qui vient de récompenser des travaux dans le domaine théorique des supraconducteurs et des suprafluides ayant finalement permis la révolution de l'imagerie magnétique servant aux examens médicaux (IRM). Comme le soulignait récemment Édouard Brézin, ancien Directeur du CNRS, "c'est en se posant des questions fondamentales sur le spin des électrons, et non en cherchant à améliorer les têtes de lecture, qu'Albert Fert a révolutionné la technologie des disques durs d'ordinateurs." Sur le long terme, la connaissance fondamentale et théorique de notre univers est absolument nécessaire pour permettre des sauts technologiques majeurs qui deviennent eux-mêmes de nouveaux et puissants moteurs de productivité, de croissance économique et d'emploi. Face aux géants américains et japonais, qui investissent massivement dans la recherche fondamentale à long terme, il est donc vital pour l'avenir de notre pays de se donner les moyens, au niveau national et européen, de rester compétitif dans ce domaine de la recherche fondamentale, tout en améliorant la vitesse et le champ des retombées technologiques que génère cette connaissance intime de la matière et de l'énergie. Dans cette perspective, on ne peut que se réjouir de l'accord historique qui vient d'être conclu entre l'Etat et le monde de la recherche. Grâce à la mise en oeuvre sur la durée de moyens humains, techniques et financiers sans précédents, l'ensemble de la recherche française, et notamment la recherche fondamentale, vont bénéficier de moyens permettant à notre pays de maintenir son excellence et son avance technologique dans des domaines stratégiques comme la spintronique qui seront demain les moteurs de la compétitivité et de la richesse économique. René TRÉGOUËT Sénateur du Rhône
|
|
|
|
|
|
|
|
TIC |
|
|
Information et Communication
|
|
|
|
|
|
|
|
|
Avec ce texte adopté par les sénateurs, les réseaux câblés seront désormais soumis au même régime réglementaire que n'importe quel autre réseau. Une réelle opportunité pour le développement du secteur, depuis longtemps réclamée par les câblo-opérateurs. La chape de plomb réglementaire qui pesait sur le secteur de câble en France a été levée, à la grande satisfaction l'Aform, l'association professionnelle des opérateurs de réseaux multiservices. Le projet de loi "relatif aux communications électroniques et aux services de communication audiovisuelle", adopté la semaine dernière par les sénateurs, «instaure enfin un cadre réglementaire unique à l'ensemble des réseaux (...), y compris le câble», se félicite-t-elle. Ce texte vient compléter la transposition des directives européennes du paquet télécom, dont certaines mesures ont déjà été inscrites dans d'autres textes: la loi pour la confiance dans l'économie numérique et la loi sur France Télécom, votée fin 2003. «Les réseaux câblés ont toujours dépendu de deux lois, à la fois celle sur les télécoms et celle sur l'audiovisuel», explique-t-on à l'Aform, si bien que le secteur devait respecter «une double obligation par rapport aux autres réseaux». Les câblo-opérateurs étaient ainsi soumis à des contraintes spécifiques créées par la loi sur l'audiovisuel, qui les empêchait, par exemple, d'avoir une convention nationale pour la couverture du territoire. Il leur fallait donc à chaque fois signer une multitude de conventions locales pour étendre leur réseau et leurs services. «C'était extrêmement pesant», rappelle-t-on à l'Aform. Désormais, «tout le monde fonctionne de la même façon, le câble est considéré comme un réseau comme un autre». L'association est particulièrement satisfaite de l'adoption par les sénateurs de l'article 58 du projet de loi. Il empêche les chaînes hertziennes, en premier lieu TF1 et M6, de s'opposer à leur reprise par des réseaux câblés, qui remplacent parfois complètement la diffusion hertzienne, notamment dans certains immeubles locatifs, dans les zones urbaines. L'Aform se réjouit aussi «de disposer enfin de conditions de concurrence équitable permettant de développer les réseaux câblés, première boucle locale alternative pour les services audiovisuels et de communications électroniques». De quoi accélérer encore la consolidation du secteur, dont le coup d'envoi a été donné en mars par le rachat de Noos par l'américain Liberty Media, également propriétaire d'UPC. ZDNet : http://www.zdnet.fr/actualites/business/0,39020715,39149989,00.htm
|
|
|
|
|
|
|
|
Une sorte de supercalculateur virtuel.» Fabio Hernandez, informaticien au centre de calcul du CNRS de Lyon, résume ainsi la réussite du programme européen DataGrid, qui vient tout juste de s'achever. Lancé en 2000, il vient de démontrer que la mise en réseau de centaines de petits ordinateurs pouvait avantageusement remplacer le recours aux superordinateurs pour mouliner de gros calculs scientifiques. L'idée est née dans les laboratoires de physique des particules. On y prépare la mise en service du Large Hadron Collider (LHC), en cours d'installation au Centre européen de recherches nucléaires (Cern), près de Genève. Il sera en 2007 le plus puissant accélérateur de particules du monde et permettra de sonder la matière avec une précision inédite grâce à un niveau d'énergie supérieur. A condition de savoir analyser les milliards d'informations qui surgiront des violentes collisions entre particules. C'est là qu'interviendra le «supercalculateur virtuel» de Hernandez. Des milliers de processeurs 10 000 au moins seront mis en réseau dans toute l'Europe pour analyser des jeux de données d'une dimension encore jamais atteinte, comptés en pétaoctets (des nombres comportant 15 chiffres avant la virgule). Ce besoin des physiciens des particules s'est transformé en aubaine pour les autres chercheurs. Pourquoi ne pas ouvrir cet ordinateur virtuel géant à tous ceux bio-informaticiens, géophysiciens, astronomes... qui n'ont pas toujours les moyens et les compétences pour utiliser les supercalculateurs traditionnels ? Surtout que ces mêmes scientifiques pourraient apporter une part de la solution : dans leurs labos, des milliers d'ordinateurs personnels «dorment» une bonne partie des 24 heures de chaque journée. Le projet European DataGrid était né. Dirigé par les informaticiens du Cern, où fut inventé le Web, financé (10 millions d'euros) par l'UE, mettant en commun les ressources de 21 instituts de 8 pays, il a démontré que l'idée était bonne. Et permet d'envisager une nouvelle infrastructure de recherche : une fabuleuse puissance de calcul offerte 24 heures sur 24 à tout chercheur. Lors des tests réussis, raconte Fabio Hernandez, la «grille» européenne a montré l'étendue de ses possibilités. Comparer une séquence ADN avec toutes les séquences contenues dans les banques de données ? Le biologiste se contente de soumettre sa séquence, d'indiquer le nom des banques, et «tout le reste est pris en charge par le logiciel». Rapidement, le biologiste reçoit les résultats, sans même savoir où et par quels ordinateurs ils ont été calculés. En sciences de la Terre, c'est l'Institut Pierre-Simon-Laplace (Paris) qui a mis à profit DataGrid pour reconstituer en trois dimensions la couche d'ozone stratosphérique au-dessus de l'Antarctique à partir des données satellitaires. La suite de l'opération est déjà dans les tuyaux. Le logiciel DataGrid est approuvé par l'Open Source Initiative Corporation, il est donc libre. Et va constituer le point de départ de la grille de calcul permanente que la Commission européenne a décidé de construire au vu du succès de l'opération. Libération : http://www.liberation.fr/page.php?Article=195102
|
|
|
|
|
|
|
|
A Paris et Pau, plusieurs milliers de foyers peuvent désormais se raccorder au haut débit sans passer par le réseau local de France Télécom mais via de nouveaux opérateurs proposant des offres incluant le téléphonie, l'accès internet ainsi que l'abonnement. L'opérateur Erenis, créé en 2002, a fait le pari de déployer sa propre infrastructure jusque dans les foyers de plusieurs immeubles de Paris et sa banlieue avec l'ambition d'équiper 30.000 logements d'ici la fin de l'année. Il n'utilise donc pas le dernier kilomètre de cuivre (boucle locale) de France Télécom reliant la prise de l'abonné au central téléphonique. "Un client nous confie l'abonnement, les communications et l'internet, soit une facture moyenne comprise entre 40 et 45 euros, un niveau qu'aucun autre opérateur alternatif n'atteint", explique Frédéric Boutissou, son Pdg. Pour attirer des clients, l'opérateur met en avant le prix de l'abonnement, à 4,90 euros par mois au lieu de 13 euros chez France Télécom. Erenis propose des offres de téléphonie (à la minute ou avec des forfaits mensuels) et des abonnements haut débit (jusqu'à 512 kbits/s), le tout pour ce qu'il juge être "l'offre la plus compétitive du marché". De son côté, le client doit changer de numéro de téléphone ou payer à France Télécom la possibilité de garder son numéro. Outre le téléphone et l'accès internet, l'opérateur teste une offre de vidéo à la demande, un service de disque dur permettant à ses clients de consulter des données sur un serveur du réseau local, et un système d'alarme. Pour Erenis, l'une des clés de la réussite de l'opération est d'équiper des immeubles importants, c'est-à-dire comprenant entre 800 et 1.000 logements. "Nous rentabilisons l'investissement sur une durée comprise entre deux ans et demi et trois ans et demi", selon M. Boutissou. "L'un des élements clé est de devenir le premier opérateur alternatif sur chaque site avec 20% à 30% du marché". Erenis est une société créée par deux experts en télécommunications --M. Boutissou vient du fournisseur d'accès internet Mangoosta et son associé était spécialisé dans les télécoms au sein d'un cabinet de conseil-- qui ont levé "plusieurs millions d'euros" auprès d'investisseurs. A Pau (Pyrénées-Atlantiques), l'initiative est publique et vient de la communauté d'agglomération, qui a construit un réseau de télécommunications dont il a délégué l'exploitation au groupe de télécoms Sagem, chacune des deux parties investissant respectivement 15 et 16 millions d'euros. Les premiers foyers palois sont raccordés au réseau de fibre optique depuis le 13 avril, l'opérateur voulant installer 37.000 prises au rythme d'un millier par mois dans les quarante prochains mois. "Les Palois vont pouvoir résilier leur abonnement. Le service de base est un accès très haut débit avec 10 Mbits garantis (20 fois plus rapide que le 512 kbits) pour 30 euros, des services additionnels étant proposés par des opérateurs privés", explique l'initiateur du projet Jean-Michel Billaut, conseiller nouvelles technologies de la ville. Le premier à se lancer est la société IPVSet, qui a dévoilé mi-avril son offre "triple-play". En plus de l'accès haut débit, elle propose la téléphonie avec des formules à partir de 10 euros par mois, et un catalogue de programmes à la carte (vidéo à la demande à partir de 2 euros le film, télévision à la carte, titres audio). Les premiers services d'IPVSet seront disponibles à partir du 15 juin. AFP : http://fr.news.yahoo.com/040420/1/3r6nv.html
|
|
^ Haut |
|
|
|
|
|
|
|
Matière |
|
|
Matière et Energie
|
|
|
|
|
|
|
|
|
Les industriels s'intéressent beaucoup à ces transistors moins coûteux à produire et capables de se passer du silicium. Des technologies dont la découverte revient au CNRS. Les transistors organiques, basés sur le plastique (polymère) au lieu du classique silicium, sont désormais au coeur des préoccupations des industriels. Comme en témoigne la dernière édition du MRS (Material Research Society), salon rassemblant du 12 au 16 avril dernier à San Francisco des chercheurs en matériaux et industriels du monde entier. Le géant américain de l'impression Xerox y présentait ainsi une solution complète à base de ces composants de nouvelle génération. «Il s'agit d'un procédé qui permet d'imprimer des transistors, réalisés à l'état de molécules liquides, sur une simple feuille de plastique, au lieu d'avoir à les graver sur une feuille de silicium», explique-t-on chez Xerox France. L'avantage est avant tout de réduire le coût de fabrication car l'opération ne nécessite pas un environnement particulier, avec des températures élevées ou des pressions extrêmes, comme cela est nécessaire avec le silicium. Tout le processus s'effectue en condition ambiante. Xerox destine ce système aux grands écrans d'affichage ou encore aux étiquettes électroniques de type RFID. Les transistors organiques sont pour l'instant surtout utilisés dans la fabrication des écrans d'ordinateurs portables. De plus en plus de constructeurs proposent en effet des moniteurs plats, non pas à cristaux liquides, mais à diodes électroluminescentes organiques (OLED) comme Toshiba ou Sony. Il s'agit d'une autre application du transistor organique qui ne se présente pas sous la forme de petites molécules, mais sous celle d'une diode microscopique émettant de la lumière colorée lorsqu'elle est soumise à un champ électrique. Ce système offre notamment l'avantage de ne pas limiter l'angle de vision. Aujourd'hui largement développée par des industriels américains ou asiatiques, cette nouvelle génération de composants organiques est pourtant d'origine française. C'est une équipe du Centre national de la recherche scientifique (CNRS) qui a élaboré en 1990 le premier transistor plastique. «Xerox a pris le train en marche en 1998, après Lucent ou IBM, qui ont développés leurs propres technologies sur la base de nos travaux», explique à ZDNet Denis Fichou, directeur de recherche au CNRS et responsable du laboratoire de nanostructures et semi-conducteurs organiques au Commissariat à l'énergie atomique (CEA) à Saclay. Est-ce encore une invention française qui a trouvé une reconnaissance hors de ses frontières ? «Effectivement la France a été défaillante dans ce domaine, il n'y a pas eu assez de fédération des chercheurs hexagonaux qui se sont dispersés», déplore le chercheur. Pour autant son équipe est propriétaire du premier brevet en la matière. «Les industriels ont désormais des dizaines d'autres brevets qui englobent des technologies qui ont dépassé nos travaux». Reste que tout repose sur une invention française brevetée. «Nous n'avons pour l'instant pas proposé de licence pour notre brevet, mais cela pourrait changer», prévient-il. Le chercheur revient justement du MRS. Il confirme l'intérêt des industriels pour cette technologie. «Nous en sommes désormais au point où les transistors organiques sont suffisamment performants et fiables pour qu'ils deviennent une réelle alternative aux transistors en silicium», estime-t-il. ZDNet : http://www.zdnet.fr/actualites/technologie/0,39020809,39149849,00.htm
|
|
|
|
|
|
|
|
La demande mondiale pour toutes les formes d'énergie devrait augmenter de 54% au cours des 20 ans à venir, la consommation de pétrole augmentant à elle seule de 40 millions de barils par jour, estime l'Energy Information Administration (EIA) américaine. Les pays en développement, en particulier la Chine et l'Inde, enregistreront la plus forte croissance de l'utilisation d'énergie étant donné la vigueur de leurs économies, lit-on dans les prévisions à l'horizon 2025 de l'EIA. L'utilisation de l'énergie dans les pays en développement devrait s'envoler de 91% au cours des 20 ans à venir, contre 33% dans les pays industrialisés. "D'une manière générale, les pays du monde industrialisé peuvent être caractérisés comme des consommateurs d'énergie matures avec une croissance comparativement lente de leur population", estime l'EIA, service d'analyses du département américaine de l'Energie. Ces pays abandonnent également progressivement des industries très consommatrices en énergie au profit du secteur des services. La demande mondiale de pétrole devrait passer de 81 millions de barils par jour (bpj) cette à année à 121 millions en 2025. Les Etats-Unis, la Chine et les autres pays asiatiques en développement absorberont près de 60% de cette production supplémentaire, précise l'EIA. "Au cours des dernières décennies, le pétrole a été la principale source de consommation d'énergie primaire dans le monde et elle devrait le rester", note aussi l'agence. Pour satisfaire cette demande, la capacité mondiale de production de pétrole devra augmenter de 44 millions de bpj par rapport aux niveaux actuels, poursuit l'EIA. L'Opep devrait être le principal fournisseur du pétrole supplémentaire. La production de l'organisation devrait plus que doubler à 56 millions de bpj en 2025 contre 27 millions cette année. En dehors de l'Opep, la production supplémentaire proviendra de puits offshore en mer Caspienne, en Amérique latine et en Afrique de l'Ouest. Les prix moyens annuels du pétrole devraient baisser l'année prochaine à 25 dollars le baril en dollars 2002 ajustés de l'inflation avant de remonter lentement à 27 dollars en 2025, ce qui représenterait 51 dollars en dollars nominaux. La demande mondiale d'électricité doublera quasiment d'ici 2025. Elle augmentera de 3,5% par an dans les pays développés, principalement par l'achat de nouveaux appareils ménagers et d'équipements de climatisation. Les émissions de dioxyde de carbone passeront de 23,9 milliards de tonnes en 2001 à 27,7 milliards en 2010 et 37,1 milliards en 2025. Le monde développé représentera 61% de cette augmentation en raison de son utilisation des énergies fossiles. Reuters : http://fr.news.yahoo.com/040414/85/3qv11.html
|
|
^ Haut |
|
|
|
|
|
|
|
Espace |
|
|
Espace et Cosmologie
|
|
|
|
|
|
|
|
|
Des astronomes ont pu repérer une planète tournant autour d'une étoile dans la Voie lactée en utilisant pour la première fois un effet naturel de loupe cosmique.Ce phénomène, connu sous le nom de microlentille gravitationnelle, fait tenir à une étoile ou à une planète le rôle de loupe en rendant plus brillante l'étoile plus éloignée qui se trouve directement derrière l'objet observé. L'amplification de la lumière de l'étoile éloignée est due à la déviation de la lumière issue de cette étoile par l'objet dense (planète ou naine brune) plus proche, située sur la ligne de visée de l'étoile éloignée. L'étoile la plus éloignée focalise la lumière, comme la lentille d'un télescope, mais cette observation n'est possible qu'au moment d'un alignement entre l'objet observé et l'étoile située derrière elle. Le physicien américain d'origine allemande Albert Einstein avait été le premier à décrire cet effet de loupe dans sa Théorie de la relativité générale. "La vrai force de la microlentille gravitationnelle est sa capacité à détecter des planètes de faible masse", a expliqué Ian Bond, de l'Institut d'Astronomie d'Edimbourg (Ecosse), dont les travaux seront publiés dans l'édition du 10 mai de la revue Astrophysical Journal Letters. La nouvelle planète observée est en orbite autour d'une étoile située à 17.000 années lumière de la Terre, dans la constellation du Sagittaire. Cette planète est probablement une fois et demi plus grosse que Jupiter, et trois fois plus éloignée de nous que la distance de la Terre au Soleil. "Je suis heureux de voir la prédiction (d'Einstein) ce réaliser avec la détection de la première planète par microlentille gravitationnelle" a déclaré Bohdan Paczynski, de Princeton University dans le New Jersey en estimant que le procéder devrait permettre de repérer d'autres planètes de la taille de Neptune ou même de la Terre, autour d'étoiles très éloignées. Science Daily : http://www.sciencedaily.com/news/space_time.htm
|
|
^ Haut |
|
|
|
|
|
|
|
Terre |
|
|
Sciences de la Terre, Environnement et Climat
|
|
|
|
|
|
|
|
|
Des chercheurs américains espèrent pouvoir prédire, au moins un an à l'avance, les épisodes importants du phénomène climatique el Niño, après avoir validé rétrospectivement leur nouveau modèle sur le siècle et demi passé dans étude présentée jeudi dans la revue britannique Nature.El Niño, phénomène climatique qui se traduit par la migration d'Ouest en Est de part et d'autre de l'Océan Pacifique, d'une énorme vague d'eau chaude, fait intervenir l'océan et l'atmosphère. Par un jeu d'action-réaction, suite au Niño, un phénomène inverse se produit et un courant d'eau chaude de surface circule d'est en ouest, c'est la Niña. L'ensemble du cycle s'étend sur 18 mois et se nomme ENSO (El Niño Southern Oscillation). Il affecte particulièrement les latitudes tropicales et équatoriales mais peut connaître des conséquences climatiques beaucoup plus globales. Le modèle élaboré par Dake Chen et son équipe de l'Université de Columbia, prédit des ENSO de grande intensité. Il a été testé sur un siècle et demi alors que jusqu'ici les modèles n'avaient été validés que sur les trente dernières années. Ce modèle a pu prévoir des épisodes ENSO deux ans à l'avance, soit un an à un an et demi avant les modèles actuellement opérationnels. Par exemple, une expérience se basant sur les conditions océano-atmosphériques d'octobre 1996 a décrit croissance, maturité et déclin du Niño de l'hiver 1998, indique Nature. Leurs prévisions des épisodes Niño du passé s'établissent par l'analyse des températures de surface des mers et des océans (SST/Sea Surface Temperature) qui donnent des informations sur les changements peu rapides et à grande échelle des vents. Le modèle de Dake Chen et ses collaborateurs, n'étant sensible qu'aux variations lentes de l'atmosphère, ne peut donc "voir" que des épisodes el Niño importants. El Nino est un phénomène climatique qui se produit tous les deux à sept ans dans l'Océan Pacifique, en bordure de l'équateur, et qui se caractérise par une élévation anormale des températures à la surface de l'océan. Il se développe le plus souvent d'avril à juin et atteint son apogée entre décembre et février. Le réchauffement dure alors neuf à 12 mois.Sa manifestation la plus violente a eu lieu en 1997/98, provoquant pluies torrentielles et inondations sur la côte orientale du continent américain (Pérou, Equateur, Chili, Californie), sécheresses record et immenses feux de forêts en Indonésie et en Papouasie-Nouvelle Guinée. Reste à savoir si le modèle de l'équipe de Columbia, apparemment efficace pour retracer certains évènements climatiques passés, le sera dans la même mesure pour prévoir ceux qui pourraient se profiler dans le futur. De l'avis des chercheurs, la capacité à prédire le réchauffement ou le refroidissement de l'Océan Pacifique est d'une importance primordiale. Les manifestations d'El Nino en 1997, par exemple, ont causé des dommages estimés à 20 milliards de dollars (16,75 milliards d'euros), selon David Anderson, du Centre européen de prédictions météorologiques de Reading (Angleterre). Un rapport des Nations Unies, publié en 2002, fait apparaître que 200 millions de Chinois ont été touchés par les conséquences d'El Nino en 1991 et 1997. Université de Columbia : http://www.earth.columbia.edu/news/2004/story04-14-04.html
|
|
|
|
|
|
|
|
Le grand bassin parisien recèle en profondeur des formations géologiques favorables au stockage du CO2, a estimé vendredi l'institut de recherche public BRGM, plaidant pour la création d'un site expérimental en France d'ici trois ans.Le Bureau de recherches géologiques et minières (BRGM) faisait le point vendredi sur ses recherches sur la "séquestration du CO2". Le stockage à grande profondeur du gaz carbonique (CO2) émis par les industries intéresse de plus en plus la communauté internationale, comme une des solutions pour combattre le réchauffement climatique. Le BRGM, qui participe à une dizaine de programmes de recherche internationaux sur le sujet, souhaite à présent expérimenter "grandeur nature" un site en France, dans le grand bassin parisien. On y trouve des couches géologiques susceptibles de "piéger" le CO2 (qui passe de l'état gazeux à un état dense à 800 m de profondeur): les carbonates du Dogger (1.400 à 2.200 m de profondeur) et les grés du Trias (1.500 à 3.000 m). A terme, "plusieurs centaines d'années d'émissions françaises de CO2" pourraient être piégées en profondeur, a évalué Christian Fouillac, directeur de la recherche au BRGM. Les industries françaises (centrales thermiques, raffineries, aciéries, cimenteries...) émettent chaque année 160 millions de tonnes de CO2 (40% du total des émissions françaises). Ce CO2 "industriel" est suffisamment dense pour être capté en sortie d'usine, séparé et compressé pour être injecté dans le sous-sol en profondeur. La région parisienne émet 8 millions de tonnes de CO2 par an. AFP : http://fr.news.yahoo.com/040416/202/3qyx0.html
|
|
^ Haut |
|
|
|
|
|
|
|
Vivant |
|
|
Santé, Médecine et Sciences du Vivant
|
|
|
|
|
|
|
|
|
Brûler les cellules cancéreuses plutôt que les enlever au bistouri. Il fallait y penser ! Des cancérologues de Houston, aux Etats-Unis, ont franchi le pas. Leurs résultats, certes préliminaires, suscitent un nouvel espoir dans le traitement des cancers. Une nouvelle arme contre les tumeurs mammaires ? Possible. La radiofréquence pourrait enrichir l'arsenal des chirurgiens pour détruire " complètement " les petites tumeurs de moins de deux centimètres. De la taille d'un grain de raisin, comme disent souvent les cancérologues. Bruno Fornage, et ses collègues radiologues du centre de lutte contre le cancer " Anderson " au Texas, viennent en effet de mettre au point une technique peu invasive, qui serait prometteuse. " L'ablation par radiofréquence consiste à détruire les cellules cancéreuses avec de la chaleur produite par un courant électrique ", explique le Dr Fornage. " Nous avons élaboré pour cela une aiguille portant à son extrémité une électrode. Grâce à l'échographie, qui permet de voir à l'intérieur des tissus, nous guidons l'aiguille jusqu'au centre de la tumeur. Et là nous y appliquons une température de près de 100°C pendant 15 minutes pour éliminer les cellules cancéreuses ". Les essais réalisés sur 20 patientes présentant une tumeur de petite taille et devant subir une intervention chirurgicale ont donné de bons résultats mais il faudra beaucoup plus de recul pour évaluer l'efficacité de cette nouvelle technique. Destination Santé : http://www.destinationsante.com/
|
|
|
|
|
|
|
|
Les hommes qui mangent régulièrement des légumes seraient moins sujets que les autres d'être atteints du cancer de la prostate, révèle une importante recherche parue dans l'édition de mars du International Journal of Cancer. Les fibres contenues dans les légumes auraient un effet protecteur marqué contre l'apparition de la maladie. Une équipe de chercheurs italiens a scruté à la loupe le mode de vie et l'alimentation de 1 700 hommes, âgés de 46 à 74 ans, dont 1 300 avaient le cancer de la prostate et suivaient un traitement en milieu hospitalier. Les autres hommes étaient aussi soignés à l'hôpital, mais pour une autre raison que le cancer. Les chercheurs ont étudié le rôle des fibres en distinguant leurs sources (fruits, légumes, grains, etc.) et en les divisant en deux catégories : les fibres dites « solubles » (parce qu'elles se dissolvent au contact de l'eau), contenues dans les fruits, les légumes et le gruau ; et les fibres « insolubles », issues des grains entiers, les graines et les pelures de fruits.Ce travail de précision distingue cette recherche des autres études ayant porté sur le même sujet et qui ont mené à des conclusions contradictoires. Tel que prévu, les hommes consommant le plus de fibres présentaient une incidence de cancer de la prostate légèrement moins élevée. Mais les chercheurs ont également fait une véritable trouvaille : chez ceux dont l'apport en fibres provenait surtout des légumes, le risque chutait de 18 % comparativement aux petits consommateurs de fibres! Les fibres insolubles n'étaient pas associées à une réduction du risque. Par contre, les fibres solubles, en général, semblaient offrir un effet protecteur. Les chercheurs précisent que d'autres nutriments présents dans les aliments aux fibres solubles ainsi que le mode de vie plus sain qui est souvent relié à une bonne alimentation peuvent également expliquer en partie ces résultats. RP : http://www.reseauproteus.net/fr/Actualites/Nouvelles/Fiche.aspx?doc=2004041500
|
|
|
|
|
|
|
|
Les personnes qui limitent sévèrement leur consommation de calories réduisent drastiquement leurs risques d'être sujettes au diabète, d'être victime d'une crise cardiaque ou d'une attaque cérébrale, selon une étude publiée aux Etats-Unis. Les auteurs des travaux, à la faculté de médecine de Washington University à Saint Louis (Kentucky), estiment que les risques encourus par les personnes âgées d'une cinquantaine ou d'une soixantaine d'années ayant adopté ce régime basses calories sont comparables à ceux de personnes plus jeunes de plusieurs dizaines d'années. "Il est très clair, sur la base de ces résultats, que la restriction des calories a un puissant effet de protection contre les maladies associées au vieillissement", a expliqué le Dr John Holloszy, qui a dirigé l'étude publiée dans les Comptes rendus de l'Académie nationale des sciences (PNAS) américaine. "Nous ignorons combien de temps vivront les personnes (ayant participé à l'étude), mais elles ont une espérance de vie bien supérieure à la moyenne car elle ne mourront probablement pas d'une crise cardiaque, d'une attaque cérébrale ou du diabète", a ajouté le chercheur. Les 18 participants à l'étude, âgés de 35 à 82 ans, ont adopté un régime à basses calories pendant des périodes allant de trois à 15 ans. Leurs résultats ont été comparés à ceux de personnes du même âge et du même sexe, ayant une alimentation typique des Etats-Unis. Les différences entre les deux groupes portent non seulement sur le total de calories consommées mais aussi la composition de leur alimentation. Les membres du groupe suivant le régime consommaient entre 1.100 et 1.950 calories par jour, en fonction de leur taille, poids et sexe. Ces calories provenaient à 26% de protéines, 28% graisses et 46% glucides complexes (farine complète...). Les membres de l'autre groupe consommaient entre 1.975 et 3.550 calories par jour, provenant seulement à 18% de protéines mais à 32% de graisses et 50% de glucides, parmi lesquels des féculents traités industriellement. Parmi les participants du groupe à basses calories, les niveaux de mauvais cholestérol demeuraient dans la tranche des 10% les plus bas comparés à la population de la même classe d'âge et le bon cholestérol était trouvé en quantités les plaçant dans le meilleur pourcentage (85 à 90%) de leur classe d'âge. Les niveaux de triglycéride qui, lorsqu'ils sont élevés peuvent mener à l'athérosclérose, étaient plus bas que ceux de 95% des Américains âgés d'une vingtaine d'années seulement. La tension artérielle dans le groupe de régime à basses calories étaient également égale à celle du groupe de personnes beaucoup plus jeunes. La moyenne dans le groupe à alimentation américaine typique était de 13/8 contre 10/6 chez ceux ayant réduit leur consommation de calories, soit une tension équivalente à celle d'un enfant de 10 ans, soulignent les auteurs. PNAS : http://www.pnas.org/cgi/content/abstract/0308291101v1
|
|
|
|
|
|
|
|
Les statines, la classe de médicaments la plus prescrite contre le cholestérol, semblent aussi limiter la progression de la maladie d'Alzheimer. Les preuves à cet effet s'accumulent comme ont pu le constater les participants au 8e Symposium international sur les progrès dans le traitement de la maladie d'Alzheimer, qui se terminait en fin de semaine à Montréal. « Les chercheurs ont remarqué depuis un certain temps déjà que les patients traités avec des statines semblent moins souffrir d'Alzheimer que les autres », mentionne l'un des organisateurs, Judes Poirier, directeur du Centre McGill d'études sur le vieillissement. La preuve en est maintenant faite grâce à une étude du Sun Health Research Institute, en Arizona, sur une soixantaine de patients atteints de la maladie. Pendant une année, la moitié du groupe a consommé 80 mg/jour d'atorvastatine (un type de statine), et l'autre moitié du groupe a reçu un placebo. Le médicament anti-cholestérol a freiné la maladie chez la moitié des patients qui en ont consommé; en effet leurs fonctions cognitives ont cessé de se détériorer et se sont même améliorées chez certains. Dans le groupe placebo, seulement le tiers des patients se sont stabilisés; chez tous les autres, on a noté un déclin des fonctions cognitives. Cybersciences : http://www.cybersciences.com/Cyber/3.0/N3455.asp
|
|
|
|
|
|
|
|
Les chercheurs de Université de Northumbria développent un système d'imagerie holographique hyperfréquences qui permet de reconstituer une image en trois dimensions. La technologie est basée sur une technique de calcul numérique calculant la distribution des radiations hyperfréquences grâce a de multiples antennes environnantes. Le Docteur David Smith, qui mène ce projet, explique que l'avantage de l'hologramme est de pouvoir être reconstitue rapidement et pour un faible coût, puisqu'il ne repose que sur les mesures intensité. En effet, l'objet est expose a des ondes électromagnétiques hyperfréquences. Un dessin des interférences micro-ondes dues a cet objet est alors obtenu, c'est l'hologramme, grâce aux antennes de réceptions placées autour de celui-ci. David Smith précise que la principale difficulté technique pour des hologrammes avec des micro-ondes, plutôt qu'avec des ondes optiques, réside dans la difficulté de générer une onde plane. La fréquence de travail se situe autour de 10 GHz. Mais pour des applications médicales par exemple, le domaine de fréquence intéressant se situe dans la gamme de fréquence 1-10 GHz. Pour appliquer cette technologie a des systèmes de détection dans les aéroports par exemple, il faudra en revanche améliorer la résolution du système actuelle. Cela pourrait a terme remplacer les systèmes existants base sur la détection aux rayons X, puisque les radiations a ces fréquences peuvent endommager les tissus vivant alors que les radiations hyperfréquences sont sans danger pour l'homme. A l'heure ou les pays occidentaux cherchent a renforcer leurs systèmes de sécurité, l'imagerie par micro-ondes pourrait avoir un bel avenir devant elle. BE GB : http://www.adit.fr
|
|
|
|
|
|
|
|
Le manque d'activité physique soutenue constitue le principal facteur de risque d'obésité aux Etats-Unis, devant les déséquilibres alimentaires, donc ! Un constat qui écorne encore un peu plus l'image des télévisions et autres consoles de jeux. Une équipe de l'Université de Californie à San Diego, a suivi le régime alimentaire et le niveau d'activité physique de 878 adolescents de 11 à 15 ans. Premier constat, les jeunes qui ne présentent ni surpoids ni obésité ne consomment pas moins de graisses que les ados obèses. Surprenant ? Non ! Car ces jeunes au poids considéré comme normal mangent en fait plus de fruits, de légumes et de fibres que les autres. En fait, c'est davantage le nombre d'heures passées devant la télévision ou la console de jeux qui expliquerait le développement d'une obésité. Les adolescents qui sont le moins victimes de surpoids affirment regarder les programmes télévisés 108 minutes par jour - ce qui est déjà beaucoup - contre... 142 pour ceux qui se trouvent déjà au stade de l'excès pondéral, sans aller même jusqu'à l'obésité. Par ailleurs, ces derniers ne se " bougent " pas assez ! Chaque jour, ils font entre deux et quatre minutes d'exercice physique intense de moins que leurs camarades. A la fin de leur travail, les auteurs ont constaté que pratiquement la moitié des adolescents qu'ils avaient suivis étaient en fait à risque de surpoids ! Kevin Patrick, l'auteur principal de cette étude, insiste sur la nécessité de mettre au point des programmes d'activité physique pour sortir ces adolescents de la sédentarité. Destination SAnté : http://www.destinationsante.com/article.cfm?ContentID=9111
|
|
|
|
|
|
|
|
Il fut un temps où la création d'un bébé mammifère ne pouvait se réaliser sans deux éléments essentiels, l'ovule et le spermatozoïde. Cette époque est maintenant derrière nous puisque des chercheurs japonais ont réussi à obtenir la naissance d'une souris sans ces ingrédients ni clonage. La souris Kaguya, dont le matériel génétique est exclusivement d'origine femelle, est présentée par une équipe de l'université d'agriculture de Tokyo comme le premier mammifère sain et fertile, arrivé à l'âge adulte, obtenu par parthénogenèse, un mécanisme de reproduction asexué. Le terme parthénogenèse, du grec « né d'une vierge », est un mode de reproduction rencontré chez les pucerons, certains poissons, les lézards et même quelques espèces de dinde. En fait, la souris née des travaux de l'équipe japonaise coordonnée par Tomohiro Kono (université d'agriculture de Tokyo) "n'est pas un clone, mais elle n'est pas non plus une souris parthénogénétique" véritable, a commenté pour l'AFP Jean-Pierre Ozil, chercheur à l'Institut national de la recherche agronomique (Inra). "Elle a deux mères génétiques et une mère porteuse", a précisé Jean-Pierre Ozil. En effet, "les parthénogenèses artificielles effectuées dans les laboratoires sont des activations d'oeufs non fécondés", a-t-il ajouté en reconnaissant "l'intérêt majeur" de ces recherches. De tels travaux apportent en effet de précieuses informations sur les empreintes parentales, c'est-à-dire sur les rôles différents et complémentaires de gènes portés par les chromosomes paternels et maternels sur le développement de l'embryon. Ces recherches donnent notamment des explications sur l'impossibilité d'une parthénogenèse naturelle chez les mammifères, Selon Tomohiro Kono, cette nouvelle technique pourrait être utilisée à des fins agricoles et scientifiques. Des experts y voient, eux, d'éventuelles implications dans le traitement de maladies par le biais de cellules isolées. RC : http://radio-canada.ca/nouvelles/Santeeducation/nouvelles/200404/21/003-bebe-emb... BBC : http://news.bbc.co.uk/2/hi/science/nature/3643847.stm
|
|
|
|
|
|
|
|
La voiture de demain roulera à l'hydrogène grâce aux piles à combustible (Pac). Aujourd'hui, même si les Pac sont fonctionnelles, il n'est pas encore question d'en équiper les automobiles à grande échelle. Les piles sont trop chères, parce que la catalyse de la réduction de l'oxygène à la cathode, donc la production d'électricité, nécessite du platine, un matériau très coûteux. “Ce problème pourrait être levé grâce... à des enzymes extraites d'eau de mer, affirme Damien Féron, chef-adjoint du SCCME. En plongeant des pièces d'acier inoxydable dans de l'eau de mer, nous avons en effet découvert que les biofilms produits par les micro-organismes catalysent la réduction de l'oxygène.” Des études ont été menées dans le port de Gênes, à l'institut italien des Sciences marines, en collaboration avec le laboratoire de Génie chimique de Toulouse, sur une pile possédant une cathode en acier inoxydable. Lorsqu'il est colonisé par les micro-organismes, l'acier présente des caractéristiques semblables à celles du platine. Reste à identifier les micro-organismes à l'origine de la catalyse. “Nous avons constaté que les biofilms provenant de la mer Méditerranée, de la mer du Nord, ou même de rivières, produisent des effets identiques, rapporte Damien Féron. Mais en étudiant de près le mécanisme de la catalyse bactérienne, nous avons montré que des enzymes sont responsables de la corrosion.” Une aubaine, car une enzyme est plus facile à manipuler qu'une “soupe” de micro-organismes. L'équipe du SCCME a alors cherché l'enzyme capable de reproduire la corrosion, tout en étant non toxique et peu onéreuse. Au final, la glucose oxydase a été sélectionnée car elle produit des effets semblables au biofilm. Lorsqu'elle est ajoutée à la cathode d'une PAC, la puissance délivrée augmente de 10 à 25 %. Ce gain en puissance est important, car les piles actuelles, à cathode en platine, ne semblent pas fonctionner à plus de 70 % de leur rendement théorique. L'intérêt économique des biofilms et des enzymes excrétées par les micro-organismes a convaincu l'Europe d'accepter qu'un projet sur “l'électricité bactérienne” entre dans son 6e PCRDT. Ces technologies ouvrent en effet un champ large d'applications, sur la protection des métaux (plateformes pétrolières, navires...), ou la lutte contre les maladies nosocomiales (colonisation de matériel médical par des biofilms...). Dans le cadre de ce projet baptisé “Electrochemically Active Biofilms”, les trois premiers laboratoires ont été rejoints par des organismes de recherche allemand, belge et portugais et un industriel italien. Les scientifiques européens pourront ainsi explorer cette nouvelle voie qui allie vivant et minéral jusqu'en 2007. De quoi espérer le développement des voitures à hydrogène d'ici la prochaine décennie ? CEA : http://www.cea-technologies.com/article/article.php?article=236
|
|
^ Haut |
|
|
|
|
|
VOTRE INSCRIPTION |
|
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
|
|
|
|
|
|