|
|
|
|
|
NUMERO 269 |
|
|
|
|
|
|
|
Edition du 12 Décembre 2003
|
|
|
|
|
Edito
1903-2003 : un siècle d'aviation et l'aventure continue
Il y a presque un siècle jour pour jour, le 17 décembre 1903, Orville Wright accomplissait, avec le Flyer, le premier vol motorisé et dirigé de l'histoire de l'aviation, sur la plage de Kitty Hawk, en Caroline du Nord. L'avion de 6.40 mètres et pesant 337 kg, à armature en bois recouverte de toile et baptisé Flyer 1, était monté sur un chariot roulant guidé par un rail afin de faciliter le décollage. Au cours de ce premier vol, Orville Wright parcourra une distance de 36,60 m en 12 secondes, et s'élevant de 3 m au-dessus du sol. Au quatrième essai, son frère Wilbur parcourut 284 mètres et vola pendant 59 secondes. À la différence de l'Avion de Clément Ader, qui effectue le 9 octobre 1890 le premier vol de l'histoire avec son "Eole", le Flyer 1 était doté d'une commande de gauchissement des ailes (par simple déformation de leur extrémité obtenue en agissant sur un câble) qui permettait au pilote de le maintenir en vol stabilisé ou de l'incliner afin de virer. C'est donc le premier vol véritablement contrôlé d'un appareil à moteur. Contrôlé était toutefois encore un grand mot : il fallut attendre le 15 Septembre 1904 pour que les frères Wright réussissent leur premier virage ! Curieusement, l'exploit, qui avait eu comme témoins cinq garde-côtes, passa presque inaperçu. Le vol des Frères Wright n'eut aucune répercussion immédiate au niveau mondial. C'est seulement trois ans plus tard, le 23 octobre 1906, que le monde réalisa qu'un "plus lourd que l'air" pouvait voler. Ce jour là, le Brésilien Alberto Santos-Dumont, vivant en France, effectua un vol de 60 mètres après avoir décollé du sol par ses propres moyens, avoir dirigé l'appareil en le faisant tourner autour de ses 3 axes et le posa en le maîtrisant parfaitement. L'exploit se fit dans le Parc de Bagatelle, près de Paris, devant des milliers d'yeux émerveillés et les journaux du monde entier publièrent des photos. Le 10 novembre 1907, Henry Farman fut le premier au monde à réaliser un vol de plus d'une minute, le même pilote (avec le même avion) parcourut le premier kilomètre en vol le 13 janvier 1908. Toujours en 1908, après avoir durement travaillé, Wilbur Wright vint en France présenter, au Mans, son dernier modèle de Flyer ; il effectua une démonstration qui remporta un succès considérable, soulevant l'enthousiasme chez les passionnés de l'aviation naissante. Ce fut le début d'une longue histoire d'amour entre la France et l'aviation. Orville, resté aux États-Unis, présenta un appareil à l'armée américaine. En 1909, l'armée américaine commanda aux frères Wright le premier avion militaire du monde. Le 25 juillet 1909, vers 5 heures du matin, un monoplan d'allure fragile se posa à proximité de Douvres, dans le Kent. L'homme qui venait de réussir la première traversée de la Manche à bord d'un plus lourd que l'air s'appelait Louis Blériot. Son monoplan, le Blériot XI, lui permit de traverser la Manche en 37 minutes. Il était équipé d'un moteur 3 cylindres Anzani de 25 CV. Le premier vol Londres-Paris sans escale eut lieu le 12 avril 1911 et la première utilisation en guerre d'un avion le 22 octobre 1911. En France, l'industrie aéronautique prit naissance à partir de 1907 avec les ateliers des frères Voisin. Celle-ci n'emploie que 2 000 ouvriers en août 1914. Au début des années 1920, un peu plus de 5 000 ouvriers et techniciens travaillent dans l'aéronautique. Ils sont 20 000 en 1930 et 34 000 environ en 1936. Les premières compagnies furent créées à partir de 1919 : Deutsche Luft Reederei et Lufthansa en Allemagne, BAT en Grande-Bretagne, KLM aux Pays-Bas, Sabena en Belgique, Pan American Airways aux États-Unis, Messageries aériennes, Franco-Roumaine et Lignes Latécoère en France. Les premières lignes régionales françaises, Biarritz-Bordeaux, Nîmes-Nice, sont ouvertes en 1919. La première ligne internationale de transport de passagers, Paris-Londres, est inaugurée la même année sur un biplan Farman. C'est de ce service que naît, en 1933, la compagnie Air France. Entre temps, Charles Lindberg parvient à traverser l'Atlantique le 21 mai 1927 avec son "Spirit of Saint Louis". À partir de 1930 commence l'exploitation des lignes transocéaniques : d'abord pour l'acheminement du courrier sur l'Atlantique Sud, puis sur l'Atlantique Nord et le Pacifique. Le 28 juin 1939 a lieu le premier vol transatlantique avec passagers : un hydravion quadrimoteur Boeing 314 relie Port Washington à Marseille. La quasi-totalité du réseau aérien mondial est tissé, franchissant tous les océans, reliant entre eux les cinq continents et les deux pôles. Sur le plan technique, les progrès de l'aérodynamique, des motorisations et l'utilisation du métal améliorent considérablement les performances des avions. Dès 1923, les 400 Km/h et les 10 000 m d'altitude sont franchis. Les longues étapes sont aussi rendues possibles par la mise au point de procédés et d'instruments de navigation permettant le vol de nuit ou sans visibilité. Les premiers instruments de bord (indicateur de vitesse et anémomètre) prennent place dans les avions avant même la Première Guerre mondiale. À partir de 1919 apparaissent les équipements de bord et de navigation. D'autres progrès sensibles sont à signaler, comme la mise au point du train d'atterrissage rentrant. On commence à penser à la pressurisation de la cabine : le Boeing 307 ouvre la voie des transporteurs pressurisés. Lors de la Seconde Guerre mondiale, alors que les Britanniques commencent leurs travaux sur le radar, les Allemands s'intéressent à la propulsion par réaction. La guerre est l'occasion de perfectionnements de tous ordres, relatifs en particulier à la radionavigation et à l'accroissement de puissance des systèmes moteurs. À la fin des hostilités, de nouveaux propulseurs, les turboréacteurs, sont mis en service sur les nouveaux avions de chasse ; une vitesse de 700 à 750 Km/h devient courante. Après 1945, les constructeurs se penchent sur l'étude du vol dans les domaines transsonique, supersonique et hypersonique. Le 14 octobre 1947, l'Américain Charles Yeager franchit le mur du son sur Bell X-1 à Muroc, suivi, en Grande-Bretagne, par John Derry sur DH 108 le 6 septembre 1948, et, en France, par le commandant Roger Carpentier sur Mystère II le 13 novembre 1952. À partir de 1957 démarre le programme américain de l'avion-fusée X-15 (lancé en vol à partir d'un avion porteur Boeing B-52), destiné à l'étude de l'échauffement cinétique et du comportement des structures aux vitesses hypersoniques. Bob White atteint, avec un tel avion, la vitesse de Mach 6 en 1961, et l'altitude de 95 936 m en 1962. La période de 1945 à 1957 marque, pour les avions de transport, le passage progressif des moteurs à pistons aux turboréacteurs et aux turbopropulseurs. En 1948, la Grande-Bretagne met au point le premier appareil à turbopropulsion, le Vickers-Armstrong Viscount, puis, un an plus tard, le premier transporteur à réaction, le De Havilland Comet (720 km/h, 36 passagers). Les États-Unis, avec le Boeing 707, et la France, avec la Caravelle, se lancent à leur tour dans la production d'avions équipés de réacteurs. Les prototypes effectuent leur premier vol respectivement en 1954 et en 1955. Après de nombreux essais, le Boeing 707 entre en service en 1957 ; la Caravelle reçoit sa certification le 2 avril 1959. Porté par le succès des avions à réaction, le transport aérien connaît dans les années 1960 un essor qui laisse prévoir un doublement du trafic tous les six ans. Cette demande favorise le développement d'appareils à fuselage de grand diamètre, les jumbo-jets, ou gros-porteurs. Le Boeing 747 sera le premier gros-porteur à réaction. Il prend l'air le 9 février 1969 et entre en service en 1970. En 1963, le Général de Gaulle décide de lancer le projet d'un avion commercial supersonique. Le 2 mars 1969 le "Concorde", premier avion supersonique civil et fruit de la coopération franco-anglaise, accomplit son premier vol. Il sera mis en service en 1976 et le restera pendant 27 ans, jusqu'en novembre 2003. Si le Concorde n'eut pas le succès commercial escompté, il permit à l'Europe d'acquérir un inestimable savoir-faire technologique qui assurera la réussite exemplaire du projet européen "Airbus". C'est en 1969 que les gouvernements allemand et français, après le retrait britannique, décidèrent de créer le GIE "Airbus Industrie" et de lancer un programme aéronautique européen qui déboucha en 1972 sur le vol du premier avion d'Airbus, l'A 300. Qui aurait osé imaginer que trente ans après sa création, en 1999, Airbus dépasserait pour la première fois son éternel concurrent américain Boeing, avec 55 % de toutes les commandes mondiales d'avions civils ! En juin 1994, le consortium européen Airbus a lancé le projet du gros porteur A3xx, conçu pour concurrencer le Boeing 747. Le programme a été lancé officiellement le 19 décembre 2000 et le projet A3xx est devenu l'A380. Plusieurs versions de ce véritable paquebot des airs devraient voir le jour. Le modèle de base, l'A380-800, contiendra 555 places. Le défi que lance Airbus est aux dimensions de l'avion : gigantesque. Dans sa version la plus longue, l'A3X fait 80 mètres de long, 80 mètres d'envergure et 24 mètre de haut ! Airbus prévoit la vente de 1 440 appareils avant 2006 et vise 60 % du marché des très gros porteurs d'ici à 2015. Mais pour la mise en service de ces appareils, il faudra aménager les aéroports autant au niveau des pistes que dans la capacité d'accueil des passagers. De plus, l'avion sera si gros qu'il générera tellement de turbulences qu'aucun avion ne pourra décoller à sa suite en moins de 5 minutes ! Aujourd'hui, la flotte aérienne mondiale compte près de 18.000 appareils ; ce chiffre comprend les avions à turbopropulseurs et même quelques appareils à moteur à piston, mais pas les petits avions de moins de 40 places. Ce chiffre passera à environ 35.000 d'ici 2025. Même si l'on envisage un bon taux de croissance des turbopropulseurs, près de 27.000 avions seront des avions à réaction, soit le double du nombre actuel. En dix ans, le trafic aérien mondial a progressé de 50 % (aujourd'hui 1,6 milliard de personnes transportées chaque année et 40 % des exportations de produits manufacturés en valeur transitent par voie aérienne). Le secteur du transport aérien représente aujourd'hui plus de 600 milliards de dollars de chiffre d'affaires mais depuis deux ans, le secteur aérien connaît la plus grave crise de son histoire, à cause des attentats du 11 septembre et de la récession économique, et les grandes compagnies mondiales ont perdu 25 milliards de dollars et 400.000 emplois. Avec l'arrêt définitif du Concorde, l'aviation civile connaît pour la première fois depuis un siècle une régression technologique en terme de vitesse et, en ce début de XXIème siècle, l'avenir technologique de l'aviation semble de plus en plus liée aux contraintes économiques et environnementales draconiennes qui encadrent désormais le transport aérien. Il s'agit à présent de concevoir des avions capables de transporter un maximum de passagers pour un coût d'exploitation minimum, tout en respectant des normes de plus en plus sévères en matière de protection de l'environnement. Dans un tel contexte, le futur supersonique ne devrait pas se concrétiser avant l'horizon 2020/2025. Mais il n'en reste pas moins vrai qu'à terme, seule la vitesse pourra sensiblement diminuer l'encombrement de l'espace aérien (temps de vol réduit, altitude plus élevée). L'histoire des techniques nous montre enfin qu'une rupture technologique majeure peut survenir et bouleverser l'aviation et l'économie du transport aérien. Cette rupture technologique majeure a peut-être eu lieu le 30 juillet 2002. Ce jour là, des scientifiques australiens ont procédé avec succès à l'essai d'une fusée pouvant voler à près de huit fois la vitesse du son. La fusée, baptisée "Hyshot" est parvenue à monter à une altitude de 300 Km à Mach 7,6, soit 7,6 fois la vitesse du son. C'est grâce à de l'oxygène absorbée au cours de sa trajectoire que la fusée a réussi cet exploit, redescendant dix minutes plus tard. Ce prototype utilise la technologie « scramjet », pour « supersonic combustible ramjet ». Au lieu de transporter ses réserves d'oxygène, l'avion puise directement l'oxygène dans l'air afin de le mélanger à l'hydrogène pour se propulser. L'objectif des concepteurs d'avions hypersoniques est d'aller jusqu'à Mach 10, soit 12.224 Km par heure au niveau de la mer. Toutes les grandes puissances aérospatiales s'intéressent actuellement à cette technologie prometteuse qui pourrait un jour permettre de relier Londres à Sydney en 2 heures, contre 22 actuellement ! Du Flyer des frères Wright au prototype hypersonique Hyshot, à peine un siècle s'est écoulé et pourtant le chemin technologique parcouru est tout simplement vertigineux. Mais nos enfants qui demain pourront se rendre à l'autre bout de la terre, en ayant à peine le temps de voir un film dans leur avion qui volera à Mach 10, devront se souvenir de ce qu'ils doivent à ces pionniers et visionnaires de génie que furent les frères Wright, qui ouvrirent à l'homme de nouveaux horizons et lui permirent de vivre cette extraordinaire aventure de la conquête de l'air puis de l'espace. René TRÉGOUËT Sénateur du Rhône
|
|
|
|
|
|
|
|
TIC |
|
|
Information et Communication
|
|
|
|
|
|
|
|
|
Evoquant le potentiel de technologies de l'information et de la communication, le Secrétaire général de l'ONU a aussi mis en avant les risques de fractures qu'elles posent à la communauté mondiale et a appelé à s'embarquer dans la société de l'information en reconnaissant qu'il s'agissait d'une entreprise qui transcendait sa dimension technologique. « La technologie a produit l'âge de l'information. A nous tous d'édifier une société de l'information », a déclaré le Secrétaire général de l'ONU devant l'assemblée réunie pour la cérémonie d'ouverture du premier Sommet mondial sur la société de l'information, organisée par l'ONU. « Ce sommet est unique », a poursuivi Kofi Annan. « Là où la plupart des conférences mondiales portent sur des menaces mondiales, celle-ci se penche sur la meilleure façon d'utiliser un atout mondial. » Evoquant le potentiel des technologies de l'information et de la communication, il a souligné que le défi à relever par le Sommet était de décider ce que l'on allait en faire. « Ce que l'on a appelé le fossé digital, comporte en réalité plusieurs écarts rassemblés en un seul », a fait valoir le Secrétaire général qui a cité les écarts dans l'infrastructure, le fossé dans les contenus et a souligné qu'un grand nombre d'informations se trouvant sur le web n'apportait rien au regard des besoins réels de la population. Le fait que 70 % des sites web dans le monde soient en anglais étouffent les voix et les points de vue locaux, a-t-il également souligné. « Une société de l'information ouverte et qui inclut tout le monde et bénéficie à tous n'émergera pas sans un engagement et des investissements durables », a ajouté Kofi Annan qui a appelé les dirigeants rassemblés à manifester cette volonté politique. « Le futur de l'industrie des technologies de l'information réside moins dans le monde développé où les marchés sont saturés qu'auprès des milliards de personnes se trouvant dans le monde en développement qui n'est pas encore touché par la révolution de l'information. » Dans son discours d'ouverture, le secrétaire général de l'Onu a également appelé la communauté internationale à mettre les technologies de l'information au service de la démocratie. "Nous possédons les instruments nécessaires pour faire progresser la cause de la liberté et de la démocratie (...) La raison d'être de ce sommet est de trouver comment concrétiser un tel potentiel", a déclaré M. Annan, alors que plusieurs ONG, comme Reporters sans frontières, accusent des pays autoritaires de vouloir utiliser le sommet pour légitimer leur contrôle de l'internet et la répression des "cyber-dissidents". Il a appelé les pays riches et les milieux d'affaires à aider les pays pauvres à combler le fossé numérique, en leur faisant valoir qu'une telle démarche est dans leur intérêt. "L'avenir du secteur des technologies de l'information dépend moins du monde développé, où les marchés sont saturés, que du monde en développement, où des milliards d'individus n'ont pas encore été touchés par la révolution informatique", a-t-il estimé. «Les technologies de l'information et de la communication ne sont ni la panacée ni une formule magique. Elles peuvent cependant améliorer la vie de tous sur la planète », a déclaré Kofi Annan. Cependant, lorsque nous parlons du pouvoir de la technologie, n'oublions pas qui est en charge. Si la technologie façonne le futur, c'est le peuple qui façonne la technologie, qui décide ce à quoi elle peut et doit être utilisée », a-t-il poursuivi. « Alors, optons pour ces nouvelles technologies mais reconnaissons aussi que nous nous embarquons dans une entreprise qui transcende la technologie. Edifier une société de l'information ouverte et bénéfique est défi social, économique et in fine politique », a-t-il déclaré. La FAO pour sa part a souligné "un véritable fossé numérique rural qu'il faut combattre". "Le Sommet Mondial sur la Société de l'Information doit impérativement répondre aux besoins des pauvres de la planète qui vivent dans les zones rurales », a déclaré Anton Mangstl, directeur de la division des systèmes documentaires et de la bibliothèque de l'Organisation des Nations Unies pour l'alimentation et l'agriculture (FAO) . « Plus des trois quarts des personnes les plus pauvres de la planète, celles qui sont restées à l'écart de la transformation de l'information, sont directement ou indirectement liées à l'agriculture», a-t-il ajouté. La réduction de cette fracture numérique du monde rural est devenue une priorité pour la FAO. Brève rédigée par @RT Flash ONU : [http://www.un.org/apps/newsFr/storyF.asp?NewsID=6912&Cr=Information&Cr1=Genève->http://www
|
|
|
|
|
|
|
|
Cinq secondes pour retrouver un document dans une base de 1 Téraoctet : c'est l'exploit réalisé par XediX, la base de données native XML développée par le CEA, dont les performances surpassent largement celles de tous les outils équivalents du marché. AM2 Systems, une start-up de l'INRIA, vient de lancer la commercialisation. Premiers utilisateurs visés : l'archivage, les médiathèques, les projets coopératifs de recherche ; et à terme, tous les gestionnaires de grandes bases de données. Un Téraoctet, cela correspond à plus d'un millier de fois la collection complète de l'Encyclopaedia Universalis. Un océan, une immensité de données, au milieu desquelles la recherche d'un document ou d'une référence précise devient une gageure. A ce jour, aucun produit du marché ne s'y risque : les plus avancés annoncent 300 à 400 Go avec des temps de réponse modestes, et la norme se situe plutôt vers 200 Go, y compris chez les grands éditeurs mondiaux. “C'est d'ailleurs après les avoir rencontrés que nous avons décidé de développer notre propre outil, précise Didier Courtaud, de la Direction des Applications militaires du CEA. Nous voulions de la pérennité et de la performance, pour de grands volumes, toutes choses bien présentes dans XediX”. “L'entrepôt de documents numériques”, pour reprendre la terminologie en vigueur, est utilisé depuis deux ans par le CEA pour ses besoins propres. Sa grande spécificité : il stocke et gère les données textuelles exclusivement en XML*, langage de description indépendant des logiciels de bureautique et de leurs incessantes évolutions ; quant aux fichiers images ou vidéo, ils sont stockés dans la base et répertoriés en XML sous forme de métadonnées décrivant le sujet, la date de tournage, les personnages ou tout autre critère fixé par le gestionnaire de la base. “L'utilisateur détermine librement les modèles de structuration de ses données et peut les faire évoluer, explique Didier Courtaud. Il ne subit pas les contraintes des bases de données objet ou relationnelles, dont les schémas sont figés”. Cette philosophie “tout XML” est la clé des incroyables performances de recherche de XediX. Car le moteur de recherche, intégré à l'outil et non interfacé, n'a pas à explorer toute la base de données : il sélectionne directement les éléments correspondants à la requête. “C'est le nombre d'éléments pertinents, et non la taille de la base, qui détermine le temps de réponse”. Celui-ci est de 5 secondes en moyenne pour une base de 1 Téraoctet et en théorie, le même score serait possible avec 5 ou 10 Téraoctets, voire davantage. Le “tout XML” permet aussi une gestion ultra-fine des droits d'accès, qui peuvent être définis à l'extrême par document et par utilisateur ! Avec de tels atouts, XediX intéresse déjà les secteurs de l'archivage et des médiathèques, ainsi que les communautés de recherche (projets européens, projets recherche-industrie). Il vient d'être commercialisé par AM2 Systems, une start-up de l'INRIA dirigée par Alain Michard, expert XML de notoriété européenne. Des signes qui ne trompent pas : ce “super-outil” a un bel avenir devant lui. CEA : http://www.cea-technologies.com/infocom/68-201.html
|
|
^ Haut |
|
|
|
|
|
|
|
Avenir |
|
|
Nanotechnologies et Robotique
|
|
|
|
|
|
|
|
|
IBM a déclaré avoir réalisé une avancée dans la nanotechnologie qui pourrait faciliter la fabrication de microprocesseurs pour ordinateurs et téléphones mobiles plus petits et plus performants. Avec des outils standard de fabrication, les chercheurs du géant informatique ont conçu une mémoire minuscule à partir de molécules organisées en mini-configurations, dites en kit. Cette toute petite mémoire fait office de mémoire flash, qui permet de conserver les informations quand un appareil n'est plus sous tension, et pourrait s'avérer utile dans les ordinateurs de poche ou les téléphones mobiles. Avec ce procédé, les molécules s'organisent elles-mêmes dans une structure alvéolaire. Les alvéoles ont une largeur d'environ 20 nanomètres, soit 20 milliardièmes de mètre, et sont distantes de 40 nanomètres. Un cheveu a une épaisseur de 50.000 nanomètres. Selon IBM, cette technologie pourrait aussi être utile à la fabrication de microprocesseurs, qui sont plus complexes. Ce procédé pourrait également supprimer la complexité de certaines phases dans la production des semi-conducteurs, et en diminuer potentiellement le coût, a affirmé Chuck Black, un des chercheurs qui a participé à ce projet. Ce nouveau procédé ne nécessite pas de changer l'équipement de fabrication de processeurs, a affirmé IBM, en précisant que ces techniques en kit pourraient être utilisées dans des projets pilotes dans les trois à cinq ans qui viennent. IBM fait figure de pionnier dans le domaine des nanotechnologies : au mois de mai dernier, des chercheurs du groupe avaient réussi à mettre au point le plus petit générateur de lumière au monde : un nanotube de carbone d'1,4 nanomètre de diamètre, soit 50.000 fois moins qu'un simple cheveu ! IBM : http://www-1.ibm.com/press/PressServletForm.wss?
|
|
|
|
|
Le groupe japonais d'électronique NEC a développé le plus petit transistor du monde, ouvrant la voie à la production d'un super-ordinateur de la taille d'un portable, rapporte lundi le quotidien Asahi Shimbun. Le transistor ne mesure qu'un dix-huitième de la taille du transistor le plus courant produit actuellement en série. Un semi-conducteur classique d'un centimètre carré serait capable de contenir 40 milliards de ces transistors, soit environ 150 fois plus que ceux contenus dans les semi-conducteurs actuels, selon la même source. . Le groupe japonais entend développer la technologie de fabrication et commencer une production de masse de ces transistors d'ici 2020, affirme le quotidien. Reuters : http://fr.news.yahoo.com/031208/85/3jb5u.html
|
|
|
|
|
|
|
|
Selon les chercheurs de l'université du Maryland, les nanotubes de carbone sont les meilleurs candidats pour succéder au silicium dans la fabrication de semi-conducteurs. Ces matériaux de recherche sont en effet ceux qui présentent actuellement les meilleures propriétés de conductivité électrique à température ambiante avec un niveau de mobilité électronique supérieure de 70 % à celle que l'on trouve dans le silicium et de 25 % à celle des autres matériaux semi-conducteurs. Plus réactifs, les nanotubes de carbone sont en outre plus sensibles aux différences de potentiels. A la clé, la promesse de transistors particulièrement rapides. Selon Gartner, le marché actuel des semi-conducteurs se porte bien avec une croissance attendue sur l'année de 11,8 % par rapport à 2002 pour un chiffre d'affaires total de 175 Md$. Toujours en tête, Intel avec 16,2 % de parts de marché, suivi de Samsung à 5,5 %, Toshiba à 4,1 %, Texas Instruments et STMicroelectronics ex aequo à 4,0 %, et Infineon à 3,4 %. Réseaux&Télécoms : http://www.reseaux-telecoms.com/news_btree/03_12_05_162626_313/News_view
|
|
^ Haut |
|
|
|
|
|
|
|
Matière |
|
|
Matière et Energie
|
|
|
|
|
|
|
|
|
Il y a 15 ans, un téléphone portable permettait de... téléphoner. Aujourd'hui, il sert de calculette, d'agenda, de console de jeu, de baladeur, d'appareil photo, de caméra... Et demain ? Le développement de nouvelles fonctions est sans limites, si la taille des mobiles l'autorise. Or, les téléphones contiennent déjà des centaines de composants électroniques. Si l'on veut améliorer les performances, il faudra en intégrer plusieurs milliers. “Pour gagner en place et en poids, on envisage de diminuer la taille des composants passifs*, explique Philippe Boy du CEA Le Ripault, qui représentent 80 % des éléments montés sur une puce.” Ainsi, pour réduire la taille sans diminuer les qualités des composants capacitifs, il faut utiliser un matériau à la fois compatible avec le silicium, et possédant une constante diélectrique très élevée : le PZT - Pb(ZrTi)O3 - est le meilleur dans ce domaine, multipliant par 20 les performances capacitives, vis-à-vis de ce qui existe actuellement ! Les chimistes du Ripault ont logiquement misé sur le PZT, et ont offert une expertise inédite aux spécialistes de la microélectronique. “Notre technique de dépôt par voie sol-gel convient parfaitement aux besoins de l'électronique nomade, affirme Philippe Boy. Peu coûteuse et simple de mise en oeuvre, cette méthode est idéale pour un marché aussi volumineux - environ 500 millions de portables vendus chaque année.” Autre atout : elle utilise les mêmes machines que celles servant au dépôt des résines de gravure. Fort de ces avantages, le laboratoire du CEA s'est immédiatement lancé dans un procédé transposable à l'industrie. Les chercheurs ont ainsi mis au point une solution de PZT très stable dans le temps. Pour réaliser des couches minces de PZT à partir de cette solution, ils ont développé un procédé de dépôt rapide : six minutes suffisent pour recouvrir une plaquette de silicium qui correspond à plus de 30 000 capacités. Les chercheurs ont vu juste en pariant sur la voie sol-gel pour la microélectronique. Ils ont en effet d'ores et déjà transféré leur technologie à un industriel de la chimie, qui pourra fabriquer la solution de PZT à grande échelle, dès 2004. Et des géants du domaine de la microélectronique s'intéressent de près à la voie sol-gel pour la réalisation de capacités.“La technique développée s'adresse à un large éventail d'industriels que ceux de la téléphonie, soutient Philippe Belleville, responsable du laboratoire. Outre sa constante diélectrique très élevée, le PZT présente en effet des propriétés ferroélectriques qui intéressent les fabricants de mémoires et de microsystèmes MEMs...” CEA : http://www.cea-technologies.com/micronano/68-501.html
|
|
|
|
|
|
|
|
Lors de la célébration du 25e anniversaire de la "British Wind Energy Association", le Ministre de l'Energie, Stephen Timms, a réaffirmé les priorités du gouvernement en matière de développement des énergies renouvelables et de énergie éolienne en particulier. S'agissant de l'ensemble des énergies renouvelables, le gouvernement anglais a décidé qu'elles devraient représenter non plus 10% mais 15% de la consommation totale d'énergie en 2015. L'objectif affiche par le gouvernement est d'alimenter grâce a énergie éolienne une habitation sur six au Royaume-Uni en 2010. Pour atteindre cet objectif, Stephen Timms a annonce lors de cette conférence que le gouvernement participerait au financement de 6 nouvelles fermes éoliennes offshore a hauteur de 59 millions de livres (86 millions d'euros). Cette décision fait suite au deuxième appel d'offre lance en juillet par le gouvernement pour la construction de nouvelles turbines éoliennes offshore. Les six nouvelles fermes seront construites au large de Liverpool, du Lincolnshire, du Pays de Galles, de l'Essex et du Norfolk. Chaque ferme sera composée de 30 turbines. La capacité de production totale de ces six fermes sera de 531 MW, une puissance permettant de fournir de électricité a 350 000 foyers. La construction de ces fermes devrait commencer en 2004. Les foyers anglais pourront également bientôt, installer un aérogénérateur sur leur toit. Windsave, une société écossaise, vient en effet de lancer la première éolienne conçue pour être installée sur le toit des maisons. Cette éolienne de 30 cm par 60 cm est composée de 3 pales et pèse 19 kg. Installée dans la direction des vents dominants, elle est capable de fonctionner des que le vent atteint une vitesse de 3 mph (5km/h). Elle peut produire jusqu'a 750 W d'électricité. Si elle ne peut pas alimenter des installations gourmandes en électricité comme des radiateurs, l'énergie produite est suffisante pour éclairer une habitation. Mr Gordon, inventeur de cette nouvelle éolienne, estime que grâce a cette éolienne, la consommation d'électricité d'un foyer peut diminuer de 15 %. Les deux avantages de cette nouvelle éolienne sont qu'elle fournit directement de l'énergie au réseau de la maison sans moyen de stockage et qu'elle est silencieuse. Avec un prix de £750 (1077 euros) les dirigeants de Windsave estime que, grâce aux primes proposées par le gouvernement pour toutes installations de moyens de production d'énergie renouvelable et aux économies faites sur la facture d'électricité, l'investissement est rentabilisé en 30 mois. Décidément l'énergie éolienne est dans le vent outre-manche !< BWEA : http://www.bwea.com/media/news/RO-increase.html< Guardian : http://www.guardian.co.uk/uk_news/story/0,3604,1091763,00.html
|
|
^ Haut |
|
|
|
|
|
|
|
Espace |
|
|
Espace et Cosmologie
|
|
|
|
|
|
|
|
|
Après une dizaine d'années d'intense activité, l'Observatoire Pierre Auger, dont la construction est en cours en Argentine, est d'ores et déjà le plus grand détecteur de rayons cosmiques du monde, par la taille et la précision des mesures. Fruit d'une collaboration internationale engagée en 1992, ce détecteur devrait permettre de résoudre l'une des grandes énigmes de l'astrophysique moderne : l'origine des rayons cosmiques d'énergies extrêmes. Les rayons cosmiques sont des particules subatomiques (protons ou noyaux atomiques) produites au cours de phénomènes astrophysiques violents, comme l'explosion de supernovae ou l'absorption brutale d'étoiles par des trous noirs de plusieurs millions de masses solaires, et dont certaines atteignent la Terre après un voyage de plusieurs dizaines de millions d'années-lumière. L'analyse de ces rayons cosmiques constitue donc l'un des moyens permettant d'étudier ces phénomènes qui leur ont donné naissance et, éventuellement, de remonter aux origines de notre Univers. Au cours des dernières décennies, une vingtaine de rayons cosmiques dont les énergies atteignaient ou dépassaient 1020 électron-volts (2) (100 milliards de milliards d'électron-volts, c'est-à-dire plusieurs dizaines de joules !) a été observée par une demi-douzaine de détecteurs. Or, une telle énergie, équivalente à celle d'une balle de fusil, est une énergie macroscopique exceptionnelle pour une particule microscopique. En effet, les énergies les plus élevées qu'il est possible d'atteindre avec les accélérateurs les plus puissants du monde sont cent millions de fois plus faibles. Alors, d'où viennent ces rayons cosmiques d'ultra haute énergie ? C'est aujourd'hui un mystère car aucun mécanisme astrophysique connu n'est capable d'accélérer des particules à de telles énergies. En outre, le fond diffus cosmologique faisant écran à leur propagation, ces particules de très haute énergie ne peuvent arriver jusqu'à nos détecteurs que si elles ont été émises depuis des sites situés au voisinage de notre galaxie où aucune source possible n'a été détectée par les astronomes ! C'est pour tenter de résoudre ces énigmes que la construction d'un immense observatoire de rayons cosmiques d'énergies extrêmes a été lancée en 1992. Avec plus d'une centaine de stations détectrices installées et opérationnelles sur une surface de plus de 100 km2, l'Observatoire Pierre Auger, en cours de construction dans la Pampa argentine, est devenu depuis octobre le plus grand réseau de détecteurs de rayons cosmiques au monde. Construit avec la participation de 14 pays, dont la France qui occupe une place importante, l'Observatoire Auger devrait atteindre sa taille définitive d'ici 2005, avec 1600 stations en réseau réparties sur une superficie de 3000 km2 et un ensemble de 24 télescopes à fluorescence observant le ciel au-dessus de ce site. En interagissant avec l'atmosphère, tout rayon cosmique déclenche une cascade de réactions successives appelée "gerbe atmosphérique" qui peut conduire à la production, au niveau du sol, de plusieurs centaines de milliards de particules. Ce sont ces particules dites " secondaires " que détecte l'Observatoire Auger, et qui permettent ensuite de remonter aux propriétés du rayon cosmique primaire, de l'identifier, et de mesurer son énergie et sa direction de provenance. Au-delà de sa superficie, nécessaire en raison de l'extrême rareté des rayons cosmiques d'énergies extrêmes, l'Observatoire Auger est également le seul détecteur au monde pouvant fonctionner en mode "hybride", c'est-à-dire observer les gerbes atmosphériques créées par les rayons cosmiques à l'aide de deux techniques de détection indépendantes : un réseau de détecteurs de particules et des télescopes à fluorescence. Cette particularité lui permettra non seulement d'observer en un an plus d'événements que l'ensemble des détecteurs ayant opéré de par le monde au cours des 40 dernières années, mais de le faire avec une qualité et une précision sans précédent. La France participe à ce projet, par le biais du CNRS, depuis ses débuts en 1992 avec un petit nombre de pays dont les États-Unis et la Grande-Bretagne. L'étroite collaboration entre les groupes français participant à ce projet et certaines PME de haute technologie a également permis un retour de l'investissement français en contrats industriels. Ainsi, un petit nombre d'entreprises, telles que Photonis (Brive-la-Gaillarde) ou LST Electronique (Aurec-sur-Loire), a signé avec la Collaboration Auger des contrats qui représentent plus de deux fois les sommes investies dans le projet par le CNRS. CNRS Infos : http://www2.cnrs.fr/presse/communique/333.htm?
|
|
|
|
|
|
|
|
La Lune ou Mars? la NASA et d'autres agences américaines travaillent avec la Maison Blanche sur un programme d'exploration spatiale ambitieux après plusieurs décennies de missions habitées confinées à l'orbite terrestre. Les autorités concernées ont commencé à travailler sur le nouveau projet en juillet. "Le travail est en cours et va continuer", a déclaré Glenn Mahone, porte-parole de l'agence spatiale américaine. La Maison Blanche et la NASA refusent d'évoquer leur projet en détail. Des partisans de la conquête spatiale spéculent depuis des semaines sur la possibilité d'une annonce par le président George W. Bush à l'occasion du centenaire du premier vol des frères Wright, le 17 décembre prochain. "Je pense que nous devons continuer à avancer", souligne Everett Gibson, un scientifique de la NASA qui a étudié des roches lunaires et une météorite martienne qui pourrait contenir des traces d'une vie passée. M. Gibson participe au projet "Beagle 2", un atterrisseur britannique qui doit se poser sur la planète rouge le jour de Noël après avoir été largué par le sonde de l'Agence spatiale européenne "Mars Express". Deux robots d'exploration de la NASA, "Spirit" et "Opportunity", doivent arriver de leur côté sur Mars en janvier. La catastrophe de Columbia a contribué à ouvrir le débat sur le fait de savoir si la NASA devait limiter son horizon à ses navettes spatiales et à la Station spatiale internationale (ISS). La navette Columbia s'est désintégrée lors de son retour sur Terre le 1er février, provoquant la mort de ses sept astronautes. La commission qui a enquêté sur l'accident a préconisé une mission spatiale sur le long terme clairement définie, un grand projet tel que l'on n'en a pas vu aux Etats-Unis depuis trois décennies et la fin du programme Apollo en 1972. M. Gibson est partisan d'un retour de l'homme sur la Lune puis d'une mission habitée vers Mars. "La Lune peut être utilisée comme un terrain de mise au point pour nous permettre de travailler plus efficacement sur Mars", a-t-il expliqué cette semaine. La Lune a l'avantage de se trouver à trois jours de vol de la Terre alors qu'il faudrait au moins six mois pour gagner Mars. Des observatoires pourraient être construits sur la Lune et des mines y être créées pour recueillir de l'hélium 3, ensuite transformé en carburant à fusée pour regagner la Terre. Le parlementaire Bart Gordon, qui siège à la commission scientifique de la Chambre des représentants, prône également un retour de l'homme sur la Lune. Il estime qu'un programme martien habité demanderait une trop longue préparation pour pouvoir maintenir l'intérêt du Congrès et des Américains. La Lune en revanche, "est un objectif atteignable dans un délai raisonnable". Mais pour Robert Zubrin, président de la Mars Society, le vrai défi est d'envoyer l'homme sur la planète rouge. "Comment inspirer les jeunes aujourd'hui avec des exploits que leurs grands-parents ont déjà accomplis?", dit-il en référence aux missions lunaires Apollo. Même les astronautes de la NASA sont divisés sur la question. Revenu récemment de l'ISS, Edward Lu est partisan d'un programme lunaire alors que son remplaçant dans la station, Michael Foale, rêve de Mars. AP : http://fr.news.yahoo.com/031205/5/3j6wg.html
|
|
|
|
|
|
|
|
Trois différents systèmes de propulsion spatiale avancée ont récemment atteint des étapes importantes dans leur développement. Les ingénieurs de Boeing Rocketdyne ont fini les tests d'une turbopompe de l'Integrated Powerhead Demonstrator (IPD), un moteur fusée réutilisable à combustion étagée utilisant de l'hydrogène liquide développé conjointement par la NASA et l'USAF. Pour sa part, Aerojet et Rocketdyne continuent les tests sur les chambres de combustion primaire de différents nouveaux moteurs dans le cadre du programme de la NASA, Next Generation Launch Technology. Rocketdyne travaille notamment sur le moteur RS-68 réutilisable kérosène/oxygène enrichi à combustion étagée. Le premier test grandeur réelle de ce moteur ne sera pas effectué avant 2007. Enfin, le plus grand moteur ionique jamais construit nommé HiPEP (High-Power Electric Propulsion) a été testé avec succès dans une chambre à vide du NASA Glenn Research Center. Le moteur, alimenté par une puissance allant jusqu'à 12 kW, a propulsé des ions de xénon à des vitesses comprises entre 60 000 et 80 000 m/s. Ce type de propulseur atteint une impulsion spécifique (Isp) impressionnante de 6000s. Par comparaison, l'Isp de la navette spatiale américaine, qui est une mesure de l'efficacité des moteurs, n'est que de 460s. HiPEP est un des candidats pour la mission JIMO (Jupiter Icy Moons Mission) dans le cadre du projet Prometheus. Le projet Prometheus a pour but de porter l'exploration spatiale de la NASA a une autre niveau en maîtrisant une propulsion électrique sûre et efficace alimentée par un réacteur à fission nucléaire. Comparés au moteur ionique utilisé par la sonde Deep Space 1 en 1999, ces nouveaux moteurs auront une efficacité 10 fois supérieure et devraient atteindre une puissance de 25 kW. Etats Unis Espace : http://www.france-science.org/usa-espace
|
|
^ Haut |
|
|
|
|
|
|
|
Terre |
|
|
Sciences de la Terre, Environnement et Climat
|
|
|
|
|
|
|
|
|
Il risque de faire de plus en plus froid en Europe occidentale dans les décennies à venir à cause du réchauffement climatique, la fonte des glaces dans l'Arctique refroidissant actuellement l'océan Atlantique dont la chaleur exerce une influence importante sur le climat tempéré de l'Europe, ont annoncé des experts lors d'une conférence des Nations unies sur le réchauffement de la planète à Milan. Si les glaces du Groenland et de l'Arctique continuent à fondre à leur rythme actuel, les températures de l'Europe baisseront fortement après cinq décennies -ou plus- de hausse. Ce retournement pourrait entraîner des problèmes pour les régions qui, d'ici là, se seront adaptées à des conditions plus tropicales, ont précisé ces scientifiques et ces écologistes. "Pour atténuer la hausse et l'accélération de ce réchauffement, nous devrions prendre des mesures vraiment radicales, beaucoup plus importantes que celles proposées (par le protocole de Kyoto)", a expliqué vendredi Jonathan Bamber, de l'Université de Bristol. Selon M. Bamber, des flux croissants d'eau venus de l'Arctique pourraient déclencher un ralentissement ou une dérivation du Gulf Stream, le courant qui amène de l'eau chaude du Golfe du Mexique vers l'Atlantique Nord, réchauffant ainsi les eaux et le climat de l'Europe occidentale. M. Bamber a également affirmé que dans les cinq prochaines années, l'Europe risque de connaître des conditions de plus en plus dangereuses dans les Alpes. L'été dernier, pour la première fois, certaines parties du Cervin et du Mont-Blanc ont été interdites au public par crainte des chutes des pierres provoquées par la glace et la neige. Et pendant la vague de chaleur sans précédent qui a traversé l'Europe cet été, 10% des neiges éternelles des Alpes italiennes ont fondu, a annoncé Damiano Di Simine, président de la branche italienne de la Commission internationale pour la protection des Alpes. Selon lui, 1,5 milliard de mètres cubes d'eau a déjà été perdu, alors qu'il s'agit d'une ressource essentielle pour certaines cultures intensives du nord de l'Italie, comme le riz. "Chaque année, nous perdons beaucoup d'eau, entre 5 et 10 % de la glace alpine. Donc d'ici 20 ou 30 ans, nous risquons d'avoir tout perdu", a-t-il ajouté. Plus tôt cette semaine, le Programme des Nations unies pour l'environnement (PNUE) a publié un rapport affirmant que le réchauffement climatique menaçait certaines stations de ski, la fonte des neiges à basse altitude contraignant les sportifs à skier de plus en plus haut dans les montagnes. Malgré ce pronostic sinistre, Bill Hare, directeur de Greenpeace International chargé des problèmes de climat, a mentionné les efforts européens visant à réduire les émissions de gaz contribuant à l'effet de serre, ainsi que les progrès importants concernant l'application de politiques et de technologies susceptibles de ralentir le changement climatique. Le protocole de Kyoto appelle les pays à réduire les émissions de gaz contribuant à l'effet de serre qui contribuent fortement au réchauffement climatique. Les participants à la conférence de Milan débattent des risques de ne voir jamais aboutir ces recommandations parce que les Etats-Unis rejettent le protocole et que la Russie ne l'a pas ratifié. "Le problème le plus dur et le plus fondamental à surmonter actuellement, c'est les Etats-Unis", a souligné Bill Hare. "Et tant que les Etats-Unis n'auront pas bougé, les autres n'avanceront pas vite". AP : http://fr.news.yahoo.com/031206/5/3j8gm.html
|
|
^ Haut |
|
|
|
|
|
|
|
Vivant |
|
|
Santé, Médecine et Sciences du Vivant
|
|
|
|
|
|
|
|
|
Voilà un aveu qui risque de provoquer pas mal de remous dans la communauté scientifique et le milieu médical : la plupart des médicaments n'ont aucun effet sur la majorité des patients, a reconnu Allen Roses, vice-président de la division "génétique" du groupe pharmaceutique britannique GlaxoSmithKline, lors d'un exposé à Londres rapporté lundi par le quotidien britannique The Independent. "La très grande majorité des médicaments --plus de 90 %-- ne font effet que sur 30 à 50 % des patients", a reconnu Allen Roses, la semaine dernière à Londres, lors d'une présentation des prochains médicaments mis au point par la division Recherche et Développement de GSK. Ainsi, selon Allen Roses, les médicaments contre la maladie d'Alzheimer ne sont efficaces que sur moins d'un patient sur trois et les médicaments contre le cancer agissent sur un quart seulement, et cela parce que les gênes des patients empêchent le plus souvent l'action du médicament. Spécialiste en "pharmacogénétique", Allen Roses estime en fait qu'un simple test génétique, un simple test ADN, permettrait d'identifier les patients qui répondraient positivement à une molécule donnée. Ce qui permettrait de n'administrer aux malades que des médicaments à même d'avoir un effet réel sur leur santé. GlaxoSmithKline a présenté à Londres 147 nouveaux projets actuellement en développement clinique. En 2002, le groupe a dépensé 2,7 milliards de livres (près de 4 mds EUR) dans la recherche, soit plus de 400.000 euros de l'heure. Cela porte le coût moyen d'un médicament avant sa mise sur le marché à 500 millions de livres (700 M EUR). Independant : http://news.independent.co.uk/world/science_medical/story.jsp?story=471139
|
|
|
|
|
|
|
|
A l'occasion du dernier symposium sur le cancer d'Antonio au Texas plusieurs avancées contre le cancer du sein ont été présentées. Une étude portant sur 104 femmes atteintes de cancer du sein volumineux localement avancé et ayant préalablement montré une réponse clinique à un premier traitement de 4 cycles de chimiothérapie à base d'anthracyclines fait apparaître un taux de survie significativement plus élevé chez celles ayant complété ce premier protocole par 4 cycles deTaxotere que chez celles l'ayant fait par 4 cycles d'anthracyclines, soit une survie de 97% à trois ans contre 84%. Pour le Professeur Steven Heys de l'Université d'Aberdeen, si le suivi de ces patientes confirme cette amélioration le Taxotere devrait devenir une composante majeure de la chimiothérapie de première intention dans ce type de population. L'étude a également mis en évidence un taux de réponses cliniques et pathologiques supérieures sous Taxotere, d'où une réduction significative du taux des mastectomies radicales chez ces femmes (chirurgie conservatrice dans 67 % des cas contre 48 %). Le taux de survie à trois ans, sans signes de maladie est également significativement plus élevé Taxotere dans le sous groupe Taxotere (90 % contre 77 %). A cinq ans les femmes ayant reçu une chimiothérapie à base de Taxotere aprés intervention chirurgicale ont vu leur mortalité et leurs risques de récidive diminuer de 30 %. Une autre étude a conformé l'efficacité d'un nouveau médicament, l' Abraxane. L'Abraxane, est une forme de paclitaxel, le nom générique pour Taxol, qui est employé pour traiter de diverses formes de cancer. Des essais cliniques réalisés sur 460 femmes atteintes de cancers de sein métastasés ont montré une réduction des tumeurs pour 33% des femmes traitées à l'Abraxane, contre seulement 19% pour celles traitées avec du Taxol. L'originalité et l'efficacité de l'Abraxane tiennent dans l'utilisation d'une technologie nano particulaire liée à l'albumine. Ces nano particules agissent en tant que nano transporteurs biologiques pour des médicaments hydrophobiques tels que le paclitaxel, ce qui augmente la disponibilité intracellulaire de l'agent chimiothérapique au site de la tumeur. L'Abraxane est le premier médicament à utiliser cette technologie. BBC : http://news.bbc.co.uk/2/hi/health/3294939.stm NYT : http://www.nytimes.com/2003/12/06/business/06drug.html
|
|
|
|
|
|
|
|
La liste des méfaits du tabac n'en finit plus de s'allonger. Deux études, l'une européenne, l'autre américaine, viennent en effet de démontrer que le tabac augmentait très sensiblement les risques de cancers gastriques et colorectaux. L'étude EPIC (European Prospective Investigation into Cancer and nutrition) a donc eu pour objectif d'analyser de façon plus précise le lien pouvant exister entre l'incidence du cancer gastrique et le tabagisme. Une cohorte de 521 468 sujets recrutés dans les 10 pays européens participants a dû répondre à un questionnaire axé sur la consommation alimentaire et tabagique, entre 1991 et 1998. Au cours de cette période, 305 cas de cancer gastrique ont été identifiés, parmi lesquels 274 ont pu être analysés. Après ajustement sur le niveau d'éducation, la consommation de légumes et de fruits frais, de viande en conserve, d'alcool et l'indice de masse corporelle, une association significative entre tabagisme et risque de cancer gastrique a été mise en évidence. Dans cette cohorte, 17,6 % des cas de cancer gastrique pouvaient ainsi être attribués au tabagisme, soit presque 1 cas sur 5. Le risque des sujets toujours fumeurs était supérieur à celui des anciens fumeurs ; il s'élevait également avec l'intensité et la durée du tabagisme pour diminuer après 10 années de sevrage. Le site anatomique de la tumeur a également été étudié. L'analyse préliminaire de 121 cas a permis de montrer que les fumeurs avaient un risque bien supérieur de lésion tumorale au niveau du cardia (hazard ratio = 4,10) par rapport aux localisations plus distales (HR = 1,94). Enfin, aucune différence selon le sexe du fumeur n'a été constatée. Il s'agit de la plus grande étude prospective menée dans ce domaine. Une autre étude américaine vient également de montrer que les risques de cancer colorectal sont nettement accrus par la consommation de tabac et l'existence d'un membre de sa famille déjà touché par ce cancer doit être considérée comme un signal d'alerte. Les chercheurs ont examiné 3.121 patients de plus de 50 ans (des hommes à 96,8 %) sans symptôme de cancer. Ils ont dépisté une néoplasie avancée chez 329 d'entre eux, établissant que le risque de cancer colorectal était accru de 85 % chez les personnes consommant du tabac. Le facteur de risque de formation de tumeurs est également accru de 66% pour les personnes ayant un membre de leur famille proche déjà touché par la maladie. Les chercheurs précisent qu'une forte consommation d'alcool accroît marginalement le risque de cancer colorectal (+2 %). En revanche, la consommation de fibres apportées par les céréales et la prise de vitamine D paraissent diminuer les risques de cancer colorectal de 5 % et 6 % respectivement, tandis que la prise d'un anti-inflammatoire sans stéroïdes diminue ce risque de 34 %. "Il est prudent de recommander que les patients arrêtent de fumer, réduisent leur consommation d'alcool et fassent de l'exercice régulièrement dans le cadre de mesures générales de prévention", écrivent les auteurs de l'étude publiée dans le Journal of the Americain Medical Association daté du 10 décembre. Le cancer colorectal est la deuxième cause de décès par cancer après le cancer du poumon en Amérique du nord, rappellent les chercheurs sous la direction du Dr David Lieberman, du Centre médical du département des anciens combattants de Portland (Oregon). Brève rédigée par @RT Flash Quotimed : http://www.quotimed.com/personnalise/index.cfm? JAMA : http://jama.ama-assn.org/cgi/content/abstract/290/22/2959?
|
|
|
|
|
|
|
|
Une préparation vaccinale contre le pneumopathie atypique, expérimentée sur des singes, offre une piste prometteuse pour la mise au point d'un vaccin, selon des chercheurs américains dont les travaux sont publiés dans la revue médicale britannique The Lancet.Le virus responsable de la maladie ou Sras (syndrome respiratoire aigu sévère) est un nouveau coronavirus ("CoV-Sras"). Andrea Gambotto, de l'université de Pittsburgh, et ses collègues du Centre national de contrôle des maladies américain d'Atlanta, se sont servis d'un virus de banal rhume (un adénovirus), modifié génétiquement afin qu'il ressemble à certaines parties du coronavirus du Sras. Ils l'ont ensuite injecté en intra-musculaire à six macaques rhésus. Deux autres singes de cette espèce ont reçu un faux vaccin pour permettre la comparaison. Les injections de rappel sont intervenues 28 jours après. Six semaines après la vaccination, des cellules du système immunitaire, des cellules T, et des anticorps anti-Sras formés par l'organisme des animaux, ont été détectés chez les six macaques vaccinés, mais pas chez les deux animaux non vaccinés. L'intensité de la réponse au vaccin était variable, mais généralement meilleure après l'injection de rappel. "Ces résultats montrent qu'un vaccin peut induire un réaction immunitaire spécifique forte contre le virus chez le singe, ce qui est prometteur pour le développement d'un vaccin contre l'agent du Sras", estime Andrea Gambotto. Mais, ajoute-t-il, "il est essentiel de déterminer si les patients convalescents ont des réponses similaires (cellules T et anti-corps), ce qui pourrait suggérer un effet protecteur des réactions immunitaires induites par un tel vaccin". Cependant, pour démontrer une éventuelle efficacité de ce vaccin expérimental, il faudrait encore contaminer volontairement des animaux vaccinés, et par ailleurs susceptibles de développer la maladie, pour voir s'ils sont protégés, soulignent les auteurs. Lancet : http://www.thelancet.com/journal/journal.isa
|
|
|
|
|
Des médecins de l'Institut de Cardiologie de Montréal ont réalisé un pontage coronarien en se servant d'une artère radiale prélevée au moyen d'un endoscope muni d'une caméra et de microcautères. L'intérêt de recourir à ces artères réside dans le fait qu'elles présenteraient une perméabilité supérieure aux veines habituellement utilisées. Un pontage est la réunion de deux canaux ou vaisseaux à l'aide de la greffe de veines (ou d'un tube en plastique), afin de court-circuiter un segment artériel obstrué. La technique ne laisse que deux petites traces d'incision, l'une au poignet et l'autre au coude. L'opération classique consistait à pratiquer une incisionde 12 à 20 centimètres dans l'avant-bras, ce qui pouvait causer des lésions neurologiques rendant certaines parties de l'avant-bras ou de la main insensibles. Radio Canada : http://radio-canada.ca/nouvelles/Santeeducation/nouvelles/200312/04/002-pontage-...
|
|
|
|
|
|
|
|
Considérée comme farfelue il y a quelques années encore, l'utilisation du satellite pour dépister les épidémies connaît un début d'application au Sénégal, où les engins qui photographient la Terre sous toutes les coutures servent aussi à traquer la fièvre de la vallée du Rift. L'idée d'étendre à la dimension spatiale le combat contre certains fléaux sanitaires qui frappent les pays tropicaux est née il y a quelques années de la volonté exprimée par l'ex-ministre de la Recherche Claude Allègre de trouver à l'espace des débouchés "utiles". Elle est aujourd'hui affublée d'un nom barbare, la télé-épidémiologie, et a fait des premiers pas convaincants le long du fleuve Sénégal pour surveiller la fièvre hémorragique de la vallée du Rift, un de ces dangereux virus exotiques qui cause chaque année des centaines de morts en Afrique subsaharienne. "Il s'agit en clair d'utiliser les données des satellites météo et de suivi de l'environnement pour suivre l'évolution de maladies infectieuses véhiculées par les moustiques, dont l'apparition est conditionnée par les variations climatiques", explique Antonio Güell, responsable des sciences de la vie au Centre national d'études spatiales (CNES). Baptisé "Emercase", le projet a été lancé en 2000 par le CNES, en association notamment avec l'Institut Pasteur, l'Institut national de la recherche agronomique (Inra) et l'école vétérinaire de Lyon. "Nous avons d'abord installé sur le terrain un système de collecte, de transmission et d'analyse informatique des données épidémiologiques", indique Olivier Tournebize, de la clinique de médecine spatiale (Medes) de Toulouse. "Puis nous avons mis au point, en mêlant ces éléments aux données satellitaires, un modèle mathématique de prédiction des épidémies qui nous permet de répondre à deux questions: quand l'épidémie va-t-elle survenir et comment va-t-elle évoluer et se développer ?", poursuit M. Tournebize. Trois ans après, l'expérience est devenue un "véritable réseau opérationnel" qui a fait ses preuves auprès de ses utilisateurs africains. Aussi bien en terme de capacité de réaction que de prévention de la maladie. "En 2002, le Sénégal a été frappé par des pluies de grêle exceptionnelles qui ont causé une importante mortalité parmi le bétail", raconte le docteur Assane Mbodj, de la direction de l'élevage sénégalaise. "Grâce au réseau, l'information a été rapidement transmise des zones isolées vers Dakar, où le gouvernement a pu prendre les mesures de protection nécessaires". "Cette année, nous avons pu anticiper l'épidémie de fièvre parce que nous savons que toutes les conditions, notamment de pluie et d'humidité, étaient réunies pour son apparition" , précise l'un de ses collègues, le docteur Baba Sall. "Nous avons donc pu programmer des campagne de prévention et de sensibilisation dans les régions susceptibles d'être touchées". Convaincues de l'efficacité du système, les autorités de Dakar ont décidé de l'étendre à l'ensemble de leur territoire et d'y intégrer le suivi de sept autres maladies. "L'Inde envisage l'installation d'un système similaire pour traquer l'épidémie de dengue hémorragique", indique le Dr Güell. Outre la fièvre de la vallée du Rift et la dengue, des fléaux comme le paludisme ou le choléra pourraient eux aussi bientôt se retrouver dans le collimateur des "épidémiologistes spatiaux". Chaque année, ces maladies causent entre 4 et 5 millions de décès dans le monde. AFP : http://fr.news.yahoo.com/031209/202/3jdzq.html
|
|
|
|
|
Le 3 décembre 2003, le groupe de Pr.Masafumi MATSUO (Universite de Kobe, Faculté de Médecine) a rendu public leur réussite dans le traitement génétique de la Myopathie de Duchenne pour la première fois dans le monde. Ils ont effectue quatre injections (une par semaine) d'ADN dans la veine d'un patient de 10 ans, depuis le 29 novembre 2003, afin de permettre la synthèse d'ARN qui induit la production de dystrophine. Les médecins ont vérifié la présence de l'ARN dans le sang de ce garçon, qui est sorti de hôpital le 3 octobre. Il est nécessaire de continuer l'injection régulièrement. Be Japon : http://www.adit.fr
|
|
|
|
|
|
|
|
Un an à peine après l'interruption spectaculaire de leur essai de thérapie génique, symbole jusqu'alors des espoirs suscités par les «gènes médicaments», le professeur Alain Fischer et le docteur Marina Cavazzana-Calvo (hôpital Necker) pensent avoir identifié les causes des complications survenues chez deux des dix petits patients traités . Ils se disent déjà prêts à reprendre les essais, «moyennant une modification du protocole», d'ici à la fin 2004. «Ils ont travaillé à une vitesse sidérante», commente Jean-Hugues Trouvin, directeur de l'évaluation à l'Agence française de sécurité sanitaire des produits de santé. Cette administration, en octobre 2002, avait interrompu l'essai en urgence, à la demande d'Alain Fischer. Celui-ci venait de constater une prolifération incontrôlée de certaines cellules sanguines chez un enfant et souhaitait réunir au plus vite un groupe international d'experts pour expliquer cette complication, avant de poursuivre l'étude. Deux ans plus tôt, en avril 2000, l'équipe de Necker publie dans la revue Science le compte rendu du premier essai réussi de thérapie génique. Traité depuis un an, un groupe de cinq enfants affligés d'un déficit immunitaire rarissime dû à la mutation anormale d'un gène, présente une nette amélioration. Les médecins ont en effet tenté de remplacer dans leurs cellules de moelle osseuse le gène muté par une copie normale, grâce à un rétrovirus transformé en vecteur inoffensif. Chez quatre d'entre eux la substitution a fonctionné. Désormais capables de résister aux microbes présents dans leur environnement, ceux-ci peuvent enfin quitter les bulles dans lesquelles ils vivaient reclus. Jusqu'à ce que, deux ans après avoir repris une vie normale, l'un d'eux se mette à fabriquer une quantité anormalement élevée de certains lymphocytes T. «Les études que nous avons menées depuis lors nous ont livré de précieux indices pour comprendre ce qui s'est passé, explique Alain Fischer. Il semble en effet que le matériel génétique du rétrovirus utilisé se soit par malchance fixé près d'un oncogène. Et qu'il en ait provoqué l'expression aberrante, suscitant ainsi une prolifération de cellules dangereuses pour les enfants.» Les deux sujets finalement atteints - l'un a dû subir une greffe de moelle tandis que l'autre a été soigné par chimiothérapie -, étant les plus jeunes des dix patients, les chercheurs de Necker envisagent désormais de reprendre l'essai en le restreignant à des enfants âgés de plus de six mois. En outre, ils pourraient modifier le vecteur afin de réduire les risques au minimum. L'enjeu n'est pas mince : l'AFM mise beaucoup sur la thérapie génique, dont ce premier revers souligne le caractère encore expérimental. Si bien qu'une explication rapide et convaincante des complications observées apparaît aujourd'hui comme un préalable indispensable au lancement de la quinzaine d'autres essais prévus pour les années à venir. Dès le début 2004, des chercheurs de l'hôpital Saint-Louis s'apprêtent à démarrer deux expériences visant à soigner la thalassémie et la drépanocytose, deux anémies fréquentes en Asie et au Moyen-Orient. Figaro : http://www.lefigaro.fr/sciences/20031205.FIG0141.html
|
|
|
|
|
|
|
|
Un test génétique de nouvelle génération devrait bientôt permettre aux femmes atteintes d'un cancer du sein débutant de connaître avec précision les risques de récidive qu'elles encourent et les aider dans la décision d'un traitement par chimiothérapie. Ce test a été présenté jeudi lors d'une conférence sur le cancer du sein, qui s'est tenue à San Antonio (Texas). Il devrait être disponible début 2004 aux Etats-Unis. Genomic Health , la société de biotechnologies située dans la Silicone Valley qui le commercialise, a annoncé avoir identifié deux douzaines de gènes qui, pris ensemble, permettent d'établir de façon très précise la probabilité de récidive d'un cancer du sein chez des femmes traitées très précocément. Actuellement, les médecins prédisent les risques de rechute comme on le faisait il y a un siècle, en prenant en compte des facteurs comme l'âge, la taille de la tumeur et sa virulence. Selon Genomic Health, lorsque le test génétique établit que les risques de récidive sont faibles, la femme concernée peut espérer échapper à une chimiothérapie et à son cortège d'effets indésirables, notamment les nausées et la chute des cheveux. Mais si les risques de rechute sont importants, alors la chimiothérapie devient essentielle. "Pour les femmes à risque élevé, la décision est plus facile à prendre", explique le Dr Melody Cobleigh, spécialiste du cancer du sein, au Centre médical Lukes de Chicago. "Pour les femmes à faible risque, en revanche, c'est toujours le même casse-tête." Le test a été mis au point grâce à l'analyse d'échantillons tumoraux provenant de 700 femmes âgées de 30 à 70 ans, incluse en 1980 dans une vaste étude sur le cancer. Toutes avaient présenté un cancer du sein débutant, sans métastase, et toutes avaient été traitées pendant cinq ans au moins par tamoxifène, un médicament qui ralentit ou stoppe la progression de nouvelles cellules cancéreuses. Genomic Health a utilisé les résultats de l'étude pour réaliser un système à points établissant une échelle de risques valable dix ans après la découverte de la tumeur. "Ce que ce test est capable de prédire, ce n'est pas seulement qu'une femme a un risque faible, moyen ou fort de récidive", a souligné Randy Scott, le directeur de Genomics Health. "C'est aussiqu'unefemmea un score de X, ce qui correspond dans notre étude à un risque de récidive de Y". Daniel Hayes, qui dirige la clinique oncologique du sein de l'Université du Michigan, s'est félicité de cette découverte. Selon lui, trop de patientes subissent une chimiothérapie, faute de pouvoir prédire avec précision le risque de récidive. De son côté, le Dr Matthew Ellis, spécialiste du cancer du sein à l'Université Washington de St Louis (Missouri), a déclaré qu'il attendait beaucoup de ce système à points, même si il ne mesurait pas précisément le risque individuel de rechute". AP : http://fr.news.yahoo.com/031205/5/3j6vl.html
|
|
|
|
|
|
|
|
Une étude dirigée par Mohamed Jaber, professeur en biologie cellulaire au laboratoire de biomembranes et signalisation cellulaire (CNRS - Université de Poitiers) vient de démontrer que les interactions gènes/environnement influencent directement le développement des maladies neurodégénératives et la vulnérabilité aux drogues. Les différentes équipes participant à ce projet ont mis en évidence que des conditions de vie « favorables » peuvent avoir un effet «protecteur». En d'autres termes, les conditions de vie, tant sociales que biologiques, influencent directement le risque de développer une maladie ou un trouble du comportement. Ces recherches sont publiées le 3 décembre 2003 dans la revue Journal of Neuroscience qui lui consacre sa première de couverture. Les travaux précédents menés par Mohamed Jaber ont pu démontrer l'implication des gènes dans les mécanismes de vulnérabilité aux drogues et aux neurotoxines. Pour cela, les chercheurs avaient utilisé des souris transgéniques qui n'expriment pas une protéine membranaire, le transporteur de la dopamine, et ils ont montré que cette protéine est la cible préférentielle de la cocaïne et qu'elle est une porte neuronale des neurotoxines. Les souris qui en sont dépourvues sont donc plus résistantes à ces drogues. Le travail qui vient d'être publié dans Journal of Neuroscience a permis de déterminer les effets de l'environnement enrichi au cours de "périodes critiques" du développement comme l'adolescence, sur la vulnérabilité d'un sujet aux drogues et aux neurotoxines. Ces périodes cruciales du développement sont marquées par un grand remaniement morphofonctionnel du système nerveux central qui est probablement à l'origine de la grande sensibilité du cerveau aux influences de l'environnement durant ces périodes. Cette plasticité neuronale joue un rôle essentiel dans les mécanismes d'adaptation puisqu'elle permet à l'organisme de modifier son comportement en fonction de l'expérience passée. Ce travail a été mené en collaboration avec Erwan Bezard et Christian Gross (CNRS - Université de Bordeaux II) et avec une équipe américaine constituée de Vernice Jackson-Lewis et de Serge Przedborski (Université de Columbia, New York -USA). Les résultats de l'étude ont montré que des souris élevées depuis l'adolescence jusqu'à l'âge adulte dans un environnement enrichi sont 200% plus résistantes aux effets neurotoxiques du MPTP , une drogue utilisée pour obtenir chez l'animal un modèle expérimental de la maladie de Parkinson. Les résultats obtenus montrent donc qu'un environnement favorable procure une résistance très significative à une drogue induisant un comportement pathologique comme la cocaïne et à une toxine induisant chez l'animal un syndrome parkinsonien. Ce travail devrait permettre une compréhension approfondie de ces influences environnementales et de celle de la vulnérabilité individuelle aux drogues et aux neurotoxines. Journal of Neuroscience : http://www.jneurosci.org/cgi/content/abstract/23/35/10999
|
|
^ Haut |
|
|
|
|
|
|
|
Recherche |
|
|
Recherche & Innovation, Technologies, Transports
|
|
|
|
|
|
|
|
|
Comment diminuer de manière sensible les nuisances sonores liées au développement du transport aérien? En 2000, université de Cambridge et le Massachusetts Institute of Technology (MIT) ont crée le Cambridge-MIT Institute (CMI) pour travailler ensemble sur cette question. Pour relever ce défi, le CIT a lance le 10 novembre dernier, un nouveau programme intitule "Silent Aircraft". Ce programme a pour objectif de découvrir de nouvelles techniques pour réduire considérablement le bruit crée par les avions. Leur souhait est de développer un avion dont le bruit ne serait pas perceptible en dehors du périmètre de aéroport. De nombreux industriels comme British Airways, Rolls-Royce, autorité 'aviation civile britannique participeront a ce programme. En rassemblant leurs compétences, ils espèrent au terme de ce programme long de 3 ans, pouvoir présenter un nouvel avion long courrier silencieux et apporter une contribution majeure au développement de l'industrie aéronautique. Mais pour réduire le bruit des avions on peut non seulement agir à la source, mais également modifier les procédures actuelles de vol. Une partie importante du bruit inflige aux riverains des aéroports est en effet produit lors de la phase d'approche et d'atterrissage des avions. Face a ce constat, les partenaires du programme "Silent Aircraft". travaillent également sur une nouvelle procédure visant à préparer l'atterrissage le plus loin possible de aéroport. Lors d'un atterrissage classique, l'avion effectue généralement ces manoeuvres a 17 km de aéroport, a une altitude de 4000 pieds (1200 m). A cette altitude, le bruit des manoeuvres est gênant pour les habitants vivant sur la trajectoire de l'appareil. Des études sur simulateurs et des expériences sur aéroport de Louisville aux Etats-Unis ont montre que en commencent la phase de descente a 70 km de aéroport, a une altitude de 11 000 pieds (3350 m) et en effectuant les manoeuvres nécessaires a l'atterrissage a cette instant, les nuisances sonores au sol sont nettement moins importantes. Ce nouveau mode d'atterrissage permet de diminuer les nuisances sonores d'environ 5 décibels, ce qui représente une diminution de moitie du bruit perçu. Autre avantage de cette nouvelle procédure d'atterrissage découvert par les ingénieurs travaillant sur ce projet, 200 kg de kérosène sont économises a chaque atterrissage. Il reste que la production d'avions moins bruyant et la réorganisation de l'espace aérien pour introduire de nouvelles procédures de vol prendront plusieurs années et auront un coût élevé qui devra être partagé entre les compagnies et les clients. Mais ce sera sans doute le prix à payer si l'on souhaite poursuivre l'essor du transport aérien tout en diminuant les nuisances sonores pour les riverains des aéroports. Silent Aircraft Initiative : http://sai.eng.cam.ac.uk/news/
|
|
^ Haut |
|
|
|
|
|
VOTRE INSCRIPTION |
|
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
|
|
|
|
|
|