|
|
|
|
|
NUMERO 267 |
|
|
|
|
|
|
|
Edition du 28 Novembre 2003
|
|
|
|
|
Edito
Quelques réflexions sur la guerre du futur
Si, historiquement, le XXe siècle s'est bien achevé dans la liesse au cours de cette folle nuit berlinoise du 8 au 9 novembre 1989, notre XXIe siècle a véritablement commencé le 11 septembre 2001 avec la destruction du World Trade Center de New York, premier acte de terrorisme total et crime contre l'humanité d'une violence inimaginable dont nous n'avons pas fini de mesurer toute la portée. En faisant définitivement voler en éclat le mythe d'une Amérique invincible et invulnérable sur son territoire, ces attentats ont modifié la nature de la donne stratégique mondiale et ont inauguré l'irruption d'un type de conflit radicalement nouveau dont le théâtre spatio-temporel est à la fois diffus et sans limites et dont les causes ne sont plus de classiques enjeux territoriaux ou la convoitise des richesse de l'adversaire, mais l'annihilation à n'importe quel prix et par n'importe quel moyen d'un système de valeurs. Paradoxalement, c'est au moment où les Etats-Unis accèdent au statut de seule hyperpuissance impériale de la planète qu'ils sont confrontés, et avec eux l'ensemble de nos démocraties occidentales, à une menace nouvelle et redoutable face à laquelle toutes les réponses conventionnelles et unidimensionnelles du passé sont inefficaces. L'un des aspects radicalement nouveau des attaques du 11 septembre 2001 concerne le rapport coût-dommages humains et matériels de ces opérations qui, comparé à ce même ratio pour une guerre conventionnelle, est extraordinairement favorable au terrorisme international. Le coût économique des attentats du 11 septembre dernier pour la ville de New York se situe entre 83 et 95 milliards de dollars. Or, selon les services de renseignement américains, la préparation des attentats du 11 septembre 2001 aurait coûté au plus 300.000 dollars à Al Qaida. Cela signifie que le coût économique global de l'attaque contre le World Trade Center est 250.000 fois supérieur à la "mise" investie par les terroristes. Sur le plan des pertes humaines, un calcul macabre mais éclairant, montre que chaque victime n'a coûté que 100 dollars aux terroristes. La deuxième guerre contre l'Irak aurait coûté aux seuls Etats-Unis plus de 80 milliards de dollars. On voit donc que le ratio coût-dommages humains et matériels dans le cas d'une guerre conventionnelle est sans commune mesure avec ce même ratio dans le cas des attaques terroristes du 11 septembre 2001. Ce rapport coût-dommages fait entrer le terrorisme dans une dimension nouvelle et en fait une menace à la fois bien plus dangereuse et bien plus probable car elle nécessite des moyens technologiques, matériels et financiers infiniment moins élevés que ceux nécessaires pour la combattre. Désormais, une poignée d'hommes décidés et bien organisés, s'appuyant sur le fanatisme et disposant de quelques centaines de milliers de dollars, peut, sans avoir recours à une technologie très sophistiquée, infliger à un état moderne et aussi puissant que les Etats-Unis des dommages humains et matériels absolument considérables (contre lesquels il est très difficile de se protéger, quelque soient les moyens mis en oeuvre). C'est ainsi que des études américaines très sérieuses ont montré qu'une attaque bactériologique au charbon contre une grande ville américaine pourrait faire des centaines de milliers de morts et serait très difficile à contrecarrer. C'est ce changement de nature de la menace terroriste qui conduit les Etats Unis à mettre en oeuvre une nouvelle stratégie techno-militaire de "guerre préventive" au niveau mondial et à modifier corrélativement l'équilibre géopolitique et stratégique planétaire, notamment au Moyen-Orient, en Asie centrale et en Extrême-Orient. En étendant en janvier sa liste des cibles à "l'axe du mal", M. Bush a fait radicalement évoluer les objectifs stratégiques de sa campagne anti-terroriste. Dans la nouvelle conception stratégique américaine, il ne s'agit plus seulement d'avoir une puissance militaire égale à celle de tous les adversaires potentiels réunis mais de faire face à toute menace, tous azimuts et à toute distance, au besoin par la guerre préventive. Ce nouveau cadre géostratégique d'action des Etats-Unis a été formalisé et développé dans un document officiel publié le 20 septembre 2002 par la Maison Blanche et intitulé la stratégie de sécurité nationale des Etats-Unis" ( http://www.whitehouse.gov/nsc/nss.html). Ce document non seulement justifie les actions militaires "préventives" contre les "Etats voyous" et les organisations terroristes mais fait de ces conflits préventifs la nouvelle clef de voûte de la politique de défense et de sécurité américaine. Ce mémoire énonce clairement la conception américaine de la sécurité internationale, les moyens d'actions que les Etats-Unis veulent utiliser pour défendre à la fois cette sécurité internationale et leurs intérêts propres et enfin le rôle spécifique des Etats-Unis en tant qu'arbitre et régulateur mondial des conflits militaires, économiques, politiques et juridiques entre états. On peut notamment y lire, " Pour contrer et empêcher de tels actes d'hostilité de la part de nos adversaires, les Etats-Unis agiront, si nécessaire, de manière préventive. Nos forces seront assez fortes pour dissuader tous les adversaires potentiels de s'engager dans une course aux armements dans l'espoir de surpasser ou égaler la puissance des Etats-Unis." Ce projet stratégique américain s'appuie sur un outil militaire dont la puissance et l'efficacité ont changé de nature en entrant dans l'ère numérique. En 1997, l'armée américaine réalisait sur le terrain ses premières manoeuvres entièrement numériques. Ces manoeuvres permirent de valider ce programme dit de "système de combat du futur" (Future Combat System FCS ( http://www.darpa.mil/fcs/index.html) qui d'ici 2008 aura intégré l'ensemble de l'armée américaine, qu'il s'agisse des hommes, du matériel et des munitions, dans un vaste système d'information, de communication, d'analyse et de commandement numériques. Ce système, s'appuyant sur des moyens d'investigations ultra-sophistiqués, satellites, mini-drones et images vidéo du terrain directement transmises par les combattants, sera capable de donner en temps réel une vision très précise du champ de bataille et de proposer une utilisation optimale des forces et des armements disponibles. Prévu pour faire face à des conflits "classiques" mais aussi aux nouvelles menaces imprévisibles et diffuses liées au terrorisme international, le FCS traduit un nouveau concept militaire capital dans la l'évolution stratégique américaine, la RMA (Revolution in Military Affairs ( http://www.comw.org/rma/fulltext/overview.html). La RMA a comme objectif prioritaire la neutralisation de l'adversaire la plus rapide possible. Désormais, ce qui compte avant tout, c'est de neutraliser l'adversaire, de le rendre sourd et aveugle. Il s'agit plus de maîtriser des situations que de régler (par les armes) des conflits. Dans ce nouveau cadre, les états-majors travaillent à la mise en oeuvre de nouveaux types d'armes « intelligentes » : missiles capables de frappes « localisées » de grande profondeur, satellites de détection, drones de combats, exosquelettes décuplant la mobilité et les forces d'un fantassin etc... A cette panoplie s'ajoutent les armes non létales, c'est-à-dire destinées à paralyser les équipements et les hommes sans pour autant les tuer. La guerre de demain tendra essentiellement à éloigner l'homme du champ de bataille. Absorbé dans l'interface homme-machine, le soldat mènera avant tout une guerre de l'information. Les premiers « guerriers de l'information » (les I-warriors) sont actuellement formés à l'Université de la défense nationale à Washington. D'une façon générale, l'ensemble du théâtre d'opérations doit être conçu comme un unique système intégré, innervé par des réseaux d'information de toutes sortes, y compris des réseaux commerciaux et le téléphone public. L'information est alors à la fois et simultanément un « moyen au service de toutes les forces », un « milieu », un « environnement » et un « enjeu ». La guerre de demain sera donc avant tout une guerre grâce, dans, et pour l'information. Tel est l'enjeu de la RMA (http://www.comw.org/rma/fulltext/overview.html) et de son fer de lance, la guerre de l'information, l'information warfare) qui se déploie ainsi tous azimuts. Elle est guerre pour l'obtention, l'analyse et la diffusion de l'information. Mais elle est surtout guerre électronique, offensive et défensive : elle consiste en effet à « attaquer » les circuits électroniques de l'adversaire pour les brouiller, les détruire ou en transformer le contenu. La RMA n'est pas sans soulever quelques questions fondamentales. On peut notamment se demander quel pourrait être l'intérêt de cette guerre de haute technologie face aux armées restées à l'âge « agraire » ou ayant tout juste atteint l'âge « industriel » des pays en voie de développement. On ne peut s'empêcher de poser cette question quand nous voyons ce qui se passe actuellement en Irak. Pour certains militaires, on ne doit pas leurrer le public : la guerre est incompatible avec la promesse de « zéro mort ». Cette illusion pose même une question plus fondamentale : quel serait ce pays dont les valeurs ne mériteraient pas qu'on risque sa vie pour elles ? Le casque où se concentrent les informations provenant de l'ordinateur est équipé d'un système de suspension pour garantir la stabilité des organes optiques. En France, le pendant du Land Warrior, le programme Félin, devrait aboutir à une première version de démonstration en 2005 et équiper l'ensemble de nos troupes en 2015. Avec ces ordinateurs-vêtements, l'uniforme lui-même devient en effet un composant essentiel du véritable système informatique porté par les futurs soldats. A l'aide du système de positionnement par satellite (GPS) et de la vision thermique, le fantassin pourra identifier immédiatement amis et ennemis. Le projet Land Warrior expose clairement son objectif : "rendre les combattants de demain plus "meurtriers", mobiles, numérisés, ainsi que plus longtemps disponibles et moins vulnérables". En 2002, les USA représentaient à eux seuls plus de 44 % des dépenses militaires mondiales (840 milliards de dollars selon l'Institut international de recherche sur la paix de Stockholm, SIPRI), et le budget militaire des Etats-Unis pour 2004, adopté le 12 novembre 2003 par le Congrès, s'élève à 401,3 milliards de dollars pour la Défense en 2004, en hausse de près de 2% par rapport à 2003. L'effort de défense des USA est donc dix fois le budget militaire britannique, le plus important d'Europe (40 milliards de dollars en 2003), et plus que les 20 autres premières puissances militaires du monde. (http://www.grip.org/bdg/g1018.html). A titre de comparaison il faut savoir que les 5 premières puissances militaires de l'Europe, Grande Bretagne, France, Allemagne, Italie et Espagne, ne représentent ensemble que 18 % des dépenses militaires mondiales (151 milliards de dollars), et à peine 40 % des dépenses militaires américaines ! http://www.transnationale.org/forums/suprematie__suprematie/showmessage.asp?mess.... Ces dépenses militaires américaines devraient s'élever en moyenne annuelle à 408 milliards d'ici 2007. Le budget 2003 prévoit aussi d'affecter quelque 7 milliards USD supplémentaires à la R&D militaire. Cet effort scientifique considérable risque bien d'élargir encore le « fossé » technologique entre les capacités militaires américaines et européennes à un point tel qu'il sera impossible à l'Europe de le combler. La France et l'Europe doivent tirer tous les enseignements de la "guerre préventive" des Etats-Unis contre l'Irak. Cette nouvelle doctrine américaine constitue une rupture fondamentale et dangereuse avec les principes historiques du droit international. Selon ces principes, sauf pour se défendre contre un état agresseur clairement identifié, aucun état ne peut utiliser la force contre un autre état de manière arbitraire et en dehors du cadre du droit international et des mandats accordés par l'ONU. Cette nouvelle donne stratégique et géopolitique née du monde de l'après 11 septembre 2001 éclaire enfin d'une lumière nouvelle la question du périmètre géopolitique de l'Union européenne et de son indépendance politico-militaire à l'égard des USA. Même si la sécurité de l'Europe ne peut sérieusement se concevoir, pendant très longtemps encore, que dans le cadre de l'Otan, il est capital que l'UE se donne les moyens logistiques, technologiques et opérationnels de devenir un 2e pilier de l'OTAN disposant d'une puissance et d'une capacité d'intervention non pas obligatoirement égale à celles des USA mais au moins suffisante pour lui permettre une réelle autonomie de décision et d'action en matière stratégique et militaire. A plus long terme, la question du périmètre final de l'Union Européenne et du rôle géopolitique de l'Asie reste ouverte. Sur le plan géographique, historique et culturel, l'Europe va effectivement « de l'Atlantique à l'Oural » selon la célèbre formule du Général de Gaulle. On peut enfin espérer qu'avant la fin de ce siècle l'histoire, la géographie et la culture conduiront à la création d'une grande entité politique eurasiatique intégrant l'ensemble de notre continent, qui constituera, avec le pôle américain, l'autre grand pôle continental, de liberté, de puissance, de stabilité et de prospérité, dont le monde a besoin pour trouver un nouvel équilibre géopolitique et stratégique. René TRÉGOUËT Sénateur du Rhône
|
|
|
|
|
|
|
|
TIC |
|
|
Information et Communication
|
|
|
|
|
|
|
|
|
Le rebond en cours dans les technologies de l'information s'effectue à un rythme de croissance beaucoup plus raisonnable que dans les années 1990 et ne laisse pas craindre de nouvelle bulle, estime Francis Lorentz, président de l'Institut de l'audiovisuel et des télécommunications en Europe (Idate). "La croissance (des technologies de l'information) ne sera pas celle que nous avions connue dans les années 90, elle sera beaucoup plus raisonnable", déclare-t-il dans une interview à Reuters à l'occasion des 25e Journées internationales de l'Idate à Montpellier. "Il n'y a aucune espèce de bulle à attendre". "On assiste globalement pour les technologies de l'information à un retournement progressif, qui n'est pas brutal, de la situation", ajoute-t-il. "Il y a beaucoup de signaux positifs, même si ce n'est pas uniformément rose". Il cite la croissance annuelle de plus de 20 % par an des semi-conducteurs et celle soutenue des produits audiovisuels de grande consommation, accompagnée par un redémarrage lent dans l'informatique et les logiciels. Parallèlement, la hausse du taux de pénétration des téléphones mobiles ralentit en Europe de l'Ouest et la décroissance se réduit pour les équipementiers télécoms. Dans un secteur qui a mûri, les constructeurs ne se concentrent plus seulement sur la course effrénée aux innovations technologiques mais cherchent davantage à coller aux attentes des clients, constate Francis Lorentz, qui appelle de ses voeux ce basculement depuis longtemps. "Le centre de gravité s'est déplacé des secteurs de recherche et développement vers le client, ses réactions, ses aptitudes, ce qui fait priorité pour lui et en quoi on peut se différencier entre concurrents chez le client en créant plus de valeur pour lui", note-t-il. Il énumère la qualité du service, la facilité d'utilisation, le retour sur investissement, l'élargissement des possibilités de communications par l'image fixe et progressivement l'image animée et l'apparition de la fonction kiosque permettant d'accéder par un portail à un très large éventail des services. "Progressivement, vous trouverez tous les contenus sur n'importe lequel des terminaux et n'importe quel terminal donnera l'accès à l'ensemble", poursuit Francis Lorentz. Avec le mélange des supports qui s'opère entre téléphone, ordinateur et télévision, des arbitrages internes vont s'opérer dans les dépenses des ménages. "La part globale de la consommation des ménages au profit de ces secteurs - télécoms, technologies de l'info, audiovisuel - peut encore s'accroître et d'autant plus que les nouveaux services offerts par les télécoms sont souvent des services que l'on a et l'on paie par ailleurs", explique-t-il. Cela pourrait permettre aux opérateurs d'augmenter leur Arpu (revenu moyen par abonné), alors que les recettes rapportées par les communications vocales ne cessent de diminuer sous le coup de la concurrence, ajoute Francis Lorentz. Selon une récente étude de l'Idate, les services de transmission de données représenteront plus d'un quart des revenus des opérateurs mobiles d'Europe de l'Ouest en 2007 contre 14% en 2002. Reuters : http://fr.news.yahoo.com/031121/85/3ibdr.html
|
|
|
|
|
|
|
|
La Chine multiplie les efforts pour obtenir au plus vite son indépendance technologique. L'empire du Milieu a en effet développé son propre format de compression d'image, le "Enhanced Versatile Disc" (EVD), qui viendra directement concurrencer le format Mpeg-2 utilisé dans les lecteurs et disques DVD. Le Ministère chinois de l'Industrie de l'information (MII) espère ainsi économiser deux milliards d'euros par an sur les royalties du format Mpeg-2, dont les droits d'utilisation sont détenus par un consortium de 18 entreprises occidentales et japonaises, comme Microsoft, Philips ou Sony. Selon le MII, il offrirait une qualité d'image cinq fois supérieure à celle du DVD, ainsi qu'un rendu sonore amélioré. Il devrait être commercialisé en 2004, en Chine d'abord, puis dans le reste du monde ensuite. La menace est à prendre au sérieux, surtout quand 70% des lecteurs de DVD sont produits dans l'empire du Milieu. Par ailleurs, la Chine a aussi conclu avec Sun un accord portant sur la livraison de 200 millions de copies de Java Desktop, une nouvelle suite complète de logiciels fondée sur Linux et des applications libres. Environ 500.000 licences seront délivrées tous les ans pour équiper les ordinateurs des entreprises et des administrations chinoises. Cet accord fait suite à la volonté affichée par le China Standard Software (CSSC), organisme d'Etat, de privilégier les logiciels libres pour s'affranchir de Microsoft, toujours en position de monopole en Chine. Sun espère profiter de cette opportunité pour conquérir de nouveaux marchés en Asie, notamment au Vietnam ou en Corée du Sud. Quant à la Chine, cet important accord n'est qu'une première étape : le CSSC entend bien utiliser les bases de Java Desktop pour développer rapidement ses propres distributions de logiciels libres et gagner enfin son indépendance technologique. Expansion : http://www.lexpansion.com/art/2216.71563.0.html
|
|
|
|
|
|
|
|
633 millions ! S'il ne fallait retenir qu'un chiffre, ce serait celui-là. Un habitant de la Terre sur dix est aujourd'hui un utilisateur d'Internet. L'ensemble de la planète est conquis, englouti par la vague virtuelle, batifolant dans la toile mondiale à l'exception notable de l'Afrique. Pour Internet, il n'y a pas de patrie. Cet enfant du nouveau monde a déjà plus de disciples en Asie ou en Europe qu'en Amérique du Nord. Si un internaute sur cinq est encore nord-américain, un sur dix est chinois, un sur vingt allemand. Et la France n'est plus en reste : 23 millions de Français surfent dorénavant sur le Web, achetant, s'informant, s'instruisant, dialoguant ou s'adonnent au jeu en ligne. Dernière furie de la «loisir attitude», cette possibilité d'affronter dans son jeu favori un adversaire qui se trouve à l'autre bout de la planète cloue la jeunesse devant les ordinateurs comme les générations précédentes devant la télévision ou à l'entrée des cinémas. La révolution Internet s'est effectuée en moins de dix ans. C'est un record au regard du temps qu'il a fallu pour que l'électricité et le téléphone, la radio ou la télévision s'imposent. En fait aucun secteur n'est passé, sur une période aussi courte, de la naissance à une croissance folle, avant de s'assainir et d'afficher une expansion mondiale arrogante. Selon les chiffres de la Conférence des Nations unies sur le commerce et le développement (Cnuced), la Net économie flirte avec les 70% de croissance. Ceux qui se souviennent des discours défaitistes sur l'absence d'avenir du Net après le crash boursier du printemps 2000 ne peuvent que s'étonner d'un tel retournement. Mais pour les entrepreneurs ayant survécu à cette époque, il n'y a pas eu rupture. Le marché a mûri. Il arrive aujourd'hui à maturité. Ils en tirent logiquement les profits. A ce titre, 2003 pourrait s'imposer comme une date charnière. Non seulement les anciens modèles de la Net économie confirment leur viabilité, mais la démocratisation d'Internet remet au goût du jour des projets jugés irréalistes depuis l'éclatement de la bulle spéculative qui lui avait valu la disgrâce. Est-il si absurde d'essayer de vendre des vêtements sur le Net quand 1 500 marques s'affichent aujourd'hui sur le site américain d'Amazon, numéro un des sites de e-commerce sur la planète ? Est-il définitivement stupide de commercialiser des voitures par le web quand eBay, leader mondial de la vente aux enchères en ligne, est devenu le principal concessionnaire de voitures d'occasion aux Etats-Unis ? Les exemples ne manquent pas et l'idée que tout peut se vendre sur ce qu'on appelait hier les «autoroutesdel'information» revient en force. Et pas uniquement aux Etats-Unis. D'après des éléments révélés par Kelkoo, comparateur de prix sur Internet, on assiste en France «au décollage des produits grands public sur le Web». Alors que les recherches portaient essentiellement sur les voyages, le high-tech et les produits culturels, les internautes s'intéressent de plus en plus à la mode, au sport, à l'équipement de la maison comme au jardinage, à l'électroménager ou à l'alimentaire. «Ce phénomène va de pair avec la féminisation croissante des internautes ayant recours au e-commerce», précise-t-on à l'Association pour le commerce et les services en ligne (Acsel). Par rapport à 2002, quinze fois plus d'internautes utilisant le comparateur de prix Kelkoo cliquent sur des liens pour se rendre sur des sites liés à la mode et aux vêtements. C'est un signe qui ne trompe pas et qui confirme une tendance déjà constatée aux Etats-Unis : les vêtements et la mode y arrivent en seconde position des ventes du e-commerce derrière l'informatique. Le poids économique de la Net-économie n'est plus marginal. Le marché américain du e-commerce à destination des particuliers est estimé à 95,7 milliards de dollars pour 2003 et devrait atteindre 229,9 milliards de dollars selon l'institut de recherche Forrester. En Europe, le montant des ventes en ligne atteindra 60,7 milliards de dollars à la fin de l'année et près de 243,4 milliards en 2006 selon une étude de eMarketer. Dans la plupart des pays, le potentiel de croissance reste colossal. En France, le poids des ventes par Internet atteindra sans doute 5 milliards d'euros soit près de la moitié des ventes par correspondance aux particuliers. Toutes choses étant relatives par ailleurs, ce n'est que 15% du chiffre d'affaires réalisé par Carrefour en France. Malgré tout, la Net-économie est en train de démontrer la viabilité de ses modèles. Figaro (synthèse par @RTFlash) : http://www.lefigaro.fr/eco-entreprises/20031125.FIG0009.html
|
|
|
|
|
|
|
|
Après plus de 6 ans de tergiversations, le Congrès américain a adopté mardi un projet de loi visant à stopper le fléau des "pourriels" ou "spams", les courriers électroniques non sollicités qui détournent de plus en plus d'Américains des échanges de correspondance par internet. Ce texte, baptisé "Can-Spam Act", qui avait déjà été approuvé par la Chambre des Représentants la semaine dernière par 392 voix contre 5, a recueilli l'unanimité au Sénat. Il doit désormais être promulgué par le président George W. Bush. Le projet de loi encadre la diffusion des messages électroniques non sollicités devra inclure la possibilité, pour le receveur, de demander à ne plus les recevoir. Les contrevenants seront passibles de lourdes amendes : en cas de violation de cette nouvelle loi, les spameurs encoureront jusqu'à cinq ans de prison et une amende pouvant aller jusqu'à 2 millions de dollars. Cette loi autorise également les autorités fédérales à établir des registres pour les Américains désireux de ne pas recevoir ces courriers électroniques commerciaux non sollicités. La nouvelle loi comporte cinq grandes mesures destinées aux annonceurs. Le texte impose aux sociétés d'arrêter l'envoi de tout courrier à un internaute si celui-ci en exprime le désir. Il oblige les expéditeurs à clairement s'identifier sur tous les messages et à ne pas inclure des adresses de réponse délibérément inexactes. Le texte interdit également de "tester" différentes versions d'adresses e-mails afin de trouver des combinaisons actives. Enfin, les e-mails à caractère pornographique devront être clairement identifiés comme tel dans le sujet du message afin de permettre aux destinataires de les filtrer plus aisément. Le projet de loi oblige les expéditeurs à identifier clairement leurs messages et à offrir la possibilité à celui qui les reçoit de demander le retrait de son adresse de la liste de diffusion. Il tente également de lutter contre certaines pratiques frauduleuses, comme les fausses adresses, et bannit la diffusion de "spams" sur les écrans des téléphones portables. La loi ne pénalise pas l'envoi massif d'e-mails, seulement certaines pratiques de spam dont celle qui consiste à utiliser une fausse adresse de réponse. L'accent est mis sur les e-mails à caractère pornographique et les messages-texte commerciaux à destination des téléphones portables seront interdits, sauf autorisation expresse de l'utilisateur. Les entreprises pourront continuer à envoyer des annonces publicitaires à n'importe quel internaute tant qu'elles s'identifient clairement et qu'elles respectent les désirs du consommateur de ne plus être sollicité. Le texte prévoit aussi d'autoriser la mise en place par l'agence américaine de régulation du commerce, la Federal Trade Commission, d'un annuaire d'internautes "à ne pas spammer", dans l'esprit de la liste rouge téléphonique. Avec cette loi, les utilisateurs "vont enfin être aidés à freiner le fléau des mails non désirés qui menacent la viabilité de l'Internet", s'est réjoui le sénateur Charles Schumer, l'un des promoteurs du texte. Les "spams" représentent la moitié du trafic du courrier électronique aux Etats-Unis. En 2002, les "spams" ont coûté aux entreprises quelque neuf milliards de dollars en perte de productivité, selon l'institut d'enquête marketing Ferris Research. Loi anti-spam : http://www.spamlaws.com/federal/108s877nov22.pdf
|
|
^ Haut |
|
|
|
|
|
|
|
Avenir |
|
|
Nanotechnologies et Robotique
|
|
|
|
|
|
|
|
|
Des scientifiques israéliens de l'Institut de technologie Technion ont réussi à fabriquer un nano-dispositif électronique fonctionnel en utilisant les propriétés de recombinaison de l'ADN pour déclencher et organiser un processus d'auto-assemblage de nanotubes de carbone. Ce travail a été salué comme "exceptionnel" et "spectaculaire" par des experts en matière de nanotechnologie. Ces recherches s'inscrivent dans le cadre de la miniaturisation toujours plus grande des circuits électroniques pour augmenter leur vitesse et leur puissance. Les nanotubes de carbone, qui ont les propriétés électriques remarquables et mesurent seulement un nanomètre de diamètre, ce qui en fait des candidats prometteurs pour poursuivre la miniaturisation électronique. Mais la fabrication de nano-transistors reste longue et complexe. L'équipe israélienne a surmonté ces problèmes en employant un processus de fabrication à deux étapes. Les chercheurs ont d'abord employé des protéines pour permettre aux nanotubes de carbone de se fixer sur certains emplacements spécifiques des brins d'ADN. Ils ont alors transformé le reste de la molécule d'ADN en fil conducteur. "L'ADN est une remarquable méthode de construction dans la biologie moléculaire, mais malheureusement, elle ne conduit pas l'électricité. Nous avons donc dû obtenir un conducteur en métal sur cette ADN, "explique le physicien Erez Braun, qui dirige ces recherches. "C'est travail spectaculaire," dit Cees Dekker, expert en nanosciences à l'Université de Delft en Hollandes. Erez Braun souligne que "Cela démontre qu'il est possible d'utiliser les propriétés de la biologie pour construire un dispositif inorganique qui fonctionne." Mais Braun précise que " Ce n'est qu' une première étape vers le calcul moléculaire basé sur ce type de configuration d'ADN. Il nous reste beaucoup de chemin à parcourir pour passer à des systèmes électroniques à grande échelle, tels que des ordinateurs." Pour fabriquer ce nano-composant à base d'ADN, l'équipe de Braun a déposé sur la partie centrale d'une longue molécule d'ADN des protéines d'une bactérie E. coli. Ensuite les chercheurs ont déposé des nanotubes de graphite recouverts d' anticorps qui se lient à ces protéines. Enfin les chercheurs ont utilisé une solution contenant des ions argentés. Cette solution s'est déposée sur les molécules de phosphate de l'ADN, mais uniquement aux endroits où aucune protéine n'était fixée. Finalement les chercheurs ont obtenu un dispositif constitué de nanotubes de carbone reliés par des connexions conductrices. Grâce aux propriétés recombinantes de l'ADN, ces nanotubes se sont automatiquement connecter ensemble dans la bonne configuration. Ils se sont "auto-assemblés" en utilisant une des propriétés fondamentales du vivant. Le dispositif fonctionne comme un transistor quand une tension est appliquée."Ces nano-transistors fonctionnent à température ambiante et la seule limitation de fabrication de ces nano-composants est qu'ils doivent être compatibles avec les réactions biologiques utilisées et le processus de dépôt métallique. "Nous avons démontré qu'en utilisant les mécanismes et propriétés du vivant, et notamment le processus de recombinaison de l'ADN, nous pouvons créer des nano-composants électroniques très élaborés à base d'ADN," indique Braun. Brève rédigée par @RT Flash Science Daily : http://www.sciencedaily.com/releases/2003/11/031121072232.htm
|
|
^ Haut |
|
|
|
|
|
|
|
Matière |
|
|
Matière et Energie
|
|
|
|
|
|
|
|
|
Un nouvel appareil baptisé un "chien sur une puce" ("dog on a chip") permet de détecter les substances dangereuses ou illégales avec plus de précision qu'un chien renifleur, ont annoncé vendredi aux Etats-Unis des chercheurs de l'Institut de technologie de Géorgie. "Nous avons emprunté un chemin peu exploré et nous nous sommes engagés dans la direction d'une fusion des biotechnologies et de la micro-électronique", a expliqué William Hunt, professeur d'ingénierie électronique et informatique, qui a dirigé l'étude. Le "chien sur une puce" analyse la réaction d'anticorps lorsqu'ils sont confrontés à des substances, à partir de leur structure moléculaire, a indiqué Hunt. Lors d'un test, les chercheurs ont observé des anticorps qui changent de masse et de structure s'ils sont mis en contact avec des molécules de cocaïne. Ces modifications des anticorps déclenchent une alarme sur un ordinateur portable relié à l'appareil, a précisé Hunt, qui espère que l'ensemble pourra être miniaturisé afin de le rendre portable et de l'alimenter avec des piles. Contrairement à la plupart des "nez électroniques", le "chien sur une puce" se passe d'un processus long de transformation d'un échantillon d'air en liquide avant analyse, indique Hunt. Gros comme une pièce de monnaie, le "chien sur une puce" est capable de travailler 24 heures sur 24, remarque John Cairney de l'Institut de technologie d'Atlanta, qui voit là un de ses plus gros avantages. "C'est une question de traitement des échantillons", a indiqué Cairney. "Vous ne pouvez pas faire asseoir un chien dans un entrepôt, dans une conduite d'eau, ou dans un système de climatisation 24 heures sur 24, sept jours sur sept." Pourtant, certains restent persuadés que les chiens ont de beaux jours de reniflement devant eux. Selon Lee Titus, directeur du programme d'entraînement des chiens renifleurs de l'Etat de Virginie, un chien peut inspecter 500 paquets dans un centre de tri des postes en seulement quelques minutes. "Combien de temps cela prendrait-il de vérifier chaque enveloppe et paquet avec une machine ?", s'interroge-t-il. Reuters : http://fr.news.yahoo.com/031121/85/3ichl.html
|
|
|
|
|
|
|
|
Le bus de la ligne 44 file sur l'avenue du centre de Madrid. Rien ne le différencie des autres autobus de la capitale espagnole, sinon sa couleur mauve au lieu du rouge réglementaire. Un léger nuage blanc file du pot d'échappement en hauteur: de la vapeur d'eau. Mais personne n'y prête attention. Pas plus qu'aux inscriptions sur ses flancs: «Ce bus se déplace à l'hydrogène» et «pollution zéro». «Notre succès, c'est de passer inaperçu. Depuis la mise en fonctionnement, en mai dernier, nous avons embarqué plus de 20 000 passagers sans le moindre incident», affirme Arturo Martinez, responsable du développement d'EMT, la société de transports publics madrilènes. Malgré leur discrétion, les trois bus à hydrogène en service à Madrid, une première mondiale, annoncent une véritable révolution: l'apparition de l'énergie à l'hydrogène, qui, à terme, pourrait bien annoncer la fin de l'hégémonie du pétrole dans le domaine des transports. Au bout du chemin se dessine la voiture grand public circulant à l'hydrogène, à l'horizon 2020. Véhicules Daimler-Chrysler, hydrogène Air Liquide, fonds européens et passagers espagnols, l'expérience madrilène est partie prenante du projet européen d'expérimentation de transport collectif à l'hydrogène Cute (Clean Urban Transportation for Europe) en chantier dans dix villes de l'Union. L'autre programme développé en parallèle, Citycell, prévu dans quatre métropoles, dont Paris notamment, n'est pas encore opérationnel. Mais, en attendant, chez Air Liquide, on ne cache pas la satisfaction de voir enfin l'hydrogène en marche à Madrid: «Nous maîtrisons la technologie, à nous maintenant d'en faire un produit sûr et accessible pour le grand public», explique Daniel Deloche, directeur aéronautique, spatial et technologies avancées. Car les handicaps de l'hydrogène restent son stockage délicat et les coûts qui en découlent. Quant aux clients, les transports madrilènes pointent les limites de l'expérience: l'autonomie des véhicules limitée à 150 km (au lieu de 250 pour les autobus conventionnels), avant d'aller se ravitailler à la «station-service hydrogène», ne permet pas un service complet des véhicules, multiplie ses coûts de fonctionnement par trois et ne fait pas de l'hydrogène un outil rentable dans l'immédiat. Mais, nul n'en doute, ce carburant «propre» qui échappe à la carte géopolitique des ressources pétrolières est un excellent candidat à l'énergie du futur. Express : http://www.lexpress.fr/express/info/sciences/dossier/essenceus/dossier.asp?nom=
|
|
^ Haut |
|
|
|
|
|
|
|
Terre |
|
|
Sciences de la Terre, Environnement et Climat
|
|
|
|
|
|
|
|
|
Les éruptions de volcans situés dans les régions tropicales favorisent l'apparition d'El Nino, un phénomène climatique dévastateur pour de nombreuses régions de la planète, indique une étude parue dans le dernier numéro de l'hebdomadaire scientifique britannique Nature. Une équipe de chercheurs travaillant sous la direction de Brad Adams (Université de Virginie) a cherché à dater des changements brutaux de climat du type El Nino en étudiant des carottes polaires et d'autres indicateurs climatiques (anneaux de bois et coraux par exemple). Elle a comparé ces dates à celles, établies par les archives depuis 1649, des éruptions volcaniques les plus spectaculaires des régions tropicales. "Quand il y a eu une éruption volcanique, il y a deux fois plus de chances qu'un épisode El Nino se produise l'hiver suivant", écrivent les chercheurs dans Nature. Les éruptions volcaniques déversent de grandes quantités de poussière dans la stratosphère (haute atmosphère), empêchant les rayons solaires de parvenir jusqu'à la Terre et refroidissant l'atmosphère de quelques dixièmes de degré. Selon les chercheurs, elles modifient les interactions entre l'atmosphère et les océans, provoquant probablement un regroupement des eaux chaudes dans la partie centrale du Pacifique et un épisode El Nino. Ce phénomène climatique s'accompagne d'une modification dans la circulation des vents et affecte l'ensemble de l'hémisphère sud, provoquant inondations en Amérique latine, sécheresses en Afrique et gigantesques incendies de forêt en Asie du sud-est. Lors du phénomène inverse, baptisé La Nina, la température de l'eau est inhabituellement basse. Le plus grave épisode El Nino avait eu lieu en 1997/98, provoquant pluies torrentielles et inondations sur la côte est du continent américain (Pérou, Equateur, Chili, Californie), sécheresses record et immenses feux de forêts en Indonésie et en Papouasie-Nouvelle Guinée. El Nino tient son nom de pêcheurs sud-américains qui avaient observé un réchauffement inhabituel de la température de l'eau au moment de Noël. Nature : http://www.nature.com/nature/journal/v426/n6964/header/header_nature02101.html
|
|
|
|
|
|
|
|
Des chercheurs étudiant des roches de l'Antarctique affirment avoir découvert la preuve qu'une énorme météorite a percuté la Terre il y a 251 millions d'année, provoquant la plus grande extinction d'espèces de l'histoire, selon une étude publiée cette semaine dans la revue "Science". L'extinction dite du Permien-Triassique a vu disparaître environ 90% des espèces. Elle s'est produite quelque 185 millions d'années avant qu'une collision similaire avec un astéroïde n'entraîne la disparition des dinosaures. "Il apparaît que les deux grandes extinctions de masse dans l'histoire de la Terre (...) ont été causées toutes les deux par des collisions catastrophiques", avec des corps célestes, soulignent les chercheurs. Asish Basu, professeur des sciences de la Terre à l'université de Rochester, dans l'Etat de New York, affirme que la composition chimique de fragments rocheux prélevés dans l'Antarctique apporte la preuve d'un impact très violent, il y a 251 millions d'années. Les fragments ont été découverts dans une couche géologique marquant le début de l'extinction du Permien-Triassique. Une analyse montre qu'ils ont des propriétés chimiques qui sont la marque distinctive des météorites. "On ne peut trouver la composition chimique que nous avons découverte dans ces fragments que dans des météorites très primitives de 4,6 milliards d'années, aussi anciennes que notre Terre", précise le Pr Basu, principal auteur de l'étude. Cette découverte accrédite la théorie selon laquelle un corps céleste de la taille d'une montagne a percuté la Terre. L'impact dévastateur aurait provoqué une immense boule de feu et envoyé des milliards de tonnes de poussières dans l'atmosphère, masquant le Soleil pendant des mois. Il aurait également déposé une couche de poussières de même composition chimique que la météorite. Le Pr Basu note que des spécimens retrouvés dans des roches du Permien-Triassique en Chine ont une composition chimique similaire à celle des fragments de l'Antarctique, ce qui conforte la théorie de la collision avec un corps céleste. En outre, ajoute-t-il, du quartz choqué, qui se forme lors d'un impact à très grande vitesse sur une roche contenant de tels cristaux, a été retrouvé sur les deux sites. A l'époque du Permien-Triassique, on estime que l'Afrique, l'Amérique du Sud, l'Inde, l'Australie et l'Antarctique ne formait qu'un seul supercontinent appelé la Pangée. On ne sait pas exactement où la météorite a pu tomber, avoue le Pr Basu. "Nous pensons que l'impact a eu lieu près de ce qui est aujourd'hui l'ouest de l'Australie." La vie sur Terre à l'époque était très différente. "Il n'y avait pas de grands animaux, mais beaucoup d'espèces vivant sur terre et dans la mer, et il y avait des plantes", souligne Asish Basu. Cette nouvelle étude laisse certains experts perplexes. Ils sont surpris que des traces de météorites de 251 millions d'années aient pu résister à l'érosion aussi longtemps. Birger Schmitz de l'université de Göteborg, en Suède, estime qu'il serait "vraiment remarquable" de trouver de tels fragments de météorite non altérés. "J'ai le sentiment que ce n'est pas le cas", dit-il. Le Pr Basu affirme que "personne dans le monde ne peut remettre en cause nos découvertes chimiques". La question, dit-il, est de savoir quelles circonstances exceptionnelles ont permis à ces spécimens de parvenir jusqu'à nous quasiment intacts. Science : http://www.sciencemag.org/cgi/content/abstract/302/5649/1388?etoc
|
|
|
|
|
|
|
|
Après deux siècles d'augmentation constante, la concentration de l'atmosphère en méthane, l'un des principaux gaz à effet de serre, se stabilise. Tel est le constat plutôt encourageant dressé par des chercheurs de la National Oceanic and Atmospheric Administration (NOOA, États-Unis) et du National Institute for Space Research (Pays-Bas) dans un article publié dans la revue Geophysical Research Letters . «C'est une bonne nouvelle pour le climat mondial», souligne Edward Dlugokencky, du laboratoire de la NOAA à Boulder (Colorado) et responsable de l'équipe qui a analysé, pendant quatre ans, de 1999 à 2002, des échantillons d'air prélevés dans un réseau de 43 stations d'observations répartis à travers le monde. «Mais comme nous ignorons les causes de ce phénomène, il est impossible de prédire si les concentrations de méthane vont continuer à stagner dans les années à venir.» A l'instar de la vapeur d'eau et du gaz carbonique (CO2), le méthane (ou gaz naturel) a la faculté de retenir le rayonnement solaire réfléchi à la surface de la Terre, et donc de réchauffer l'atmosphère, un peu comme dans une serre. Depuis les débuts de la révolution industrielle, la concentration de ces gaz dits «à effet de serre» a augmenté dans des proportions telles qu'ils sont maintenant suspectés de bouleverser le climat mondial. Le méthane, qui contribue pour environ 20% à ce réchauffement additionnel, derrière l'eau et le gaz carbonique, est deux fois plus abondant aujourd'hui qu'il y a deux cents ans. L'extraction d'énergies fossiles (pétrole, gaz naturel) est la principale source d'émissions. Mais le méthane provient aussi pour 30% de fermentations et de processus physico-chimiques dans l'environnement et l'agriculture (rizières, marécages, décharges d'ordures et flatulences des bovins). Selon les chercheurs américains et néerlandais l'homme aurait contribué, involontairement, à la stabilisation des concentrations en méthane enregistrée entre 1999 et 2002. Selon eux, l'arrêt de l'extraction de gaz et de pétrole sibériens après l'effondrement de l'Union soviétique expliquerait cette stabilisation. Dans ce cas la concentration en méthane devrait reprendre sa courbe ascendante dès que l'économie russe redémarrera. NYT : http://www.nytimes.com/2003/11/23/science/23METH.html
|
|
^ Haut |
|
|
|
|
|
|
|
Vivant |
|
|
Santé, Médecine et Sciences du Vivant
|
|
|
|
|
|
|
|
|
Plus de trois millions de personnes sont mortes du sida en 2003, et cinq millions auraient contracté le virus, selon le rapport annuel de l'Onusida rendu public mardi. Ces chiffres témoignent d'une épidémie toujours "galopante" et qui portent à environ 40 millions le nombre de personnes vivant avec le virus dans le monde. L'épidémie de sida continue à se répandre, elle ne plafonne pas encore", a expliqué le Dr Peter Piot, chef de l'Onusida, programme des Nations unies consacré à la lutte contre la pandémie. "Cette année il y a eu plus de contaminations que jamais auparavant, et un nombre record de personnes sont décédées du sida", a-t-il déclaré. "C'est la première cause de mortalité en Afrique, et la quatrième à l'échelle planétaire." En Afrique subsaharienne, qui reste le continent le plus touché, 26,6 millions de personnes vivent actuellement avec le VIH, le virus du sida. Et cette maladie a tué près de 2,3 millions de personnes en 2003 en Afrique noire (contre 18.000 seulement dans les pays développés...), précise le rapport. Au-delà de l'Afrique subsaharienne, des épidémies plus récentes continuent de s'aggraver, notamment en Chine, en Indonésie, en Papouasie-Nouvelle-Guinée, au Vietnam, en Asie centrale, dans les pays baltes et en Afrique du Nord. L'Onusida souligne que "le Vietnam, par exemple, a récemment apporté la preuve qu'une épidémie de VIH/sida peut éclater soudainement, partout où l'on enregistre des taux élevés de consommation de drogues injectables". "Ce pays, ajoute l'organisation, rejoint la liste de plus en plus longue des pays d'Asie, d'Europe orientale, du Moyen-Orient et d'Amérique latine, où la consommation de drogues injectables est à l'origine des épidémies de VIH/sida". Au Vietnam, l'estimation la plus récente fixait la prévalence nationale du VIH bien en dessous de 1 % mais des flambées se produisent déjà chez les consommateurs de drogues injectables. Selon des estimations officielles, 65% des cas d'infection apparaissent chez les consommateurs de drogues, souligne le rapport qui ajoute que "déjà, l'épidémie donne des signes de propagation aux autres populations vulnérables: 11 % et 24% des professionnelles du sexe de Can Tho et Hô Chi Minh-Ville sont respectivement infectées". Dans les pays à revenu élevé, la mortalité associée au sida continue de diminuer, grâce à la mise à la disposition à grande échelle du traitement antirétroviral. On estime qu'actuellement, 1,6 million de personnes vivent avec le VIH dans ces pays, un chiffre qui inclut les 80.000 nouveaux cas d'infection enregistrés en 2003. Le sida y a tué à peu près 18.000 personnes au cours de l'année écoulée. Même si les efforts de prévention s'élargissent partout dans le monde et notamment dans les pays les plus pauvres, l'Onusida craint que "la stigmatisation et la discrimination n'entravent les efforts visant à maîtriser l'épidémie mondiale et créent un climat idéal pour sa propagation". Un autre rapport de l'Unicef confirme les ravages du Sida en Afrique subsaharienne. Cette région du monde comptera d'ici à 2010 environ 20 millions d'enfants qui auront perdu au moins un de leurs parents à cause du sida, selon l'Unicef. Le sida a déjà rendu orphelins plus de onze millions de jeunes africains dont la moitié âgés de 10 à 14 ans. 80 % des enfants ayant perdu leurs parents à cause du sida vivent en Afrique subsharienne, souligne l'Unicef dans son rapport. Les pays les plus touchés par cette évolution sont le Botswana, le Lesotho et le Swaziland, où le sida frappe déjà plus de 30 % de la population. Dans ces trois pays ainsi qu'au Zimbabwe, estime l'Unicef, au moins un enfant sur cinq sera devenu orphelin d'ici à 2010 et parmi ces orphelins, plus de 80% auront perdu un ou leurs deux parents à cause du sida. Mais cette crise peut être évitée si les gouvernements africains et la communauté internationale réagissent rapidement pour fournir un meilleur soutien financier, médical et social, affirme Carol Bellamy, directrice générale de l'Unicef. "Offrir aux enfants une éducation élémentaire gratuite, leur donner la possibilité de gagner leur vie dans de bonnes conditions et fournir aux familles une aide financière ou autre peut signifier pour beaucoup d'orphelins qu'ils pourront continuer à vivre au sein de leur famille au lieu d'en être séparés", explique-t-elle dans un communiqué. "L'avenir de l'Afrique en dépend". Le rapport de 52 pages souligne que les enfants vivant dans des foyers affectés par le sida en souffrent avant le décès des parents car les revenus du ménage chutent et ils doivent souvent abandonner leur scolarité pour soigner un parent malade ou gagner leur vie. Actuellement, parmi les 40 pays d'Afrique subsaharienne touchés par l'épidémie de sida, seuls six ont mis en place des politiques nationales d'aide aux orphelins et huit sont en passe de le faire. Les financements, quoique en hausse, restaient trop faibles pour combattre le sida dans les pays en développement: plus de 10 milliards de dollars seront nécessaires en 2005. Avec l'augmentation des besoins, d'ici 2007, cette somme devra passer à quelque quinze milliards par an pendant au moins dix ans. "Le fardeau que représente l'épidémie de sida va devenir de plus en plus lourd, avec le temps, parce qu'il faut en moyenne sept à dix ans pour que l'on tombe malade à la suite d'une contamination, et parce qu'une absence de traitement est synonyme de mort", précise enfin Peter Piot, chef de l'Onusida. Brève rédigée par @RT Flash Onusida : http://www.unaids.org/html/pub/Media/Press-Releases01/PR_WAD-EPI_25Nov03_fr_pdf/... Unicef : http://www.unicef.org/media/media_16631.html
|
|
|
|
|
|
|
|
D'après une équipe américaine, l'exercice physique représenterait la meilleure défense contre les maladies cardiaques. Vient ensuite, et ensuite seulement, le régime alimentaire. Ce constat émane d'une étude au long cours réalisée à l'Albert Einstein College of Medicine, à New-York. Durant 17 ans, le Pr Jing Fang et ses collègues ont suivi près de 10 000 de leurs concitoyens. La conclusion de leur travail est un véritable plaidoyer en faveur de l'exercice physique. « Le fait de dépenser de l'énergie constituerait vraiment la clé pour limiter les risque de maladie cardiaque. Les sujets qui ont un faible apport calorique, qui font peu d'exercice et sont obèses ou en surpoids présentent un risque de mortalité plus élevé que leurs congénères, même si ces derniers ont des apports caloriques importants, dès lors qu'ils bougent davantage et présentent une charge pondérale normale ». Alors n'oubliez pas, comme le recommande l'OMS : « pour votre santé, bougez ! » au moins trente minutes chaque jour. American Journal of Preventive Medicine, : http://www.ajpm-online.net/article/PIIS0749379703002071/abstract
|
|
|
|
|
|
|
|
Une expérience pilote de télémédecine, destinée à offrir des consultations médicales à distance aux populations isolées, est lancée vendredi sur la minuscule île d'Aix, située à quelques kilomètres au large de la Charente-Maritime, a-t-on appris auprès de l'association FISSA initiatrice du projet. Alors que le dernier médecin généraliste a quitté l'île en décembre 2002 sans être remplacé, l'idée est d'utiliser les nouvelles technologies de communication pour établir des diagnostics simples et éviter les évacuations coûteuses en hélicoptère, selon Bénédicte De Broise, vice-présidente de la FISSA (Force d'intervention sanitaire satellitaire autoportée). Grâce un système de bornes haut débit, le généraliste de Fouras, commune située en face de l'île, pourra bientôt voir et discuter avec les patients éventuels en visio-conférence. "Cela permettra de savoir si le problème nécessite ou pas une évacuation d'urgence quand je ne me trouve pas sur l'île", souligne le praticien qui prend actuellement le bac deux fois par semaine pour les 180 habitants d'Aix. Des liaisons satellitaires et hertziennes avec le CHU de Tours et l'hôpital européen Georges Pompidou à Paris devaient également être testées vendredi pour permettre des consultations techniques plus complexes comme les échographies, les endoscopies ou les analyses de sang. A terme, le but est d'offrir au généraliste de Fouras la possibilité de se mettre en liaison avec des spécialistes pour recueillir un avis dans les cas difficiles. La FISSA a déjà mené des expériences similaires au Sénégal en 2001 et 2002, avec un système de camion-satellite qui permettait de faire des échographies et d'assurer ainsi un suivi périnatal depuis les endroits les plus isolés du pays. AFP : http://www.caducee.net/afp/edit.asp?id_depeche=18355
|
|
|
|
|
|
|
|
Avis aux amateurs de chocolat ! Le cacao regorge de composés chimiques qui préviennent les maladies cardio-vasculaires et certains cancers. Une nouvelle étude révèle qu'une boisson au chocolat contient près de deux fois plus d'antioxydants que le vin rouge, et même trois fois plus que le thé vert. L'équipe de Chang Y. Lee, de l'université Cornell, à Ithaca, dans l'État de New York, a découvert le pouvoir antioxydant exceptionnel du cacao en comparant le contenu en composés phénoliques et en flavonoïdes d'une portion d'une boisson au chocolat à ceux d'une coupe de vin et d'une tasse de thé vert. Les chercheurs ont ainsi trouvé que le liquide chocolaté contenait 611 milligrammes (mg) de composés phénoliques, équivalents à l'acide gallique, un constituant de base des tanins réputés pour leur activité antioxydante, contre 340 mg dans le vin rouge et 165 mg dans le thé vert. Le breuvage marron recelait également 564 mg de flavonoïdes, équivalents à l'épicatéchine , un autre constituant des tanins, contre 163 mg dans le vin rouge et 47 mg dans le thé vert. L'équipe de scientifiques a également mesuré la puissance antioxydante des différentes boissons en observant comment celles-ci parvenaient à éliminer les radicaux libres, ces composés extrêmement réactifs qui seraient à la source de diverses maladies, comme le cancer et les maladies cardiaques. Contre toute attente, la tasse de cacao a surpassé celle de thé vert, pourtant renommé pour son exceptionnelle activité antioxydante. Pour conserver une bonne santé tout en profitant pleinement de la vie, pourquoi ne pas boire un chocolat chaud au petit-déjeuner, un thé vert en après-midi et un verre de vin rouge en soirée, conclut Chang. JAFC : http://pubs.acs.org/journals/jafcau/
|
|
|
|
|
|
|
|
De 50 à 75 ans, chaque homme devrait voir son généraliste chaque année pour un dépistage du cancer de la prostate. C'est le seul moyen de le dépister aussi tôt que possible. Car c'est le plus fréquent chez l'homme après 50 ans, et la seconde cause de mortalité par cancers en France. Le 97ème Congrès français d'Urologie, qui se tient à Paris sous l'égide de l'Association française d'urologie (AFU), met particulièrement en lumière l'importance croissante des cancers urinaires. Elle traduit... les progrès de notre espérance de vie. Car ces cancers apparaissent tard, de sorte qu'il y a un siècle lorsque nous ne dépassions qu'exceptionnellement la cinquantaine, ils étaient peu communs. Aujourd'hui c'est l'inverse. Chaque année le cancer de la prostate provoque 10 000 décès. Mais on en observe 40 000 nouveaux cas dans le même temps. Le cancer de la vessie est moins fréquent mais occupe la 6ème place des tumeurs cancéreuses. Avec un peu moins de 11 000 nouveaux cas annuels il suit les cancers du sein, du colon et du rectum, du poumon, et l'ensemble des cancers des voies aérodigestives supérieures. Les cancers du rein (2 % à 3 % des cancers) et du pénis (0,4 % à 0,6 %) enfin, sont beaucoup moins fréquents. Mais les tumeurs rénales deviennent plus communes... Ils se soignent d'autant mieux qu'ils sont détectés précocement. D'où l'importance d'un dépistage régulier s'il est possible, et sinon d'une vigilance sans faille. Pour le cancer de la prostate, pas de problème : le dosage du PSA (Prostate Specific Antigen) et le toucher rectal sont facilement accessibles. Le premier ne « signe » pas la présence ou l'absence d'un cancer. Comme nous l'a expliqué le Dr J.-L. Davin (comité de cancérologie de l'AFU), il traduit seulement le degré d'activité des tissus prostatiques « de sorte qu'un PSA élevé ne signifie pas nécessairement qu'il y ait un cancer sous-jacent ». L'usage recommande ainsi que tout homme de 50 à 75 ans subisse chaque année un dosage de PSA et un toucher rectal par son généraliste. Lequel décidera éventuellement d'adresser son patient à un urologue. Destination Santé : http://www.destinationsante.com/article.cfm?ContentID=8133
|
|
|
|
|
|
|
|
Le premier vaccin synthétique contre la pneumonie et la méningite a été présenté le 26 novembre par des chercheurs cubains devant la communauté scientifique internationale, lors d'un Congrès de Biotechnologie à La Havane réunissant des délégués de plus de 30 pays. Selon Vicente Vérez, directeur du centre d'Etudes Antigènes de l'université de La Havane et principal auteur de la découverte, le vaccin contre l'Haemophilus Influenzae de type B "représente une alternative qui ouvre de nombreuses perspectives", en particulier "d'autres vaccins à partir d'antigènes synthétiques". Le docteur Vérez a précisé, dans une rencontre avec la presse, que le vaccin avait été expérimenté sur 80 adultes, dont lui même, 1200 enfants de 4 ans et 1100 nourrissons et que les recherches ont duré 14 ans. Selon le docteur Vérez, le vaccin sera administré à partir du mois de janvier à des nourrissons en trois doses, à deux, quatre et six mois avec un rappel à 18 mois. Des études cliniques effectuées à Camaguay (centre) ont démontré l'efficacité du vaccin, plus de 99,7 % des bébés vaccinés ayant développé des anticorps contre les virus de la pneumonie, de la méningite et d'autres maladies, a-t-il précisé. Plus d'un million de doses du vaccin dont le nom commercial sera "Quimi-Hib" sont actuellement produites pour débuter une campagne d'immunisation des bébés cubains l'année prochaine. Le chercheur cubain devait présenter sa découverte en septembre dernier lors d'une conférence à New York, mais s'est vu refusé son visa d'entrée aux Etats-Unis qu'il avait sollicité trois mois auparavant. Il a indiqué que ce vaccin sera particulièrement avantageux pour les pays du Tiers Monde car peu onéreux, "trois dollars selon le prix auquel aspire l'Organisation mondiale de la santé (OMS)". L'Université d'Ottawa, au Canada, a participé aux recherches et au développement du vaccin reconnu par une patente conjointe du centre des hautes études de La Havane qui sera produite et commercialisée par la compagnie Ever Biotec. AFP : http://fr.news.yahoo.com/031126/202/3ilio.html
|
|
|
|
|
|
|
|
Pour la première fois, des chercheurs français viennent de démontrer - sur des rats - que plus importante est la formation de neurones, meilleures sont les aptitudes à se repérer dans l'espace et à apprendre. Ces travaux, réalisés par l'équipe de Nora Abrous (Unité Inserm 588 "Physiopathologie du comportement", à Bordeaux, dirigée par Pier-Vincenzo Piazza), sont publiés mardi par la revue de l'Académie américaine des Sciences, PNAS (Proceedings of the National Academy of Sciences). L'altération de la capacité du système nerveux à modifier et à réorganiser sa structure au gré du temps et des expériences vécues figure depuis longtemps parmi les causes possibles du vieillissement cérébral. Mais c'est la première fois que des chercheurs démontrent effectivement l'existence d'un lien quantitatif entre des dysfonctionnements de la mémoire et des défauts de production de neurones. Nora Abrous et ses collègues ont vérifié la capacité de rats vieillissants à fabriquer de nouveaux neurones selon qu'ils avaient, ou non, une bonne capacité de mémorisation de l'espace. Les chercheurs ont donc identifié parmi ces vieux rats - âgés de 20 à 24 mois - ceux qui montraient de réelles difficultés d'apprentissage et ceux dont les facultés étaient identiques à celles de jeunes animaux. Ils les ont ensuite promenés dans un labyrinthe aquatique afin de vérifier leur capacité à atteindre au plus vite une plate-forme immergée dans une piscine. La distance parcourue par chaque animal a été mesurée afin d'évaluer leurs capacités de mémorisation, puis le nombre de neurones nouvellement formés dont ils étaient dotés a été quantifié. La comparaison des résultats obtenus par les deux groupes de rongeurs montre sans conteste, selon les chercheurs, que les rats qui réalisent les meilleures performances lors du test du labyrinthe, sont aussi ceux qui présentent une faculté de fabrication de neurones supérieure aux autres. Ces résultats", écrivent les chercheurs, "fournissent de nouveaux indices des possibles bases neuronales du vieillissement des fonctions d'apprentissage et renforcent l'hypothèse selon laquelle la neurogenèse est impliquée dans les processus de mémorisation". Inserm : http://www.inserm.fr/servcom/servcom.nsf/(Web+Startup+Page)?ReadForm&actualite
|
|
^ Haut |
|
|
|
|
|
VOTRE INSCRIPTION |
|
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
|
|
|
|
|
|