|
|
|
|
|
NUMERO 182 |
|
|
|
|
|
|
|
Edition du 15 Février 2002
|
|
|
|
|
Edito
Le virtuel et la cécité
Le Salon « Imagina » qui renaît cette année nous montre que les progrès annoncés dans l'image de synthèse sont arrivés. Les mouvements complexes telles que des vagues sur l'eau ou des panaches de fumée sont devenus très réalistes alors qu'il y a deux ans seulement les invraisemblances étaient encore nombreuses. Avec un tel constat, nous comprenons mieux l'importance de l'augmentation de la fréquence avec laquelle bat le coeur de l'ordinateur de Monsieur Toutlemonde. Là où les informaticiens et les ingénieurs ne pouvaient résoudre en 1971 avec le premier microprocesseur qu'une équation par seconde, ils ont maintenant la capacité d'en résoudre quelque 22.000 par seconde avec le dernier Pentium IV cadencé à 2,2 Giga. Mais pendant ce temps-là, que fait notre Société pour se préparer à une telle mutation ? Rien. Comme je l'écrivais dès le 10 novembre 1999 dans ces colonnes (voir mon édito de la lettre 71 http://www.tregouet.org/lettre/1999/Lettre71-Au.html) le plus grand danger qui va hanter l'avenir de nos jeunes et des personnes les plus faibles, ce sont les mondes virtuels. Une personne peu heureuse dans sa vie, comme elle le fait ou du moins le cherche aujourd'hui avec la drogue, se plongera dans ces mondes virtuels où elle se fera Roi ou Reine et son cerveau sera si trompé par le réalisme de ces mondes virtuels qu'il est à craindre qu'elle ne veuille pas en ressortir. De grands acteurs mondiaux du logiciel en tête desquels il faut placer, sans conteste, Microsoft, ont bien compris toute l'importance que vont prendre ces mondes virtuels. Il n'est pas innocent de constater que, pour la première fois de sa déjà longue mais oh ! combien impressionnante histoire, Microsoft décide de sortir de son domaine du signal pour se lancer avec détermination dans le domaine du hard en commercialisant une console de jeux. Après avoir su capter plus de 90 % des utilisateurs de micro-ordinateurs et sachant que ce monde est appelé à disparaître dans les 20 ans qui viennent, Microsoft, avec lucidité et détermination, a décidé, avec méthode, d'accaparer par le virtuel le cerveau de nos enfants. Ce qui est extraordinaire dans nos temps modernes, c'est que nos démocraties souffrent d'une telle cécité et montrent une telle incapacité à imaginer l'avenir qu'elles ne semblent pas prendre conscience des stratégies à long terme qui sont froidement appliquées par ces grands groupes mondiaux qui, eux, accordent toute son importance à la prospective. Ainsi, les Pouvoirs Publics de toutes nos démocraties dites avancées, que ce soit les Etats-Unis ou notre Pays, restent sans réagir quand des sociétés agro-alimentaires mondiales ajoutent du sucre ou (et) du sel dans leurs sodas ou leurs plats pour rendre peu à peu notre organisme, et plus spécifiquement celui de nos enfants, dépendants de ces sucres et de ce sel. Pourquoi diable restons-nous sans réagir alors que nous constatons que plus de la moitié des américains sont obèses et que l'obésité touche dorénavant 17 % des enfants français alors qu'ils n'étaient que 5 % en 1980 ? Il est du devoir des Gouvernements de tout mettre en oeuvre pour comprendre en temps utile les conséquences que pourraient avoir les stratégies mises en place par les grands groupes mondiaux. Ainsi, dans le domaine du virtuel qui, très rapidement, va devenir un sujet majeur, la réplique des Gouvernements ne doit surtout pas s'installer dans l'interdiction ou la répression. Cela rendrait ces mondes virtuels encore plus attractifs pour une jeunesse non encore stabilisée. La réponse ne peut se trouver que dans le domaine de l'éducation. Ainsi, est-il normal, alors que les technologies ont tellement évolué dans ces dernières décennies, que nos enseignants dans les écoles, les collèges et souvent même dans les lycées ne disposent encore que d'un tableau au mur et de leur propre élocution pour faire acquérir des savoirs nouveaux à leurs élèves ? Nombreux sont ceux qui n'ont pas encore compris le rôle qui va être joué par l'image dans notre société de demain. Elle va bouleverser notre vision du monde et changer de grandeur notre capacité d'accéder à de nouveaux savoirs. Or, actuellement, seulement les acteurs privés semblent avoir pris conscience de l'importance que va prendre l'image. Cela ne peut plus continuer ainsi. L'Histoire de notre Pays, car c'est bien là que se situent les enjeux, changera quand le petit gamin de 8 ans, revenant de l'école, dira à sa mère « Tu sais, Maman, c'est super, la grande image dont se sert mon maître à l'école pour m'expliquer le monde est autrement plus belle que celle de ma Xbox, Playstation ou Gameboy ». En effet, pourquoi ne prendrions-nous pas, tous ensemble, la ferme résolution que dorénavant la plus belle image serait à l'école à la disposition des enseignants et de leurs élèves et non plus sur les consoles de jeux de nos enfants. C'est ainsi qu'avance le monde : avec des images simples mais fortes. René TRÉGOUËT Sénateur du Rhône
|
|
|
|
|
|
|
|
TIC |
|
|
Information et Communication
|
|
|
|
|
|
|
|
|
Une petite compagnie de téléphone new-yorkaise a installé lundi dans une rue de Manhattan une première cabine d'accès payant à internet, prévoyant d'en ouvrir une centaine à New York d'ici un an. L'écran couleur de l'ordinateur et le clavier sont la seule chose qui différencient à première vue la cyber-cabine disposée par TCC Teleplex à l'angle de la 46ème rue et de la Cinquième Avenue. Contre un dollar les quatre minutes, les internautes de passage peuvent envoyer des courriers électroniques, consulter le Web, téléphoner aux antipodes pour le prix d'une connexion locale, envoyer des cartes de voeux ou même se prendre en photo digitale et l'envoyer sur la toile. "C'est un test sur trente jours dont nous avons convenu avec la ville de New York" explique Allan Rothenstreich, directeur du projet pour TCC Teleplex. Cette société indépendante possède environ 1.500 cabines téléphoniques classiques dans New York mais "nous avons enregistré une baisse de leur fréquentation à cause des téléphones cellulaires. C'est une diversification naturelle", ajoute-t-il. La cabine a été étudiée pour résister aux intempéries et solidement encastrée pour ne pas exciter les convoitises. Les premiers usagers faisaient la queue lundi pour l'utiliser. "Je me rendais à un défilé de mode quand j'ai reçu un coup de fil de mon bureau m'indiquant qu'ils m'avaient envoyé un document à mon adresse électronique", indique Chris Callnek, 25 ans, directeur des ventes de Public Internet Exchange. "Je peux consulter mon courrier à mon hôtel mais l'avantage de cette cabine c'est qu'elle accessible dans la rue et qu'elle est haut débit". NYT : http://www.nytimes.com/2002/02/10/technology/10PHON.html
|
|
|
|
|
|
|
|
Microsoft, IBM et plusieurs autres géants technologiques annoncent la formation d'une alliance dont l'objectif est de travailler sur des normes communes facilitant le partage de l'information et le commerce inter-entreprises via internet. Au sein de ce groupe baptisé Web Services Interoperability Organization (WS-I) se côtoient Microsoft, IBM mais aussi Intel, Oracle, SAP, Hewlett-Packard et Fujitsu Business Systems. Ces entreprises utilisent soit la technologie .NET de Microsoft, soit la technologie concurrente Java développée par Sun Microsystems. Sun, concurrent acharné de Microsoft, n'est pas sur la liste des partenaires. Mais selon un porte-parole, "Sun s'est engagé et s'engagera à fournir ces normes au secteur au fur et à mesure de leur mise en place et de leur évolution". L'objectif de la WS-I est d'établir une norme commune pour les services Web - un nouveau marché pour les éditeurs de logiciels qui facilitent le partage d'informations entre différents systèmes d'ordinateurs et permet l'exécution de différentes tâches comme la gestion de stocks sur le web. L'organisation veut s'assurer que les entreprises utilisent de la même façon les normes techniques de base -telles que XML, WSDL, UDDI- qui permettent de développer des services Web, a expliqué Bob Sutor, directeur du Programme pour la Technologie XML chez IBM. Reuters : http://fr.news.yahoo.com/020207/85/2h7z3.html
|
|
|
|
|
|
|
|
« Titre fondateur ». C'est le nom de la mission officiellement constituée par le ministère de l'Intérieur, en décembre dernier, pour réfléchir à l'identité électronique des citoyens, et aux moyens d'en garantir le contrôle. Annoncée par le ministre Vaillant, dans le cadre du plan d'action pluriannuel pour les préfectures 2002-2004, cette mission, dirigée par le haut fonctionnaire Michel Aubouin, doit établir les procédures d'enregistrement d'un titre national d'identité, servant à « authentifier les rapports entre l'Administration et les usagers ». L'objectif poursuivi vise à donner à chaque Français un numéro d'identifiant unique, servant à la fois de signature pour les échanges en ligne avec l'Administration et de clé d'accès personnel pour la consultation de données administratives. Dans le chantier de l'Administration électronique, le ministère de l'Intérieur semble donc décidé à jouer son rôle « sécuritaire ». Une commission présidée par le magistrat Pierre Truche a été chargée de réfléchir avec la Cnil aux limites légales d'une évolution possible vers un numéro d'identifiant unique utilisé par l'Administration. Sur ce sujet, le rapport Truche, prévu pour fin février, définira le nouvel équilibre entre interconnexion des fichiers et contrôle citoyen des données, rendu possible grâce aux technologies de l'information. En attendant, à Bruxelles, la présidence belge de l'Union s'est concentrée sur « l'identification électronique des citoyens » en publiant, en novembre, un état des lieux des projets en cours chez les Quinze. Dans ce rapport, l'identification unique et la mise en réseau généralisée apparaissent comme un objectif communautaire, déjà réalisé par la Suède, la Finlande et le Luxembourg. À ce jour, seules la Finlande et la Suède ont développé une carte d'identité électronique : l'une certifiée par l'Administration publique, l'autre par un organisme privé, qui associe La Poste et les grandes banques. L'Italie de son côté réalise des expérimentations dans les grandes villes et annonce une carte d'identité électronique pour 2003. OI Net : http://www.01net.com/actus/
|
|
|
|
|
|
|
|
Lors de la Demo Computer Conference qui vient de se tenir à Phoenix, IBM a présenté le MetaPad, une unité centrale miniaturisée dotée d'une architecture multi-plateforme. Le MetaPad, de la taille d'un assistant personnel numérique (1,9 cm d'épaisseur, 7,62 cm de long et 12,7 cm de large, pour un poids de 255 g.), bénéficie d'un microprocesseur de 800 MHz, de 128 Moctets de RAM, et il est capable de contrôler sa vitesse de traitement et sa consommation énergétique. Il peut être connecté soit à un clavier et à un moniteur pour prendre la forme d'un PC, soit à un écran tactile pour être utilisé sur Palm OS, et il fonctionne également sur Linux. Diverses extensions permettent au MetaPad de se transformer en lecteur DVD ou MP3, voire en téléphone cellulaire "smart". Relié à un petit écran tactile, il se transforme en PDA « avec la puissance et les fonctionnalités d'un ordinateur de bureau », précise le communiqué d'IBM Research. Le MetaPad incarne ainsi le concept que Big Blue désigne sous l'appellation de "pervasive computing" (calcul omni-présent), et pour lequel il compte sur la perspicacité du consommateur, à la fois pour explorer le potentiel de cet appareil multifonctions et orienter ses développements futurs. MetaPad evrait être lancé sur le marché d'ici deux ans. NYT 07/02/02 : http://www.nytimes.com/2002/02/07/technology/circuits/07META.html
|
|
|
|
|
|
|
|
Recemment l'opérateur Global Crossing est passé des sommets de la Bourse, où il avait été valorisé jusqu'à plus de 50 milliards de dollars (58 milliards d'euros)... au tribunal de commerce, dans le cadre de la faillite la plus retentissante du monde des télécommunications. Un autre opérateur de réseau global, Level 3, a lui aussi reconnu qu'il risquait de ne pas pouvoir honorer ses engagements financiers. Dans le monde des télécoms, la cause des déboires de ces opérateurs porte un nom : le « fiber glut », la surabondance de fibres optiques installées à travers le monde. La plupart des experts s'accordent à dire que seulement 3 à 5 % de la fibre posée pour les réseaux mondiaux est « allumée », c'est-à-dire utilisée pour faire transiter des communications, le reste étant constitué de fibres inertes. « Mais sur certaines routes, le taux d'usage est inférieur , relève Stephen Young, analyste chez Ovum. Je connais un tronçon entre deux villes en France où une seule fibre a été allumée sur cent installées. » Le surcoût lié aux fibres inertes est certes faible - une fois l'installation effectuée, la dépense liée au placement de chaque fibre supplémentaire est quasi nulle. Mais ce n'est pas le cas des fibres en exploitation, qui nécessitent la mise en place d'équipements coûteux. Ainsi, les câbles sous-marins reliant l'Amérique à l'Europe étaient ceux sur lesquels les opérateurs de réseaux mondiaux comme Global Crossing misaient le plus. « Mais, compte tenu de l'excès d'offre sur la route transatlantique, seulement 5 % des fibres allumées génèrent du chiffre d'affaires », estime Jean-Charles Doineau, analyste à l'Idate. Comment un tel décalage entre l'offre et la demande a-t-il pu voir le jour ? Première explication : ces réseaux ont été construits avec la certitude que le trafic sur Internet allait croître de façon exponentielle. Ce fut certes le cas entre 1998 et 1999 où il a crû de 50 % par an sur la route transatlantique. Mais, aujourd'hui, la hausse du volume de communications s'est tassée pour atteindre de 15 à 20 % par an, indique Jean-Charles Doineau. Des relais de croissance comme l'accès haut débit, la vidéo à la demande ou l'accès distant aux logiciels (ASP) n'ont pas décollé aussi vite que prévu. Qui plus est, l'introduction de la technologie de multiplexage dense en longueurs d'onde (« Dense Wavelength Division Multiplexing », DWDM) a permis de faire transiter jusqu'à 200 canaux d'information sur une même fibre, démultipliant la capacité des réseaux installés. En outre, le caractère incontrôlable du réseau a aussi joué les trouble-fête. Contrairement à un réseau propriétaire reliant deux communications d'un point à un autre, une connexion Internet de Paris vers New York peut transiter par Johannesburg s'il s'agit de la voie la plus rapide au moment où elle est effectuée. Difficile donc de prévoir le trafic effectué sur une voie précise comme la route transatlantique. « Actuellement, sur chaque appel d'offres pour de la bande passante, il y a une trentaine de concurrents qui se battent », déplore un expert. Résultat de la surabondance de l'offre, le prix de la bande passante a chuté de 70 % en 2000 selon le cabinet Analysys, une baisse qui s'est poursuivie en 2001. Dans une étude où il prévoyait des surcapacités, Ovum estimait que si l'offre de capacité des réseaux transatlantiques restait stable entre 2000 et 2005, elle finirait ensuite par s'équilibrer avec la demande. Les Echos : http://hightech.lesechos.fr/
|
|
|
|
|
|
|
|
Le nombre de téléphones portables dans le monde a augmenté de 40% en 2001 et devrait bientôt atteindre un milliard d'unités, soit plus que le nombre de lignes téléphoniques fixes, a annoncé l'International Telecommunication Union (ITU), agence spécialisée des Nations unies. Il y avait 1,045 milliard de lignes fixes à la fin 2001, contre près d'un milliard de mobiles, a précisé le porte-parole de l'ITU, Gary Fowlie. "Etant donné que le taux de croissance des mobiles était de 38% l'année dernière, cela ne prendra pas longtemps. Nous pourrions déjà l'avoir dépassé", a-t-il souligné. L'agence onusienne a expliqué dans un communiqué que le marché de la téléphonie sans fil était au bord de la saturation en Europe de l'Ouest, mais qu'il y avait un potentiel de croissance dans des pays en développement, tels que la Chine ou l'Inde. Mais le fait que dans certains pays, comme les Etats-Unis ou le Canada, celui qui passe l'appel et celui qui le reçoit doivent payer tous les deux a été "très dissuasif", selon l'agence basée à Genève. L'industrie a déjà dépensé plus de 100 milliards de dollars pour acquérir les licences de troisième génération, selon l'ITU, mais le lancement de cette nouvelle norme a pris du retard. Reuters. : http://fr.news.yahoo.com/020208/85/2haiv.html
|
|
^ Haut |
|
|
|
|
|
|
|
Avenir |
|
|
Nanotechnologies et Robotique
|
|
|
|
|
|
|
|
|
Dans leur blindé, les soldats de la "bulle de contact", assis devant des écrans, observent les images vidéo et interprètent les différentes mesures (radar, laser, infrarouge...) prises par les drones survolant la zone de combat et les robots infiltrés dans les faubourgs de la ville qui abritent les troupes ennemies. Le char relaie l'ensemble de ces informations vers ses homologues, les autres "engins blindés à roue de contact" (EBRC), ainsi que vers les postes de commandement de l'artillerie et de l'aviation. Il peut également activer l'armement intégré aux robots et aux drones afin de détruire certaines cibles ponctuelles. A l'abri du relief et de leur protection par micro-ondes, les soldats les plus proches de la ligne de front sont nettement moins exposés qu'auparavant. Un tel scénario futuriste pourrait devenir réalité si le projet Bulle opérationnelle aéroterrestre (BOA), présenté le 6 février par la délégation générale pour l'armement (DGA), se concrétise. Pour l'instant, il s'intègre au "plan prospectif à 30 ans (PP30)" qui définit le cadre général des "études des perspectives technologiques". Bertrand Ballarin, colonel de l'armée de terre, définit la philosophie du projet BOA comme "une extension du principe de déconnexion physique entre les capteurs et les lanceurs puis de reconnexion avec le système d'information". Derrière ce jargon de spécialiste, c'est une "révolution dans l'emploi d'une unité de contact"qui se prépare. Aujourd'hui, ces troupes manoeuvrent souvent à vue directe et doivent maintenir le contact avec la ligne de front pour garantir l'acheminement de l'information, ce qui les rend particulièrement vulnérables. Demain, elles feront appel à des "capteurs" permettant de recueillir des données "au-delà de la vue directe", c'est-à-dire à une distance plus importante du coeur des opérations. La mise en oeuvre d'une telle stratégie s'appuie largement sur le développement des réseaux de télécommunication et de la robotique militaire. C'est même cette dernière qui promet une véritable rupture avec les pratiques actuelles. La DGA travaille ainsi sur deux axes majeurs : les robots terrestres et les drones, ces avions sans pilote qui font de plus en plus parler d'eux, du Kosovo à l'Afghanistan. L'ensemble de ces équipements deviendront, dans un premier temps, les yeux et les oreilles des unités de contact. Ensuite, les machines plus ou moins autonomes participeront directement aux combats. Le domaine des robots terrestres couvre une vaste gamme d'engins, allant du char lourd téléopéré à des engins d'observation de toutes tailles et de structures variées suivant les usages auxquels ils sont destinés. A terme, une panoplie sera constituée par différents types de robots pouvant coopérer et s'entraider.. Cette ménagerie de robots militaires assurera des missions de reconnaissance, d'observation et de combat, en particulier dans les zones urbaines difficiles d'accès pour les engins blindés. Parmi les verrous technologiques, le problème de l'énergie embarquée reste critique, surtout pour les petits robots dont les capacités en batterie sont limitées et qui doivent pouvoir se déplacer à 6 ou 7 km/h pour ne pas ralentir la manoeuvre. Dans les airs, les drones joueront un rôle similaire. Catherine Fargeon, responsable des systèmes de drones à la DGA, distingue trois étapes. Aujourd'hui, les drones existants disposent d'une voilure fixe de 30 à 50 cm qui leur permet de se déplacer à des vitesses inférieures à 30 km/h. La seconde génération, vers 2007-2010, plus petite, de 20 à 30 cm, sera capable de rester en vol stationnaire grâce à des rotors carénés et disposera d'une certaine "tenue à la rafale". Ces modèles seront adaptés à l'observation en milieu urbain. Ils pourront se déplacer en évitant les immeubles et se poster au sommet d'une tour pour en surveiller l'intérieur. Après 2015, des drones encore plus miniaturisés, moins de 15 cm d'envergure, pourront se glisser à l'intérieur même des bâtiments, un peu comme les sphères imaginées par Frank Herbert dans son roman Dune. En attendant de concrétiser les rêves ou les cauchemars des auteurs de science-fiction, le premier système d'armes issu du projet BOA, l'EBRC, devrait entrer en service en 2011 pour des missions de reconnaissance et de combat. L'EBRC sera équipé de canons, missiles et, ultérieurement, d'armes à énergie dirigée (laser et micro-ondes). Sa protection balistique doit également évoluer grâce à des moyens réactifs "capables de détruire avant impact la munition adverse". Tapis dans leur EBRC, les soldats se transformeront de plus en plus en manipulateurs d'engins robotisés et en centre de collecte et d'aiguillage d'informations. Il deviendra alors essentiel d'alléger au maximum leur charge de travail afin qu'ils conservent une vision stratégique des opérations. Un subtil partage des fonctions entre hommes et machines au combat s'ébauche. Le Monde : http://www.lemonde.fr/article/0,5987,3244--261884-,00.html
|
|
^ Haut |
|
|
|
|
|
|
|
Terre |
|
|
Sciences de la Terre, Environnement et Climat
|
|
|
|
|
|
|
|
|
La France doit encore beaucoup faire pour respecter le protocole de Kyoto sur la réduction des gaz à effet de serre, indiquent deux rapports officiels français adressés à l'ONU et publiés le 11 janvier. Le premier est un inventaire d'émissions regroupant dans une unité de compte, le carbone, les rejets de CO2 et autres gaz réchauffant l'atmosphère. Le second, une "communication nationale" établie pour la troisième fois après celles de 1994 et 1997, dresse un bilan des mesures prises ou envisagées pour combattre le changement climatique. Selon l'inventaire, la France a réduit de près de 2% à 148 millions de tonnes de carbone (MTC) en 2000 ses émissions de gaz à effet de serre par rapport à 1990. Elle a ainsi satisfait à la Convention de Rio (1992), le premier accord climat de l'ONU qui invitait les pays développés à ramener en 2000 leurs émissions à leur niveau de 1990. Au plan européen, selon les données officielles 1999 de l'Agence européenne de l'environnement, elle fait partie des trois pays avec la Suède et la Finlande ayant grosso modo stabilisé leurs émissions en fin de décennie. L'Allemagne (moins 19%) et la Grande-Bretagne (moins 14%) ont fait beaucoup mieux pour des raisons largement conjoncturelles, tandis que d'autres dérapent (Espagne +23%, Pays-Bas +6%, Danemark et Italie + 4%). Mais l'état des lieux, basé sur une croissance économique annuelle de 2,2% dans l'actuelle décennie, pointe une forte tendance à la hausse des émissions à l'horizon 2010. Approchant 25% en l'absence de toute contre-mesure et encore 5% si les mesures annoncées en 1993, 1995 et 1997 sont toutes appliquées. Encore trop si les émissions de 2010 doivent être stabilisées à leur niveau de 1990 (151 MTC) en application du protocole de Kyoto (1997). Cet accord international prolonge et durcit la Convention. Il a été rejeté par l'administration Bush alors que l'UE souhaite annoncer le 4 mars qu'elle le ratifiera pour fin mai. La "Troisième communication nationale" indique que la France ne respectera pas Kyoto sans application intégrale des "mesures supplémentaires" inscrites au Programme national de lutte contre le changement climatique (PNLCC) de janvier 2000. Elle plaide en termes diplomatiques pour la relance d'une taxation de l'énergie en fonction de son degré de pollution, dont le premier volet (TGAP énergie) avait été lancé au printemps 2000 et censuré six mois plus tard par le Conseil constitutionnel. Cette taxation, qui représentait 40% de l'enveloppe du PNLCC, est seulement "suspendue" et toujours à l'étude à l'échelle européenne, souligne-t-elle. L'industrie française, très hostile à une taxe carbone, négocie actuellement avec le gouvernement des "engagements volontaires de réduction" de ses émissions polluantes. Les deux parties sont encore très éloignées sur l'ampleur des réductions qui pourraient être consenties, selon des sources concordantes. Et "personne ne peut affirmer" que ces engagements, assortis d'échanges de permis d'émission entre gros et faibles pollueurs comme prévu par l'UE à partir de 2005, auraient le même effet qu'une taxation. ONU : http://www.unep.org/
|
|
^ Haut |
|
|
|
|
|
|
|
Vivant |
|
|
Santé, Médecine et Sciences du Vivant
|
|
|
|
|
|
|
|
|
Un espoir dans le traitement de l'accident vasculaire cérébral (AVC): une nouvelle étude américaine souligne l'efficacité des médicaments neuroprotecteurs jusqu'alors décevants sur cette affection qui représente la première cause de handicap chez l'adulte. L'AVC est dû à l'obstruction d'une artère cérébrale par un caillot de sang, affamant les cellules cérébrales situées à proximité. Les cellules sur le point de mourir sécrètent de grandes quantités de glutamate et d'autres substances chimiques, qui empoisonnent les cellules qui les entourent. L'objectif des médicaments neuroprotecteurs est de s'opposer à ces réactions chimiques. Partout dans le monde, la recherche sur ces produits est restée frustrante. Plus de 50 d'entre eux ont donné des résultats encourageants chez l'animal, mais tous ont échoué lors de l'expérimentation sur l'homme. ''Des millions de dollars ont été dépensés dans ce secteur de la recherche, et nous ne disposions pas de résultats positifs. Aujourd'hui, nous avons de bonnes nouvelles'', a déclaré le Dr Philip Gorelik, directeur de recherche sur l'AVC au Centre médical presbytérien St Luke à Chicago. Deux études présentées cette semaine au Congrès de l'association américaine de l'AVC à San Antonio, au Texas, font apparaître que la citicoline, un neuroprotecteur, diminue la sévérité de l'accident vasculaire cérébral. La citicoline, comme d'autres médicaments neuroprotecteurs, permet de prévenir une chaîne de réaction chimique aux conséquences graves qui favorise la progression de l'AVC dans les jours qui suivent l'accident. Pour l'instant, les médecins ne peuvent pas faire grand chose dans les heures qui suivent l'accident. Le seul médicament qui agisse est le TPA, un anticoagulant, mais seules 2% des victimes en bénéficient chaquée année. Les autres présentent soit d'autres complications, soit sont prises en charge trop tardivement, faute d'être tranportées à temps à l'hôpital. On estime que 700.000 personnes sont victimes d'AVC chaque année aux Etats-Unis, et 130.000 en France. Pour arriver à cette conclusion, le Dr Steven Warach, directeur de la thérapeutique de l'AVC à l'Institut national des troubles neurologiques (NINDS), a réuni les résultats de deux études qui utilisent la résonance magnétique nucléaire, l'IRM, un scanner perfectionné. Ces travaux incluent 214 personnes réparties en trois groupes: la moitié a reçu un placebo, l'autre moitié 500 mg ou 2 grammes de citicoline. Dans le groupe placebo, la taille de l'AVC a augmenté de 85%, 12 semaines après l'accident. En revanche, la taille n'a augmenté que de 34% chez les personnes prenant des doses de 500 mg de citicoline, et seulement de 2% chez celles prenant la dose la plus forte. AP : http://fr.news.yahoo.com/020208/5/2h9x0.html
|
|
|
|
|
|
|
|
Enjeu majeur de santé publique, l'infection par le virus de l'hépatite-C touche près de 3% de la population mondiale et 1% de la population française. Maladie potentiellement grave par son risque d'évolution vers une maladie sévère du foie, la cirrhose, l'hépatite-C bénéficie aujourd'hui de traitements efficaces, quoique souvent mal tolérés. Le virus de l'hépatite-C (VHC) se transmet essentiellement par contact du sang d'une personne infectée avec celui d'une personne indemne, ou par le contact des muqueuses avec un objet souillé par du sang infecté. Après contamination, ''l'hépatite aigue C passe le plus souvent totalement inaperçue'', indique le Dr Yves Benhamou, de l'Hôpital de la Pitié-Salpétrière à Paris. Dans les 70 à 80% des cas restants, c'est l'hépatite chronique C'', a-t-il ajouté. De10 à 20% des personnes ayant une hépatite chronique C ont un risque de présenter une cirrhose après 10 ans d'évolution. La cirrhose, qui fait toute la gravité de la maladie, expose les personnes à des complications telles que les hémorragies digestives, un dysfonctionnement grave du foie et surtout, au cancer du foie dont le risque est estimé à 20% après 20 à 30 ans d'évolution de la cirrhose. D'où l'insistance des pouvoirs publics à inciter la population à risque au dépistage. En règle générale, cette simple prise de sang est conseillée à toutes les personnes qui ont pu être exposées au VHC, notamment aux usagers de drogues par voie intraveineuse, aux personnes ayant été transfusées avant 1991 et à celles ayant subi des examens médicaux nécessitant l'utilisation de matériel médical. Des cas ont été retrouvés aussi chez des personnes tatouées ou adeptes du piercing. Après confirmation du diagnostic par une technique d'amplification génétique (PCR), ''les patients doivent être informés des précautions à prendre. Il leur est notamment vivement conseillé de stopper totalement leur consommation d'alcool, source d'évolution rapide vers la cirrhose'', a rappelé le Dr Benhamou, tout en se félicitant qu'on puisse ''guérir de cette maladie''. Face à un tel diagnostic, ''le patient doit être accompagné et bénéficier d'un soutien psychologique''. Toutefois, avant de proposer un traitement, il est le plus souvent utile de connaître l'importance de l'atteinte du foie. C'est dans cette optique qu'une biopsie hépatique est proposée, un examen ''redouté par les patients''. La mise au point récente d'un test (fibrotest) associant un dosage sanguin de cinq protéines pourrait permettre d'éviter une fois sur deux cette biopsie hépatique. Ce début de siècle a été marqué par des progrès majeurs dans le traitement de l'hépatite-C: au stade aigu de l'infection, ''l'interféron permet d'espérer jusqu'à 98% d'éradication virale durable'', a indiqué le Pr Stanislas Pol, hépatologue à l'Hôpital Necker à Paris. ''On peut presque guérir toutes les hépatites aigues''. Au stade d'infection chronique, les différents traitements utilisant l'interféron pégylé (interféron retard) en association avec un antiviral, la ribavirine, montrent un bénéfice réel. ''Le virus est éradiqué de façon durable, jusque dans 80% des cas dans certaines formes virales'', a souligné le Pr Pol, qui a toutefois insisté sur la sévérité de certains effets secondaires (dépression, délire, agitation, suicides, homicides) nécessitant l'arrêt du traitement. ''Dix pour cent des malades arrêtent leur traitement au cours des six premiers mois, et 20% au cours de l'année''. Au stade de cirrhose, une réversibilité de la cirrhose, efficace et durable, a aussi été constatée chez 15 à 45% des cirrhotiques traités par ces deux médicaments. L'avenir proche sera marqué par le développement de nouvelles stratégies antivirales incluant des inhibiteurs de protéases, de nouveaux analogues nucléosidiques mais aussi la vaccinothérapie spécifique dont les premiers essais débutent. Parallèlement à ces stratégies antivirales, des stratégies antifibrosantes permettent d'espérer, même en l'absence d'efficacité antivirale durable, de stabiliser ou mieux de diminuer la fibrose. AP : http://fr.news.yahoo.com/020207/5/2h83x.html
|
|
|
|
|
|
|
|
Le Dr Donald Louria, 73 ans, n'est pas un illuminé. Depuis 1970, il consacre son activité à la médecine préventive. Diplômé de Harvard, il a mis au point, il y a plus de trente ans, le « Healthful Life Program », bréviaire de la forme physique comprenant 17 tests (dont la mammographie, la mesure régulière de la tension artérielle, la mesure du taux de cholestérol, des examens d'ostéodensimétrie, de recherche du cancer colo-rectal et du glaucome, des recommandations sur le poids, le tabagisme et l'alcoolisme. Pendant 30 ans, le Dr Louria a dirigé le département de médecine préventive de l'université du New Jersey à Newark. Il a exigé et obtenu que son « Healthful Life Program » soit mis en oeuvre par les HMO (Health Maintenance organizations) dans le New Jersey. La loi a été adoptée par l'Etat, mais les HMO traînent dans l'application des mesures préventives. Il veut néanmoins en faire une loi nationale. Il a participé aux travaux de recherche sur un vaccin anti-SIDA en étudiant plus particulièrement le cas des femmes africaines qui ne sont jamais contaminées par le virus en dépit de comportements à très haut risque. Bref, le Dr Louria consacre son existence à prolonger celle de ses compatriotes. Il n'en publie pas moins, dans une revue, « The Futurist » un article qui soulève un vaste débat aux Etats-Unis. Dans cet article, il s'inquiète des progrès de la génétique, des progrès, dit-il, qui risquent « d'ouvrir la boîte de Pandore » : dès lors qu'on est en mesure d'agir sur les gènes qui programment la durée d'une vie humaine, on pourra la prolonger au-delà du raisonnable. Le Dr Nouria parle d'une espérance de vie qui, dans les pays industrialisés, « pourrait atteindre entre 120 et 180 ans ». Ce qui multiplierait par cinq le nombre d'habitants de la planète entre le XXIIe et le XXIIIe siècle. Situation forcément intolérable puisque les ressources du monde ne suffiraient plus. « A un moment donné, écrit-il dans "The Futurist", le nombre d'humains sera si élevé qu'il rendra leur vie misérable et fera disparaître d'autres espèces ; nous sommes en train de semer les graines de notre propre destruction. » Avec des conséquences faciles à imaginer : des conflits au sujet de l'eau, de la nourriture et des ressources minérales, une pollution accablante, des épidémies dévastatrices, des déplacements de populations, une accélération du réchauffement de la planète et de la destruction des forêts tropicales. La thèse du Dr Louria est approuvée par certains, critiquée par d'autres. Le Dr Robert Butler, qui a fondé le National Institute of Aging en 1975 et dirige aujourd'hui l'International Longevity Center (ILC) à New York, déclare au « Quotidien » : « Nouria a raison. C'est d'ailleurs la raison pour laquelle nous avons fondé l'ILC. Il faut absolument étudier, de manière scientifique, les conséquences à long terme de la progression de l'espérance de vie. Et inclure dans cette étude les effets des manipulations génétiques. Quand on joue avec la nature, il vaut mieux savoir où l'on va. » Pour le Dr Butler, Nouria est d'autant plus crédible qu'il n'a cessé de travailler sur la qualité de vie en s'aidant de la médecine préventive. « Il a donné aux baby-boomers la clé d'une vie de très bonne qualité pendant les 20 dernières années de leur existence ; l'objectif n'est pas de vivre jusqu'à 100 ans ou plus, mais de bien vivre sa retraite. Et c'est pourquoi Nouria dénonce le risque d'une espérance de vie qui, au contraire, ruinerait la qualité de vie des vieux comme des jeunes. » Mais beaucoup d'experts rejettent l'hypothèse d'une durée de vie de 120 ans ou plus. Certes, Nouria s'est appuyé sur les progrès de l'espérance de vie, passée en un siècle de 49 à 76 ans pour les seuls Etats-Unis. Mais il est le premier à reconnaître que les manipulations génétiques sur la souris ne sont pas transposables à l'homme. Et beaucoup de spécialistes du vieillissement estiment que, même en tenant compte des progrès de la génétique, l'espérance de vie ne dépassera jamais les 110-120 ans dans les siècles à venir. « Il n'existe aucun fondement à la théorie selon laquelle les hommes atteindraient 180 ans en 2100 », dit au « Quotidien » le Dr Hubert Warner, du National Institute of Aging. Et les progrès de la génétique ne constituent qu'un des facteurs, pas forcément le plus important. Si la longévité progresse, ce sera davantage grâce à l'hygiène de vie, à la thérapie génique, aux antioxydants et à la recherche sur les cellules souches. La plupart de ces facteurs en sont au stade de la recherche et n'ont aucune application thérapeutique courante. Pour le moment et pour ce qu'on en sait à l'heure actuelle, ce sont de merveilleux instruments pour améliorer la qualité de vie. Et il ne faut pas y renoncer au nom d'une hypothèse catastrophique que ne soutient aucun travail scientifique. » Quotimed : http://www.quotimed.com/information/index.cfm?
|
|
^ Haut |
|
|
|
|
|
|
|
Recherche |
|
|
Recherche & Innovation, Technologies, Transports
|
|
|
|
|
|
|
|
|
Quarante ans après le début de la conception de Concorde, l'unique supersonique de transport civil, les défis à affronter pour assurer une relève sont redoutables, tandis que le marché reste insaisissable. Relancée en 1999, la dynamique de recherche sur le supersonique, qui occupe en France quelque 60 laboratoires et des réseaux en liaison avec les industriels, restera soutenue, mais il est trop tôt pour dire quand et sous quelle forme Concorde aura un successeur. Depuis Concorde, les contraintes, principalement d'environnement et de coûts, se sont accentuées, ont souligné les experts réunis mercredi et jeudi à Paris sur le thème du supersonique de demain. "Pour concevoir un avion civil supersonique, il n'est pas possible d'extrapoler à partir d'un avion récent, il faut anticiper les réglementations sur les nuisances, dont le bang sonique", a expliqué Alain Dervieux, de l'INRIA (Institut national de recherche en informatique et automatique). "Le futur supersonique ne devrait pas se concrétiser avant l'horizon 2020/2025, il y a encore des incertitudes sur la conception à retenir, il y a deux avant-projets en Europe pour un gros avion de transport de 350 tonnes et pour un avion d'affaires, et un projet aux Etats-Unis, mais pas de certitudes. Il nous faut mieux structurer la recherche publique pour des coopérations plus efficaces. Car les futurs projets ne peuvent qu'être internationaux", selon Denis Jeandel, expert. "Il ne s'agit pas de faire une version améliorée de Concorde", explique à l'AFP Jean-Jacques Mirat, d'Airbus. "Les niveaux de bruit de Concorde ne seront pas acceptables pour un avion du futur. Nous travaillons à la définition d'un avion qui sera véritablement +autre chose+. Nous avions étudié un cahier des charges pour un avion de Mach 2, mais la nuisance sonore aurait été inacceptable. A présent, on balaie tout, on étend les investigations à d'autres cahiers des charges, d'autres configurations de moteurs, etc...". Après l'avion géant A-380, qui mobilisera Airbus jusqu'en 2006, Airbus se focalisera sur un autre critère essentiel, la vitesse, et travaille sur l'avant-projet de supersonique. "Mais nous n'en parlons pas, contrairement à Boeing et son Sonic Cruiser, dont les premières livraisons sont promises en 2008, comme d'un projet avancé", poursuit M. Mirat. "Le marché du supersonique est encore difficile à cerner, et il ne nous parait pas être nécessairement l'option sur laquelle il faut se focaliser sur le moment", ajoute-t-il. "Nous réfléchissons à l'horizon de la prochaine décennie, renchérit Michel Rigault, de chez Dassault, où l'on a dans les cartons un projet de supersonique d'affaires de 30/40 tonnes. Handicap majeur, il n'existe au monde "aucun moteur" susceptible de l'équiper et qui satisferait aux exigences de cahier des charges. Depuis 95, une tendance à la diminution de la vitesse se dessine. "On réfléchissait à des vitesses de 2,2 ou 2,4 Mach, aujourd'hui on parle plus de 1,6 Mach, une façon de diminuer les difficultés et d'intégrer le facteur coût" (du combustible), constate un analyste du secteur. Seul point d'accord: le bien-fondé des efforts de recherche compte tenu des perspectives de croissance du transport aérien. Le nombre des liaisons long courrier a doublé depuis 1970, et ce trafic est majoritaire sur les routes transocéaniques. D'autre part, la vitesse diminue l'encombrement de l'espace aérien (temps de vol réduit, altitude plus élevée). Mais le défi reste celui de la viabilité économique: il touche à la surcharge tarifaire que le passager est prêt à supporter, aux coûts opérationnels pour les compagnies, et aux bénéfices que les constructeurs attendent. AFP : http://fr.news.yahoo.com/020208/202/2h9i5.html
|
|
^ Haut |
|
|
|
|
|
VOTRE INSCRIPTION |
|
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
|
|
|
|
|
|