RTFlash

RTFLASH Recherche & Technologie
NUMERO 258
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 26 Septembre 2003
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
L'élevage européen entre dans l'ère informatique
Le Parlement européen approuve la brevetabilité des logiciels
Sony va lancer un tuner TV pour téléphones portables
Des réseaux sans fils pour connecter PC, chaîne hi-fi et télé
Le rapport de Jean-Paul Charié présente 25 projets pour pousser les PME vers le numérique
Fracture numérique : l'âge serait plus déterminant que l'origine sociale
Avenir
Le CEA construit plus grand laser du monde
Matière
Intel dévoile les puces du futur
Sun annonce une accélération des échanges de données entre puces
Intel veut porter l'autonomie d'un ordinateur portable à un jour
Espace
Confirmation de l'expansion accélérée de l'Univers
Terre
Canicules "cinq fois plus nombreuses" en France dans quelques décennies
Rupture de la plus grosse plate-forme glaciaire de la région arctique
L'été le plus chaud depuis 500 ans
Vivant
Maladie d'Alzheimer: plus de la moitié des malades ne sont pas diagnostiqués
Le risque anesthésique en nette diminution
Identification d'un gène responsable des accidents vasculaire cérébraux
Cancer de la prostate : baisse historique aux USA
Un vaccin à l'essai contre le cancer du pancréas
Les européens trop inégaux face au cancer
Découverte d'un mécanisme de réponse des plantes aux inondations
Edito
De la consommation à la santé, les puces-radio vont envahir notre vie quotidienne



Le premier symposium EPC, qui marque le lancement officiel de l'Electronic Product Code Network, s'est ouvert le 16 septembre à Chicago.A cette occasion, le géant américain Verisign a présenté la première interface opérationnelle du réseau EPC, qui permettra à terme un suivi complet et en temps réel de chaque produit de sa fabrication à sa consommation finale. Ce système, qui prépare l'ère "après code barre", va permettre de suivre la trace de tous les produits équipés de puces RFID (Radio Frequency IDentification), ces étiquettes "intelligentes" à identifiant unique qui émettent des informations par ondes radio. Dans un laboratoire du Massachusetts, le Centre Auto ID, les plus grands entreprises américaines des secteurs de l'alimentation et de la distribution travaillent déjà sur le remplacement des codes-barres par les étiquettes intelligentes. Grâce à ces étiquettes, qui utilisent la technologie des puces-radio, il deviendra possible de connaître à tout moment le nombre et la position d'un article ou produit dans la chaîne de production. Il en résulterait un gain de temps pour les entreprises qui pourrait aller jusqu'à 40 %. Ces puces ont une taille inférieure à celle d'un grain de riz. Comme elles ne contiennent pas de source d'alimentation, elles ne sont, pour le moment, fonctionnelles que dans un rayon de moins de 1,50 mètre environ d'un récepteur. La technologie est opérationnelle mais il reste la question du coût : pas question en effet de dépasser les 5 centimes d'euros par étiquette pour rester rentable. Mais les avantages de ces étiquettes intelligentes ne s'arrêtent pas là. On peut en effet imaginer qu'elles pourraient permettre de supprimer les files d'attente aux caisses des supermarchés. Le contenu du chariot serait tout simplement scanné à la sortie du magasin et débité du compte du client. Une fois arrivé chez lui avec ses produits "intelligents", le consommateur pourrait en outre disposer d'informations, par l'intermédiaire de son frigo et de son micro-onde, sur la composition du produit, ses modes de cuisson et de conservation. Comme le souligne avec enthousiasme Kevin Ashton, directeur exécutif de l'Auto-Id Center, «depuis 50 ans, les ordinateurs dépendent des êtres humains pour obtenir de l'information. Cela va bientôt changer. Les ordinateurs seront désormais capables de sentir l'information autour d'eux, pour la première fois.» Pour Paul Saffo, directeur de l'Institute for the Future, un institut californien spécialisé dans les scénarios du futur, cette évolution vers une omniprésence des "puces" dans la vie de tous les jours va avoir un effet comparable à l'impact de l'arrivée des ordinateurs personnels dans les années 1980 ou d'Internet la décennie suivante. "Nous sommes au milieu d'un changement sur dix ans", a déclaré Paul Saffo lors d'un symposium international sur les semi-conducteurs organisé à Pebble Beach, en Californie. "Tous les dix ans, une nouvelle technologie apparaît et oriente la demande". A terme, ces puces-radio et autres capteurs intelligents devraient en effet révolutionner tous les domaines de notre vie quotidienne, comme les transports ou la santé. La société Gillette a annoncé au début de l'année que 500 millions de rasoirs de sa gamme Match 3 seraient équipés de microcomposants capables d'émettre des données et d'identifier individuellement chaque produit. Le fabricant italien de vêtements Benetton envisage également d'intégrer dans tous ses articles une micro-puce RFID. Michelin a prévu pour sa part d'implanter des puces dans chacune de ses roues pour transmettre des informations sur leur état (pression, usure...) par fréquence radio à l'ordinateur de bord. En matière de santé, ces puces-radio vont permettre une surveillance médicale et une prévention personnalisée et en temps réel des personnes. Aux Etats-Unis, on peut déjà acheter des tee-shirts électroniques capables de recueillir et de transmettre les données biologiques du porteur. En France, le laboratoire grenoblois TIM-C vise l'immense marché de la télémédecine pour les personnes âgées et développe un gilet intelligent capable de prévenir le médecin en cas de ralentissement ou d'accélération anormale du rythme cardiaque. Enfin, la puce implantable, qui relevait il y encore quelques années de la science-fiction, est en train de devenir réalité. La société américaine Applied Digital Solutions (ADS) commercialise déjà Verichip, une puce d'un cm de long qui s'implante sous le bras (voir article dans notre lettre 193 http://www.tregouet.org/lettres/rtflashmail.asp?theLettre=213#art2757). Il suffit alors de placer son bras sous un scanner dédié à cet effet et le médecin peut alors récupérer en une fraction de seconde tout le dossier médical du patient et gagner ainsi un temps précieux en cas d'accident ou de malaise. Il reste cependant à veiller à ce que cette nouvelle technologie prometteuse ne puisse pas porter atteinte à la vie privée des individus en transmettant à leur insu des informations les concernant. Sur ce point capital, les craintes sont loin d'être dissipées mais des solutions techniques sont à l'étude et devraient permettre d'informer automatiquement le consommateur de la présence de ces puces.

D'ici la fin de cette décennie, il est probable que cette nouvelle technologie, presque invisible et peu coûteuse, sera présente dans tous les objets de notre vie quotidienne et rendra, sans même que nous nous en apercevions, leur usage plus agréable, plus facile et plus sûr.

René TRÉGOUËT

Sénateur du Rhône


TIC
Information et Communication
L'élevage européen entre dans l'ère informatique
Samedi, 27/09/2003 - 00:00

Grâce au programme Idea (Identification électronique des animaux), l'ensemble du cheptel européen devrait être équipé de puce électroniques contenant l'historique et les caractéristiques de chaque animal. La première phase de cette expérience de marquage électronique a concerné plus d'un million de bovins, ovins et caprins et s'est déroulée de 1998 à 2001 dans 6 pays de l'Union (France, Allemagne, Italie, Pays Bas Espagne et Portugal). Les résultats ayant été concluants l'expérience devrait être étendue à tout le cheptel européen d'ici 2006. Cette généralisation de l'identification électronique intéresse au plus haut point les filières de qualité et les autorités sanitaires car elle permet une traçabilité totale et complète des animaux à l'échelle de toute l'Union européenne. Mais pour l'instant ce projet suscite encore des réserves chez les éleveurs, notamment en raison du coût de la boucle à) puce qui coûte entre 1,5 et 2 euros, trois fois plus cher que le badge en plastique traditionnel utilisé actuellement pour l'identification. En outre, la Commission a voulu imposer aux éleveurs français les "bolus", une grosse gélule qui contient électronique et que l'on fait avaler à l'animal. Mais les éleveurs français, habitués au badge en plastique fixé sur l'oreille de l'animal, préfèrent la boucle électronique. Libération : http://www.liberation.fr/

Le Parlement européen approuve la brevetabilité des logiciels
Samedi, 27/09/2003 - 00:00

Le parlement européen a approuvé mercredi le projet de directive très contesté sur la brevetabilité des inventions logicielles, après l'avoir amendé pour limiter son champ d'application aux "véritables inventions" ayant une portée technique. Le texte, présenté en première lecture, a été approuvé par 364 voix, contre 153 et 33 abstentions. Il précise la proposition de la Commission européenne, qui établit une distinction entre les logiciels purs, réputés non brevetables en droit européen, et les "inventions mises en oeuvre par ordinateur", qui le deviendraient, à condition de présenter une avancée technique, susceptible de recevoir une application industrielle. Le texte d'origine était jugé "flou" et "ambigu" par bon nombre de parlementaires qui craignaient qu'il n'ouvre trop largement la voie à la prise de brevets sur les logiciels, au risque de constituer un frein à l"innovation dans ce domaine clé de l'économie. Les eurodéputés ont ajouté un paragraphe précisant qu'une "invention mise en oeuvre par ordinateur (un logiciel) n'est pas considérée comme apportant une contribution technique uniquement parce qu'elle implique l'utilisation d'un ordinateur". En clair, pour qu'un programme informatique soit brevetable, il ne suffit pas qu'il soit nouveau, il faut encore qu'il permette une innovation technique indépendamment de sa propre exécution. Un autre amendement précise que l'utilisation d'une technique brevetée n'est pas considérée comme une contrefaçon si elle est nécessaire pour assurer la communication entre différents systèmes ou réseaux informatiques. Il s'agit pour les eurodéputés d'empêcher le monopole que pourraient exercer certains géants du logiciel sur les réseaux informatiques, Microsoft n'étant pas nommé mais probablement visé. Le parlement européen étant colégislateur dans ce domaine qui relève du marché intérieur, le texte doit maintenant être examiné par le Conseil des ministres, avant de revenir en seconde lecture à Strasbourg.

Parlement européen : http://www2.europarl.eu.

Sony va lancer un tuner TV pour téléphones portables
Samedi, 27/09/2003 - 00:00

Le groupe japonais d'électronique Sony a annoncé mercredi le lancement en décembre d'un tuner TV miniature pour terminaux mobiles, qui permettra de regarder la télévision sur l'écran des téléphones portables. Cette puce électronique, plus petite qu'un timbre-poste, fonctionne aussi bien sur les téléphones portables que sur les assistants personnels, précise Sony. Le numéro un mondial de l'électronique grand public estime que ce tuner TV est le plus petit module de ce type sur le marché, ainsi que celui qui consomme le moins d'énergie. Le Japon prévoit de lancer la télévision numérique terrestre (TNT) dans certaines régions du pays d'ici la fin de l'année, et d'émettre un signal spécialement conçu pour les terminaux mobiles en 2005. Le tuner TV sera vendu 50.000 yens (390 euros), et Sony s'attend à une forte demande de la part des fabricants de terminaux, qui pourront s'en servir pour développer de nouveaux produits, a déclaré un porte-parole de Sony. A la fois petit et économe, le module de Sony semble avoir résolu les deux obstacles majeurs qui empêchaient l'apparition de téléphones portables équipés d'une fonction téléviseur: la durée de vie des batteries et le poids. NEC, premier fabricant japonais de téléphones portables, a dévoilé en juillet un prototype de portable permettant de regarder des émissions télévisées, et a déclaré que le lancement commercial était prévu en 2005. NEC a ajouté que ce modèle serait facturé 6.000 à 7.000 yens (47 à 55 euros) de plus que les modèles traditionnels.

Reuters : http://fr.news.yahoo.com/030924/85/3et3c.html

Des réseaux sans fils pour connecter PC, chaîne hi-fi et télé
Samedi, 27/09/2003 - 00:00

Les fabricants d'électronique pensent avoir trouvé une nouvelle mine d'or: les réseaux sans fil pour les particuliers qui permettent de relier ordinateur, téléviseur et chaîne hi-fi grâce à la technologie Wi-Fi. "De plus en plus d'appareils deviennent numériques et peuvent donc être reliés à un ordinateur", explique Jason Chen, un responsable du marketing chez Intel, le géant des semi-conducteurs. "Les PC entre eux, les PC et les appareils numériques, tous peuvent être reliés par Wi-Fi", ajoute-t-il. Le Wi-Fi existe depuis plusieurs années mais il n'a pris son envol qu'en mars dernier lorsque Intel a lancé son processeur Centrino qui intègre cette technologie. Au salon Computex de Taiwan cette semaine, les ordinateurs construits autour du Centrino étaient au centre de toutes les attentions. Les constructeurs taiwanais fabriquent à eux seuls environ 70% des portables vendus dans le monde. Intel a mis en avant un lecteur de DVD du constructeur américain Gateway, qui, grâce à une puce Intel, transforme le lecteur en "hub" Wi-Fi, c'est à dire en point central d'un réseau sans fil sur lequel tous les autres appareils peuvent se connecter. Ce lecteur DVD, en vente aux Etats-Unis au prix de 250 dollars (environ 220 euros), permet de lire de la musique, des photos et des vidéos à partir d'un PC situé dans le bureau de la maison sur une chaîne hi-fi ou un téléviseur situés dans le salon. Dans le même esprit, Sony a lancé un téléviseur à écran plat qui utilise le Wi-Fi pour transmettre les images à d'autres téléviseurs dans la maison. "L'idée que nous avons, mais qui n'est pas pour tout de suite, est que dans l'avenir il y aura des réseaux sans-fil dans la maison pour relier les différents appareils entre-eux", explique Craig Barratt, directeur général de Atheros Communications, qui fournit à Sony les puces Wi-Fi pour son téléviseur. Pour l'instant, les produits présentés sont éloignés de cet horizon: le lecteur DVD de Gateway ne permet pas d'utiliser les logiciels installés sur le PC à partir du téléviseur. Quant au téléviseur Sony, il ne se met pas en réseau avec les autres produits Wi-Fi. Un des obstacles est l'absence de protocole de communication standard pour relier les équipements Wi-Fi entre eux, alors qu'ils se connectent tous facilement à un PC. Un consortium composé de constructeurs de puces, d'ordinateurs, et de produits électroniques a donc décidé de s'unir pour définir un tel standard. "Les règles de ce groupe de travail seront publiées cette année", assure Jason Chen. Les entreprises ont tout à gagner d'une harmonisation des standards. Le chiffre d'affaires global du Wi-Fi a atteint 608 millions de dollars au deuxième trimestre, selon Infonetics Research, et pourrait monter à 3,2 milliards de dollars en 2006. Intel et Texas Instruments pensent même à concevoir des puces Wi-Fi pour téléphones portables, qui pourraient alors se connecter à un réseau d'entreprise pour accéder à des services internes comme la messagerie. Le directeur général de Texas Instruments, Tom Engibous, estime que les appareils portables utilisant une liaison sans fil permanente pourraient provoquer la plus grande hausse du marché de l'électronique depuis l'invention de l'ordinateur personnel.

Reuters : http://fr.news.yahoo.com/030925/85/3ewss.html

Le rapport de Jean-Paul Charié présente 25 projets pour pousser les PME vers le numérique
Samedi, 27/09/2003 - 00:00

Le député Jean-Paul Charié a présenté mardi au Premier ministre un rapport présentant 25 projets pour "convaincre les PME de s'approprier les usages du numérique". Soulignant que "les PME françaises sont en danger" si elles n'adoptent pas les technologies numériques, le député estime, à l'issue d'une mission de six mois, que "deux causes principales entravent la réussite" des entreprises : d'une part, "les administrations, collectivités et partenaires agissent chacun de leur côté sans cohérence, ni stratégie collective", d'autre part, "l'information ne s'échange pas, d'où des pertes d'énergie et sources de lassitude". Constatant que "les démarches publiques négligent la communication de proximité, la sensibilisation et mobilisation des entrepreneurs", et que "les bénéficiaires sont mal informés des politiques mises en place à leur profit", Jean-Paul Charié a présenté 25 projets de développement de la compétitivité des PME, qui sont soutenus par plus de 200 partenaires (organisations professionnelles, administrations, collectivités territoriales, prestataires). Parmi ces projets, le député recommande des mesures d'assistance dans les PME avec des "emplois jeunes PME championnes" et des prestataires techniques par bassins d'emplois. Il préconise également la "valorisation des centres locaux d'accueil", et la "formation des agents multiplicateurs pour constituer ou enrichir les réseaux, sortir les PME de leur isolement, et les sensibiliser aux bonnes pratiques". Ces mesures, qui pourraient concerner 248.000 PME qui emploient 1.710.000 personnes, devraient éviter aux hôtels-restaurants de perdre des clients faute de possibilités de réservation par internet, aux garages de ne plus pouvoir réparer faute de savoir lire l'informatique embarquée dans les voitures, à la presse de s'appauvrir avec des gestions aberrantes de la diffusion entraînant 40% d'invendus, et aux artisans de ne pas disposer des outils leur permettant de répondre vite aux demandes de devis.M. Charié va être nommé, a précisé Matignon, à la présidence d'un comité stratégique créé au sein de la Mission pour l'économie numérique et chargé de diffuser les nouvelles technologies dans les PME et de définir un nouveau dispositif associant territoires, entreprises et Etat.

Rapport Charié :

http://www.competitivite-numerique.com/clients/compnum/sitewebv2.nsf/0a24aa0bee9...

Fracture numérique : l'âge serait plus déterminant que l'origine sociale
Samedi, 27/09/2003 - 00:00

L'âge, bien plus que l'origine sociale, est à l'origine de ce que l'on a appelé la "fracture numérique", estime une étude sur les internautes en Grande-Bretagne. Selon cette étude conduite par l'Internet Institute de l'Université d'Oxford et publiée le 18 septembre, 98 % des étudiants britanniques et 67 % des actifs utilisent régulièrement internet, contre seulement 22 % des retraités. Sur l'ensemble de la population anglaise, 59 % se connectent régulièrement sur le Net et 4 % n'ont jamais surfé. "Tous les jeunes, qu'ils soient cultivés ou non, forts en maths ou non, semblent capables d'utiliser internet", peut-on lire dans l'étude qui met en question le concept de "fracture numérique", une expression utilisée pour désigner le risque d'une appropriation d'internet par les riches, accroissant encore plus les inégalités sociales. Selon le professeur Richard Rose, directeur de l'étude qui a porté sur 2.030 Britanniques âgés de plus de 14 ans, l'idée d'une inégalité liée à l'origine sociale est fausse."Tout dépend de l'âge. Ce n'est pas tellement une question de classe sociale", affirme-t-il. Cette conclusion serait valable en Europe de l'Ouest comme dans les pays en développement. Ainsi, les Russes âgés de moins de 30 ans sont dix fois plus nombreux à utiliser fréquemment internet que les Russes de plus de 60 ans. Les rédacteurs de l'enquête estiment qu'internet joue déjà un rôle fondamental dans la vie des jeunes des pays riches, pour qui cet outil pourrait devenir aussi familier que la télévision.

BBC : http://news.bbc.co.uk/2/hi/technology/3121950.stm

^ Haut
Avenir
Nanotechnologies et Robotique
Le CEA construit plus grand laser du monde
Samedi, 27/09/2003 - 00:00

Le CEA a entamé à proximité du bassin d'Arcahon, en Gironde, le gigantesque chantier du LMJ (laser megajoule) qui, pour un investissement de 1,2 milliard d'euros sur 15 ans, deviendra à la fin de la décennie le laser le plus puissant au monde.Le LMJ qui permettra d'étudier en laboratoire les processus physiques intervenant dans l'étape finale du fonctionnement d'une arme nucléaire, est l'un des outils-phares du pôle défense du CEA sur lequel se fonde la politique française de dissuasion. Le futur LMJ, sur le site du CESTA (centre d'études scientifiques et techniques d'Aquitaine) sera hébergé dans une salle de plus de 300 mètres, où tiendrait une Tour Eiffel couchée... Elle sera occupée par 30 chaînes laser de chacune 8 faisceaux, soit 240 faisceaux en tout qui concentreront leur énergie sur une microbille de quelques millimètres. Les dimensions du dispositif ont été calculées pour que les faisceaux puissent délivrer, en quelques milliardièmes de seconde, une énergie de 1,8 MJ dans une cavité contenant une minuscule capsule de deutérium et de tritium. Une quantité suffisante pour provoquer la fusion de ces deux isotopes d'hydrogène et obtenir 10 fois plus d'énergie que le laser n'en aura apporté. "La prouesse n'est pas de produire une énergie de 1,8 MJ, ce qui représente 430 kcal (ou l'équivalent de l'énergie contenue dans dix pots de yaourts à 0%) mais de la déposer de façon très spécifique, sur la microbille", explique Serge Durand directeur du CESTA. "Son utilisation par des chercheurs du civil devrait représenter environ 20% du total", selon Serge Durand, qui cite des applications potentielles variées: "physique des lasers, astrophysique, géophysique, physique des conditions extrêmes". Tout comme le LMJ, le supercalculateur Tera (cinq mille milliards d'opérations par seconde) installé en Ile de France, a vocation à servir également la recherche civile. Les deux outils ont été développés dans le cadre du programme Simulation, mené par la direction des applications militaires (DAM) du CEA, qui selon son directeur Alain Delphuech, "représente un effort financier de 5,1 milliards d'euros sur 15 ans". "Le niveau de prédiction des modèles doit pouvoir compenser l'absence des essais qui seuls permettaient des validations en vraie grandeur", souligne François Robin, responsable du projet Tera. Dans le cadre de l'ouverture à la communauté des chercheurs, Tera a déjà fait gagner un temps précieux aux bioinformaticiens, engagés notamment dans le décryptage de génomes. Et dans le domaine des sciences de la Terre, Tera est par exemple utilisé pour calculer les conséquences des ondes sismiques sur la géologie.

CEA : http://www-lmj.cea.fr/html/fr_tour01.htm

^ Haut
Matière
Matière et Energie
Intel dévoile les puces du futur
Samedi, 27/09/2003 - 00:00

Le fabricant américain de microprocesseurs Intel lancera dans les prochaines années deux nouveaux modèles comprenant deux processus, voire plus, et un autre dépassant le milliard de transistors, a annoncé mardi soir son président, Paul Otellini, lors d'un discours devant l'Intel Developer Forum. Le numéro un mondial des microprocesseurs lancera d'ici deux à trois ans son processeur "Tulsa", un Pentium Xeon 32-bits doté pour la première fois de deux noyaux, puis en 2005 le "Tanglewood", sur base d'Itanium 64-bits, le plus puissant processeur actuel, qui comprendra plusieurs noyaux. Une autre version de l'Itanium, développée sous le nom de code "Montecito", sera le premier processeur au monde comportant plus d'un milliard de transistors. Il devrait entrer en production en 2005, a précisé Otellini. Otellini a également donné des détails sur plusieurs technologies de fabrication de puces qui permettront à Intel de diminuer la taille des circuits et l'espace entre les transistors afin d'en augmenter le nombre sur un même espace. Il a présenté pour la première fois en public une tranche de silicium gravée avec une finesse de 65 nanomètres, environ 2.000 fois moins que l'épaisseur d'un cheveu, une technologie qui deviendra courante en 2005. Intel est sur le point de produire des processeurs gravés à 90 nanomètres, la norme actuelle de l'industrie électronique étant de 130 nanomètres (milliardième de mètre). Intel prévoit de passer à 45 nanomètres en 2007, 32 nanomètres en 2009, puis 22 nanomètres en 2011, ce qui permettra de réduire l'espace entre les transistors à une dimension inférieure à celle d'une molécule d'ADN. Otellini a présenté deux technologies logicielles destinées à améliorer la sécurité et la performance des futurs processeurs. La technologie de sécurité désignée sous le nom de code de "LaGrande", développée par Intel en collaboration avec Microsoft, IBM et HP, entre autres, vise d'ici deux à trois ans à protéger contre tout dommage certaines données sauvegardées. La technologie Vanderpool, prévue dans les cinq prochaines années, permettra de répartir l'activité d'un processeur comme s'il travaillait sur deux machines différentes. Otellini a effectué une démonstration pendant laquelle il regardait une émission télévisée retransmise sur un téléviseur par l'ordinateur pendant qu'une autre personne faisait tourner un jeu vidéo sur le même PC. Paul Otellini a commenté plusieurs aspects du marché informatique, mettant l'accent sur l'essor des produits mobiles sans fil et le développement du marché chinois. Il a prédit qu'il y aurait dans le monde en 2010 environ 2,5 milliards d'ordinateurs de poche et 1,5 milliard de PC connectés à internet à haut débit. Il a estimé que la Chine, aujourd'hui premier marché mondial pour les téléphones, la télévision par câble et les téléphones mobiles, mais au quatrième rang pour les ordinateurs, prendrait également la première place sur ce secteur d'ici 2010. La croissance des réseaux informatiques sans fil s'avère phénoménale, a-t-il affirmé. Le nombre de points d'accès publics sans fil ("hotspots") devrait passer de 50.000 à 80.000 l'année prochaine et le nombre total de points d'accès s'élève à environ 12,7 millions, avec un nouveau point installé toutes les quatre secondes en moyenne.

Intel :

http://www.intel.com/pressroom/archive/releases/20030916corp.htm?

Sun annonce une accélération des échanges de données entre puces
Samedi, 27/09/2003 - 00:00

Les chercheurs du groupe informatique Sun Microsystems vont annoncer mardi qu'ils ont découvert un moyen d'augmenter de manière spectaculaire la vitesse à laquelle les semiconducteurs communiquent pour s'échanger des données. En plaçant les semiconducteurs l'un contre l'autre, en contact physique, Sun affirme être capable de faire transiter des informations directement de puce à puce, sans l'intermédiaire des minuscules fils de cuivres, blocs et soudures qui forment les circuits de communications imprimés sur les cartes composant les systèmes informatiques. Cette avancée technologique, qui sera présentée mardi lors d'une conférence sur les circuits intégrés à San José, en Californie, pourrait permettre de transférer des données entre les puces jusqu'à cent fois plus vite qu'avec les circuits intégrés traditionnels. "Ca va plus vite, c'est moins cher, et ça consomme moins d'énergie", a déclaré à Reuters John Gustafson, chargé d'évaluer les systèmes informatiques à hautes performances chez Sun. Cette technologie pourrait également permettre de résoudre l'un des plus vieux problèmes des fabricants de semiconducteurs: les "goulots d'étranglement" provoqués par le fait que les performances des puces ont augmenté beaucoup plus rapidement que celles des circuits intégrés qui leur permettent de communiquer entre elles. Sun détient sept brevets relatifs à cette technique et va tenter de les exploiter commercialement, a ajouté un porte-parole du groupe. "C'est une technologie (de communication) de puce à puce", précise John Gustafson. "Ca marche avec les mémoires comme avec les processeurs." Il a refusé de se prononcer sur la date à laquelle des systèmes informatiques complets dotés de cette technologie seront opérationnels, mais a déclaré qu'il prévoyait le lancement des premières applications commerciales "avant cinq ans".

Reuters : http://fr.news.yahoo.com/030923/85/3er01.html

Intel veut porter l'autonomie d'un ordinateur portable à un jour
Samedi, 27/09/2003 - 00:00

Intel, premier fabricant mondial de semi-conducteurs, table sur l'amélioration des capacités de sa puce Centrino pour permettre d'ici cinq ans d'utiliser les ordinateurs portables toute une journée sans avoir à en recharger la batterie. Les ordinateurs portables disposent en général d'une autonomie maximale inférieure à cinq heures. David Perlmutter, directeur général de la branche Mobile Platforms Group d'Intel, disait mardi à Reuters avoir utilisé l'un de ces modèles "économiques" durant cinq heures, ajoutant qu'il estimait que cette durée n'était selon lui pas encore suffisante. "Nous progresserons d'une heure (d'autonomie) l'année prochaine. Les vrais progrès notables interviendront lorsque nous produirons des ordinateurs portables qui fonctionnent sept ou huit heures en ne les chargeant qu'une seule fois. Un ou deux modèles seront capables de cela l'an prochain, mais pour la plupart il faudra encore quelques années", a expliqué le responsable de la filiale responsable des puces Centrino pour ordinateurs portables, par téléphone, en marge d'un salon londonien sur les produits mobiles. Les puces Centrino, auxquelles sont consacrées 300 millions de dollars de dépenses marketing, sont destinées à devenir pour les ordinateurs portables ce que sont les microprocesseurs Intel Pentium pour les ordinateurs de bureaux. Six mois après leur lancement, Intel a dévoilé la semaine dernière une nouvelle génération de Centrino, présentée comme un jeu de composants Wi-Fi permettant d'accéder à des réseaux professionnels, domestiques ou publics sans fil et dans un court rayon d'action. "Centrino ne sera pas juste l'événement d'un jour. Nous allons l'améliorer en permanence. Elle est là pour durer", a déclaré Perlmutter, faisant part de sa confiance dans l'avenir de la norme de communication Wi-Fi. Plus de 130 modèles d'ordinateurs équipés de ce jeu de composants seront commercialisés cette année, a-t-il argumenté.

Reuters : http://fr.news.yahoo.com/030923/85/3escc.html

^ Haut
Espace
Espace et Cosmologie
Confirmation de l'expansion accélérée de l'Univers
Samedi, 27/09/2003 - 00:00

Onze nouvelles supernovae très éloignées, de type Ia, ont été observées avec le télescope spatial Hubble, entre 1998 et 2000. Réalisées par le Supernova CosmologyProject (SCP) - une collaboration de recherche internationale regroupant les États-Unis, la France, la Suède, l'Angleterre, le Chili, le Japon et l'Espagne -, ces observations ont permis d'obtenir des résultats décisifs. Ceux-ci confirment notamment la présence dans le cosmos de cette mystérieuse « énergie noire » qui conduit l'Univers à être en expansion toujours plus rapide. Ils témoignent en outre de la pertinence des observations spatiales pour son étude. Ces nouvelles observations confortent les résultats annoncés en 1998 par le SCP et un groupe concurrent, le Hi-Z supernova Team. La découverte surprenante de ces deux études, basées sur des observations principalement effectuées depuis le sol, était que la luminosité des supernovae du type Ia très éloignées est plus petite que celle attendue dans un Univers sans accélération mais cohérente avec la présence d'une énergie d'accélération importante. Cela signifiait que l'Univers est en expansion accélérée sous l'action d'une énergie dite " noire ", présente dans tout l'espace. À l'époque, des critiques avaient été émises : cette perte de luminosité pouvait être due à la présence de poussières dans les galaxies hôtes qui, en quantité importante, absorbent et diffusent la lumière, diminuant d'autant la luminosité apparente des supernovae. Mais si tel est le cas, ces poussières doivent également affecter la " couleur " des supernovae, les faisant apparaître plus " rouges ", car l'absorption et la diffusion de la lumière, et donc son extinction, se fait préférentiellement dans le bleu, un phénomène parfaitement analogue au rougissement du ciel au coucher de soleil d'autant plus beau les jours de grande pollution. Réalisées depuis le sol, les observations d'alors ne permettaient pas de trancher... En revanche, n'étant pas affectées par l'atmosphère terrestre, les observations effectuées avec le télescope spatial Hubble fournissent des données bien plus précises. Elles permettent notamment de quantifier le degré d'extinction (en fonction de la longueur d'onde) de la lumière émise par une supernova, dû à la présence de poussières dans la galaxie hôte. Les résultats obtenus ont ainsi permis de lever toute ambiguïté : l'atténuation de la lumière ne peut pas être attribuée uniquement à l'extinction par la poussière de la galaxie hôte ; elle est bien due pour partie à la présence d'une énergie noire. Ces nouveaux résultats ont également permis d'obtenir des estimations plus précises de la densité relative de matière et d'énergie noire présentes dans l'Univers : 75 % de la densité de l'Univers serait de l'énergie noire.

CNRS : http://www2.cnrs.fr/presse/communique/264.htm?

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
Canicules "cinq fois plus nombreuses" en France dans quelques décennies
Samedi, 27/09/2003 - 00:00

Le président de Météo-France, Jean-Pierre Besson, estime dimanche que les canicules risquent d'être "cinq fois plus nombreuses" dans les décennies à venir qu'aujourd'hui en France et que les événements climatiques extrêmes vont se multiplier à l'échelle planétaire. Interrogé sur France-Inter sur ses prévisions à l'horizon 2050-2100, M. Besson relève qu'il y aura en France comme à l'échelle mondiale "une instabilité de l'atmosphère beaucoup plus grande qu'elle ne l'est" actuellement. "Il est en effet hautement probable qu'il y ait beaucoup plus d'événements météorologiques extrêmes que l'on en a aujourd'hui", ajoute-t-il dans une allusion aux tempêtes de 1999, aux inondations de 2001-2002 et à la canicule de l'été 2003. Les pics de canicule, tels que celui que nous avons connu cet été, pourraient être accrus d'un facteur cinq, être cinq fois plus nombreux qu'aujourd'hui". Le responsable de Météo-France estime que "les phénomènes météorologiques exceptionnels que nous voyons de plus en plus en tous les endroits du monde sont déjà la manifestation du changement climatique". Ce jugement ne fait pas l'objet d'un consensus au sein des experts de l'ONU sur le climat et relève "plus du domaine de la conviction que de la certitude", observe-t-il. La température moyenne à la surface du globe, rappelle-t-il dans une allusion aux rapports de ces experts, s'est déjà réchauffée de 0,6 à 0,8 degré depuis le début de l'ère industrielle. En France, le réchauffement a été "de l'ordre de un degré" en 100 ans, ce qui est "beaucoup", avec des disparités entre le nord du pays où le thermomètre "a peu bougé" et le sud où il a grimpé en moyenne "de 1,2-1,4 degré". "Il est clair que ce réchauffement (en France comme dans le monde, ndlr) est du pour l'essentiel à l'activité de l'homme" et qu'"il se poursuivra, quelles que soient les mesures prises par les politiques", souligne M. Besson. Le président de Météo-France rappelle les scénarios de l'ONU, selon laquelle la température moyenne à la surface du globe doit grimper de 1,4 à 5,8 degrés d'ici 2100 par rapport à 1990. En France, indique-t-il, une hausse de deux degrés "conduirait à ce que l'olivier remonte jusqu'à Lyon, la vigne jusqu'à Lille et le maïs jusqu'à Hambourg" en Allemagne du nord. "Le sud de la France serait d'un climat semi-aride du type Nord-Afrique et le nord conserverait un climat tempéré mais plus sévère" qu'aujourd'hui.

AFP : http://fr.news.yahoo.com/030921/202/3enct.html

Rupture de la plus grosse plate-forme glaciaire de la région arctique
Samedi, 27/09/2003 - 00:00

La plus importante plate-forme glaciaire de la région arctique, vieille de plus de 3.000 ans, s'est rompue, ont annoncé lundi des chercheurs américains et canadiens, une conséquence selon eux du réchauffement climatique à long terme débuté il y a plus d'un siècle au pôle nord.Les chercheurs, dont l'étude est publiée dans la revue Geophysical Research Letters d'octobre, ont expliqué que l'affaiblissement de cette barrière de glace s'est traduite par une rupture soudaine entre 2000 et 2002. La plate-forme s'est cassée en deux parties et s'est fissurée en de nombreux endroits. La rupture a provoqué la formation d'îles de glace, "certaines assez grandes pour mettre en danger les navires et plate-formes de forage dans la mer de Beaufort", écrivent les chercheurs Warwick Vincent et Derek Mueller de l'Université de Laval (Québec) ainsi que Martin Jeffries de l'Université de l'Alaska à Fairbanks. La plate-forme de Ward Hunt est située sur la côte nord de l'île de Ellesmere, dans le territoire canadien de Nunavut et fait partie de son parc national le plus au nord. Cette épaisse formation de glace flottant sur la mer a débuté sa formation il y a 4.500 ans et était en place depuis au moins 3.000 ans, selon les chercheurs qui étudient cette barrière de glace depuis plusieurs années, par des survols en hélicoptère et observations satellitaires. Une conséquence immédiate de la rupture a été la perte de l'eau douce d'un lac qui s'était formé derrière cette barrière de glace, affectant une grande variété d'espèces de plancton et d'autres organismes particuliers à cette région, selon les scientifiques. Ces derniers citent le réchauffement climatique comme cause de cette fracture avec des températures en hausse moyenne d'un demi degré celsius par décennie au cours des 60 dernières années et "un effet cumulé du réchauffement à long terme depuis le 19e siècle".

AFP : http://fr.news.yahoo.com/030923/202/3eqlj.html

L'été le plus chaud depuis 500 ans
Samedi, 27/09/2003 - 00:00

Selon deux études suisses, une de l'Université de Berne et l'autre de l'OcCC (Organisme consultatif pour le climat), l'Europe a connu cette année son été le plus chaud depuis au moins 500 ans, battant le précédent record qui datait de 1757. Selon l'historien du climat Christian Pfister, l'été 2003 a été le plus chaud depuis 1540, où le Rhin s'était rétrécit à la dimension d'un ruisseau. Mais contrairement à 1540, on ne peut pas considérer la canicule de cet été comme un cas isolé, soulignent les experts. En effet, ces 12 dernières années, aucun mois extrêmement froid n'a été enregistré avant la vague de chaleur, alors que cela avait été le cas en 1542 comme en 1947, où la température avait presque atteint celle de 1540. "A partir de là, il devient clair qu'un changement climatique fondamental s'est produit dans les années 1990", conclut Christian Pfister. La vague de chaleur, qui a fait des milliers de morts sur le continent, a vu le thermomètre dépasser de 1,9 degré la moyenne de 17,5 degrés qu'a connue l'Europe de 1901 à 1995, selon l'étude, qui porte sur la période allant du 1er juin au 31 août. Les écarts de températures les plus importants par rapport à la moyenne ont atteint cinq degrés en Europe centrale et dans les régions alpines. Sur 500 ans, la tendance au réchauffement des étés européens a été la plus marquée au cours des 26 dernières années. La France ainsi que l'Europe centrale et de l'Est ont connu sur ces 26 années un réchauffement supérieur à la moyenne européenne, avec des hausses comprises entre 2,8 et 4 degrés. Sur 500 ans, la décennie aux étés les plus chauds a été celle de 1994 à 2003. L'Europe a alors connu des températures estivales dépassant de 1,5 degré celles de la période 1907-1916, qui avait connu les étés les plus froids. "Il est très probable que l'activité humaine et les gaz à effet de serre sont à l'origine de cette tendance au réchauffement", estime Jürg Luterbacher, qui a dirigé l'étude de l'Université de Berne.

TF1 : http://www.tf1.fr/news/sciences/0,,1388563,00.html

OcCC :

http://www.occc.ch/press/Extremereignisse03/PDF_F/CommuniqueF.pdf

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Maladie d'Alzheimer: plus de la moitié des malades ne sont pas diagnostiqués
Samedi, 27/09/2003 - 00:00

Avec 135.000 nouveaux cas par an, le nombre de malades d'Alzheimer est aujourd'hui de près de 800.000 personnes, touchant une personne sur six au-delà de 85 ans. La Xe journée mondiale Alzheimer qui s'est tenue dimanche a été l'occasion de rappeler que plus de la moitié de ces malades ne sont pas diagnostiqués et que deux tiers d'entre eux ne sont pas traités. La maladie d'Alzheimer est une maladie neuro-dégénérative chronique, dont le premier symptôme se traduit le plus souvent par une perte de mémoire des faits récents. On ne connaît pas les causes de la maladie, ni comment la soigner, mais des traitements existent qui retardent son évolution, d'où l'importance du diagnostic précoce, une priorité que ne cessent de rappeler les spécialistes. Au cours de la maladie, certaines cellules cérébrales, les neurones, meurent et une accumulation anormale de certaines protéines est observée. Les médecins parlent de dégénérescence cérébrale ou de maladie neurodégénérative. La maladie d'Alzheimer n'est pas un phénomène de vieillissement accéléré, c'est une véritable maladie qui devient de plus en plus répandue avec le vieillissement de la population. Une gêne ou une difficulté dans la réalisation de certaines activités, notamment l'utilisation du téléphone, l'usage des moyens de transport, la prise de médicaments ou encore la gestion du budget au quotidien, doivent alerter l'entourage et le conduire à consulter.

AP : http://fr.news.yahoo.com/030919/5/3ek5u.html

Le risque anesthésique en nette diminution
Samedi, 27/09/2003 - 00:00

Voilà des résultats qui pourraient bouleverser la vie de ceux qui ont la phobie du bloc opératoire : le risque mortel lié à l'anesthésie a été divisé par 10 en vingt ans en France. Une enquête présentée hier lors des Journées nationales de la Société française d'anesthésie et réanimation (Sfar) vient de montrer que le taux d'accident mortel directement lié à l'anesthésie en France était en 1999 de un décès pour 145 000 anesthésies, alors qu'en 1983 il était de un pour 13 200 anesthésies. La réduction du risque anesthésique est observée pour toutes les tranches d'âge. La crainte de l'anesthésie est largement répandue depuis toujours et pas seulement pour des raisons fantasmatiques. En 1983, une première enquête nationale réalisée par l'Inserm avait évalué le risque anesthésique annuel sur la France entière. Ce travail avait mis en évidence des taux de mortalité loin d'être négligeables : un décès directement lié à l'anesthésie pour 13 000 opérations et un pour 3 800 indirectement liés à l'anesthésie (dû à l'état général du malade). Le nombre de décès par arrêt respiratoire au réveil était d'une centaine par an et représentait la première cause de mortalité anesthésique pour les personnes jeunes et en bonne santé. Les résultats de cette enquête ont abouti à un décret sur la sécurité anesthésique publié fin 1994. Celui-ci donnait en particulier un caractère réglementaire à des pratiques souhaitées par les professionnels : consultation pré-anesthésique, surveillance par des appareils mesurant l'oxygénation et le rejet de gaz carbonique, procédures de vérification et de maintenance du matériel, surveillance systématique des patients après l'intervention, dans une salle spécifique, dotée d'infirmières et de matériel. Quels ont été les bénéfices d'une telle réglementation ? Pour le savoir, la Société française d'anesthésie et réanimation a donc décidé de relancer une enquête nationale pour mesurer le chemin parcouru et mettre en évidence les problèmes nouveaux ou persistants. Dans la mesure où il n'existe pas de recensement des accidents d'anesthésie au plan national, les médecins en charge de cette enquête ont dû travailler à partir de la base de données des certificats de décès de l'Inserm pour l'année 1999 afin de calculer le nombre de morts liés à l'anesthésie. Pour chaque décès un groupe d'experts a été tenu d'établir le lien direct ou indirect de la mort avec l'anesthésie. Un chiffre important : pour l'année 1999, près de 8 millions d'actes d'anesthésie ont été effectués contre 3,6 millions en 1980. Les résultats de cette enquête soulignent une évolution franchement favorable de la situation et montrent que la détermination est payante pour réduire certains risques médicaux. Le nombre de décès directement imputables à l'anesthésie en 1999 est donc de 53 (soit un pour 145 000 ou 7 décès par million d'anesthésie) et celui des décès indirectement liés a été évalué à 366 (soit un cas pour 21 000 anesthésies). La mortalité liée à l'anesthésie a diminué d'un facteur de l'ordre de 10 au cours des vingt dernières années. Cette réduction concerne toutes les tranches d'âges et toutes les catégories de malades. Même si, le risque est toujours majoré par l'âge (il augmente après 40 ans) et le mauvais état général. Les atteintes respiratoires, cardiaques et vasculaires expliquent la plus large majorité des décès. La dépression respiratoire au réveil, dont le rôle était majeur dans les décès anesthésiques au cours des années 1980 n'est plus en cause, preuve que les mesures de prévention ont bien fonctionné. Pour les causes cardiaques, l'infarctus au cours de l'anesthésie est au premier plan. Soulignons que l'allergie aux médicaments n'est impliquée que de manière mineure. Parmi les actes chirurgicaux les plus souvent associés à un risque mortel, on retrouve la chirurgie orthopédique, avec en premier lieu celle pour fracture du col du fémur chez des personnes fragilisées. Mais également l'anesthésie lors de chirurgie abdominale et notamment d'interventions pour cancers associés à des péritonites. Quels sont les facteurs liés à l'anesthésiste qui pourraient être en cause dans l'évolution fatale ? Cette partie de l'étude, selon les enquêteurs, est la plus difficile. Elle est toujours en cours. Au-delà de la satisfaction d'observer cette évolution favorable, cette enquête devrait aussi leur permettre de progresser encore et de mener de nouvelles actions ciblées, grâce à l'identification plus précise des situations à risque.

Figaro : http://www.lefigaro.fr/sciences/20030919.FIG0273.html

Identification d'un gène responsable des accidents vasculaire cérébraux
Samedi, 27/09/2003 - 00:00

Des chercheurs islandais annoncent avoir identifié un gène impliqué dans la survenue des accidents vasculaires cérébraux (AVC), troisième cause de décès dans les pays développés, à l'origine de 160.000 morts chaque année aux Etats-Unis. Selon les chercheurs de deCODE Genetics, une société basée à Reykjavik, les personnes qui possèdent ce gène présentent un risque trois à cinq fois plus élevé de développer un accident vasculaire cérébral que le reste de la population. Leurs travaux sont publiés lundi dans le journal "Nature Genetics". L'AVC est une lésion du cerveau due à une hémorragie ou, au contraire, à l'obstruction brutale d'une artère. En fonction de la taille de la lésion, les conséquences sont plus ou moins graves: malaise passager, paralysie, coma. En France, quelque 120.000 personnes sont concernées chaque année. La découverte islandaise ne conduira pas à la mise au point de traitements dans l'immédiat, ont averti les chercheurs. Toutefois, le gène baptisé PDE4D, fabrique une enzyme qui peut, à terme, être la cible de certains médicaments, un espoir dans la mise au point de nouveaux traitements. La firme pharmaceutique suisse F. Hoffmann-La Roche Ltd. procède déjà à des essais sur des rats pour déterminer dans quelle mesure certaines molécules pourraient être utilisées chez l'homme. Ces molécules testées appartiennent à une famille de médicaments déjà utilisée, mais dans d'autres indications. Le plus connu est le Viagra, prescrit pour traiter les problèmes d'impuissance. La société deCODE a signé un contrat de recherche de 200 millions de dollars en 1998 avec la société Roche dans le but de localiser les gènes responsables des maladies les plus courantes, notamment les gènes de l'accident vasculaire cérébral. L'étude a été menée sur plusieurs centaines d'Islandais, qui avaient déjà été victimes d'un AVC. La correspondance génétique la plus solide a été retrouvée avec le gène PDE4. Selon les chercheurs, il n'existe pas de variant génétique qui soit corrélé à l'AVC. Toutefois trois protéines différentes codées par le gène sont retrouvées en plus petite quantité chez les gens atteints. Un résultat qui souligne la subtilité du gène.

AP : http://fr.news.yahoo.com/030922/5/3epek.html

Cancer de la prostate : baisse historique aux USA
Samedi, 27/09/2003 - 00:00

Les taux de mortalité du cancer de la prostate ont baissé d'un tiers pour les hommes âgés de 50 à 74 ans et d'un quart pour ceux de 74 à 84 ans, dans les années 90 aux Etats-Unis, selon de nouveaux résultats présentés mardi à la Conférence européenne sur le cancer à Copenhague. Cette baisse sensible entre 1990 et 2000 après une croissance lente des taux de mortalité dans les années 70 et 80, est due à la détection précoce de cette maladie, à des interventions chirurgicales immédiates et au traitement hormonal, selon le professeur, Sir Richard Peto de l'université d'Oxford en Grande-Bretagne. Cette tendance commence aussi à être enregistrée au Royaume-Uni, en France et dans certains autres pays européens, a-t-il souligné, au deuxième jour de cette conférence, qui réunit quelque 10.000 experts, chercheurs du cancer et autre personnel médical dans le monde. "Aux Etats-Unis et en Grande-Bretagne, les taux de mortalité du cancer de la prostate sont en train de chuter rapidement à cause essentiellement de diagnostics de dépistage précoces et du large usage du traitement hormonal", a-t-il constaté. Le cancer de la prostate est l'une des formes de cancer les plus répandues dans le monde, avec près de 550.000 nouveaux cas recensés chaque année et 204.313 décès, selon une estimation en 2000 de l'Agence internationale de recherche sur le cancer. Otilia Dalesio, directeur de Biometrics à l'Institut néerlandais du cancer, a estimé de son côté que "le dépistage précoce du cancer de la prostate et un traitement hormonal immédiat peuvent, comme pour le cancer du sein, améliorer la survie --des patients-- de 10 ans". Le cancer de la prostate constitue la deuxième cause de mortalité par cancer en France et la première pour ce type de cancer chez l'homme de plus de 50 ans.

Caducée : http://www.caducee.net/afp/edit.asp?id_depeche=17618

Un vaccin à l'essai contre le cancer du pancréas
Samedi, 27/09/2003 - 00:00

Moins de dix ans après la découverte des protéines de choc thermique (HSP, pour Heat Shock Protein), ces molécules sont utilisées dans des essais cliniques préliminaires contre certains cancers à pronostic très défavorable. C'est, par exemple, le cas des mélanomes métastatiques dans lesquels la protéine HSPPC-96 purifiée est utilisée à des fins vaccinales, avec des résultats très prometteurs qui viennent d'être présentés à l'occasion de la Conférence européenne sur le cancer qui vient de se tenir à Copenhague. C'est en se fondant sur ces travaux que le Dr Robert Maki (New York) a proposé le même type d'approche chez des sujets atteints de cancer du pancréas. Les auteurs ont procédé à l'ablation de tumeurs pancréatiques de patients opérables, et il ont purifié la protéine HSPPC-96 de ces patients, protéine qu'ils ont réinjectée, sous forme de vaccin , dans les deux à quatre semaines après l'intervention chirurgicale. « Sur les dix patients inclus dans l'étude de phase I, un a survécu plus de cinq ans sans rechute, deux autres sont toujours vivants après deux années de suivi », analyse le Dr Maki qui précis que la durée moyenne de survie de ces 10 patients est de 2 ans et demi, contre moins de 15 mois pour les malades bénéficiant du traitement classique. Les auteurs tiennent à souligner que le choix des patients qui ont participé à cet essai a pu induire un biais dans les résultats, puisqu'il s'agissait de sujets opérables, pour qui une ablation complète de la tumeur a été possible au cours d'un même geste chirurgical. Néanmoins, on sait que, chez de tels patients, la mortalité à deux ans est de 90 %. Des essais de phase II sont actuellement en cours, et ils permettront de mieux apprécier l'intérêt de ce vaccin.

Science Daily :

http://www.sciencedaily.com/releases/2003/09/030923065908.htm

Les européens trop inégaux face au cancer
Samedi, 27/09/2003 - 00:00

Les statistiques de survie des cancéreux en Europe montrent de grandes différences entre les pays, avec un fossé qui se creuse entre les pays de l'Est et de l'Ouest, selon une nouvelle étude du projet Eurocare 3, présentée le 25 septembrej à la Conférence européenne sur le cancer, à Copenhague.Cette analyse, suite d'Eurocare 2 publiée en 1999, rassemble des données des registres sur le cancer dans une partie ou la totalité de 22 pays, couvrant 42 types de cancer, dans le but d'évaluer et de comparer la survie des patients souffrant de cette maladie dans les populations européennes. Baptisée "Survie au cancer en Europe à la fin du XXe siècle", elle a examiné la survie à 5 ans de 1,8 million d'adultes et de 24.000 enfants diagnostiqués entre 1990 et 1994, et suivis ensuite jusqu'à la fin de 1999. La survie est généralement inférieure à la moyenne européenne dans cinq pays de l'Est (République Tchèque, Estonie, Pologne, Slovaquie et Slovénie), avec la Pologne au bas du tableau, ainsi qu'au Danemark, en Angleterre, en Ecosse, au Pays de Galles, à Malte et au Portugal. La Suède tend à avoir le taux le plus élevé de survie dans les 5 pays nordiques, alors les régions de France et de Suisse couvertes par cette étude enregistrent souvent les taux de survie les plus hauts parmi les populations de l'Europe occidentale. L'indice de survie à tous les cancers touchant les hommes varie de 25 à 32 % en Europe de l'Est et de 40 à 47 % dans la plupart des pays nordiques et d'Europe occidentale. Pour l'Angleterre, le Pays de Galles et le Danemark, le taux de survie était cependant de 33 à 37 %, en-dessous de la moyenne européenne de 38 %. Pour les femmes, l'indice de survie s'est établi entre 41 à 47% dans les populations de l'Europe centrale et orientale, et de 55 à 58 % dans dix des pays nordiques et d'Europe de l'Ouest. Seuls le Danemark, l'Ecosse, l'Angleterre et le Pays de Galles ont connu un taux inférieur, variant de 47 à 51%, légèrement sous la barre de la moyenne européenne de 52 %. Un des auteurs de l'étude, le professeur Michel Coleman, épidémiologiste de la London School of Hygiene and Tropical Medecine, a souligné à la conférence que le but de ce travail n'était pas d'établir des tableaux de championnat ou d'exciter des rivalités nationales. L'étude vise en revanche à l'identification des régions ou pays où les taux de survie pourraient être améliorés. "Il est de plus en plus évident que les différences internationales de survie sont dues au moins partiellement à des facteurs sur lesquels on peut agir comme le stade du diagnostic, l'accès à un traitement optimal et les investissements dans les soins de santé", a-t-il estimé. L'aspect le plus préoccupant depuis le milieu des années 1980 est le fossé qui se creuse dans la survie au cancer entre les pays d'Europe de l'Est et les autres. Ainsi, dans le cas du cancer du sein où les différences de survie sont en augmentation croissante entre les deux Europe. Ces tendances "reflètent des écarts importants et croissants dans les pronostics du cancer entre l'Europe de l'Est et occidentale", constate le professeur Coleman. "Et comme les cinq pays (de l'Est) participant au projet Eurocare vont rejoindre l'Union européenne en 2004, cela soulève un nouveau problème majeur d'inégalité dans la santé au sein de l'UE", a-t-il ajouté.

BBC : http://news.bbc.co.uk/2/hi/health/3136874.stm#cancer

Découverte d'un mécanisme de réponse des plantes aux inondations
Samedi, 27/09/2003 - 00:00

Les plantes se défendent contre les agressions de l'environnement, comme les inondations, par un mécanisme dont des chercheurs français viennent de faire avancer sensiblement la compréhension. Dans des situations physiologiques parfois extrêmes, l'un des défis majeurs pour les plantes est le maintien de leur équilibre hydrique. Les agronomes savent que lorsque les champs sont inondés en hiver dans les zones tempérées, certaines cultures de blé souffrent au niveau des racines de carence aiguë en oxygène, car la terre gorgée d'eau n'est plus aérée. De même, on peut asphyxier sa plante d'appartement en noyant le pot de fleur. L'appareil racinaire est aussi volumineux et important pour la vie d'une plante que la tige et les feuilles et l'on sait depuis quelques années déjà que d'autres types de stress comme la sécheresse ou la salinité des sols affectent l'absorption d'eau par les racines. L'équipe du laboratoire de biochimie et physiologie moléculaire des plantes (CNRS, INRA, Agro-M, UM2 - Montpellier) en collaboration avec le laboratoire de physiologie cellulaire végétale (CNRS, CEA, Université Grenoble 1) a permis d'identifier "un mécanisme moléculaire de régulation fine du transport de l'eau à travers les membranes cellulaires". Ce mécanisme est original tant dans le domaine de la biologie végétale qu'animale, et permet de comprendre comment les racines des plantes diminuent leur capacité de transport d'eau, en réponse à l'inondation du sol. Les chercheurs ont en particulier étudié la fonction et la régulation des aquaporines, des protéines qui forment des canaux hydriques et facilitent la diffusion de l'eau à travers les membranes cellulaires. Alors que la fonction des aquaporines animales, dans la physiologie rénale par exemple, est maintenant bien établie - le rein de l'homme filtre l'équivalent de 200 litres d'eau par jour dont 199 litres sont réabsorbés par les aquaporines - ces chercheurs ont obtenu des preuves originales de la fonction des aquaporines végétales dans le transport racinaire d'eau. Ils ont montré en particulier que les aquaporines facilitent les flux radiaux d'eau, de la solution du sol jusque dans les vaisseaux au pouvoir très conducteur situés au centre de la racine. Ils ont mis en évidence que le blocage complet du transport d'eau par des racines sous-oxygénées (en anoxie) est strictement lié à une acidification de l'intérieur des cellules. Ici, et de manière très originale, cette acidification sert de signal pour provoquer directement la fermeture des petits canaux localisés sur la membrane des cellules. Cette propriété de régulation découle d'un caractère structural spécifique des aquaporines des plantes qui a pu être identifié grâce à ces recherches. Cette découverte ouvre des pistes originales pour comprendre la régulation du transport membranaire d'eau chez tous les organismes vivants.

Nature :

http://www.nature.com/nature/journal/v425/n6956/header/header_nature01853.html

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top