RTFlash

RTFLASH Recherche & Technologie
NUMERO 266
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 21 Novembre 2003
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
Des puces à l'affût
IBM conçoit un supercalculateur avec des puces de console de jeu
Paris souhaite un délai sur la question des brevets de logiciels
Le Wi-Fi en passe de gagner la bataille de la sécurité
Ecoc 2003 éclaire le futur des fibres optiques
Les pays scandinaves et asiatiques en tête pour l'accès aux TIC
Avenir
Un liquide aussi solide que du plastique
Matière
Les écrans 3D ont de l'avenir
Intel précise les capacités de son futur processeur Itanium 2
Total inaugure sa première centrale éolienne près de Dunkerque
Espace
Un télescope des abysses pour percer les mystères de l'Univers
Terre
Plus de 10 000 espèces menacées d'extinction
La mer de glace d'Antarctique en déclin constant depuis 50 ans
Vivant
Une molécule prometteuse pour stopper le diabète
Le cancer de la peau souvent associé à d'autres cancers
Oméga 3 et 6 protègent contre certains cancers
Des chercheurs réussissent à créer un virus de toutes pièces
La réponse à double détente des lymphocytes tueurs
Neurosciences: une recherche insuffisante en France
Propagation de foyers épileptiques : les mécanismes élucidés
Homme
France 5 lance un service de vidéos éducatives à la demande
Recherche
L'Europe veut mettre les TIC au service de la sécurité routière
Monsieur Trégouët présente le budget " Recherche et nouvelles technologies" au Sénat
Edito
Vaccins anti-cancer: l'espoir renaît après des décennies de recherche



Un article récent de la revue du MIT fait le point sur les récentes percées en matière de vaccins anti-cancer et se montre très optimiste quant aux perspectives thérapeutiques de cette voie de recherche en pleine effervescence. Après des décennies de tâtonnements et de déception les recherches sur ces vaccins anti-cancer commence enfin à porter leurs fruits et aujourd'hui plus de 50 vaccins anti-cancer sont à l'essai dans le monde, dont deux au stade final d'expérimentation sur l'homme. (http://www.technologyreview.com/articles/

innovation11103.asp). Dans la guerre contre le cancer, les chercheurs tentaient depuis longtemps de mobiliser toutes les ressources du système immunitaire pour détruire les tumeurs tout en préservant les cellules saines. Mais ces nombreuses tentatives pour trouver un vaccin contre le cancer avaient pour la plupart échouées, en grande partie parce que les scientifiques n'avaient pas une compréhension assez fine des mécanismes moléculaires complexes qui régissent notre système immunitaire. Mais après 20 ans de recherches acharnées, les choses ont aujourd'hui changé et les chercheurs peuvent désormais s'appuyer sur une connaissance bien meilleure du système immunitaire. A l'heure actuelle ce sont plus de 50 vaccins anti-cancer qui sont à l'essai aux les Etats-Unis, au Canada, et en Europe, contre plusieurs types de cancers, et notamment le mélanome, le cancer du rein, du poumon, du sein, et de la prostate. Plusieurs de ces vaccins sont en phase finale d'essai chez l'homme et au moins deux d'entre-eux seront tout à fait opérationnels d'ici un an. Antoni Ribas, un oncologue développant un vaccin anti-mélanome à l'université de Californie souligne que, contrairement aux vaccins conventionnels, les vaccins anti-cancers ne sont pas conçus, pour l'instant du moins, pour prévenir la maladie mais pour la traiter. Il s'agit donc de vaccins "thérapeutiques". Ces nouveaux vaccins reposent sur le ciblage d'un plus petit nombre de protéines et leur efficacité ne cesse de s'améliorer. C'est ainsi que la compagnie, Antigenics de New York conduit à présent l'étape finale des essais sur l'homme pour les vaccins contre le mélanome, un redoutable cancer de la peau en pleine expansion, et contre le cancer du rein. Ces essais ont montré que ces vaccins, même si ils ne constituent pas une panacée, étaient capables de réveiller de manière puissante le système immunitaire qui pouvait alors bloquer ou ralentir sensiblement le développement de la tumeur. Un autre projet du vaccin contre le cancer du sein, appelé Theratope, développé par le laboratoire pharmaceutique Allemand Merck KgaA et la société canadienne de biotechnologie Biomira, est très avancé, les analyses finales des tests cliniques de phase III ont débuté au troisième trimestre 2003. Selon les chercheurs, ces vaccins devraient donc devenir, d'ici 3 à 5 ans, une nouvelle arme très efficace dans l'arsenal anti-cancer, à côté de la nouvelle génération de médicaments de "ciblage moléculaire" utilisant les anticorps monoclonaux. Mais ces vaccins seront employés en association et en synergie avec les traitements conventionnels, chimiothérapie, radiothérapie et chirurgie. Parallèlement à ces recherches très actives dans le domaine des vaccins anti-cancers spécifiques, la création de vaccins universels, utilisables contre tous les cancers constitue également un autre enjeu fondamental dans la lutte contre cette maladie. L'une des substances, qui paraît la plus prometteuse pour concevoir de tels vaccins, est constituée par la télomérase, une enzyme qui contrôle la longueur des chromosomes, indispensable à la multiplication cellulaire. Cette protéine, présente dans 80 à 85 % des cellules cancéreuses, stimule leur croissance, mais est inactivée dans la plupart des cellules de l'organisme. A partir d'un fragment de la télomérase, plusieurs équipes américaines ont mis au point des vaccin cellulaires qui sont parvenus, chez la souris, à inhiber la croissance de cellules de cancer de la peau, de la glande mammaire et de la vessie, en augmentant le pouvoir de destruction de ces tumeurs par certaines catégories de globules blancs. Ce vaccin est apparemment efficace dans les cancers humains car il a permis d'obtenir la régression, en laboratoire, de cellules tumorales de rein et de prostate provenant de malades. Dans ces recherches de pointe en immunologie la France occupe une place de premier rang. Ainsi deux équipes de l'Institut Pasteur sont parvenu en 2001 ont élaboré un nouveau type de composé capable de provoquer le rejet des tumeurs par le système immunitaire. Totalement synthétique et baptisé MAG (Multiple Antigenic Glycopeptide), ce composé contient l'antigène tumoral Tn, associé à un peptide capable de stimuler les réponses immunitaires cellulaires. Injecté à la souris, il entraîne la production d'anticorps dirigés spécifiquement contre l'antigène tumoral. (voir @RTFlash 147 (http://www.tregouet.org/lettres/

rtflashtxt.asp?theLettre=151&EditoOnly=1). Les premiers résultats attestent d'un effet immunogène particulièrement important. Une vaccination prophylactique (avant l'apparition de la maladie) avec MAG protège les souris contre l'apparition d'une tumeur dans 70 à 90 % des cas, selon la dose administrée. Mais plus étonnant encore, le traitement de souris déjà atteintes de tumeurs a permis à 80 % d'entre elles de se débarrasser de leurs tumeurs et de survivre à la maladie ! Ce type de vaccin, qui est complémentaire des vaccins anti-cancer utilisant des cellules sanguines (les lymphocytes T) pourrait être utilisé chez l'homme contre les cancers de la prostate, du poumon et du colon. Chez l'homme, un vaccin, toujours élaboré par Aventis Pasteur a été testé récemment contre le mélanome, un cancer de la peau, auprès de 25 patients : il a entraîné une régression des métastases chez cinq patients et une rémission totale chez deux autres traités depuis plus de 3 ans. Un autre vaccin français pour lutter contre les ostéosarcomes, des cancers des os propres aux enfants et aux adolescents, devrait être disponible en 2004. On voit donc que les progrès accompli dans la recherche fondamentale depuis 20 ans portent enfin leurs fruits et ouvrent des perspectives nouvelles et très encourageantes dans la lutte contre le cancer. On peut penser que cette réelle percée des vaccins anti-cancer, combinée aux progrès constants des traitements classiques permettra de guérir, ou de maîtriser 3 cancers sur 4 à l'horizon 2020.

René TRÉGOUËT

Sénateur du Rhône


TIC
Information et Communication
Des puces à l'affût
Samedi, 22/11/2003 - 00:00

Imaginez une nuée de petites puces électroniques autonomes, capables de communiquer entre elles et d'observer leur environnement grâce à divers capteurs (lumière, chaleur, mouvement, bruit). Leur taille est inférieure à 1 millimètre. Il suffit de semer, à partir d'un avion, un nuage de ces minuscules microprocesseurs sur l'étendue d'une forêt... et le dispositif est en place. Dès qu'une élévation de température se produit dans le voisinage immédiat de l'un d'eux, l'information se transmet de proche en proche aux puces environnantes jusqu'à un système d'observation centralisé. Ce dernier est alors capable de reproduire en temps réel la cartographie thermique de la zone: tout incendie est détecté et localisé dès les premières secondes. Cet exemple n'est qu'une des innombrables applications possibles d'un concept que son inventeur, Kris Pister, de l'université de Berkeley (Californie), a baptisé smart dust (poussière intelligente). Le projet initial est né de la conquête spatiale, un ensemencement de la planète Mars par de telles poussières paraissant bien plus facile à mettre en oeuvre et moins coûteux que l'envoi de robots mobiles. L'idée d'une utilisation terrestre pour surveiller notre propre planète en découle tout naturellement. «La possibilité de faire communiquer différents modules malgré l'absence d'infrastructure préalable confère à cette technologie toute sa force, précise Valérie Issarny, directrice de recherche à l'Inria. C'est ce que les spécialistes appellent les "réseaux ad hoc".» Les militaires des grandes puissances suivent l'affaire de près. Comment ne pas s'intéresser à des systèmes qui, sensibles aux battements cardiaques, permettraient de localiser avec précision chaque fantassin ou franc-tireur sur un champ de bataille, ou de détecter la présence d'explosifs, d'armes chimiques ou bactériologiques, de jour comme de nuit? Des usages plus pacifiques se profilent, notamment dans le domaine de la surveillance des biens et des personnes. Un exemple? Le projet européen Loccatec, qui prévoit de disposer des microcapteurs vidéo dans les murs de tout bâtiment situé dans une zone de risque sismique. En cas d'éboulement, les services de secours pourraient connaître immédiatement le nombre de victimes présentes dans chaque pièce et les localiser. Mais les utilisations les plus évidentes concernent la protection de l'environnement par la détection de polluants et de leurs sources, aussi bien sur terre qu'en milieu aquatique: une répartition d'insecticide ou d'engrais adaptée par exemple à chaque pied de vigne limiterait la pollution et serait de nature à générer d'importants gains de productivité. «Le potentiel est énorme, déclare Lionel Buchaillot, chercheur spécialisé dans les microsystèmes au CNRS. Et le coût ne devrait pas constituer un frein: la production en grande quantité de ces puces selon les techniques issues de la microélectronique devrait faire chuter le prix de chaque unité à moins de 1 euro!» De quoi stimuler chercheurs et entrepreneurs. «Le procédé sera opérationnel dans trois ou quatre ans», estime le Pr Patrick Garda, qui dirige le groupe Syel du Lisif (Systèmes électroniques du Laboratoire des instruments et systèmes d'Ile-de-France), à Jussieu. Son équipe collabore déjà avec plusieurs bureaux de recherche de l'industrie. «Le problème n'est pas tant la miniaturisation, précise-t-il, que la mise au point de programmes d'autoconfiguration: chaque puce doit interroger ses voisines pour déterminer le meilleur cheminement de l'information et assurer son déroutement automatique si un élément devenait défaillant.»

Express :

http://www.lexpress.fr/express/info/sciences/dossier/nanotube/dossier.asp?nom=

IBM conçoit un supercalculateur avec des puces de console de jeu
Samedi, 22/11/2003 - 00:00

IBM a annoncé avoir construit un supercalculateur de la taille d'un téléviseur en utilisant des processeurs qui équiperont les consoles de jeux vidéo en 2004. International Business Machines a précisé que l'ordinateur, d'une puissance de 2.000 milliards d'opérations à la seconde, était un prototype à petite échelle du supercalculateur Blue Gene/L en cours de construction et qui équipera le Laboratoire national américain Lawrence Livermore. L'ordinateur utilise un millier de processeurs conçu avec la technologie PowerPC, la même que celle des processeurs des machines Macintosh actuellement construites par Apple Computer et des futures consoles de nouvelle génération de Nintendo et Sony, a expliqué le vice-président d'IBM pour la technologie et la stratégie, Irving Wladawsky-Berger. La production de ces puces en grande quantité pour l'industrie du jeu permettra de réduire le coût de fabrication d'un supercalculateur, a-t-il ajouté.

Reuters : http://fr.news.yahoo.com/031114/85/3hwjc.html

Paris souhaite un délai sur la question des brevets de logiciels
Samedi, 22/11/2003 - 00:00

La France souhaite des consultations supplémentaires sur un projet de directive européenne très contesté sur les conditions d'octroi de brevets pour les "inventions mises en oeuvre par ordinateur", a indiqué le porte-parole du gouvernement. Jean-François Copé a justifié cette demande, en marge du compte rendu du conseil des ministres, par une "différence d'approche" entre la Commission et le Parlement européens. Cette "différence d'approche" est apparue au grand jour lors du vote du texte le 24 septembre par les députés européens. "Le vote récent au Parlement (européen) a montré que le sujet n'était pas mûr au niveau européen et qu'il fallait poursuivre les consultations", a déclaré Jean-François Copé. Le gouvernement français proposera "prochainement" à ses partenaires européens "un délai supplémentaire" avant l'adoption définitive de cette directive, "afin de mener une nouvelle consultation interne", a ajouté le porte-parole. Le projet de directive concerne non les logiciels en eux-mêmes, protégés par les droits d'auteur, mais les "inventions" impliquant l'utilisation d'un ordinateur et faisant appel à ces programmes. Le texte présenté en février 2002 par la commission européenne a été jugé "flou" et "ambigu" par les députés européens, qui lui ont apporté de nombreux amendements avant de l'approuver par 364 voix pour, 153 voix contre et 33 abstentions le 24 septembre à Strasbourg. Nombre de parlementaires européens craignaient notamment qu'il n'ouvre trop largement la voie à la prise de brevets sur les logiciels, au risque de freiner l'innovation dans ce domaine clef. Selon le texte voté, ne seraient brevetables en droit européen que les "inventions mises en oeuvre par ordinateur" présentant une avancée technique susceptible d'avoir une application industrielle. En clair, pour qu'un programme informatique soit brevetable, il ne suffit pas qu'il soit nouveau, il faut encore qu'il permette une innovation technique indépendamment de sa propre exécution.

Reuters : http://fr.news.yahoo.com/031119/85/3i6hl.html

Le Wi-Fi en passe de gagner la bataille de la sécurité
Samedi, 22/11/2003 - 00:00

Les réseaux locaux de connexions sans fil via le Wi-Fi se multiplient à grande vitesse aux Etats-Unis, notamment dans les PME: les équipements sont moins chers, et surtout la protection des données confidentielles est bien mieux assurée, expliquent les spécialistes. Le Wi-Fi (pour wireless fidelity), technologie à base de fréquences radio, colonne vertébrale de ces réseaux, est en vogue depuis 2001 au salon informatique Comdex de Las Vegas (ouest). Mais selon les analystes, l'édition 2003 du Comdex célèbre enfin l'arrivée à maturité de cette technologie, grâce aux progrès réalisés dans la sécurité des communications. Actuellement "le développement est extraordinaire. S'il n'a pas été possible plus tôt c'est en raison des problèmes de sécurité", déclare un consultant californien, Rick Parker, venu à Las Vegas traquer les dernières trouvailles anti-intrusion qu'il proposera ensuite à ses clients. Le principal risque de sécurité, avec le Wi-Fi, est qu'un internaute surfant autour d'un "hot spot" --les bornes d'accès publiques (cafés, hôtels.. )--, ou depuis chez lui, pénètre sur le réseau interne d'une entreprise établie dans le périmètre et elle-même dotée d'un point d'accès. "Les techniques de cryptage apparues avec la première génération d'équipements se sont avérées pauvrement conçues. Ce n'était pas sécurisé", souligne Laura Koetzle, analyste du cabinet d'études Forrester Research. Aujourd'hui la confiance renaît chez beaucoup d'entrepreneurs, indique-t-on au Comdex, car la détection des intrusions s'est fortement améliorée. Une entreprise comme Linksys (groupe Cisco) a conçu des points d'accès filtrants auxquels il est demandé de retenir "20 ou 40 adresses (les coordonnées d'un usager, ndlr) et de barrer la route aux autres", ajoute Rick Parker. "C'est conçu pour les petits environnements, les gens qui travaillent de chez eux pour leur société", poursuit-il. Selon un cadre d'une jeune société sécurisant les réseaux, Aruba, une des craintes des patrons-acheteurs qui se renseignent au salon est de voir un employé utiliser le réseau Wi-Fi pour lire des documents confidentiels. Avec des appareils coûtant moins de 100 dollars, "il est possible d'accéder au réseau de manière illégale et de créer une faille de sécurité béante, une invitation aux pirates", relève Rick Holden, chef de produit chez Aruba. Parmi les répliques à ce type de problèmes, poursuit-il, la tendance est à l'adoption de "systèmes de sécurité multi-couches", en quelque sorte des remparts virtuels de grande épaisseur protégeant le réseau interne de l'extérieur. Dans les allées du salon, ces spécialistes ès sécurité disent répondre surtout aux demandes d'information des universités, des patrons de PME voire des gérants de cafés voulant imiter la chaîne Starbucks Coffee, pionnier aux Etats-Unis dans le développement des points d'accès publics. Les multinationales, notamment dans les secteurs pharmaceutique et financier, sont plus réticentes à faire le pas, relève Joe Levy, ingénieur chez SonicWall, autre fabricant californien de systèmes anti-intrusion. "Plus les données à protéger dans une industrie sont sensibles, plus les exigences de sécurité seront fortes", déclare-t-il, en montrant du doigt aussi le rôle intimidant des autorités de régulation dans ces secteurs. Au 3ème trimestre, le marché mondial des équipements de réseaux locaux Wi-Fi, dopé par la demande des entreprises, a atteint 457 millions de dollars, soit 13% de plus qu'au 3ème trimestre 2002, révélait la semaine dernière une étude de l'institut spécialisé Dell'Oro Group. Le groupe Cisco Systems, pilier du secteur, en a énormément profité.

AFP : http://fr.news.yahoo.com/031118/1/3i3my.html

Ecoc 2003 éclaire le futur des fibres optiques
Samedi, 22/11/2003 - 00:00

Reliant le monde de la recherche universitaire et celui de l'industrie, la vingt-neuvième édition de la conférence-exposition a rassemblé plus de deux cents exposants et près de quatre mille participants. Ecoc (European Conference on Optical Communication) est bien le principal événement européen qui s'intéresse aux perspectives en communications optiques. Malgré la morosité du marché liée aux manques d'investissements SDH et Sonet des opérateurs, le salon a apporté son lot de nouveautés pour les réseaux tout optique. Pirelli a annoncé une nouvelle génération d'équipements télécoms, parmi lesquels des lasers et multiplexeurs d'insertion-extraction de longueurs d'onde accordables, s'appuyant sur les avancées les plus récentes des nanotechnologies. Les raccordements d'accès pourront bénéficier de systèmes plus simples à mettre en oeuvre. Infineon, de son côté, a proposé le premier laser à cavité verticale émettant à 1 310 nm pour du fibre channel à 4 Gbit/s, ainsi que des émetteurs-récepteurs pour les 10 Gigabit Ethernet et 10 Gigabit fibre channel. Tyco Electronics, lui, a affiché des solutions de connectiques optiques durcies pour environnements sévères, comme la Défense. Nortel Networks a mis en avant, à son tour, ses serveurs de communication multimédia 5100 et 5200 et ses commutateurs pour l'Ethernet optique. Alcatel s'est plutôt distingué par le Giant, un nouveau mode de transmission de paquets dans les réseaux d'accès à 1,25 Gbit/s, qui est en passe de donner lieu à une recommandation de l'UIT.

OINet : http://www.01net.com/article/222573.html

Les pays scandinaves et asiatiques en tête pour l'accès aux TIC
Samedi, 22/11/2003 - 00:00

Les pays scandinaves et les "tigres" asiatiques se classent en tête d'un palmarès établi par l'Union internationale des télécommunications (UIT) pour mesurer l'accès aux technologies numériques de l'information et de la communication, comme l'internet et le téléphone portable. Ce classement mondial (178 pays), publié mercredi à Genève, confirme la fracture entre pays riches et pays pauvres, notamment d'Afrique, en ce qui concerne l'accèsàces technologies, à trois semaines de l'ouverture à Genève d'un Sommet mondial sur la société de l'information, censé trouver des remèdes à ce problème. La Suède arrive en tête de cet "indicateur d'accès numérique" --avec un indice de 0,85, l'indice un représentant le meilleur accès possible-- suivie par le Danemark, l'Islande, la Corée du Sud, la Norvège, les Pays-Bas et Hong Kong. Le Canada arrive en dixième position et les Etats-Unis en onzième. Le Japon est 15ème et la France n'est que 23ème, juste devant la Slovénie mais derrière l'Italie (22ème), l'Allemagne (18ème) et le Royaume Uni (12ème). Dans le monde arabe, ce sont les Emirats arabes unis (34ème) qui sont en tête, tandis que le Chili (43ème) est le pays d'Amérique latine le mieux placé. Ce classement tient compte non seulement des infrastructures mais aussi des tarifs des télécommunications, du degré d'utilisation de l'internet ou du niveau d'éducation. Les pays les mieux placés "ont des réseaux très développés, une orientation sociale et donc des tarifs traditionnellement abordables, l'accès y est équitable et il bénéficie à toutes les couches de la population, et il y a un haut niveau de connaissances", résume Michael Minges, expert de l'UIT et auteur du rapport. D'après les calculs de l'UIT, Hong Kong est l'endroit où les communications sur internet sont de très loin les moins chères au monde, pour 20 heures de connexion rapportées au revenu moyen par habitant. Avec un taux de référence fixé à 1,00, le prix de l'accès à internet à Hong Kong s'élève à 0,19. Les Etats-Unis, deuxièmes, atteignent déjà 0,51, Singapour se classant troisième à 0,64. En Suède, ce taux s'élève à 1,1. Il atteint 1.000 en République démocratique du Congo. Selon l'agence, les études qui ont permis d'établir son "index sur l'accès numérique" et le classement des pays, sont les premières à prendre en compte les niveaux d'alphabétisation et l'accessibilité financière à ces technologies, tout en considérant les infrastructures existantes dans ces pays. Jusqu'à présent, a expliqué Michael Minges, expert de l'UIT, "le manque d'infrastructures dans les pays pauvres était considéré comme l'obstacle principal à la réduction du 'fossé numérique'". Ce ne serait plus le cas, a-t-il estimé, considérant que le niveau d'alphabétisation et l'accessibilité à ces technologies étaient devenus des facteurs tout aussi importants. La Corée du Sud, Hong Kong, Taiwan et Singapour signent les plus belles progressions en matière d'usage des ces technologies sur les quatre dernières années, rapporte l'UIT. Ces quatre pays figurent dans une première liste de 25 Etats considérés comme ayant un "accès élevé" à ces technologies. Sur un score maximal possible de 1,00, la Suède arrive en première position avec 0,85, suivie du Danemark à 0,83, de l'Irlande et de la Corée du Sud à 0,82. Les Etats-Unis partagent la dixième place avec le Canada avec 0,78, la France, l'Italie, la Slovénie et la Nouvelle Zélande sont à égalité en 21e position avec un score de 0,70. En tête d'une seconde liste qui comprend 40 pays, on trouve l'Irlande à 0,69. L'île Maurice, la Russie, le Mexique et le Brésil ferment la marche en 36e position avec 0,50. Dans cette deuxième liste, on trouve également l'Espagne, le Portugal, la Malaisie, l'Argentine et la Jamaïque. Un troisième groupe compte 58 pays, avec la Biélorussie en tête à 0,29 et l'Arménie en queue à 0,30. L'Afrique du Sud, l'Inde et l'Egypte s'y trouvent. La quatrième liste des 55 Etats les moins bien notés s'ouvre avec le Zimbabwe à 0,29 et se ferme avec le Niger à 0,04. L'étude de l'UIT souligne que "l'anglais n'est plus un atout décisif pour s'adapter rapidement aux nouvelles technologies": des "tigres" asiatiques comme Hong Kong, Taïwan (9ème) ou Singapour (14ème) ont égalé ou dépassé au cours des quatre dernières années des pays de langue maternelle anglaise comme les Etats-Unis, "et une part grandissante des contenus est disponible en d'autres langues" que l'anglais. "Les pays qui ont le plus baissé (dans le classement) sont tous anglophones, cela va totalement à l'encontre de l'idée que l'anglais est un avantage pour l'information, la communication et la technologie", affirme M. Minges. Une autre idée reçue, relève-t-il, est que "le manque d'infrastructures est le principal obstacle à la réduction de la fracture numérique". "Nos recherches font apparaître que des tarifs abordables et le niveau d'éducation sont des facteurs aussi importants", explique-t-il. Il fait valoir que des pays comme les Seychelles, l'Ile Maurice, l'Afrique du Sud et le Botswana, avec des niveaux d'éducation relativement bons, s'en tirent mieux que leurs voisins de l'Afrique sub-saharienne.

IUT :

http://www.itu.int/newsroom/press_releases/2003/30.html

^ Haut
Avenir
Nanotechnologies et Robotique
Un liquide aussi solide que du plastique
Samedi, 22/11/2003 - 00:00

Avec les annonces de gel un peu partout dans le pays, les Américains se voient rappeler par la nature qu'à partir d'une certaine température les liquides deviennent solides. Et s'il existait un moyen de solidifier un liquide à des températures ordinaires, par une simple décharge électrique, puis de le reliquéfier instantanément, simplement en coupant le courant ? Des chercheurs viennent d'annoncer qu'ils avaient créé un tel fluide. Celui-ci réagit à un champ électrique en se transformant immédiatement en un matériau aussi résistant qu'un plastique dur, et il retourne tout aussi rapidement - en quelques millièmes de seconde - à l'état liquide lorsqu'on coupe le courant. Ce fluide marque une étape nouvelle dans la course au développement de substances futuristes telles qu'on en trouve souvent dans la science-fiction - comme le matériau métamorphique dont se compose T-1000, l'adversaire de Schwarzenegger dans le film Terminator 2. D'abord aussi fluide que du babeurre

Courrier international : [http://www.courrierinternational.com/">ou lait de beurre, la partie liquide qui reste après le battage de la crème lors de la préparation du beurre], cette substance devient aussi épaisse que du tofu dès qu'on l'expose à des champs électriques d'intensité moyenne, et acquiert la dureté du plastique quand on augmente encore le courant. D'ici quelques années, de telles substances pourraient trouver des applications très diverses, notamment dans des amortisseurs dont la rigidité varie au gré des circonstances. Le nouveau matériau, créé pour l'essentiel par Weijia Wen, une collaboratrice de Ping Sheng, physicien à l'Université des sciences et des techniques de Hong Kong, est le dernier-né d'un domaine pionnier, les nanotechnologies. Le fluide se compose d'une huile de silicone contenant d'innombrables microsphères de baryum et de titane en suspension. Chacune de ces sphères mesure moins d'un millionième de centimètre de diamètre et est enveloppée d'un film d'urée étonnamment fin, d'environ un centième de millionième de centimètre d'épaisseur. Il faudrait aligner près de deux cents de ces sphères pour atteindre le diamètre d'un cheveu humain. Les chercheurs tentent encore de comprendre à quelles règles obéit le comportement de ces sphères. En raison de leur échelle infinitésimale, ces particules échappent à la principale force qui agit sur les objets massifs, à savoir la gravité. En revanche, elles réagissent à de subtiles forces électriques, chimiques et quantiques, qui n'ont pas d'incidence sur des êtres comme les chercheurs, mais qui dominent la dynamique du monde à l'échelle atomique. Lorsque la suspension de Sheng est exposée à un champ électrique, facilement généré par des fils électriques, les sphères, qui flottent librement, reçoivent des charges positives et négatives à des positions équivalant à leurs pôles nord et sud. Ce qui les amène à s'accumuler en colonnes très difficiles à briser. Résultat, le fluide se transforme en solide. Pendant des décennies, on a cherché à mettre au point des fluides "électrorhéologiques" [substances liquides passant à l'état solide sous l'effet d'impulsions électriques], mais l'enthousiasme est retombé lorsqu'on s'est aperçu qu'aucun liquide ne deviendrait assez résistant dans un champ électrique pour avoir des applications intéressantes. On s'est alors intéressé aux matériaux "magnétorhéologiques", qui passent de l'état liquide à l'état solide quand on les expose à un champ magnétique. Ces matériaux peuvent devenir aussi durs que du caoutchouc, ce qui les rend utiles dans de nombreuses applications. On en a installé notamment dans les fondations des gratte-ciel au Japon, où, associés à des capteurs qui détectent les oscillations, ils permettent à de telles structures de résister au vent et aux tremblements de terre. Mais la substance de Sheng, décrite dans l'édition de novembre de la revue Nature Materials , est nettement plus résistante que n'importe quel matériau activé par champ magnétique. Frank E. Filisko, un physicien de l'université du Michigan qui travaille sur de tels fluides, affirme toutefois que le matériau de Sheng reste perfectible. Idéalement, il devrait être encore plus liquide qu'il ne l'est pour l'instant en l'absence d'un champ électrique. Encore va-t-il falloir en démontrer l'utilité dans des dispositifs mesurant plus de quelques millimètres de diamètre. Pourtant, d'ici dix ans, à en croire tant Filisko que Sheng, les matériaux qui changent d'état sous l'influence de signaux électriques vont révolutionner les constructions mécaniques. Ils vont permettre d'ouvrir et de fermer des soupapes, d'embrayer et de débrayer, et d'effectuer toutes sortes d'actions mécaniques aussi rapidement qu'on allume et qu'on éteint une lampe - bien plus vite même que ne peuvent réagir les systèmes mécaniques ou hydrauliques les plus rapides.

Courrier international : [http://www.courrierinternational.com/

^ Haut
Matière
Matière et Energie
Les écrans 3D ont de l'avenir
Samedi, 22/11/2003 - 00:00

Dans le film Minority Report de Steven Spielberg, les personnages font face à des écrans virtuels, projetant des films en reliefs, autour desquels il est possible de tourner et sur lesquels on peut agir, comme si on les touchait. L'action du film a lieu dans plus de vingt-cinq ans, mais certaines des inventions qui y sont imaginées pourraient nous arriver bien plus tôt. L'écran virtuel en relief et interactif existe en effet déjà. Il est développé par la société IO2 Technology, qui a déjà pu réaliser des prototypes de projecteurs "virtuels". Le Helio Display, que l'on peut brancher sur un ordinateur ou un lecteur DVD, "projette les images dans l'air". Ces images sont entièrement interactives : "il est possible de sélectionner, naviguer et manipuler avec le doigt, comme si on était face à un écran tactile virtuel", explique le site de la société. D'une manière plus générale, la 3D est d'ores et déjà le nouvel horizon du marché des écrans. Sharp commercialise depuis quelques mois des téléphones mobiles et des ordinateurs portables dont les écrans donnent l'impression du relief, en projetant deux images légèrement différentes sur deux régions différentes des yeux . Il semble que cette expérience n'est qu'un début. Sharp, toujours, a formé avec Sony, Sanyo et trois autres grands constructeurs japonais, le 3D Consortium en mars dernier. Ce consortium aura pour but d'aider le développement des technologies 3D et "d'encourager son développement afin de créer une nouvelle industrie et un nouveau marché autour de ces technologies". La forte hausse du marché des écrans plats LCD cette année laisse également espérer un marché florissant pour la génération suivante. Selon l'institut de recherches iSuppli/Stanford, il devrait augmenter très rapidement, en passant de 219 millions de dollars en 2003 à 3 milliards de dollars en 2009. Une analyste de la firme est des plus optimistes : "les chercheurs et industriels qui s'intéressent à la 3D peuvent rire face à la récession actuelle".

TF1 : http://news.tf1.fr/news/multimedia/0,,1457675,00.html

Intel précise les capacités de son futur processeur Itanium 2
Samedi, 22/11/2003 - 00:00

Le groupe américain d'électronique Intel a annoncé jeudi soir que son microprocesseur Itanium 2, prévu pour 2005 et en développement sous le nom de code "Montecito", disposerait de quatre fois plus de mémoire cache que son prédécesseur et serait doté d'une technologie de "multi-threading". L'Itanium 2 comprendra 24 méga-octets de mémoire cache, au lieu de six sur l'Itanium actuel. La mémoire cache de premier et second niveau, intégrée au processeur, stocke les informations les plus fréquemment utilisées avec un temps d'accès bien plus rapide que celui de la mémoire vive. Intel avait déjà annoncé que ce processeur serait doté de deux puces, ou "dual core" (double noyau), mais il disposera également d'une technologie logicielle de "multi-threading" (multi-canaux) qui permet d'exécuter simultanément plusieurs applications sans dégradation de performance. La série des Itanium gère les données par paquets de 64 bits à la fois au lieu de 32 pour les processeurs actuels Pentium et Xeon conçus par Intel. Les processeurs Itanium ne peuvent fonctionner en mode 64 bits qu'à condition que les logiciels aient été optimisés pour ce mode, ce qui est actuellement le cas pour un millier d'applications, a déclaré une responsable du projet, Lisa Graff.

Reuters : http://fr.news.yahoo.com/031114/85/3hwne.html

Total inaugure sa première centrale éolienne près de Dunkerque
Samedi, 22/11/2003 - 00:00

Le PDG de Total, Thierry Desmarest, a inauguré vendredi la première centrale éolienne du groupe pétrolier français sur le site de la raffinerie des Flandres à Mardyck (Nord), un projet pilote qui permettra de comparer trois technologies différentes, selon le groupe."Nous ne sommes pas là pour des raisons d'image" mais en tant "qu'industriel", a déclaré M. Desmarest lors de la cérémonie d'inauguration. Les cinq éoliennes de dernière génération, représentant une puissance installée de 12 mégawatts (MW), produiront chaque année l'équivalent de la consommation d'électricité de 15.000 personnes, a précisé Total dans un communiqué. La centrale éolienne de Mardyck représente pour Total un investissement d'environ 15 millions d'euros. L'électricité produite est vendue à EDF qui la distribue sur le réseau public au niveau régional. De grande taille, les trois modèles d'éoliennes sélectionnés (General Electric, Nordex et Vestas), dotés de pales de 40 à 50 mètres montées sur des mâts de 80 à 95 mètres, allient "puissance électrique, emprise au sol limitée et faible niveau sonore", a assuré le groupe pétrolier. Evoquant un déclin potentiel des hydrocarbures à l'horizon 2020-2030, M. Desmarest a déclaré: "C'est parce que c'est loin qu'il faut faire émerger de nouvelles énergies qui vont prendre le relais". "La filière doit recevoir un appui pour rattraper son retard", a encore dit M. Desmarest, évoquant le retard français en la matière. Total a par ailleurs indiqué qu'il avait déjà répondu à un appel d'offre en Grande-Bretagne pour un projet off shore et comptait se porter candidat pour les appels d'offre que va lancer le gouvernement français à la fois pour des projets sur terre et sur mer.

Total :

http://www.total.com/ho/fr/library/press/2003/031114.htm

^ Haut
Espace
Espace et Cosmologie
Un télescope des abysses pour percer les mystères de l'Univers
Samedi, 22/11/2003 - 00:00

Claudie Haigneré a inauguré hier à La Seyne-sur-Mer le télescope à neutrinos Antarès, installé à 2 500 mètres de profondeur au large de l'île de Porquerolles (Var). L'installation servira dès 2006 à détecter des neutrinos cosmiques de très haute énergie, venant de toutes les régions du ciel. Les neutrinos sont des particules élémentaires très courantes, mais difficilement détectables, car elles interagissent très peu avec la matière. Par exemple, sur dix milliards de neutrinos émis au centre du Soleil, un seul rentrera en collision avec la matière solaire et se désintégrera. Des neutrinos venant du Soleil ont déjà été repérés dans divers observatoires dans le monde, mais Antarès veut aller plus loin, en cherchant à observer ceux provenant de l'univers entier. Pour en observer le plus grand nombre possible, les physiciens essaient de réaliser des détecteurs de plus en plus grands. Dans le cas d'Antarès, le détecteur occupera un volume délimité par une surface de 10 hectares au fond de la mer et une hauteur de 300 mètres ! Un millier de capteurs de lumière montés sur des lignes verticales de 400 mètres de long ancrées au fond de la mer essaieront de détecter les flashes lumineux produits par le choc d'un neutrino qui traversait la Terre. En fait, Antarès détectera la lumière émise par les produits des neutrinos qui ont traversé la Terre et interagi avec elle au voisinage du fond marin. Les capteurs sont fabriqués par l'homme, mais en revanche le révélateur de l'expérience est la mer Méditerranée elle-même. Le choix du site, à 40 km au large de Porquerolles, a été dicté par la clarté de l'eau de mer à cet endroit, et par la très grande profondeur. Les 2 500 mètres d'eau de mer font écran pour un grand nombre d'autres particules qui provoqueraient des signaux parasites. Ce détecteur des abysses préfigure un projet de télescope semblable, mais encore plus ambitieux, dont le volume détecteur serait d'un kilomètre cube. Ce futur observatoire devrait alors «voir» suffisamment de neutrinos pour dresser une carte des principales sources de ces discrètes particules dans l'Univers.

Figaro : http://www.lefigaro.fr/sciences/20031119.FIG0257.html

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
Plus de 10 000 espèces menacées d'extinction
Samedi, 22/11/2003 - 00:00

L'Union mondiale pour la nature (UICN) a rendu public, mardi 18 novembre, son inventaire annuel sur l'état de conservation des plantes et des animaux à travers le monde. Selon cette "liste rouge", 12 259 espèces sont aujourd'hui menacées d'extinction, contre 11 167 en 2002. Elle relève, par ailleurs, que 762 espèces de plantes et d'animaux ont disparu depuis le XVIe siècle et que 58 ne vivent plus qu'en culture ou en captivité. Achim Steiner, directeur général de l'UICN, estime que cette évaluation ne représente que "la partie émergée de l'iceberg". Il se dit néanmoins "confiant du fait que ce chiffre est un indicateur de l'état global de la diversité biologique". Il appelle "à une solide action de conservation" et réclame "une volonté politique et les ressources pour endiguer la perte de biodiversité". Selon lui, si "les activités humaines sont peut-être la principale menace pour les espèces dans le monde

UICN :

[http://www.iucn.org/info_and_news/press/listerougeuicn2003.pdf">...], l'homme peut aussi aider à leur rétablissement". L'augmentation du nombre d'espèces répertoriées comme "menacées" par l'UICN ne signifie pas nécessairement que la nature est davantage en danger, mais bien que les quelque 10 000 chercheurs affiliés à l'organisme ont inscrit davantage d'espèces à la liste. Cette année, par exemple, les algues et lichens ont fait leur entrée dans le catalogue. Parmi les espèces risquant de disparaître, le rapport 2003 attire notamment l'attention sur le poisson-chat géant du Mékong, l'un des plus grands poissons d'eau douce du monde. Celui-ci est passé de la catégorie "en danger" à celle de "en danger critique d'extinction". Sa population a, en effet, été réduite de 80 % au cours des treize dernières années du fait de la surpêche, de la modification de son habitat et de la construction de barrages. Selon l'UICN, la faune et la flore sont gravement menacées dans les îles tropicales où "les activités humaines [...] conduisent vers une vague d'extinctions qui pourrait rendre ces îles écologiquement et esthétiquement stériles". L'avenir de la flore hawaïenne, où 125 plantes sont menacées par l'urbanisation, les infrastructures touristiques et l'agriculture, est notamment jugée "sombre". Cette alerte concerne également les îles des Malouines, de l'Ascension et de Sainte-Hélène, qui sont le cadre "d'assemblages uniques d'animaux et de plantes [...] extrêmement vulnérables aux perturbations d'origine humaine". Or, selon l'UICN, "la destruction d'habitat, l'introduction d'animaux herbivores et la prédation par ou la concurrence avec les espèces envahissantes persistent".

UICN :

[http://www.iucn.org/info_and_news/press/listerougeuicn2003.pdf

La mer de glace d'Antarctique en déclin constant depuis 50 ans
Samedi, 22/11/2003 - 00:00

Des chercheurs australiens ont mis en évidence une diminution régulière et importante de la mer de glace en Antarctique au cours des 50 dernières années mais ignorent pour le moment si elle est due au changement de climat ou à un cycle naturel.Publiés vendredi dans le journal Science, les travaux des glaciologues de la division Antarctique du gouvernement australien ont révélé, grâce à l'étude d'échantillons de glaces prélevés en profondeur, une diminution de 20% de la mer de glace autour de l'Antarctique depuis 1950. Ce déclin est plus prononcé qu'on l'avait initialement soupçonné et contraste avec les observations par satellite qui avaient indiqué que la superficie de la mer de glace se serait accrue lors des 30 dernières années. Mark Curran, qui a dirigé ce programme de recherche, a indiqué que leurs travaux sur la composition chimique de ces échantillons de glace permettaient de remonter jusqu'à 1840, apportant les premières données de long terme sur le déclin de la couverture glaciaire de l'Antarctique. "Nous devons prendre en compte le fait que jusqu'à maintenant, les données ont reposé, pour une large part, sur des observations satellites en cours depuis les années 1970. Notre travail démontre que 30 ans est un période très courte pour tirer des conclusions", a-t-il déclaré. "Cette recherche, faite à partir d'échantillons prélevés à 150 mètres d'altitude sur le site du Low Dome, étend notre connaissance jusqu'à 1840 et explique pourquoi les observations par satellite sont trompeuses". "La détection de changements à long terme est en fait masquée par d'importantes fluctuations de la mer de glace d'une décennie à l'autre. Ces fluctuations ont conduit à penser qu'il y avait eu une augmentation de la surface de la mer de glace sur le court terme", a indiqué le chercheur. La mer de glace de l'Antarctique se forme et se décompose chaque année selon un cycle qui joue un rôle important dans la circulation des océans, les échanges de masses chaudes et le climat mondial. Des inquiétudes de plus en plus vives ont émergé ces dernières années au sujet du réchauffement global, provoqué par les émissions de gaz à effet de serre qui entraînent un fonte de la couverture polaire. Ce phénomène pourrait provoquer l'inondation des zones côtières en basse altitude et de certains atolls. Dans leur étude, les chercheurs australiens ont mesuré, grâce à leurs échantillons, les niveaux d'un gaz produit naturellement à la surface des océans par l'activité du phytoplancton, au cours des 160 dernières années. Le phytoplanton est un végétal unicellulaire, qui constitue la principale alimentation pour des espèces telles que le krill et les baleines. Son activité dans l'Océan du sud est étroitement liée à la configuration de la mer de glace. "Ce que nous pouvons dire à partir des données obtenues grâce à ces échantillons est qu'entre 1841 et 1950 il y a eu peu de changements mais il y a en revanche un déclin significatif d'environ 20 % de la mer de glace depuis 1950", a indiqué M. Curran. Les scientifiques essaient cependant toujours de déterminer si ce déclin est le résultat des changements climatiques ou simplement le fait d'un cycle naturel, a-t-il ajouté.

Science : http://www.sciencemag.org/sciext/sotp/

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Une molécule prometteuse pour stopper le diabète
Samedi, 22/11/2003 - 00:00

Un médicament expérimental, mis au point par des chercheurs israéliens, permettrait d'arrêter la progression du diabète de type 1 ou diabète juvénile, en empêchant l'organisme des patients de détruire ses propres cellules productrices d'insuline. Les résultats de cet essai préliminaire ont été publiés samedi dans la revue britannique médicale The Lancet. Le médicament en question, la molécule "DiaPep277", a été développé par la compagnie pharmaceutique Peptor (Rehovot, Israël). La molécule a été administrée par tirage au sort à 15 hommes dont le diabète venait d'être diagnostiqué, tandis que 16 autres recevaient un placebo. Elle a ainsi permis de stopper l'autodestruction des cellules du pancréas qui fabriquent l'hormone insuline (voir encadré ci-dessous). Ce faisant, elle réduit significativement les besoins en injection d'insuline au terme de dix mois de traitement, selon les chercheurs de l'université Hadassah de Jérusalem et de l'Institut Weizmann. "Notre recherche montre qu'il est possible de prévenir ou de stopper l'attaque du système immunitaire dirigée contre les cellules qui produisent l'insuline", commente le Dr Dana Elias, vice-président Recherche et Développement de Peptor qui a financé l'essai. La firme va par ailleurs tester son produit sur des adultes présentant une forme latente de diabète auto-immun ("LADA"), qui survient après 40 ans chez des adultes atteint de diabète de type 2. Comme dans le diabète de type 1, leur système immunitaire agresse et détruit les cellules qui produisent l'insuline. Ils doivent donc aussi s'injecter de l'insuline pour maintenir à la normale leur niveau de sucre sanguin.

Lancet : http://www.thelancet.com/newlancet/current

Le cancer de la peau souvent associé à d'autres cancers
Samedi, 22/11/2003 - 00:00

Les femmes présentant une forme bénigne de cancer de la peau, auraient deux fois plus de risques de souffrir d'un autre cancer, selon une étude américaine qui souligne toute l'attention qu'il faut porter au diagnostic de cancer cutané, même bénin. Ce lien du cancer de la peau a été établi avec de nombreux cancers, notamment ceux du cerveau, du sein, du poumon, du foie, de l'ovaire et de l'utérus. Les travaux sont publiés dans le numéro de janvier de la revue Cancer, une publication de la société américaine du cancer dont la version Internet a été mise en ligne lundi. Des études antérieures avaient déjà souligné que les hommes et les femmes qui souffraient d'un cancer de la peau autre que le mélanome, présentaient plus de risques de développer un autre type de cancer. Mais selon le Dr Carol Rosenberg, première auteure de la nouvelle étude, les études précédentes avaient omis les autres facteurs de risque qui auraient pu expliquer cette correspondance. Carol Rosenberg travaille au centre de santé d'Evanston-Northwestern, qui fait partie de l'école médicale de l'Université du Nord-Ouest. Son étude concerne 92.835 femmes ménopausées. Bien qu'elle prenne en compte cette fois les différents facteurs de risque de cancer (tabagisme, poids et niveau d'éducation, notamment), ses résultats rapportent aussi une augmentation du risque de cancers liés au cancer de la peau. Carol Rosenberg a déclaré qu'elle pensait que ces résultats pouvaient aussi être applicables à l'homme, puisque les études précédentes concernaient les deux sexes. Sur les quelque 85.000 femmes qui n'avaient pas de cancer de la peau, un peu plus de 11%, soit 9.927, ont déclaré souffrir d'un autre cancer. Et sur les 7.665 qui avaient déclaré avoir souffert d'une forme bénigne de cancer de la peau, près de 25%, soit 1.878, ont déclaré qu'elles souffraient aussi d'une autre forme de cancer. Dans les études précédentes, et bien qu'ils manquent d'informations, les scientifiques pensaient que le cancer de la peau précédait l'apparition des autres cancers, a insisté le Pr Rosenberg. Les cancers bénins de la peau touchent plus d'un million d'américains chaque année. Ces cancers se développent moins vite que le mélanome.

Cancer journal : http://www.interscience.wiley.com

Oméga 3 et 6 protègent contre certains cancers
Samedi, 22/11/2003 - 00:00

Un rapport du groupe de travail « Acides gras et cancer », rendu public lors des 4es Journées scientifiques du réseau NACRe fait le point sur l'état des connaissances sur le rôle des acides gras dans la cancérogenèse. S'il est admis que la réduction des lipides totaux est bénéfique, le rôle des acides gras, notamment des oméga 3 et oméga 6 reste encore à préciser. « Aujourd'hui, il est admis que la consommation excessive de lipides totaux, parce qu'elle contribue fortement à l'apport énergétique, peut conduire au surpoids et à l'obésité, qui, rappelons-le, sont des facteurs de risque de cancer », notent les experts de la nutrition et du cancer réunis au sein du groupe Acides gras et cancer de l'AFSSA (Agence de sécurité sanitaire des aliments) et NACRe (Réseau national alimentation cancer recherche). Cependant, selon leur nature (notamment leur degré d'insaturation), la famille à laquelle ils appartiennent et le profil alimentaire global du consommateur, les effets des acides gras diffèrent : ils augmentent ou diminuent le risque de cancer. Après vingt ans de recherche, les données, en ce domaine, restent encore controversées. Dans le cadre des deux programmes nationaux de lutte contre le cancer : PNNS (Programme national nutrition santé) et Plan cancer, les experts ont voulu dresser un état des connaissances et dégager des perspectives pour faire progresser la recherche.Les données disponibles sont encore divergentes. Les acides gras mono-insaturés (AGMI), semblent associés à une diminution du risque. « Mais attention, préviennent les auteurs. Cette réduction de risque n'est valable que si le profil alimentaire global est de type méditerranéen. Si ce profil est de type occidental, les apports en AGMI, à l'inverse, sont corrélés à une augmentation du risque de cancer ». Manger de l'huile d'olive qui contient de l'acide oléique, l'AGMI le plus abondant de l'alimentation, ne suffit donc pas. Même chose en ce qui concerne les acides gras poly-insaturés (AGPI). Pour le cancer colo-rectal, une alimentation riche en poisson (oméga 3) aurait un effet protecteur, mais il faut signaler que « l'apport en acide gras alpha-linolénique (oméga 3) est associé à une augmentation significative du risque de cancer de la prostate », plus marquée pour le stade avancé. Enfin, les recommandations restent à préciser. Celles qui sont disponibles ne concernent pas spécifiquement les acides gras, mais les apports en graisse dans l'alimentation générale, dans le cadre de la prévention des maladies chroniques dont les cancers font partie. Elles incluent la surveillance du surpoids, car on sait que le risque de cancer est minimal lorsque l'indice de masse corporelle est maintenu entre 18,5 et 25.

Quotimed :

http://www.quotimed.com/information/index.cfm?

Des chercheurs réussissent à créer un virus de toutes pièces
Samedi, 22/11/2003 - 00:00

Des chercheurs américains ont réussi à créer de toutes pièces un virus artificiel, à partir de gènes de synthèse, fonctionnant à l'identique d'un virus simple existant à l'état naturel, qui s'attaque aux bactéries, selon des travaux rendus publics jeudi par les chercheurs.Les scientifiques, ont réussi à reproduire le virus appelé Phi-X174, un bactériophage, et cela en seulement 14 jours. La technique utilisée dans ces travaux dirigés par le chercheur Craig Venter, auparavant à la tête de l'un des projets de séquençage du génome humain, ouvre la voie à la manipulation de gènes au sein d'organismes ou virus plus complexes, soulignent les scientifiques. "Le potentiel de cette recherche à révolutionner notre avenir est énorme", a estimé le secrétaire américain à l'Energie, Spencer Abraham en qualifiant ces travaux de "développement extraordinaire", lors d'une conférence de presse avec M. Venter. Pour parvenir aussi rapidement à ce résultat, les chercheurs ont adapté la technique d'amplification en chaîne par polymérase utilisée dans le décodage de l'ADN. Leur nouvelle technique appelée cycle d'assemblage par polymérase a permis de mettre bout à bout plusieurs sections du génome du virus à partir d'ologonucléotides, des molécules constituées de courtes séquences d'ADN. Puis, ils ont reconstitué les deux brins de la double hélice formant le génome du virus, expliquent-ils dans leurs travaux à paraître dans les Comptes rendus de l'Académie des Sciences américaines. Les chercheurs ont ainsi réussi à recréer synthétiquement un virus bactériophage, qui s'est montré capable d'infecter et de tuer des cellules de bactérie. Les travaux font l'objet d'une conférence de presse organisée jeudi au département américain de l'Energie, en présence du secrétaire à l'Energie Spencer Abraham, qui en 2002 avait donné le feu vert au financement des travaux de l'Institut pour des alternatives d'énergie biologique (IBEA), basé à Rockville (Maryland), présidé par M. Venter. Le scientifique était devenu célèbre pour avoir réussi le premier, en 2001, à décrypter le génome humain. A la fin 2002, il avait annoncé son intention de se lancer dans une autre aventure: créer une nouvelle forme de vie synthétique. Ce projet, qui soulève d'importantes questions éthiques, a reçu une subvention de trois millions de dollars du département américain de l'Energie. L'objectif général consiste à mettre au point un génome synthétique qui serait le premier pas vers la mise au point de "sources d'énergie biologique efficaces et rentables", avait alors expliqué l'ancien patron de la firme américaine Celera Genomics. L'organisme fabriqué ne contient qu'environs 5.000 bases, constituant l'ADN. Mais "cette avancée nous rapproche de l'objectif de réussir à créer des microbes entiers qui sont 100 à 1.000 fois plus gros que ce virus artificiel", a estimé M. Spencer. "Avec cette avancée, il est facile d'imaginer dans un avenir pas trop lointain, une colonie de microbes spécialement créés pour vivre dans le système de contrôle des émissions d'une usine électrique à charbon, qui dévoreraient sa pollution et son dioxyde de carbone, ou des microbes employés pour réduire drastiquement la pollution de l'eau, ou les effets toxiques des déchets nucléaires", s'est pris à rêver le secrétaire à l'Energie.

PNAS : http://www.pnas.org/

La réponse à double détente des lymphocytes tueurs
Samedi, 22/11/2003 - 00:00

L'équipe Inserm U563 de Salvatore Valitutti, groupe " interaction lymphocytaires ", Toulouse, vient de démontrer que les lymphocytes T cytotoxiques, acteurs clés de la réponse immunitaire, sont capables de détruire des cellules anormales sous l'effet d'une stimulation extrêmement faible, et sans être pleinement activés.Cette découverte, révélée dans l'édition du PNAS (Proceedings of the National Academy of Sciences of the United States of America) du 10/11/2003, est la première analyse de plusieurs paramètres d'activation des lymphocytes T à l'échelon d'une cellule isolée. Les lymphocytes T CD8 ou " cytotoxiques " (LTC ; littéralement : tueurs de cellules) ont déjà livré aux immunologistes bon nombre de leurs secrets. Cette catégorie particulière de globules blancs détecte toute cellule de l'organisme présentant à sa surface soit des fragments de virus, soit des molécules anormales, ces dernières pouvant révéler la présence d'une cellule cancéreuse. Au contact de ces cellules, les lymphocytes se polarisent et sécrètent des granules remplis de perforines et de granzymes, molécules qui perforent la membrane protectrice des cellules cibles et provoquent leur mort immédiate. La réorganisation moléculaire au site de contact entre la cellule destructrice et sa cible est appelée synapse immunologique mature. Les auteurs ont mis en évidence qu'à des concentrations antigéniques faibles, les LCT ne font pas de synapse immunologique mature mais sont néanmoins capables de sécréter des granules lytiques qui tuent la cible. Au contraire, à forte concentration d'antigène, les LCT forment des synapses immunologiques matures et non seulement sécrètent des granules lytiques mais également des cytokines impliquées dans l'amplification de la réponse immunitaire. En fait, au cours de ce processus, les LTC s'activent davantage : ils subissent des bouleversements intracellulaires majeurs qui les conduisent à libérer des interleukines, messagers chimiques qui attirent d'autres lymphocytes et provoquent leur multiplication. La mise en place de cette " armada " est plus lente (plusieurs heures, voire plusieurs jours au lieu d'une fraction de minute), mais elle permet de faire face à la prolifération de cellules malades. Plusieurs travaux antérieurs ont montré que seule la concentration en antigène (virus ou molécule tumorale) détermine le mode d'activation des LTC ; une seule particule virale suffit à engager le processus de destruction immédiat, alors que la production d'interleukine nécessite une charge virale plus importante. Les auteurs montrent maintenant qu'à l'échelon d'une seule cellule, l'activation du LCT conduit à la cytotoxicité uniquement ou bien associée à la production de cytokines, correspondant dans chacun des cas à la formation de synapses immunologiques différentes. Pour la première fois, les chercheurs toulousains, en collaboration avec leurs collègues du Royaume Uni, ont étudié ce processus dans des lymphocytes individualisés. Jusqu'alors, l'observation concernait des populations lymphocytaires entières. Il était de ce fait impossible de savoir si un même lymphocyte T était capable soit de tuer soit de produire des cytokines en fonction de la concentration antigénique. L'équipe de l'Inserm a résolu cette énigme en multipliant les moyens d'observation. Les résultats indiquent que tout LTC peut s'engager dans l'une ou l'autre des deux voies d'activation, en fonction de la charge antigénique. Lorsque celle-ci est minimale, les LTC établissent avec leur cellule cible un contact rudimentaire, que les auteurs baptisent "synapse lytique" ; le cytosquelette s'oriente en direction de la cellule contaminée, les granules sont préparés et excrétés dans cette même direction, le tout sous l'effet de vagues calciques successives (le signal calcique est " oscillant "). En revanche, en présence de taux d'antigènes élevés, les LTC établissent une " synapse activatrice ", associée certes à la libération de granules cytotoxiques mais de plus au déclenchement d'une cascade de réactions biochimiques concomitantes. Le signal calcique, dans ce cas, présente un aspect beaucoup plus linéaire. L'une des premières implications de cette découverte concerne la recherche contre les cancers. Les LTC ne gagnent pas toujours la bataille contre les cellules tumorales ; dissimulent-elles leurs antigènes ? Détruisent-elles les LTC ? Inhibent-elles la formation de synapses lytiques ? Cette dernière hypothèse est en cours d'investigation à Toulouse.

Inserm Actualités :

http://www.inserm.fr/servcom/servcom.nsf/(Web+Startup+Page)?ReadForm&actualite

Neurosciences: une recherche insuffisante en France
Samedi, 22/11/2003 - 00:00

La recherche française a pris du retard dans le vaste domaine des neurosciences ou sciences du cerveau, déplore l'Académie des sciences dans un rapport rendu public lundi."L'énorme retard de la France", appelle un véritable effort "pas seulement financier' et "une véritable mutation" à la mesure des enjeux, a relevé à cette occasion le professeur Henri Korn, qui a coordonné ce rapport de 329 pages (éditions tec-et-doc) assorti de recommandations. Les neurosciences mettent en oeuvre diverses compétences, associant les sciences du vivant, de l'ingénieur (physique, chimie, mathématiques, informatique) et les sciences humaines (linguistique, neuropsychologie expérimentale...). Les neurosciences nécessitent une "politique à long terme" en particulier en investissements chers (appareils d'imagerie...) et de revoir la formation actuelle inadaptée, selon l'académie. Source de progrès (stimulation cérébrale dans certains cas de maladie de Parkinson), elles offrent des espoirs à venir: prothèses de membres contrôlées par le cerveau (neurorobotique), des thérapies cellulaires ou géniques. Abordant de multiples domaines (neurogénétique, neuroinformatique...), les neurosciences concernent nombre d'handicaps ou maladies (démences, sclérose en plaques, autisme, maladies psychiatriques...). "Les troubles de l'humeur (dont la maladie maniaco-dépressive) sont la première cause de handicap et de coût économique et la seconde cause de souffrance liée aux maladies, dépassant ainsi les maladies cardio-vasculaires, la démence, le cancer broncho-pulmonaire et le diabète", souligne le rapport. D'autres pathologies ont besoin des progrès de la science comme les démences (dont 70% environ d'Alzheimer) avec 560.OOO cas et 140.000 nouveaux cas par an en France, et la perspective de voir doubler ce chiffre en 2020 en raison de l'allongement de la durée de vie. Les accidents vasculaires cérébraux (110.000 nouveaux par an en France) et la schizophrénie (1% de la population) sont également concernés. "La maladie épileptique, qui touche près d'un demi-million de personnes en France, reste une affection handicapante et souvent intraitable pour au moins 30 % des cas et ce malgré l'importance des récentes découvertes", ajoute le rapport.

Académie des sciences :

http://www.academie-sciences.fr/publications/rapports/rapports_html/RST16.htm

Propagation de foyers épileptiques : les mécanismes élucidés
Samedi, 22/11/2003 - 00:00

Quels sont les mécanismes à l'origine des crises d'épilepsie ? Des chercheurs de l'Inserm pensent avoir éclairci, en partie les zones d'ombre qui planaient encore sur cette pathologie. Ils publient leurs travaux dans la revue Nature Neuroscience. Mouvements convulsifs, chutes, relâchements des sphincters sont les principaux symptômes de l'épilepsie, maladie neurologique qui se manifeste par des crises à répétition, dues à l'expression d'un dysfonctionnement de l'activité électrique du cerveau. Il existe plus de 3 formes différentes de cette pathologie. On estime que 40% de crises sont symptomatiques et seulement 5% seraient d'origine génétique. En France, plus de 450.000 personnes sont sujettes à ces crises et plus de la moitié d'entre elles ont moins de 20 ans. Les scientifiques estiment qu'environ 5% de la population est susceptible à tout moment de déclarer la maladie. C'est en utilisant une nouvelle méthode de préparation in vitro des cellules nerveuses que Yehezkel Ben-Ari et ses collègues de l'Institut de Neurobiologie de la Méditerranée (Inserm) ont pu observer les différents mécanismes qui régissent les crises épileptiques et qui permettent de convertir un système neuronal sain en un réseau malade. Ils ont ainsi montré que c'est une modification au niveau des synapses à GABA (acide gamma amino-butyrique) qui serait à l'origine du changement d'état du système nerveux. Les synapses sont les lieux de transfert d'informations entre les neurones. Cette modification des synapses pourrait être diffusée lors de l'orage électrique à l'origine de la crise. En effet, ce dernier pourrait, en se propageant, transformer des zones cérébrales saines en foyers autonomes à l'origine de nouvelles crises. Yehezkel Ben-Ari estime que cette découverte qui permet de faire la distinction entre un état sain et un état de crise pathogène pourrait avoir d'importantes conséquences sur les traitements, notamment chez les enfants.

Inserm :

http://www.inserm.fr/servcom/servcom.nsf/(Web+Startup+Page)?ReadForm&actualite

^ Haut
Homme
Anthropologie et Sciences de l'Homme
France 5 lance un service de vidéos éducatives à la demande
Samedi, 22/11/2003 - 00:00

La chaîne France 5, en collaboration avec le Centre national de documentation pédagogique, a lancé mercredi le premier service français de vidéos éducatives à la demande. Réalisé dans le cadre d'un accord avec le ministère de la Culture et celui de l'Education, ce service accessible sur Internet à partir du portail met notamment à la disposition des enseignants un catalogue de 800 séquences audiovisuelles, libres de droits, qui leur permettent d'illustrer les différentes matières du programme. Les vidéos peuvent être visionnées au domicile de l'enseignant ou dans le cadre de l'établissement à condition de disposer du haut débit et moyennant un coût forfaitaire, fixé suivant le nombre d'élèves de l'établissement. Le ministre délégué à l'Enseignement scolaire, Xavier Darcos, qui assistait à ce lancement en compagnie du ministre de la Culture Jean-Jacques Aillagon lors d'une visite du Salon de l'éducation à Paris, a salué ce "bond formidable, qualitatif" pour les élèves. M. Aillagon a noté que le site, qui compte déjà cinq disciplines (histoire, géographie, sciences de la vie, sciences de la terre et maîtrise des langages) en compterait bientôt une autre sur la formation à la création artistique. A l'occasion de leur visite du salon, MM. Aillagon et Darcos ont également signé avec l'Ircam, le département musical du Centre Georges Pompidou à Paris, une convention qui permettra à l'Ircam de créer de nouveaux outils, notamment des logiciels, pour l'enseignement spécialisé de la musique.

AFP : http://fr.news.yahoo.com/031119/1/3i7ge.html

^ Haut
Recherche
Recherche & Innovation, Technologies, Transports
L'Europe veut mettre les TIC au service de la sécurité routière
Samedi, 22/11/2003 - 00:00

Erki Liikanen, commissaire européen en charge de la société d'information, a fait le point sur le programme e-safety. Ce programme est né en avril 2002 d'un terrible constat : la route tue chaque année en Europe 40000 personnes et en blesse 1,7 million, ce qui représente un coût estimé de 160 milliards d'euros, soit 2% du PIB de l'UE. Le groupe de travail a pour mission de fixer un plan de sécurité routière basé sur les nouvelles technologies comme les systèmes de diagnostic embarqué, l'information en temps réel sur la circulation routière, la présence de capteurs sur les bandes blanches... Ce groupe de travail, composé notamment de constructeurs automobiles, d'exploitants d'autoroute, d'assurances et d'organismes de sécurité routière, vient de rendre son rapport public. Ce dernier comporte une série de vingt-huit recommandations basées sur la sécurité et l'amélioration des équipements automobiles ou des infrastructures routières, et non pas sur la répression. L'enjeu de l'intégration de nouvelles technologies dans les systèmes embarqués pose néanmoins l'épineux problème de la rentabilité pour les constructeurs automobiles. « L'introduction de systèmes de sécurité intelligents (...) augmente le coût de fabrication, la consommation d'énergie et le poids des véhicules. (...) Si la commercialisation repose uniquement sur l'analyse de rentabilité des constructeurs(...), la mise sur le marché des nouvelles fonctions s'effectuera dans un premier temps sur les séries haut de gamme. » Par conséquent, il pourra s'écouler un laps de temps considérable avant que les voitures des jeunes conducteurs bénéficient de ces mesures de sécurité. C'est dans cette optique qu'e-safety préconise « que le secteur public collabore avec le secteur privé à la fois en investissant dans l'infrastructure nécessaire, et en prenant des mesures pour favoriser la commercialisation des nouvelles technologies. » La Commission suggère donc la création de systèmes ouverts et paneuropéens. L'appel d'urgence, ou E-call, pourrait bien en être la première application concrète. En cas d'accident, l'E-call sera déclenché automatiquement. Il communiquera, via les réseaux de téléphonie mobiles, des informations, dont la localisation du véhicule, à un centre de réception d'appel d'urgence (SAMU, SMUR...). Cet appel d'urgence se base sur la norme publique européenne de géolocalisation e-112, déjà en application dans les états membres. L'ensemble des projets du programme e-safety dépasse 160 millions d'euros, dont 74 millions financés par le budget communautaire.

Europa :

http://europa.eu.int/rapid/start/cgi/guesten.ksh?

Programme e-safety :

http://europa.eu.int/information_society/programmes/esafety/index_en.htm

Monsieur Trégouët présente le budget " Recherche et nouvelles technologies" au Sénat
Samedi, 22/11/2003 - 00:00

La commission des Finances a examiné le jeudi 13 novembre les crédits de la recherche et des nouvelles technologies, sur le rapport de M. René Trégouët, rapporteur spécial. M. René Trégouët, rapporteur spécial, a tout d'abord présenté à ses collègues une série de statistiques et de graphiques tendant à situer l'évolution du budget de la recherche en 2004, dans le cadre des tendances constatées depuis plusieurs années, en ce qui concernait les dépenses nationales de recherche, dans leur ensemble, en France et dans les principaux pays de l'OCDE (organisation de coopération et de développement économique).

Le commentaire de ces divers éléments a fait ressortir :

-* l'érosion globale de l'effort français de financement de la recherche ;

-* une participation des entreprises privées à ces dépenses, qui demeure proportionnellement inférieure en France (bien qu'ayant augmenté) à ce qu'elle est à l'étranger ;

-* en conséquence, un financement public plus important en France (0,93 % du PIB), que chez nos principaux partenaires à l'exception de l'Allemagne, pour les dépenses civiles.

M. René Trégouët, rapporteur spécial, a ensuite fait observer à la commission que la part des dépenses consacrées à la défense dans le financement total de la recherche était plus importante en Grande-Bretagne et aux Etats-Unis, ce qui expliquait, sans doute, que ce dernier pays versât, proportionnellement, davantage de subventions à ses entreprises privées que la France au titre de l'ensemble des activités considérées, civiles et militaires. Il a remarqué que c'était du reste, dans notre pays que les aides publiques aux recherches des entreprises avaient le plus diminué entre 1992 et 2000 (- 6,5 points en pourcentage de leurs dépenses, - 35 % en valeur absolue). Comparant ensuite les résultats de la recherche française à ceux des mêmes autres grands pays, il a constaté qu'ils n'étaient particulièrement « brillants » ni en termes de dépôts de brevets, ni en termes de publications scientifiques. M. René Trégouët, rapporteur spécial, a poursuivi son exposé en soulignant que le niveau des dépenses de recherche françaises (2,18 % du PIB) se situait en 2000, en-dessous de la moyenne de l'OCDE (2,24 %). Il a conclu cette présentation en estimant qu'il paraissait nécessaire de redynamiser l'effort de recherche français en y associant davantage nos entreprises. M. René Trégouët, rapporteur spécial, a préconisé l'adoption du budget du ministère de la recherche et des technologies nouvelles pour 2004 en raison des mesures qu'il prévoyait en faveur des jeunes chercheurs (assouplissement de leurs conditions de recrutement, augmentation des allocations doctorales et du nombre de bourses pour la recherche en entreprise) et de l'augmentation prévue des crédits d'incitation à la recherche dans les domaines prioritaires (fonds national de la science et fonds de la recherche technologique). M. René Trégouët, rapporteur spécial, a enfin remercié ses collègues pour leurs contributions à ce débat, essentiel pour l'avenir de notre pays. Il a rappelé la difficulté de réformer, ce qui nécessitait un vrai courage politique, les structures du système de financement actuel de la recherche, dont 90 % des moyens, s'agissant du budget du ministère, étaient distribués à des organismes autonomes. Il a évoqué, enfin, la crise des vocations actuelles pour la filière scientifique, aussi bien du côté des enseignants que des élèves. La commission a alors décidé de proposer au Sénat d'adopter les crédits de la recherche et des nouvelles technologies du budget du ministère de la jeunesse, de l'éducation nationale et de la recherche.

Sénat :

http://www.senat.fr/commission/fin/travaux.html

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top