|
|
Edito
Que de chemin parcouru en 2 ans
Quand en mai 1998, j'ai pris la décision de créer cette lettre hebdomadaire gratuite pour poursuivre le travail initié lors de la rédaction de mon ouvrage « Des Pyramides du Pouvoir aux Réseaux de Savoirs » (http://www.tregouet.org.senat/ntic/), je ne pensais pas que cette modeste cyber-revue de presse aurait autant de succès. Vous êtes maintenant des milliers et des milliers à lire chaque semaine @RT-Flash et vous êtes toujours plus nombreux semaine après semaine à nous rejoindre. En votre nom, je voudrais remercier mes quatre collaborateurs, Brigitte, Monique, Mark et Olivier, tous assistants parlementaires, qui, au-delà de leur déjà bien lourdes tâches, parcourent sans répit la toile pour débusquer la moindre information nous permettant de mieux entrevoir ce que sera notre monde de demain et ce, dans des domaines très divers. Mes remerciements s'adressent aussi à Jacques, notre Webmestre bénévole qui prend de plus en plus sur son temps de liberté pour gérer un site toujours plus complexe. Aujourd'hui, pour vous permettre de faire vous-même votre propre cyber-revue de presse et d'approfondir les sujets qui vous intéressent particulièrement, notre petite équipe a décidé d'insérer dans ce n° 100 d'@RT-Flash des liens actifs avec 120 sites qui comptent parmi ceux que nous visitons, semaine après semaine, pour vous relier aux informations que vous attendez. A titre personnel, je dois vous dire que la rédaction hebdomadaire de l'éditorial et la sélection des brèves parmi les très nombreuses qui me sont proposées par les membres de notre équipe a changé fondamentalement ma façon d'appréhender la planète Internet. Non seulement cette tâche exige quotidiennement une à deux heures (de mes nuits) mais surtout, grâce aux centaines d'échanges avec les internautes qu'entraînent les libres propos de mes éditoriaux, elle me permet de rencontrer, semaine après semaine, sur Internet des personnes pleines de bon sens et souvent fort érudites qui m'apportent beaucoup. Nous ferons tout pour encore améliorer l'attrait de notre cyber-revue de presse en établissant semaine après semaine des liens avec de nouveaux sites. Nous ferons en sorte, dans quelques mois, quand les technologies WAP seront devenues opérationnelles pour tous les possesseurs d'un téléphone portable, que vous puissiez recevoir les titres de nos brèves et sélectionner celles que vous voudriez lire en intégralité sur le support que vous choisirez. Mais aujourd'hui, pour déroger à notre ligne éditoriale habituelle qui nous incite à regarder l'avenir, je voudrais que nous fassions un rapide retour en arrière en ne remontant le temps que sur 2 ans pour nous retrouver au moment où nous avons créé @RT-Flash. En mai 1998, le microprocesseur Intel qui équipait les PC les plus performants battait à une fréquence de 350 Mégahertz. Les microprocesseurs d'Intel (rattrapés par ceux d'AMD) ont vu leur vitesse multipliée par 3 en deux ans puisque les processeurs qui vont équiper les micro-ordinateurs dans ces prochaines semaines dépassent la fréquence du Gigahertz. Pour prendre conscience de cette accélération des techniques qui, par ailleurs, respecte strictement la loi de Moore, il suffit de se rappeler qu'il avait fallu 27 ans pour passer d'une fréquence de 104 Kilohertz (1971) à cette fréquence de 350 Mhz (1998). Et que dirons-nous pour le Numéro 200 d'@RT-Flash quand on prend connaissance des récentes informations livrées par Intel et AMD qui s'engagent à livrer des microprocesseurs de 1,5 Ghz d'ici la fin de l'an 2000 ? En mai 1998, les USA comptaient 57 millions d'internautes (35 % de la population adulte) et la France 2 millions (5,5 % des foyers). En ce printemps de l'an 2000, il y aurait 80 millions d'Américains sur Internet (50 % de la population adulte) et 5,4 millions en France (15,2 % des foyers) (Sources : Net Value). En mai 1998, 6,7 millions de français possédaient un téléphone portable. Nous sommes maintenant 23 millions (multiplié par 4 en 2 ans).En mai 1998, la moitié du génome humain avait été décrypté. Dans quelques semaines sera annoncé le décryptage complet. Ainsi, il n'aura fallu que deux ans pour parcourir la deuxième moitié de ce magnifique chemin d'aventure alors qu'il en avait fallu huit (de 1990 à 1998) pour en parcourir la première moitié. Je pourrais citer encore de nombreux autres exemples de progrès fulgurants réalisés dans ces deux dernières années dans le domaine de la connaissance et des technologies, en particulier dans une meilleure appréhension de notre univers ou dans les nanotechnologies. Ce bref coup de projecteur en arrière, qui est une procédure extrêmement rare dans cette Lettre, a pour finalité de vous faire prendre conscience de la terrible accélération que nous sommes en train de vivre. Dans les dix années qui vont s'écouler jusqu'en l'an 2010, l'humanité va acquérir autant de connaissances qu'elle en a acquis depuis l'origine de l'homme jusqu'en cette année 2000. Ceci met en évidence toute la noble tâche à laquelle s'est attelée notre modeste cyber-revue de presse en vous donnant accès, semaine après semaine, à des informations qui vous permettront de mieux comprendre l'avenir. Merci pour votre confiance et l'assiduité avec laquelle vous lisez notre Lettre @RT-Flash ; c'est là où nous puisons l'énergie essentielle qui nourrit notre volonté. René TRÉGOUËT Sénateur du Rhône
|
|
|
|
|
|
|
|
TIC |
|
|
Information et Communication
|
|
|
|
|
|
RealNetworks Inc. annonce la sortie d'un nouveau programme, RealSystem 8, offrant une meilleure qualité d'image vidéo sur internet. La société américaine de logiciels, associée sur ce projet avec Intel Corp. pour la technologie visant à accélérer le débit des images, a déclaré que RealSystem 8 permettrait aux internautes se connectant à internet par modem d'obtenir une vidéo fluide. Pour les utilisateurs disposant d'une large bande passante, la résolution sera égale à celle d'une cassette vidéo VHS et se rapprochera de la qualité DVD (digital video disk) sur des réseaux à très haut débit ou en téléchargement, précise la société. Francis Ford Coppola cité par RealNetworks dans un communiqué de presse a déclaré : "RealNetworks a enfoncé les barrières de la vidéo par internet et fourni aux producteurs et diffuseurs de films des perspectives sans précédents." Yahoo : http://fr.news.yahoo.com/000524/32/eq82.html
|
|
|
|
|
La Deutsche Post proposera aux Allemands des adresses de courrier électronique gratuites à partir de la fin du mois de juin, a déclaré son directeur général, Klaus Zumwinkel, à l'hebdomadaire allemand Bild am Sonntag. Le service postal prévoit aussi d'obtenir 20 milliards de marks grâce à son entrée en Bourse prévue au mois de novembre, a dit Zumwinkel au journal dominical. Le service gratuit de messagerie électronique permettra à la Deutsche Post de se mettre à la page de l'ère internet, a-t-il précisé. La Deutsche Post créera un centre de gestion des e-mails qui sera accessible via des portails tels que AOL ou T-Online, a ajouté Zumwinkel. La poste allemande prévoit aussi de lancer un service grâce auquel les entreprises pourront lui envoyer des messages e-mail qu'elle imprimera et acheminera comme des lettres conventionnelles. Reuters : http://fr.news.yahoo.com/000528/32/f2c1.html
|
|
|
|
|
|
|
|
L'emploi dans ce secteur a augmenté de plus de 30% sur les six dernières années, selon l'étude publiée mardi par l'Association américaine de l'électronique (AEA) en partenariat avec la bourse électronique Nasdaq. Les salaires moyens du secteur sont également les plus élevés, avec 58 000 dollars par an, à comparer avec les 32 000 dollars annuels du salaire moyen américain hors fonction publique, note l'AEA. Au sein de la haute technologie, c'est la branche des logiciels qui offre la rémunération moyenne la plus forte avec 95 000 dollars par an. Tous les États ont bénéficié de la vague de création d'emplois dans ce secteur dans les trois dernières années, notamment sous l'impulsion du développement de l'internet. « L'étude montre que la haute technologie n'est plus confinée dans la Silicon Valley ou autour de Boston, mais elle a maintenant une étendue, un dynamisme et un impact qui s'étend d'un océan à l'autre », a indiqué William Archey, président de l'association professionnelle. Les créations d'emplois ont été les plus nombreuses en Californie, au Texas, en Virginie, dans le Colorado et en Géorgie, selon l'étude. C'est la Californie, avec notamment la Silicon Valley, qui emploie le plus grand nombre de salariés dans la haute technologie: 835 000 l'an dernier, et près de 200 000 en plus depuis 1993. Le Texas arrive au deuxième rang (411000) devant l'Etat de New York (329 000), l'Illinois (218 000) et le Massachusetts (217 000).
|
|
|
|
|
|
|
|
Au Canada, une génération entière d'écoliers du primaire et d'élèves du secondaire est en train de grandir avec l'internet, qui est connecté dans la totalité des établissements scolaires publics et des bibliothèques depuis le 30 mars 1999. Le Canada est le premier pays à avoir atteint une couverture aussi importante: 16.500 écoles publiques et 3.400 bibliothèques, à raison d'un ordinateur pour neuf écoliers dans le primaire et un pour huit dans le secondaire. Le programme volontariste (Rescol, Schoolnet) mené à l'initiative d'Industrie Canada, qui regroupe les gouvernements provinciaux et le secteur privé, prévoit que chaque classe soit connectée d'ici le 31 mars 2001. Mais l'équipement n'est pas suffisant. Encore faut-il s'en servir. Au Canada, le web est entré dans les moeurs: plus de 50% des élèves du secondaire ont déjà conçu ou entretenu un site web, a souligné Paul Cappon, directeur général du conseil des ministres de l'Education du pays, lors du premier "marché mondial de l'éducation" (WEM) qui s'est tenu cette semaine à Vancouver. "L'utilisation d'internet en tant que source d'information et moyen de communication augmente si vite dans les écoles que les capacités d'accès sont souvent inférieures à la demande", ajoute-t-il. Ces changements ne se font pas sans résistances chez les enseignants dont le rôle est profondément remis en cause. Ils ne sont plus les seuls détenteurs du savoir, et doivent devenir accompagnateurs ou animateurs. "L'un des principaux freins au changement est probablement le corps enseignant lui-même", a déclaré à l'AFP Penny Milton, directrice générale de l'association canadienne d'éducation (ACE), qui regroupe les principaux acteurs intéressés par les questions d'éducation (syndicats, associations, parents d'élèves..). La formation de base des enseignants s'est améliorée, mais elle n'est pas suffisante pour que l'outil soit réellement intégré à leur pédagogie, ajoute-t-elle. Finalement, c'est probablement les enfants eux-mêmes qui obligeront les enseignants à bouger, car "si on a grandi avec l'internet, on a plus d'exigences sur le travail de classe que si on ne l'a pas eu", ajoute-t-elle. Elle reconnaît néanmoins qu'un débat important agite le pays entre ceux qui sont prêts au changement, et ceux qui doutent de l'efficacité réelle de l'outil dans le processus d'acquisition des connaissances. Auxquels s'ajoute une frange de contestataires purs et durs. Ceux-là estiment que les technologies nouvelles sont aux mains des entreprises qui les utilisent pour leur propre avantage, et qu'elles sont une menace pour la survie de l'école publique. Au niveau des résultats, il est encore tôt pour juger. Les défenseurs du web à l'école soulignent que certains enfants passent plus de temps devant leur ordinateur que devant la télévision. Guy Bergeron, responsable du projet Protic, l'une des multiples expériences pédagogiques menées au Canada sur le travail en classe avec internet affirme qu'en terme de savoirs acquis, les résultats sont les mêmes que pour des enfants élevés sans l'internet, et qu'ils ont en plus développé des talents d'organisation dont un élève normal ne dispose pas. Protic a consisté à équiper chaque enseignant et élève d'un collège test d'un ordinateur portable branché en réseau depuis 1994, en utilisant une pédagogie de projet le plus souvent possible. Selon lui, le principal défi pour l'enseignant est de "donner l'envie" aux élèves de chercher. AFP : http://fr.news.yahoo.com/000527/32/f02c.html
|
|
|
|
|
|
|
|
L'administration française se met "en ligne" grâce aux nouvelles technologies de l'information et de la communication (NTIC), pour mieux informer l'usager et réformer l'ensemble de l'Etat. Fin 1999, il y avait 600.000 postes informatisés dans les administrations d'Etat. Aujourd'hui, près d'un poste sur trois (soit plus de 200.000 postes) a accès au mail (courrier électronique), un sur cinq a accès à internet et en 2000, le nombre de postes ayant accès à internet doublera dans l'administration. Les collectivités territoriales ne sont pas en reste: une trentaine de "systèmes d'information territoriaux" (SIT) sont déjà ouverts. Le premier a été créé dans le Loir-et-Cher. Au 1er janvier 2001, une centaine (un par département) de ces SIT, sorte d'intranets des services de l'Etat", permettant des échanges d'informations et de procédures entre services administratifs déconcentrés à l'organisation souvent complexe, seront en fonction. Les SIT, dont une bonne partie sont accessibles par internet, abordent les sujets les plus variés: l'urbanisme, l'environnement, les questions sociales, l'aménagement du territoire ou le contrôle de la légalité des décisions. L'administration centrale dispose pour sa part depuis deux ans du portail Admifrance (350.000 visites du public par mois) avec son "guichet des formulaires" (13.000 visites par semaine). Un nouveau portail de l'administration ouvrira en octobre prochain. A partir du 31 mai, l'intranet inter-administrations AdER reliera tous les ministères. Les services en ligne du ministère de l'Economie et des Finances ont reçu, depuis trois ans, 1,5 million de consultations pour le calcul de l'impôt sur le revenu, 400.000 téléchargements d'imprimés, et 25.000 demandes d'information, a rappelé M. Sapin. Un million de cartes grises de véhicules neufs ont été délivrées en 1999 sans visite en préfecture, et le nombre de traitements manuels des cartes grises a diminué de 40%, grâce à un service en ligne du ministère de l'Intérieur mis en place avec les constructeurs automobiles, a précisé le ministre. Le gouvernement veut aller plus loin: les régions vont être dotées chacune d'un expert chargé de travailler avec les collectivités territoriales au développement des NTIC (SIT, sites internet, financements...). Les préfets sont priés de mettre la main à la pâte. Un parlementaire, nommé prochainement, examinera sur tout le territoire les moyens de constituer des messageries, SIT ou logiciels, simples d'accès, sécurisés, compatibles, et analysera l'intérêt des logiciels libres. Chasseur de têtes, le ministère de la Fonction publique veut dénicher parmi les fonctionnaires des "innovateurs" locaux et leur donner les moyens d'exercer leurs talents: un "portail des innovateurs" verra le jour dans les mois à venir et prodiguera cours, conseils et informations sur les expériences en cours, en France et à l'étranger. AFP : http://fr.news.yahoo.com/000527/32/ezfc.html
|
|
|
|
|
|
|
|
La Faculté de Médecine Lyon-Nord (Université Claude Bernard Lyon 1) a fait passer mercredi 31 mai 2000 une épreuve d'examen de 4ème année (Certificat de Radiologie) à 60 étudiants sur des micro-ordinateurs munis d'une connexion intranet. Le principe est simple, mais la technologie très évoluée : le questionnaire de l'examen, structuré en une succession de cas cliniques, est transféré par l'intranet sur le poste de chaque étudiant juste avant le début de l'épreuve. Durant l'examen, il est impossible aux élèves d'accéder à d'autres fichiers ou programmes que celui de l'examen. Les cas cliniques sont présentés pour chaque candidat dans un ordre aléatoire, ainsi que les réponses possibles à chaque question. A la fin de l'épreuve, un système d'authentification et de protection de la copie électronique par clé de cryptage assure une parfaite sécurité des transferts et empêche toute tentative de fraude. Selon le Docteur Pierre Croisille, responsable du projet plate-forme pédagogique en imagerie médicale, l'intérêt d'une telle solution est " de mettre les étudiants dans des conditions d'évaluation plus proches du réel, la qualité des images radiographiques étant bien meilleure sur écran que sur papier ". De plus, la correction est automatisée, d'où un gain certain en temps et en coût. C'est une start-up de la région lyonnaise, Synergie 3R, éditeur spécialisé dans les domaines formation, gestion des compétences et des connaissances, qui a développé ce logiciel de tests et d'évaluation dénommé e-quizz, associé à la plate-forme pédagogique e-cursus, et l'a adapté aux fortes contraintes de sécurité exigées pour un tel examen. Synergie 3R : http://www.Synergie3R.com
|
|
|
|
|
|
|
|
Bill Gates livre sa vision de l'internet du futur, une semaine avant de lever le voile sur la stratégie qu'emploiera Microsoft Corp. pour faire fructifier ses investissements dans le secteur. S'exprimant devant 160 personnes réunies à Seattle à l'occasion du sommet annuel des chefs d'entreprise organisé par Microsoft, Gates a livré sa vision des bouleversements technologiques à venir. Le patron de Microsoft a affirmé que le monde se trouvait à l'aube d'une "troisième ère" de l'internet, pendant laquelle le réseau, aujourd'hui simple accumulation de sites spectaculaires et coûteux, allait accéder au statut d'élément fondamental de l'économie et de la vie quotidienne. "Nous nous trouvons juste au début d'une phase que nous pouvons, je pense, appeler 'phase rationnelle' (...)", a-t-il déclaré. "Il s'agit d'une phase où les gens se demanderont 'Qu'est ce que ça a voir avec le profit ?'". Selon lui, l'accès aux logiciels se fera, dans une proportion de plus en plus grande, par l'intermédiaire du réseau, rendant inutile leur installation sur chaque machine. Les gains les plus importants pour les entreprises ne viendront plus simplement des sites, comme c'était le cas aux premiers jours de l'internet, ni même de la vente de biens et de services en ligne, mais plutôt de l'unification des opérations internes par le bais du réseau et du pouvoir que celui-ci donnera aux salariés dans le tri et l'usage des données. "L'un des buts est de prendre l'ensemble des transactions, l'ensemble des connaissances de l'entreprise, et de les transformer en données numériques. Il y aura une période transitoire entre une économie largement 'offline' et une économie en ligne et en temps réel", a-t-il ajouté. Bill Gates prévoit également que les services comme les finances domestiques vont quitter les disques durs des PC pour se répandre dans le "cyberespace", offrant aux internautes un accès instantané aux services bancaires, aux assurances ou aux informations boursières par l'intermédiaire de téléphones portables ou d'assistants personnels. "L'information sera triée comme par magie sur internet ; peu importe l'appareil, les choses qui vous intéressent, vos préférences, votre e-mail, vos signets apparaîtront sur l'appareil que vous utiliserez", a-t-il déclaré. Reuters : http://fr.news.yahoo.com/000525/32/esst.html
|
|
|
|
|
|
|
|
Alors que l'industrie du disque encaisse durement la secousse MP3, les maisons d'édition du monde papier sont encore loin d'être ébranlées par l'arrivée timide du livre électronique. Toutefois, les risques de "pillage" des romans, journaux et autres documents électroniques ne sont pas loin. Outre la reproduction débridée, les auteurs peuvent craindre de voir leurs oeuvres détournées. D'où la naissance de différentes technologies, parfois originales à l'image de celle de la Société des Gens de Lettres (SGDL). La SGDL vient en effet de créer un service d'empreinte numérique en ligne baptisé Cleo, susceptible de mettre fin aux débats futurs sur la paternité d'une oeuvre. Il fait appel à un logiciel de cryptage, Cyberclé, qui produit une fiche d'identification unique à partir du fichier texte. Pour la créer, il faut télécharger gratuitement Cyberclé sur son ordinateur (Mac ou PC). Le résultat est qu'à aucun moment, le texte ne circulera sur le Web, puisque tout se passe en local sur la machine. En fonction de la longueur du texte et de sa composition, les algorithmes de chiffrement SHA 1 de Cyberclé génèrent un "moule" de l'oeuvre. A vrai dire, ce n'est qu'une suite de 52 signes (lettres et de chiffres). Mais elle contient suffisamment d'informations cryptées, dont la date, pour revendiquer le dépôt et la paternité du document. La conservation de la clé par la SGDL coûte 60 francs TTC par an. Evidemment, il faut conserver chez soi le texte original et sa clé, sur le support électronique de son choix. Reste que le principal souci posé par le Net est l'extraordinaire facilité de diffusion (légale ou non) d'un titre. Adobe, dont le format de document PDF est devenu incontournable, commercialise depuis peu en Europe une parade avec le logiciel Merchant, pour contrôler l'exploitation d'un document. En fonction de sa politique commerciale, un libraire en ligne peut l'utiliser pour autoriser ou non l'impression des pages d'un roman ou la sélection du texte pour un copier-coller vers une autre application. Comment protège-t-il de la copie ? En téléchargeant un fichier depuis un serveur exploitant PDF Merchant, l'internaute crée involontairement sur son ordinateur une fiche d'identification anonyme, qui servira de clé pour consulter l'oeuvre. "Le logiciel crypte le document PDF et lui associe un identifiant à partir du numéro de la carte-mère de votre PC, du disque dur ou de la cartouche Zip sur laquelle on stockera le fichier", explique Franck Gros, responsable de la division e-Paper chez Adobe. Cette clé unique empêchera de consulter le document PDF sur une autre machine, sauf si le libraire en ligne décide d'autoriser la copie. On peut prêter l'oeuvre stockée sur la cartouche Zip, puisque le code du support Zip et la clé sont réunis. Dans les autres cas, à moins de prêter son ordinateur, il devient impossible à une personne tierce d'ouvrir le document. Il existe aussi des demi-mesures : on peut limiter la lecture d'un roman ou d'un film téléchargé à un seul chapitre, ou bloquer la consultation après un certain temps. Un principe loin d'être nouveau, presque calqué sur celui des logiciels gratuits à l'essai (shareware).Le logiciel Microsoft Reader, lancé cet été, sera le première application de la firme de Redmond à incorporer la technologie ContentGuard. Yahoo(article résumé par @RTFlash) : http://fr.news.yahoo.com/000526/101/evwm.html
|
|
^ Haut |
|
|
|
|
|
|
|
Vivant |
|
|
Santé, Médecine et Sciences du Vivant
|
|
|
|
|
|
|
|
|
L'endoscopie, une technique classique qui permet de voir l'intérieur de l'intestin, pourrait devenir nettement moins désagréable et être remplacée par une capsule à avaler comme un banal comprimé, selon la revue scientifique Nature. L'endoscopie digestive habituelle qui permet de voir à l'intérieur du corps nécessite d'introduire par les voies naturelles des tubes souples contenant notamment la caméra pour visualiser l'intérieur de l'estomac ou des intestins. L'équipe de Paul Swain (Royal London Hospital, Londres) et d'Arkady Glukovsky (Given Imaging Ldt, Yoqneam, Israël) a développé un nouveau type d'endoscopie qui permet, pour la première fois, de réaliser sans douleur l'endoscopie de l'ensemble de l'intestin grêle. Cette procédure repose sur l'absorption d'une capsule sans fil. Elle a été testée avec succès sur dix volontaires en bonne santé. La capsule-endoscope, qui a permis de transmettre les images de l'estomac du petit intestin jusqu'au début du gros intestin, a été avalé sans problème par les volontaires. Le transit naturel a permis sa progression au travers du tube digestif. Le temps écoulé entre l'absorption par la bouche et l'évacuation a été en moyenne de 24 heures. En moyenne, le transit dans l'estomac a duré 80 minutes et 90 minutes dans l'intestin grêle. Mesurant juste 11 millimètres sur 30 mm, la capsule contient une minuscule caméra vidéo, une source lumineuse et un transmetteur radio qui envoie les images vers un boîtier d'enregistrement porté par le patient. Avec ce système, qui permet plus de cinq heures d'enregistrement continu, les patients n'ont pas besoin de rester hospitalisés durant l'examen et peuvent avoir des activités normales. Dernier avantage de cette capsule, et non le moindre, l'excellente qualité des images obtenues. Brève rédigée par @RT Flash Nature : http://www.nature.com/nature/
|
|
|
|
|
|
|
|
Des recherches menées par un chercheur allemand ont montré que des gènes utilisés dans la technique des organismes génétiquement modifiés (OGM) pouvaient franchir la barrière des espèces, a rapporté dimanche un hebdomadaire britannique. Une étude réalisées pendant trois ans par le professeur Hans-Heinrich Kaatz, de l'université de Iena, a montré que le gène utilisé pour modifier la structure génétique du colza, dont on extrait de l'huile, s'était propagé à des bactéries portées dans leur organisme par des abeilles. Cette découverte va à l'encontre des théories de l'industrie de la biotechnologie sur la transmission des gènes entre espèces. Elle devrait aussi accroître la pression pour la destruction en Europe de champs de colza contaminés par des semences génétiquement modifiées. Le professeur Kaatz déclare "avoir trouvé les gènes de colza résistant aux herbicides transférés dans des bactéries et levure à l'intérieur des intestins de jeunes abeilles. Cela s'est rarement produit, mais cela s'est produit", a-t-il dit Brève rédigée par @RT Flash BBC : http://news.bbc.co.uk/hi/english/health/
|
|
|
|
|
|
|
|
Pour venir à bout des bactéries résistantes aux antibiotiques, les virus pourraient être appelés en renfort. Lors du centième congrès de la Société américaine de microbiologie, qui se tient actuellement à Los Angeles, Paul Gulig et ses collègues ont présenté leurs travaux préliminaires sur l'utilisation des bactériophages comme agents thérapeutiques. Chez la souris, il semble que ces virus, qui ne s'attaquent qu'aux bactéries, soient capables de réduire l'infection par Vibrio vulnificus, responsable dans certains cas de septicémies foudroyantes. Ce pathogène marin peut envahir l'organisme humain en passant directement par une plaie ou en se servant de fruits de mer ou de poissons crus comme vecteurs. Or, s'il provoque la plupart du temps des gastro-entérites, il est susceptible d'entraîner un choc septique chez les personnes prédisposées, notamment celles souffrant d'une maladie du foie. Pour tester la capacité des bactériophages à le contrer, les scientifiques de l'Ecole de Médecine de l'université de Floride ont injecté la bactérie sous la peau de souris modèles. Si rien n'est fait, les animaux meurent en vingt-quatre heures. En revanche, si les virus sont administrés tout de suite après l'injection, la morbidité et la mortalité des animaux décroissent et les lésions de la peau disparaissent. "Les phages lytiques entrent dans la bactérie, s'y multiplient, ressortent en entraînant la mort de la cellule pour ensuite en infecter d'autres, ont expliqué les chercheurs. De cette manière, un traitement par les bactériophages se répand dans l'organisme, contrairement aux antibiotiques qui disparaissent une fois donnés au patient ."Une seconde série d'essais a ensuite été réalisée avec une lignée de virus n'envahissant les bactéries qu'en milieu salé. "Evidemment, ces phages n'ont pas protégé les souris, à l'inverse de ceux qui peuvent évoluer dans un milieu similaire à la physiologie des mammifères, ont indiqué les chercheurs. Nous allons maintenant examiner si l'on peut retarder le traitement et quelles sont les doses minimales de virus à utiliser." Selon eux, ces résultats démontrent que le principe d'une "thérapie phagique" pourrait être envisagé contre d'autres pathologies. Infoscience : http://www.infoscience.fr/articles/articles_aff.php3?Ref=451
|
|
|
|
|
|
|
|
La NASA est à l'origine de nouvelles techniques qui pourraient aider les responsables de la santé publique à prédire les épidémies de choléra, une infection bactérienne d'origine hydrique affectant l'intestin grêle et souvent mortelle pour l'homme. Les chercheurs ont appris à suivre la prolifération de plantes microscopiques et de planctons animaux vecteurs de la bactérie du choléra grâce aux données satellitaires concernant la température des océans, le niveau des mers et autres facteurs climatiques. Ces travaux sont décrits dans un article récemment paru dans la revue «Proceedings of the National Academy of Sciences » et rédigé conjointement par l'Institut de biotechnologie de l'université du Maryland (UMBI) et les chercheurs de la NASA. « Ces expériences confirment notre hypothèse selon laquelle le choléra est lié à des facteurs écologiques », affirme Rita Colwell, fondatrice et ancienne présidente de l'UMBI et actuelle directrice de la National Science Foundation (Fondation nationale des sciences). Elle est actuellement en congé sabbatique de l'université du Maryland et a participé à la rédaction de l'article sur le choléra. Les auteurs ont constaté que l'élévation de la température et la montée du niveau de l'océan le long des côtes du Bangladesh dans le golfe du Bengale de 1992 à 1995 ont souvent précédé la croissance soudaine de planctons et l'apparition du choléra. Ce modèle d'analyse des risques en recourant aux satellites, mis au point par la NASA, peut s'appliquer à l'étude d'autres maladies, notamment le paludisme, la maladie de Lyme et la fièvre de la vallée du Rift. « L'utilisation à l'échelle mondiale du modèle conçu pour le Bangladesh pourrait servir de système d'avertissement précoce permettant de prévenir les épidémies de choléra dans les régions où cette maladie est endémique, ou du moins d'en minimiser les effets », affirme Brad Lobitz, principal auteur de l'article et chercheur contractuel de l'Ames Research Center de la NASA, situé dans la Silicon Valley, en Californie. Les scientifiques ont pu établir une corrélation, sur plusieurs années, entre les renseignements fournis par les hôpitaux concernant le choléra et les données recueillies par des satellites et des appareils de mesure au sol sur la température et le niveau des océans. Les satellites peuvent mesurer non seulement la température et le niveau des océans, mais aussi les couleurs qui indiquent la présence de plancton et de chlorophylle dans des zones étendues, a expliqué M. Lobitz. Il a ajouté que la mesure des températures océanes au moyen de bateaux et autres méthodes directes était trop coûteuse et peu pratique. Le choléra peut entraîner des diarrhées aiguës, des vomissements et la déshydratation. Sans réhydratation rapide, le malade peut succomber en l'espace de 24 heures. La septième pandémie de choléra s'est déclarée en 1961 et affecte maintenant 5 continents. Une pandémie est une épidémie affectant une zone très étendue. Le niveau des mers est un facteur important parce que plus les marées sont hautes, plus il y a de risque que des habitants entrent au contact des eaux saumâtres porteuses de la bactérie du choléra. « Le Bangladesh est un pays très bas et très plat, et les effets des marées se font sentir sur la moitié du pays », affirme un autre auteur de l'article, Mme Louisa Beck, de l'université California State à Monterey Bay. Département d*Etat : http://usinfo.state.gov/products/washfile/french.shtml
|
|
|
|
|
|
|
|
Que l'aliment soit ta propre médecine. Tous les livres de diététique parus ce printemps ont choisi comme épigraphe cet aphorisme d'Hippocrate. La coïncidence n'est pas fortuite. Elle traduit un changement profond dans l'approche des problèmes alimentaires. Naguère on faisait un régime avant tout pour maigrir. L'objectif est maintenant plus large. De plus en plus de gens ont conscience que nourriture et santé sont étroitement liées. Sensibles à cette évolution, les pouvoirs publics ont commandé un rapport sur la politique nutritionnelle de la France. Son auteur, Serge Hercberg, directeur de recherche à l'INSERM et responsable de la plus grande enquête épidémiologique consacrée au sujet, le remettra bientôt. De son côté, Jean Glavany, ministre de l'Agriculture, a relancé l'activité du Conseil national de l'alimentation, chargé notamment de ces problèmes. A l'origine de cette prise de conscience: l'accumulation d'études scientifiques démontrant l'influence de l'alimentation sur la santé. La dernière en date vient d'être publiée par le JAMA (Journal of the American Medical Association) et concerne plus de 40 000 femmes suivies durant cinq ans. La conclusion est nette: celles qui ont suivi un régime diététique adapté - à base de céréales, de fruits et légumes et à faible teneur en graisses - ont un risque de mortalité «de 30% inférieur aux autres», selon les auteurs. Globalement, les connaissances s'affinent. Quitte parfois à remettre en question des certitudes bien ancrées. Ainsi, des chercheurs ont montré récemment, dans le New England Journal of Medicine, que les fibres (contenues dans les céréales) ne protégeaient pas du cancer du côlon. «La nutrition n'est plus cette science fluctuante et incertaine fondée sur des a priori, souligne le Pr Jean-Louis Schlienger, de la faculté de médecine de Strasbourg (université Louis-Pasteur). Elle est devenue une réalité opérationnelle fondée sur des preuves.» Ses domaines d'action sont innombrables: le surpoids, bien sûr, mais aussi les affections cardio-vasculaires, la cataracte, l'ostéoporose... Le Dr Paule Nathan l'affirme dans son ouvrage Se soigner par l'alimentation (Odile Jacob, parution le 26 mai): la nutrition serait une véritable thérapie. N'est-ce pas aller trop loin? Comme le rappelle Serge Hercberg, «des apports alimentaires inadaptés ne sont pas les causes directes des maladies. Ils interviennent avec d'autres facteurs, génétiques ou environnementaux». Paradoxe: si les connaissances progressent, les comportements alimentaires régressent. Les Français mangent de plus en plus mal. Notamment les jeunes. Ils consomment trop de sodas sucrés, «des calories vides de nutriments», selon les spécialistes, grignotent à toute heure des produits riches en mauvaises graisses. L'Express : http://www.lexpress.fr/Express/Info/Sciences/Dossier/alimentation/dossier.asp?no... article résumé par @RTFlash
|
|
|
|
|
|
|
|
Deux équipes travaillant conjointement des deux côtés de l'Atlantique auraient jeté les bases du développement d'un candidat vaccin contre plusieurs types de cancers. In vitro, c'est-à-dire en milieu expérimental de laboratoire, le Dr Maurizio Zanetti de l'Université de Californie à San Diego, ainsi qu'une équipe de l'Institut Pasteur de Paris, sont parvenus à développer un " prototype " de vaccin capable d'amener certains globules blancs à détruire les cellules cancéreuses. Le processus est compliqué. Il relève en quelque sorte du billard à trois bandes... Première bande : utiliser les ressources naturelles de l'organisme contre les agressions, c'est-à-dire les globules blancs aussi appelés lymphocytes. Deuxième bande : leur désigner une cible unique. Il s'agit de la télomérase, une enzyme impliquée dans le contrôle de la longueur des chromosomes. Elle est également connue pour constituer la clé de la multiplication incontrôlée des cellules cancéreuses. C'est elle en effet, qui permet aux cellules précancéreuses de devenir immortelles, provoquant ainsi la formation de tumeurs. Nous arrivons ainsi à la troisième bande. En détruisant la télomérase des cellules précancéreuses, le candidat vaccin augmente considérablement les défenses naturelles contre les processus de cancérisation. Il a été testé avec succès sur des cellules sanguines provenant de malades atteints de cancer prostatique ou, aux fins de comparaison, de sujets indemnes. Les résultats obtenus auraient été si prometteurs que, selon le Dr Zanetti, le développement d'un vaccin universel contre les cancers basés sur l'utilisation de la télomérase paraît moins inaccessible que jamais. HealthandAge.com : http://www.healthandage.com/newsletter/npf.htm
|
|
|
|
|
|
|
|
Le laboratoire Introgen Therapeutics vient de présenter les résultats encourageants de ces essais de thérapie génique contre le cancer du poumon à non petites cellules. La thérapie employée consiste à l'administration d'un vecteur adénoviral porteur du gène p53 associée à la radiothérapie. Ces travaux ont été présentés lors du 36° Congrès Annuel de l'American Society of Clinical Oncology (ASCO) à la Nouvelle Orléans. Ces données reprennent les résultats intermédiaires des essais de phase II pour le traitement du cancer du poumon à non petites cellules. Les principaux auteurs de ces recherches sont le Dr Swisher et ses collaborateurs de l'Anderson Cancer Center de l'Université du Texas. Ce travail a été réalisé en collaboration avec Aventis Pharmaceuticals et Introgen Therapeutics. Cette étude, qui a débuté en 1998, a évalué les effets de trois injections intratumorales du vecteur adénoviral porteur du gène p53 soit par bronchoscopie soit par injection guidée par scanner. Les injections ont été réalisées à J1, J28 et J32 et ont été accompagnées d'un protocole de radiothérapie de 5 semaines chez 16 patients avec un cancer du poumon inopérable ou trop faibles pour bénéficier d'une chimiothérapie. La plupart des effets secondaires observés ont été une arythmie et des nausées. La réponse a été évaluée à 3 mois par biopsie et scanner. Des biopsies négatives ont été notées chez 8 patients sur 11 (62 %). La réponse tumorale a été évaluée chez 13 patients. Elle était complète chez 5 patients (39 %) et partielle chez 2 patients (15 %). La maladie était stable chez un patient (8 %) et en progression chez 5 autres (39 %). Le suivi moyen était de 7,2 mois avec un taux de survie à un an de 65 %. La survie à un an sans progression était de 45,5 % (8 mois en moyenne) et les auteurs soulignent que tous les échecs étaient imputables à une progression métastatique plutôt qu'à un échec local. "Cette étude soutient l'hypothèse que l'injection dans les tumeurs du vecteur adénoviral porteur du gène p53, combinée à l'exposition des tumeurs aux radiations, peut améliorer le contrôle local", souligne le Dr Swisher. Selon ces médecins, l'association vecteur adénoviral-p53 et radiothérapie semble prometteuse mais nécessite d'autres évaluation. En comparaison, les auteurs rappellent que le taux de contrôle à 3 mois était de 15 à 17 % avec la combinaison chimiothérapie + radiothérapie ou avec la radiothérapie seule. D'autres travaux concernant le même vecteur adénoviral ont été présentés au cous de la conférence de l'ASCO. Ils concernaient les essais cliniques de phase I et II pour le traitement des carcinomes épidermoïdes de la tête et du cou, les carcinomes de la prostate et les cancers du poumon à non petites cellules. Ils reprenaient les résultats d'études internationales démarrées dès 1995 et portant au total sur 309 patients. Les résultats positifs de ces études suggéraient la mise en route des essais de phase III. A ce sujet, Introgen et Aventis Pharmaceuticals débutent les essais de phase III pour le traitement des cancers de la tête et du cou selon un communiqué de presse d'Introgen. Caducée : http://www.caducee.net/
|
|
|
|
|
|
|
|
Les structures régulières sont à la base de nombreuses réalisations technologiques. Un écran d'ordinateur, par exemple, comporte un réseau de minuscules points de phosphore qui brillent lorsqu'un faisceau d'électrons les frappe. Derrière eux, un tamis protège chacun de ces points des électrons destinés à ses voisins. Et, au plus profond de l'ordinateur, le microprocesseur, cerveau de l'appareil, est formé de composants électroniques disposés en ordre régulier sur une puce. La nature présente, elle aussi, des structures en forme de réseaux réguliers de trous ou de points. C'est le cas de la coquille de diatomée (une algue microscopique) ou des facettes sensibles de l'oeil des insectes. Certaines écailles qui recouvrent les ailes du papillon sont bordées d'arêtes microscopiques qui diffusent les rayons lumineux, lui donnant son aspect iridescentetcoloré.Mais,contrairement au réseau des ordinateurs, ces motifs réguliers ne sont pas le fruit d'un laborieux travail d'ajustage. Ils s'assemblent d'eux-mêmes. Les techniciens s'intéressent de près aux astuces ainsi mises en ouvre par la nature. Et cela pour des raisons qui dépassent la simple curiosité : la miniaturisation croissante des puces électroniques, par exemple, rend leur fabrication de plus en plus délicate et coûteuse. Les électroniciens sont loin d'être les seuls à recourir aux structures régulières. Depuis longtemps déjà l'industrie pétrochimique utilise les zéolithes, minéraux naturels qui possèdent, à l'échelle atomique, des structures où les atomes d'aluminium, de silicium et d'oxygène s'assemblent en pyramides, s'entrelacent en tunnels et se creusent de cavités. Les grilles régulières que constituent ces minéraux ont des trous qui ne laissent passer qu'une molécule d'hydrocarbure à la fois. Parvenues à l'intérieur de ce dédale, les molécules réagissent aux parois minérales qui les décomposent ou réorganisent leurs atomes. Les spécialistes des matériaux ont donc appris, depuis quelques années, à exploiter les procédés de la nature. L'un d'eux consiste à laisser précipiter de minuscules sphères de silice ou de polystyrène en suspension dans un liquide, un peu comme se dépose la vase de l'eau d'une rivière. Si toutes les sphères ont la même taille, elles s'ordonneront en une construction rappelant l'empilage des fruits à l'étal d'un marchand. Le liquide peut ensuite être solidifié dans les interstices entre les sphères. Il suffit alors de brûler ou de dissoudre ces dernières pour obtenir un réseau à motifs réguliers. Dans le numéro de Nature du 25 mai, une équipe de chercheurs canadiens et espagnols, conduite par Sajeev John, de l'université de Toronto, présente un cristal photonique produit selon cette méthode avec du silicium. Le matériau ainsi obtenu est imperméable à la lumière infrarouge sur une longueur d'onde proche de celle utilisée dans les télécommunications. Un autre procédé permet de disposer sur une surface des points ou bandes de matériau semi-conducteur de quelques nanomètres (milliardièmes de mètre) de diamètre ou de largeur. Ces structures sont si petites que leurs propriétés - comme la façon dont elles réagissent à la lumière - sont régies par les lois de la mécanique quantique. Elles pourraient constituer les « neurones » d'une mémoire électronique capable de stocker les données en beaucoup plus grande quantité que les dispositifs existants. La recherche sur l'auto-organisation des matériaux n'en est encore qu'à ses débuts. Un jour peut-être, ces procédés permettront d'élaborer des motifs microscopiques qui auront la beauté de ceux que la nature produit depuis des millions d'années. Le Monde(article résumé par @RTflash) : http://www.lemonde.fr/article/0,2320,seq-2077-65886-QUO,00.html
|
|
|
|
|
|
|
|
Un vaccin thérapeutique contre les formes graves d'infection par le virus de l'hépatite B, basé sur la technique de la thérapie génique, va pour la première fois en France être testé, d'abord sur une dizaine de patients cette année, puis sur 150 malades début 2001.La technique consiste à utiliser des gènes de l'enveloppe du virus, une préparation désignée par le terme de vaccin ADN qui est incapable de permettre une multiplication du virus. Ce bout d'ADN sera injecté aux patients pour stimuler leurs défenses immunitaires contre l'agent infectieux. Les premiers essais, pour vérifier si la préparation est bien tolérée par l'organisme, se feront sur dix malades souffrant d'une hépatite chronique sévère (hépatite chronique active) et pour lesquels les traitements actuels (interféron, lamivudine) sont inefficaces. La deuxième étape, en 2001, destinée à donner une idée sur l'efficacité, englobera 150 patients. "Cet essai de vaccin thérapeutique est une première en France", selon le Pr Bréchot qui conduit cette recherche avec le Pr Pierre Tiollais et le Dr Marie-Louise Michel de l'Institut Pasteur de Paris. En France, 100.000 à 150.000 personnes sont porteurs du virus de l'hépatite B. Dans le monde, elles sont plus de 300 millions. La contamination par ce virus provoque chez l'adulte une hépatite chronique dans 5% des cas. 20% des patients atteints par ces lésions du foie souffriront d'une cirrhose, et parmi eux, 3% par an développeront un cancer du foie. Environ 10.000 patients en échec de traitement sont concernés en France par cet essai. L'interféron alpha qui a de nombreux effets secondaires (fatigue, fièvre, accès de dépression) interrompt la multiplication du virus dans 20 % des cas environ. Malgré sa grande efficacité, la lamivudine, d'introduction plus récente, pose des problèmes de rechutes et de "mutations" du virus qui s'adapte pour échapper au traitement. Par ailleurs, les Prs Bréchot et Tiollais ont montré que le vaccin préventif ordinaire n'était pas du tout dénué d'intérêt pour traiter les malades. Son administration a stoppé la prolifération virale chez environ 25 % des patients. AFP : http://158.50.204.19/ext/francais/lemonde/sci/000525153740.4hlmx2uc.html
|
|
|
|
|
|
|
|
A partir d'un brocoli ordinaire et d'une espèce maigrichonne de Sicile, des chercheurs britanniques ont mis au point un ''super-brocoli'' qui doit contribuer à la prévention du cancer de l'intestin. Ce légume contient dix fois plus de ''sulphoraphane'' que le brocoli normal, le ''sulphoraphane'' étant une substance qui aide à neutraliser dans l'intestin ce qui peut contribuer à provoquer un cancer. Cette substance est également présente dans le chou-fleur ou les choux de Bruxelles, mais les plus fortes concentrations sont dans le brocoli. Dans l'intestin, le ''sulphoraphane'' déclenche la production d'une enzyme qui détruit les agents cancéreux contenus par certains aliments -comme la viande grillée au barbecue. Les consommateurs de ''super-brocoli'' devraient donc produire cette enzyme en plus grande quantité. Les inventeurs doivent effectuer des tests sur des groupes de populations pour en vérifier les effets. Ils espèrent également que ce super-légume aidera l'ADN des cellules à mieux résister au temps. nouvel Obs : http://quotidien.nouvelobs.com/sciences/20000525.OBS4701.html?0946
|
|
^ Haut |
|
|
|
|
|
|
|
Homme |
|
|
Anthropologie et Sciences de l'Homme
|
|
|
|
|
|
Le Département d'Etat américain a mis en ligne un remarquable document en français qui constitue une excellente synthèse des orientations politiques mises en oeuvre par le vice-Président Al Gore pour permettre à tous les américains d'accéder à la société de l'information. ce dossier abondamment illustré est composé de plusieurs grands chapitres, cadre législatif, aspects technologiques, aménagement du territoire, enseignement à distance, télémédecine, démocratie électronique. Un document très complet qui permet de mieux comprendre la révolution techno-économique en marche aux USA. Département d'Etat : http://usinfo.state.gov/francais/french.htm informations en français La Société de l'Information aux USA : http://usinfo.state.gov/francais/pdf/telecomm.pdf document de 88 pages en français
|
|
^ Haut |
|
|
|
|
|
|
|
Recherche |
|
|
Recherche & Innovation, Technologies, Transports
|
|
|
|
|
|
|
|
|
PSA est le premier constructeur occidental à dévoiler un moteur à essence à injection directe de mélange pauvre, le HPI. Une révolution en matière de consommation : moins 20 % ! L'injection directe consiste à introduire le carburant tout droit dans le cylindre, au lieu de le mélanger au préalable avec de l'air. Ainsi peut-on en diriger le jet sur la tête du piston, qui, grâce à un relief spécial, le renvoie vers la bougie. En concentrant ainsi l'essence dans la zone où se produit l'étincelle, on obtient une explosion optimale avec, en théorie, jusqu'à deux fois moins de carburant. Pour y parvenir, les ingénieurs de PSA ont dû résoudre deux problèmes. D'abord, le mélange pauvre réagit mal aux grands coups d'accélérateur, le moteur repasse donc en mélange riche dès que le régime dépasse 3 500 tours/minute. Puis l'excès d'air dans la chambre d'explosion produit en abondance des oxydes d'azote (NOx) qui ne peuvent être détruits par le pot catalytique. Les ingénieurs de PSA ont donc imaginé un système complexe de stockage provisoire des NOx dans un filtre contenant du sel de baryum. Astuce : chaque minute, le moteur repasse trois secondes en mélange riche, ce qui provoque un relâchement des NOx, qui sont alors détruits par un afflux de monoxyde de carbone (CO) et d'hydrocarbures (HC). Tout cela nécessite une gestion électronique très sophistiquée. Voilà pourquoi la consommation du moteur HPI de PSA est inférieure de 20 % à celle d'un moteur classique, et non pas de 50 %. Mais, s'il tournait constamment en mélange pauvre, il pourrait faire encore mieux. C'est possible en le dotant d'un turbocompresseur pour gonfler sa puissance. On pourrait alors se contenter d'une cylindrée de 1 000 cm3. Quelle revanche pour PSA, qui, dans les années 80, avait dû renoncer au mélange pauvre à cause du diktat écologique de l'Allemagne, qui avait imposé le pot catalytique. Le Point : http://www.lepoint.fr/data/PNT1445/4504904P.html
|
|
^ Haut |
|
|
|
|
|
VOTRE INSCRIPTION |
|
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
|
|
|
|
|
|