 |
 |
Edito
Maladies cardio-vasculaires : mieux vaut prévenir que guérir

Les nombreuses études épidémiologiques réalisées au cours de ces dernières années ont mis en lumière le rôle capital des modes de vie et de l'alimentation dans la prévention des maladies cardio-vasculaires et du cancer, les deux grands fléaux de nos pays développés. S'agissant des maladies cardio-vasculaires, une récente étude de la British Heat Foundation (voir lettre 85 rubrique médecine : http://www.tregouet.org/lettre/index.html) montre que la France fait partie, avec l'Espagne et le Portugal, des pays de l'Union européenne où le taux de mortalité dû aux maladies cardio-vasculaires est le plus bas. Ce rapport souligne également que la France est le pays européen où le nombre de décès liés à ce type de pathologie a le plus régressé depuis le milieu des années 1980. La British Heat Foundation souligne que ces résultats peuvent largement s'expliquer par l'hygiène de vie et l'alimentation, sensiblement meilleures en France et dans les pays du sud de l'Europe qu'en Grande Bretagne et en Irlande où la mortalité par infarctus est trois fois plus élevée que dans notre pays ! S'agissant du cancer, une étude toute récente sur la répartition géographique de trois types de cancer en France, les cancers des voies aéro-digestives supérieures (VADS), les cancers de l'intestin et les cancers de l'estomac, révèle d'importantes disparités entre le nord et le sud de la France et met en lumière le rôle très important des modes de vie dans la prévention de ces cancers. La revue Etudes et Résultats de la DREES (Direction de la Recherche, des Etudes, de l'Evaluation et des Statistiques) présente, dans son numéro de mars 2000, la répartition régionale des ces cancers dans l'hexagone. Dans l'ensemble, les habitants du sud de la France sont moins touchés par ces affections. Les cancers de l'appareil digestif sont étroitement liés aux habitudes alimentaires, à la consommation d'alcool et de tabac et donc à des comportements socioculturels spécifiques à certaines régions. Les auteurs ont étudié la répartition géographique de trois types de cancers : les cancers des voies aéro-digestives supérieures (VADS), les cancers de l'intestin et les cancers de l'estomac. Les tumeurs des VADS (bouche, pharynx, larynx et oesophage) ont été responsables de 13000 décès par an entre 1988 et 1992. Ces cancers sont la 5e cause de décès après les infarctus, les maladies vasculaires cérébrales, les cancers du poumon et de l'intestin. Les auteurs précisent que la France présente un des plus mauvais scores dans ce domaine parmi les pays développés. Ces affections touchent 10 fois plus d'hommes que de femmes. La population concernée est relativement jeune puisque plus de la moitié des décès intervient entre 34 et 64 ans. L'alcoolisme et le tabagisme sont les deux facteurs de risque essentiels et leur association multiplie les risques de cancers. Une alimentation riche en graisses saturée augmente également les risques de cancer des VADS. La mortalité liée à ces cancers est particulièrement importante dans "le croissant nord de la France" (de la Bretagne à l'Alsace) et concerne les hommes en majorité. Les zones méridionales sont en situation de sous mortalité et particulièrement les régions Midi-Pyrénées et Tarn-et-Garonne. Les cancers de l'intestin sont plus fréquents que les cancers des VADS et les hommes y sont légèrement plus exposés. Ils ont causé 16000 décès par an entre 1988 et 1992. La consommation d'alcool, de graisse et de viande sont des facteurs de risque déterminants. La population masculine est particulièrement touchée en Alsace et en Bourgogne ; le taux de mortalité reste très élevé dans le nord-est de la France. Une fois encore, le sud de la France paraît relativement épargné. Les cancers de l'estomac ont provoqué, entre 1988 et 1992, environ 6700 décès. "Ce type de cancer est lié à la consommation d'aliments conservés par salaisons et fumaisons et à une alimentation pauvre en fruits et légumes", précisent les auteurs. Les régions du sud (notamment le Languedoc-Roussillon, les Midi-Pyrénées et l'estuaire de la Gironde) ont de faibles taux de mortalité. Parallèlement, plusieurs travaux récents montrent l'action préventive très sensible jouée par certains aliments. C'est notamment le cas du thé vert. Des études épidémiologiques du Ministère de la Santé au Japon ont montré que le taux de mortalité par cancer, et notamment par cancer de l'estomac ou du côlon, était significativement plus faible dans les régions productrices de thé vert comme celle de Shizuoka, au sud-est de Tokyo. Des études menées chez l'animal montrent que le thé vert permet une protection contre certaines tumeurs de la peau et du poumon. L'utilisation de l'huile d'olive, déjà recommandée pour le coeur, pourrait également empêcher le développement de certains cancers de l'intestin selon une étude réalisée par des chercheurs espagnols de Barcelone. Ces chercheurs pensent que certains constituants de l'huile d'olive, tels que les flavonoïdes et les polyphénols (également présents dans le vin rouge), jouent un rôle protecteur actif contre le cancer. Les flavonoïdes et les polyphénols sont des antioxydants qui aident à empêcher des dommages que subissent les cellules sous l'effet des radicaux libres. On peut enfin citer le lycopène, qui donne sa belle couleur rouge à la tomate, et semble également avoir un effet protecteur contre l'apparition de certains cancers. Après avoir, pendant plusieurs décennies, misé essentiellement sur les progrès de la médecine pour combattre, il est vrai de plus en plus efficacement, ces deux fléaux, on constate aujourd'hui que cette approche purement médicale et technique a ses limites et doit être complétée par une transformation profonde de nos habitudes et de nos modes de vie. Bien que cela reste une hypothèse d'école, on pense aujourd'hui qu'en adoptant simplement une alimentation plus équilibrée, il serait possible à terme de prévenir l'apparition d'un grand nombre de cancers, sans doute plus du tiers, ce qui fait réfléchir quand on connaît le terrible coût humain mais aussi économique de cette maladie. Ces nouvelles connaissances sur le rôle déterminant des modes de vie dans la prévention de ces 2 fléaux de civilisation que sont les maladies cardio-vasculaires et le cancer ne peuvent qu'éclairer d'une lumière encore plus crue l'insuffisance dramatique des moyens que notre pays consacre à la prévention en matière de santé. Notre collectivité a le devoir de mettre enfin en oeuvre une véritable politique de prévention dans notre pays, en considérant celle-ci comme un investissement indispensable et rentable pour l'avenir et non comme une dépense improductive et inutile. N'oublions jamais que le prix à payer pour rester en bonne santé sera toujours moins élevé que le coût humain, économique et social de notre imprévoyance. René TREGOUET Sénateur du Rhône
|
 |
|
 |
|
 |
|
|
TIC |
|
 |
Information et Communication
|
|
 |
|
 |
|
 |
 |
|
De nombreux laboratoires travaillent sur des moteurs de recherche capables de retrouver des photos sans l'aide d'aucun mot, à partir d'un croquis ou d'indications concernant la couleur ou les textures. Cette semaine, IBM vient de présenter à l'intention des professionnels un système de gestion de documents (textes, images, son) baptisé Content Manager. L'une de ses particularités est Qbic, un moteur de recherche graphique qui permet de retrouver une image en utilisant l'analyse des couleurs, des contours ou des textures. Développé depuis une dizaine d'années dans les laboratoires d'Almaden aux Etats-Unis, Qbic signifie "Query by image content", qu'on peut traduire par "recherche par contenu graphique". Cet outil est téléchargeable gratuitement sur le site d'IBM. Auto-exécutable, il pèse environ 3 Mo et s'utilise grâce au navigateur Netscape. A partir d'une bibliothèque de photos, le logiciel crée un catalogue d'indexation qui rassemble, pour chaque image, les informations mathématiques sur les textures (rayé, uni), les pourcentages de bleu, de vert et de rouge, le positionnement des formes ou des textures. "Le musée de l'Hermitage de St Petersbourg a retenu Qbic pour indexer environ 3 000 oeuvres en haute définition sur son site", explique Frantz De Rycke, responsable de la division DataManagement chez IBM. L'internaute peut donc, en dessinant la forme de son choix et en jouant sur les couleurs, tenter de retrouver un tableau de maître. L'interface du site du musée permet de dessiner des cercles ou des rectangles. A l'essai, la représentation d'un ciel, avec un cercle jaunâtre en haut et différentes parties ovales ou rectangulaires en bleu vers le haut de l'écran renvoient effectivement vers des paysages, mais tous les coups ne sont pas gagnants. C'est qu'il reste des progrès à faire. Dans le monde et en France, de nombreux laboratoires développent des moteurs graphiques mais ils sont encore peu intuitifs, et les réponses sont souvent hors sujet ou classées bizarrement. Le moteur graphique doit apprendre à devenir plus pertinent, en explorant différentes solutions. Une méthode consiste à partir d'une photo et à l'associer à d'autres tout en précisant un panel d'images à refuser. En croisant les informations, le logiciel de recherche devient capable d'affiner la fouille. "On est encore dans le domaine du jouet", juge toutefois José Martinez. "Les applications et les besoins commencent seulement à arriver. Pour le grand public, on pourra rechercher les photos de l'album de famille, par exemple en indiquant la forme d'un chapeau", explique le scientifique. La recherche continue. VUnet : http://www.vnunet.fr/VNU2/actualites/page_article.htm?id=0
|
 |
 |
 |
|
 |
 |
|
Si près d'un Européen sur trois dispose d'un accès à l'internet, soit 20 millions de personnes de plus de 18 ans, l'internaute type reste en grande majorité "masculin, jeune, actif, sur-diplomé et disposant de confortables revenus", selon une enquête menée dans cinq pays européens. Avec 4O% d'internautes, la Grande-Bretagne, talonnée par l'Allemagne (38%), reste de loin le pays européen le plus connecté au réseau Internet. L'Italie avec 27% et la France avec 22% d'utilisateurs devancent l'Espagne (14%), selon cette enquête de l'institut français IPSOS. Pourtant, quel que soit le pays étudié, le profil de l'internaute reste le même, relève l'étude d'IPSOS, qui en conclut que "la révolution internet n'est pas encore +une révolution populaire+". L'accès à l'internet reste freiné, "d'une part par le coût, d'autre part par un usage professionnel qui concerne principalement les cols blancs". Parmi les internautes européens, disposant d'une connexion à la fois à leur bureau et chez eux, près de la moitié (47%) bénéficient de revenus supérieurs alors qu'ils ne représentent que 11% de l'ensemble des Européens. L'examen du profil des internautes anglais montre ainsi que la démocratisation financière d'internet est loin d'être acquise puisque "58% des connectés anglais appartiennent encore aux catégories aisées". Quant à la différence hommes/femmes, la population internaute anglaise "n'est pas beaucoup plus féminine que la française". "Et même si les plus de 35 ans deviennent majoritaires chez les internautes anglais, les plus de 65 ans restent totalement en retrait", indique l'étude. Plus inquiétant, il n'est pas sûr que l'expansion de l'internet permette aux catégories les moins favorisées de combler leur retard, note l'institut. "Les nouveaux internautes se recrutent ainsi en priorité au sein de certaines populations déjà largement représentées", selon IPSOS, tandis que certaines autres catégories devraient rester à l'écart de cette révolution pendant longtemps. L'aisance financière des internautes européens en fait des consommateurs à fort potentiel. Pour preuve, leurs intentions d'achats sont supérieures à la moyenne dans tous les secteurs étudiés, avec une préférence pour les voyages (31%), le mobilier (25%), l'électro-ménager (16%), ou la voiture (14%). Enfin, les internautes européens ont davantage le moral que le reste de la population. Près de huit internautes sur dix ont confiance en l'évolution de leur situation économique personnelle et la majorité absolue de ceux disposant de deux connections (travail et domicile) partage ce sentiment positif concernant la situation économique de leur pays. L'étude européenne d'IPSOS (5.000 interviews dans cinq pays) a été réalisée en février 2000.
|
 |
 |
 |
|
 |
 |
|
La Suède s'est engagée dans le câblage de l'ensemble de son territoire pour donner à tous un accès rapide à l'internet, une infrastructure considérée par le gouvernement comme un équipement stratégique majeur. "Il s'agit d'offrir, à un prix abordable, à chacun des neuf millions d'habitants du pays et à chacune des entreprises un accès à haut débit à l'internet", explique Kjell Skoeglund, chef de projet d'une Commission sur les technologies de l'information (TI) constituée l'an dernier par le gouvernement social-démocrate. En juin, la commission a chiffré à 80 milliards de couronnes suédoises (9,3 milliards d'euros) le coût d'un réseau national à bande large offrant un débit de 10 à 100 megabits par seconde (Mbits/s) dans les deux sens, soit presque autant. Les liaisons à l'internet par modem via les lignes téléphoniques fixes sont actuellement limitées à 56 kilobits par seconde (Kbit/s). "Au regard du développement fulgurant des services en ligne et de l'immense potentiel du commerce électronique, il nous faut saisir cette opportunité de croissance économique" ajoute M. Skoeglund. D'autant que, selon lui, "les Suédois ont atteint une certaine maturité dans l'usage des nouvelles technologies" de l'information. Quelque 60 % des Suédois sont équipés d'un ordinateur personnel (PC) et 40% d'entre eux sont connectés à l'internet, selon des statistiques officielles qui prévoient que, d'ici à la fin de l'année, plus de la moitié des ménages devraient utiliser quotidiennement les services en ligne. En outre, les volumes des données transmises par l'internet devraient être multipliés par 20 au cours des trois prochaines années alors que déjà plus de 15 % des transactions bancaires individuelles s'effectuent en ligne. Pour conserver au royaume sa place dans le peloton de tête des sociétés de l'information, le ministre de l'Industrie, Bjoern Rosengren, déposera la semaine prochaine au Riksdag (parlement monocaméral) un projet de loi sur les TI où devrait être définie la technologie retenue pour le réseau national à bande large. "Nous pensons que seules les fibres optiques constituent la véritable solution pour les trente prochaines années", affirme Christer Marking, autre membre de la commission TI. M. Rosengren devra également dire si le nouveau réseau sera enterré ou rattaché en surface à celui des câbles électriques. Dans son rapport, la commission TI a suggéré de rattacher le nouveau réseau aux 50.000 km de lignes en fibre optique déjà exploités, principalement en souterrain, par Telia, l'opérateur public de téléphone. Pour diminuer les coûts du projet, elle n'a pas écarté non plus d'utiliser le réseau de 30.000 km des fournisseurs d'électricité, Vattenfall, Sydkraft et Birka Energi. Mais une violente tempête début décembre a démontré la vulnérabilité du réseau électrique haute tension du royaume. S'agissant du rôle appelé à être joué par l'Etat pour cette couverture nationale, la commission a considéré que la desserte du sud du pays, où vivent 70% de la population, devrait être laissée au privé tandis que les pouvoirs publics prendraient en charge le nord et les 30% restants de la population. AFP : http://fr.news.yahoo.com/000316/32/9z47.html
|
 |
 |
 |
|
 |
 |
|
L'Icann, l'organisme qui contrôle l'allocation des adresses sur Internet, envisage une élection mondiale, sur le Web, des représentants des utilisateurs. L'Icann, (Internet corporation for assigned names and numbers) est l'organisme à but non lucratif, plutôt obscur, qui est chargé de géré "l'espace d'adresses" d'Internet. La tâche est rébarbative, fastidieuse, mais d'une importance considérable. Le groupe qui contrôle l'allocation des adresses IP, des noms de domaines et des paramètres du protocole de base du Web décide indirectement des conditions d'accès des utilisateurs au réseau et de la croissance de celui-ci. Le conseil d'administration de l'Icann vient de réunir son conseil de direction au Caire. Plusieurs de ses décisions sont très intéressantes. En particulier, Icann se prononce enfin en faveur de la création de nouveaux domaines génériques de premier niveau, ces grande subdivisions de la Toile en .com, .org et autres .fr. Des décisions concrètes devraient être prises lors du prochain conseil, qui se tiendra en juillet à Yokohama. Mais c'est du côté de l'élection du conseil lui-même que l'organisation a le plus surpris. Le premier conseil de l'Icann a été élu par une oligarchie de services d'accès et autres intermédiaires d'Internet, ou encore par de grands acteurs de la propriété intellectuelle. En clair, un peu trop rigide et organisé pour la culture libertaire du Web, sans pouvoir se targuer d'être démocratique. Aussi, l'Icann a t-il accepté de réviser le mode d'élection des neuf membres qui représenteront les usagers du Web. Auparavant, ceux-ci devaient être élus par les internautes, mais très indirectement, vie une sorte de collège électoral. Désormais, cinq d'entre eux seront élus en démocratie directe mondiale. Pour voter, il suffit d'une adresse postale, d'une adresse électronique... Et de s'inscrire. Un changement à marquer d'une pierre blanche pour le Web. Et, incidemment, une première historique absolue pour la démocratie. Usine Nouvelle : http://www.usinenouvelle.com/ Icann : http://www.icann.org/minutes/prelim-report-10mar00.htm
|
 |
 |
 |
|
 |
 |
|
Les logiciels libres (" open source "), dont le développement s'est considérablement accéléré avec l'essor d'Internet, deviennent des outils inévitables. Il s'agit de logiciels dont les codes sources (c'est-à-dire l'architecture propre du logiciel) sont disponibles gratuitement sur le Réseau. Chacun peut librement les utiliser, les modifier ou les redistribuer. Il ne s'agit pas pour autant de logiciels libres de droits (tels que les " freewares "). A la différence de ces derniers, les logiciels libres sont utilisés sous respect du droit d'auteur et d'une licence particulière, la General Public Licence. C'est un chercheur américain, Richard Stallman, qui est à l'origine du mouvement " open source ", et qui avait notamment lancé une version ouverte et gratuite du système d'exploitation Unix, d'abord sous le nom de projet " GNU " : les développements de celui-ci ont conduit au système d'exploitation libre Linux. Le Sénat français s'est intéressé de près à ce phénomène, au point qu'une proposition de loi, instituant notamment comme règle l'utilisation de logiciels libres dans tout service informatique de l'administration, a été élaborée. Au courant de l'hiver dernier, un forum public en ligne a été organisé par la Haute Assemblée sur cette proposition, qui a été modifiée pour tenir compte des réflexions des internautes. La nouvelle proposition, depuis peu disponible en ligne sur le site du Sénat, traite également de la dématérialisation des échanges d'informations et de données entre les administrations publiques, et de celle des procédures de marchés publics. Mais, surtout, l'article 3 de cette proposition prévoit, sous le titre " Des technologies ouvertes ", que " les services de l'Etat, les collectivités locales et établissements publics ne peuvent utiliser à compter du 1er janvier 2002 (...) que des logiciels dont l'usage et la modification sont libres et pour lesquels le code source est disponible (...) ". Cet article est complété par un article 4 qui institue une Agence du logiciel libre, chargée d'informer les services de l'Etat, les collectivités locales et établissements publics des conditions d'application de cette loi et de déterminer les licences d'utilisation de logiciels qui rentrent dans son cadre. Cet organisme, ouvert aux internautes et dont les décisions devront être précédées de consultations en ligne, devra veiller à l'interopérabilité des logiciels libres au sein des administrations publiques et réalisera " l'inventaire, par secteurs d'activité, des manques en matière de logiciels dont l'usage et la modification sont libres et pour lesquels le code source est disponible ". Cette nouvelle version de la proposition sénatoriale a obtenu le soutien de l'Association pour la promotion et la recherche en informatique libre (April). Le Monde : http://www.lemonde.fr/article/0,2320,seq-2317-47177-MIA,00.html proposition de Loi tendant à généraliser dans l'administration l'usage d'Internet et de logiciels libres : _ http://www.tregouet.org/senat/prop_lois/index.html
|
 |
 |
 |
|
Pour célébrer la Fête de l'Internet au Canada du 17 au 19 mars 2000 (voir le site officiel - http://www.fete-canada.org ), l'Explorateur Culturel lance un appel à tous les amoureux de la poésie et organise un grand Concours international de poésie Francophone sur le thème : 10 jours pour imaginer l'Internet de l'an 2010.Toute l'équipe de l'Explorateur Culturel vous invite à vous projeter dans le futur et à lui faire parvenir dans les 10 prochains jours vos visions poétiques de ce que sera l'Internet en l'an 2010 ! Tous les poèmes resteront en ligne jusqu'en 2010 pour établir une mémoire francophone de votre vision poétique et prospective de l'Internet. Dix prix seront remis par tirage au sort ! Vos envois doivent être adressés avant le 20 mars 2000 à l'adresse ambafr@ambafrance.org Ambassade de France : http://ambafrance.org/CONCOURS/
|
 |
 |
 |
|
 |
 |
|
De façon assez surprenante, le directeur de recherche d'Intel met en garde contre la multiplication des ordinateurs qui gouvernent notre vie quotidienne. Le nombre d'ordinateurs va bientôt dépasser celui de la population d'êtres humains et chaque personne devra tenter de contrôler des milliers de systèmes luttant pour attirer l'attention. C'est ainsi que s'est exprimé David Tennenhouse, le directeur de la recherche d'Intel. Avant de rejoindre le géant des processeurs, David Tennenhouse a servi en tant que directeur scientifique au bureau Information Technology de l'Agence de recherche sur la Défense américaine (DARPA). Il a encouragé la communauté de la recherche à développer des moyens pour permettre à chacun de profiter de la technologie plutôt que d'être dépassée par elle. "Nous devons évoluer d'une informatique centrée sur l'humain vers une informatique supervisée par l'humain" a-t-il déclaré lors d'un discours destiné aux chercheurs en informatique et universitaires et qu'il a donné pendant l'Intel Computing Continuum Conference de San Francisco. David Tennenhouse a prédit que l'industrie allait produire 8 milliards de micro-ordinateurs cette année, dont plus de 95 % seront des systèmes embarqués dans des matériels divers, des immeubles, des machines, des voitures et même des vêtements. Il a également souhaité que plutôt que d'essayer de mettre en réseau 150 millions de PC de bureau livrés chaque année, la communauté de la recherche devrait essayer de donner aux micro-ordinateurs, qui seront livrés avec des capacités de mise en réseau, la capacité d'améliorer la vie des gens plutôt que de la gouverner. VUnet : http://www.vnunet.fr/VNU2/actualites/page_article.htm?id=3
|
 |
 |
 |
|
 |
 |
|
Une densité de 20 Go par pouce carré représente la limite pour les techniques actuelles de disque dur, Au-delà, les pertes de données seront inévitables du fait de la trop faible distance entre les bits sur la surface magnétique. Or, cette densité devrait être atteinte dans quelques années. Pour la dépasser, Seagate planche sur l'OAW (Optical Assisted Windchester). L'idée est de seconder la tête de lecture par un laser. La couche magnétique doit être composée d'un matériau à base de minéraux amorphes, dont il est extrêmement difficile de faire varier les charges magnétiques à température ordinaire. En écriture, le rayon laser se charge de chauffer la surface magnétique. En lecture, le rayon laser passe en mode de faible consommation d'énergie et réagit comme avec les actuels disques magnéto-optiques. Autre voie de recherche pour IBM : la nanomécanique. L'invention d'un microscope à effet tunnel avait valu à son laboratoire de Zurich de remporter un prix Nobel. Depuis, en s'appuyant sur l'AFM (Atomic Force Microscopy), les chercheurs tentent d'accroître la densité de données stockées sur une surface infime. Ici, sur une couche de polymère, les bits sont représentés par de petites entailles provoquées par la piqûre de minuscules pointes. Des pointes également capables de relire les données à des débits de 100 Mbits par seconde. Le premier prototype utilise 1 024 pointes, disposées selon une matrice de 32 par 32 et couvrant une surface de 3 mm sur 3 mm. Des entailles séparées de seulement 30 nanomètres ayant été réalisées avec une seule pointe, IBM envisage d'atteindre une densité de 500 Gbits par pouce carré, 20 fois supérieure à celle des disques durs actuels les plus performants du marché. L'effacement des données se fait par réchauffement de la couche de polymère qui revient à son état initial. pour succéder aux disques actuels figure le stockage holographique. Dans un hologramme traditionnel, chaque angle de vision offre une vue différente du même objet pour donner l'impression de relief. Mais dans le cas du stockage, plutôt que de présenter une autre vue du même objet, on conserve des pages différentes d'informations, chaque bit étant représenté par un point. Le support est un cristal spécial dans lequel un laser peut lire et écrire. Et pas seulement à la surface, dans le volume aussi. Jusqu'à 10 000 pages d'un mégabit ont ainsi été stockées sur un cristal de la taille d'un morceau de sucre, soit plus de 1 Go de données. Contrairement au disque dur, ici, il n'y a pas de moteur, donc pas de parties mécaniques, les temps d'accès seraient alors extrêmement rapides : IBM se dit capable de lire un milliard de bits par seconde (125 Mo/s). Et on peut parfaitement envisager un support amovible. Vunet(dossier) : http://www.vnunet.fr/VNU2/svm/dossiers/diskdur.htm
|
 |
 |
 |
|
 |
 |
|
Les machines restent et resteront toujours au service de l'homme, comme vient de le démontrer Sirius, un robot nettoyeur de parois vitrées développé par le Frauhofer Institute for Factory Operation and Automation (IFF) de Magdeburg, en Allemagne, en partenariat avec l'entreprise Dornier. Destiné à la maintenance des gratte-ciel vitrés, ce robot est capable non seulement de grimper à la verticale, mais aussi d'éviter tout obstacle. Doté de ventouses fixées à des rails articulés et de capteurs optiques, Sirius se déplace à la verticale en zigzag telle une araignée grimpant un mur, évitant alors facilement et sans perte de temps les fenêtres ouvertes, les compresseurs de climatiseurs, les grilles de ventilation... Sirius respecte les normes de sécurité européenne. En effet, ses ventouses sont assez puissantes pour le maintenir en place lors d'intempéries difficiles jugées dangereuses pour l'homme, souligne l'IFF. Lors de la foire " Cleaning the New Millennium " qui s'est tenue récemment à Singapour, Sirius a exécuté une démonstration de ses capacités en nettoyant de fond en comble les façades d'un gratte-ciel dans le centre-ville. Pouvant traiter 120 mètres carrés de façade vitrée en une heure, le robot offre un coût d'exploitation imbattable comparé à un ouvrier de maintenance de surface. En outre, Sirius est totalement autonome. Il dispose d'une panoplie de brosses adaptées au nettoyage de différentes façades vitrées. Il est capable de récupérer toute l'eau usagée, de la recycler dans un conteneur pour être immédiatement réutilisée. Enfin, une option permet de sécher la surface lavée et, selon son concepteur, le docteur Norbert Elkmann, " aucune goutte d'eau ne tombe en bas du bâtiment", qui ajoute que l'objectif était de " développer un système complet qui, en plus du robot, pouvait assurer son propre approvisionnement en matériaux ".Sirius est le deuxième projet de robot nettoyeur conçu par le Frauhofer Institute for Factory Operation and Automation de Magdeburg. Ce centre de recherche allemand avait déjà démontré son savoir-faire en la matière, en développant avec succès une machine capable de grimper des surfaces courbées. Elle sert aujourd'hui à nettoyer le dôme vitré du centre d'exposition de Leipzig. Le Monde : http://www.lemonde.fr/article/0,2320,seq-2081-47307-MIA,00.html
|
 |
 |
 |
|
 |
 |
|
Le poste va bientôt vous délivrer votre courrier. Pas LA poste. Le poste. De télévision. La boîte qu'on manipule avec une zapette. Car TPS, l'opérateur de télévision par satellite, s'apprête à lancer une offre de courrier électronique consultable depuis sa télé. D'ici peu, une adresse électronique devrait être attribuée à tous les abonnés. L'idée était dans l'air depuis un bon moment, mais l'opérateur attendait d'avoir une qualité de service suffisante pour annoncer son offre -- sans doute dans le courant du mois de mars. Comment l'abonné stockera-t-il son courrier sur une télé qui ne possède pas de disque dur ? Comment répondra-t-il à ses mails sans avoir de clavier ? Autant de questions sans réponse aujourd'hui, mais qui devraient s'éclaircir dans les semaines qui viennent. Le mail par télévision s'intègre parfaitement à la politique de l'opérateur qui développe de plus en plus de services multimédias interactifs -- plus de 120 services de ce type, ponctuels ou non, ont été lancés en trois ans. Mais il ne faut pas en déduire pour autant que TPS se lance sur le marché des fournisseurs d'accès : les informations numériques qui transitent par le satellite ne sont pas, pour le moment, au format HTML, le standard technique du Web. Après l'adresse électronique, TPS devrait adapter un certain nombre de sites Web à l'univers télé. Express : http://www.lexpress.fr/Multimedia/ActuMulti/Vitrine/Dossier/tps/dossier.asp?id=5... http://www.tps.fr
|
 |
 |
 |
|
 |
 |
|
Les internautes passionnés de vidéo en ligne ne seront peut-être plus longtemps contraints de scruter des images de mauvaise qualité sur une minuscule partie de leur écran. Com4U, une entreprise israélienne affirme avoir développé un nouveau procédé qui permet d'améliorer la qualité des différents niveaux VHS de l'image et d'augmenter sa taille jusqu'à la moitié de l'écran. Grâce à cette technologie, appelée VEN/VAM (Video Enhancement>/Video Amplification), l'image est d'abord réduite à un douzième de sa taille initiale mais à un niveau de définition identique, puis restituée dans un format plus grand et de bonne qualité. Com4U, installée dans la banlieue de Tel Aviv à Ramat Gan, a expliqué que cette technologie permettait de réduire de 75% la largeur de bande passante nécessaire à la transmission de vidéo numérique. "Ce procédé révolutionne la manière dont la vidéo arrive sur internet", a commenté Mark Vatick, directeur général de Com 4U. "La bande passante revient très cher", a-t-il ajouté. Cette technologie, qui tient dans une petite boîte, permet non seulement d'envoyer et de recevoir des images vidéo, via une connexion internet à haut débit, mais aussi de conserver ou repasser des enregistrements numériques provenant d'un ordinateur. "Cette petite boîte reçoit la télé satellite ou par câble, envoie sur internet ou reçoit d'internet et peut proposer n'importe quelle video à la demande" a précisé Vatik. Reuters : http://fr.news.yahoo.com/000313/32/9uy1.html
|
 |
 |
 |
|
 |
 |
|
Lire au XXIe siècle ? Tout un programme, à découvrir au XXe Salon du livre, dans un " village eBook " conçu par un pionnier français en la matière, l'éditeur en ligne 00H00, et l'éditeur de logiciels Adobe (inventeur du format PDF, portable document format, qui permet de lire sur écran les livres téléchargés sur l'Internet). Parmi les nouveautés de l'ère numérique, le visiteur découvrira les livres électroniques, " eBooks ", machines à lire lancées aux Etats-Unis dès l'automne 1998. A côté des Softbook et Rocket eBook, un petit dernier fait son apparition au Salon, conçu par la société française Cytale, qui en prévoit la commercialisation (au prix de 3 500 francs) en mai prochain. Nous avons eu le prototype entre les mains : l'objet ne ressemble ni à un ordinateur portable ni à un assistant personnel, mais plutôt à une tablette, au format d'un best-seller qui pèserait 900 grammes. Sur l'écran tactile couleur, un sommaire propose livres, presse et accès à l'Internet (par un simple branchement sur une prise téléphonique). Voici le texte : pleine page, sobre, parfaitement lisible. Luminosité réglable, taille des caractères aussi, sans altération de la mise en page. Un bouton sur le côté droit permet d'avancer dans la lecture. Tel passage nous emballe, on le surligne au stylet ; tel mot nous est inconnu, on appelle le dictionnaire. Si l'on imagine partir en voyage son eBook sous le bras (celui de Cytale a cinq heures d'autonomie et un chargeur qui pèse 230 grammes), avec les 15 000 pages qu'il peut contenir, on s'interroge encore sur les contenus que l'on pourra acheter et télécharger sur le site de la librairie Cytale. En tant que diffuseur numérique, la société a passé un accord avec des éditeurs de littérature générale du groupe Hachette, lequel revendique une approche pragmatique qui s'orientera, dans l'édition dématérialisée, sur les choix du public. Vingt titres seront proposés au Salon, avant-goût du Miller annoncé pour mai. Ces nouveautés, vendues au prix fixé par l'éditeur (moins chères que le livre papier), sont formatées par Cytale pour n'être lisibles que par sa machine... Sur ce même stand, on pourra découvrir la technologie de l'encre électronique (e-ink), dans laquelle Havas a récemment investi. Associée à un papier électronique, cette encre devrait donner naissance, d'ici trois à cinq ans, au " last book ", sur lequel travaille le professeur Jacobson dans son laboratoire du Massachusetts Institute of Technology : un livre à feuilleter, avec des pages de papier plastifié dans la trame duquel s'incruste l'encre électronique, faite de microcapsules noires et blanches, permettant de faire apparaître ou disparaître les textes contenus dans la mémoire de cette bibliothèque portable. A l'attention de lecteurs décidément mutants... Le Point : http://www.lepoint.fr/data/PNT1435/3511601P.html
|
 |
 |
 |
|
Olympus, une des compagnies leader dans la fabrication optique et électronique de matériels professionnels et de loisir, a imaginé pour notre plus grand plaisir les lunettes Eye-Trek. Ne pesant que 85 grammes, les lunettes multimédia offrent la sensation de visionner sur écran géant (environ 1m30 de diagonale à 2 mètres de distance) via un programme vidéo PAL, la télé satellite, un DVD, ou même votre PC. En option, le dispositif sans fil permet de regarder un film sur votre balcon, la source vidéo se trouvant dans une autre pièce. Les écouteurs incorporés diffusent le son en stéréo. C'est le Home cinéma à portée de vos lunettes !Leur prix varie entre 6000 et 8000 FF, selon les options. Le dispositif Eye-Trek est en démonstration jusqu'au 26 mars 2000 à l'espace Eiffel-Branly à Paris, dans le cadre de la FNAC Expo sur le thème de la Maison du Futur. Besok : http://www.besok.com/besok/besok01
|
 |
^ Haut |
 |
|
 |
|
 |
|
|
Avenir |
|
 |
Nanotechnologies et Robotique
|
|
 |
|
 |
|
 |
 |
|
Créer un trou noir en laboratoire est non seulement concevable, mais aussi parfaitement sûr, soutiennent deux chercheurs dans la revue New Scientist. Et la méthode pour les fabriquer pourrait être au point d'ici cinq ans. On ne parle pas ici d'un véritable trou noir, utilisant sa force gravitationnelle pour capturer la matière : un tel monstre détruirait la Terre en quelques minutes. On vise plutôt un trou noir optique, un dispositif utilisant de curieuses propriétés de la matière pour capturer la lumière - et elle seule. Un véritable trou noir est si massif que rien ne peut échapper à sa force gravitationnelle, y compris la lumière, qui est pourtant la chose la plus rapide de l'univers. C'est d'ailleurs cette faculté de retenir la lumière qui le rend si unique. Mais si la lumière était beaucoup plus lente, ne serait-elle pas plus facile à capturer? C'est cette idée qui anime Ulf Leonhardt et Paul Piwnicki, de l'Institut royal de technologie, en Suède. Dans le vide, la lumière se déplace très vite. Mais dans d'autres milieux, c'est autre chose. Il y a quelques semaines, des chercheurs ont réussi à la ralentir à 50 centimètres par seconde (1,5 km/h) dans un condensé de Bose-Einstein, un milieu si froid que la lumière peine à le traverser. D'ici quelques mois, on pense même parvenir à la ralentir à 1 cm/s. Cette lumière est si lente que si l'on prend le condensé et qu'on lui imprime un mouvement vers l'arrière, la lumière se trouve en fait à reculer! Et si au lieu de faire reculer le condensé de Bose-Einstein, on le faisait plutôt tourbillonner à grande vitesse? La lumière y entrerait, y serait ralentie et ne pourrait plus s'échapper, car sa propre vitesse serait inférieure à celle du milieu où elle se trouve. Tous les photons entrant dans ce tourbillon en demeureraient prisonniers, tant que le condensé continuerait à tourbillonner, et tant qu'il resterait froid. Un piège à lumière, voilà bien l'une des propriétés d'un trou noir! À quoi un tel trou noir optique pourrait-il servir? Les possibilités sont immenses. On présume qu'une seule chose peut s'échapper d'un trou noir : la radiation de Hawking. Cette force mystérieuse n'a encore jamais été observée. Le piège à lumière y parviendrait peut-être. Il pourrait aussi servir de banc d'essai pour la théorie quantique de la gravité. À terme, ceci pourrait permettre de réunir la théorie quantique avec la relativité générale d'Einstein, l'un des rêves de la physique moderne depuis des décennies ! Cybersciences : http://www.cybersciences.com/cyber/3.0/N1730.asp New Scientist : http://www.newscientist.com/features/features_22301.html
|
 |
^ Haut |
 |
|
 |
|
 |
|
|
Matière |
|
 |
Matière et Energie
|
|
 |
|
 |
|
 |
 |
|
Une équipe du Département de génie électrique et informatique de l'Université de Sherbrooke a mis au point un procédé qui permettra de multiplier par 10 la densité des circuits intégrés et d'atteindre dès maintenant les objectifs qui ont été fixés par l'industrie de la micro-électronique pour les dix prochaines années. Dirigée par le professeur-chercheur Jacques Beauvais, cette équipe apporte une solution aux problèmes de fabrication des masques, principal écueil associé au développement et à la mise en production des prochaines générations de semi-conducteurs en deçà de 100 nanomètres (un nanomètre représente un milliardième de mètre). À cette échelle, on pourrait transcrire l'ensemble du texte de la Bible sur une pièce de 10 cents. Cette technologie innovatrice créera un changement de paradigme dans l'industrie des semi-conducteurs et permettra de repousser encore plus loin les limites physiques de la miniaturisation des circuits intégrés, d'augmenter leur performance et de réduire leur coût. Depuis ses débuts, l'industrie de l'informatique a constamment réduit la taille des circuits intégrés que l'on retrouve dans les ordinateurs. Cependant, les techniques de miniaturisation employées jusqu'à maintenant ne seront bientôt plus en mesure de répondre aux exigences du marché. " D'ici cinq ans, l'industrie de la micro-électronique subira des changements majeurs au plan des méthodes utilisées pour fabriquer les circuits intégrés, a prédit le professeur Beauvais. L'expertise que nous avons développée en nanolithographie nous permettra de prendre cinq ans d'avance dans la résolution des problèmes auxquels l'industrie sera alors confrontée. " Le vice-recteur à la recherche de l'Université de Sherbrooke, Jean Nicolas rappelle que cette découverte, directement issue de la recherche fondamentale, illustre le niveau de performance atteint par les chercheurs de l'Université dans des domaines de haute technologie. " Ce sont des domaines dont la complexité et la spécialisation n'ont d'égal que leur potentiel d'exploitation industrielle ", a commenté le vice-recteur. Agence Science-Presse : http://www.sciencepresse.qc.ca/kio/com76.html
|
 |
 |
 |
|
 |
 |
|
Ramtron International Corp. et le Japonais Fujitsu sont parvenus à développer un nouveau type de mémoire vive ferroélectrique capable de stocker des données sans utiliser la moindre énergie. Cette technologie permet de limiter le coût de la mémoire vive grâce à l'utilisation d'un seul transistor et d'un système de stockage des données de haute technologie, explique Ramtron. La firme ajoute que son prototype d'un mégaoctet combine des technologies existantes qui permettent une écriture et une lecture rapide des informations, et la capacité de stocker les données sans utiliser d'électricité. Ramtron compte utiliser cette nouvelle architecture pour développer des barrettes de mémoires aux capacités habituelles (16, 32, 64, 128 mégaoctets). Les nouvelles puces pourront être utilisées pour toutes sortes d'applications comme les ordinateurs portables, les ordinateurs de poche, les cartes à puces, les instruments de mesure ou de test, les automatismes industriels et les systèmes de sécurité. Kazunari Shirai, président de Ramtron et membre du comité de direction de Fujitsu, estime le marché concerné par cette technologie pourrait atteindre 10 milliards de dollars vers 2005. Il ajoute que Fujitsu ambitionne de devenir le principal fournisseur de ce type de composants. Reuters : http://fr.news.yahoo.com/000314/2/9vdh.html
|
 |
 |
 |
|
 |
 |
|
Après avoir présenté, la semaine dernière, des disques durs d'une capacité de 75 Go, c'est le département de recherche de Big Blue qui s'est distingué en annonçant la découverte d'un nouveau moyen de contrôler la taille de particules qui retiennent l'information sur les disques durs. Grâce à un nouvel alliage fer/platine, IBM a créé des nano-particules plus petites et plus facile à positionner sur la surface des disques durs. Les nano-particules sont de minuscules éléments qui possèdent la capacité de stocker des informations. En contrôlant leur taille et la distance qui les sépare, les chercheurs d'IBM seront ainsi capables de mettre beaucoup plus de ces particules dans les disques qui composent un disque dur. La taille des nouvelles particules -4 nanomètres- s'ajoute a des capacités exceptionnelles. Alors qu'il faut aujourd'hui plusieurs centaines de grains magnétiques pour stocker une information de base (0 ou 1), une seule des nano-particules étudiées par IBM pourra stocker un 0 ou un 1. Quand l'on sait qu'un disque dur renferme plus d'un 1 milliard de bits/cm², on imagine le pas de géant que représente cette découverte. D'après IBM, les capacités de stockage devrait augmenter de 100 fois. Les recherches vont maintenant s'orienter vers la stabilité dans le temps de ces nouveaux composants chimiques. En effet, les composés chimiques utilisés actuellement n'ont pas une durée de vie infinie. Pire, les premiers enregistrements effectués sur de très vieux disques durs ont tendance à disparaître d'eux même. L'autre aspect des recherches se destine à créer une tête de lecture/écriture qui soit capable de travailler avec des particules aussi fines. "Nous devons être capables d'aligner les têtes de lecture/écriture au-dessus de chaque particule et ce en tenant compte de la rotation du disque dur" a précisé le Dr Weller, membre de l'équipe scientifique d'IBM. Un défi qui ne sera sûrement pas relevé avant quelques années. TF1 : http://infos.tf1.fr/info/multimedia/article.cfm?&id_contenu=74931
|
 |
^ Haut |
 |
|
 |
|
 |
|
|
Espace |
|
 |
Espace et Cosmologie
|
|
 |
|
 |
|
 |
 |
|
Tout comme l'iceberg ne laisse voir au-dessus de la mer qu'un cinquième de son volume, l'univers cache aux télescopes l'essentiel (sans doute plus de 90 % !) de sa masse. En mettant au point une méthode fiable de localisation de cette " matière noire ", une équipe internationale, dirigée par les chercheurs de l'Institut d'astrophysique de Paris et du CNRS, ouvre la voie à une véritable cartographie universelle de sa distribution. Depuis Einstein, on sait que le trajet de la lumière est dévié sous l'influence des concentrations de masses, allant jusqu'à créer de véritables " lentilles gravitationnelles ". Mais ces lentilles ne sont pas, on s'en doute, optiquement parfaites. Comme le cristallin d'un oeil astigmate, elles déforment les images. En photographiant 200 000 galaxies lointaines avec le grand télescope franco-canadien de Hawaii, puis en mesurant les déformations infimes des images obtenues, les astronomes sont parvenus, après cinq ans d'efforts, à localiser ainsi les concentrations de matière noire. Premières constatations de Yannick Mellier, chef de file de ce travail : " L'Univers est une sorte de filet. Pour l'essentiel, la matière visible est concentrée aux noeuds de ce maillage. Nous avons découvert que la matière noire est, elle, localisée dans les longs filaments qui relient entre eux ces noeuds. " Reste un mystère à élucider : de quoi est faite cette masse cachée ? " La seule chose que nous pouvons dire après nos observations, c'est que cette matière est froide ", avoue l'astrophysicien parisien. Le Point : http://www.lepoint.fr/data/PNT1435/3504303P.html
|
 |
^ Haut |
 |
|
 |
|
 |
|
|
Vivant |
|
 |
Santé, Médecine et Sciences du Vivant
|
|
 |
|
 |
|
 |
 |
|
Pour la première fois, la transplantation de cellules souches humaines chez des patients atteints de cancer a réussi. Les résultats, obtenus lors d'essais cliniques de phase II, dépassent même les espoirs des chercheurs du centre médical de l'université de Loyola (Maywood, Illinois) et de la société Aastrom Biosciences (Ann Arbor, Michigan). Pour éradiquer leurs cellules cancéreuses, les patients subissent généralement une chimiothérapie ou une radiothérapie très lourde. Conséquence : leurs systèmes sanguin et immunitaire s'en trouvent fortement endommagés, leur moelle osseuse pouvant même être détruite. Or, les cellules souches de la moelle osseuse sont à l'origine des globules blancs, qui constituent justement le système immunitaire, et des plaquettes, qui interviennent dans la coagulation. Conduits sur 19 personnes atteintes de cancer du sein à divers stades, les essais cliniques - dont les résultats viennent d'être publiés dans la revue scientifique Blood visaient à évaluer l'efficacité et la sécurité d'une transplantation de cellules souches de la moelle épinière de chaque patient, pour restaurer ses fonctions sanguine et immunitaire. Ainsi, au lieu de subir une greffe traditionnelle de moelle osseuse, les chercheurs ont réinjecté à chaque malade ses propres cellules souches après les avoir cultivées dans un appareil mis au point par Aastrom Biosciences : l'AastromReplicell Production System. "Notre étude démontre que les propres cellules souches du sang d'un patient peuvent être produites hors de son corps et utilisées pour restaurer ses fonctions sanguine et immunitaire", résume, dans un communiqué de son université, Patrick Stiff, directeur du programme de transplantation de moelle osseuse de l'université de Loyola. Les essais cliniques ont en effet montré que les résultats étaient au moins aussi bons que ceux obtenus par la méthode classique. Ainsi, le nombre de globules blancs rejoint un niveau normal 15 jours seulement après le traitement tandis que celui des plaquettes sanguines met à peine 24 jours. Et la technique présente des avantages supplémentaires. "Le processus par lequel on multiplie les cellules dans le laboratoire élimine les cellules cancéreuses qui auraient pu être collectées par inadvertance au cours du prélèvement de cellules souches en vue de la transplantation de moelle osseuse ", ajoute Patrick Stiff. Par ailleurs, les accès de fièvre dont souffre le patient après la transplantation semblent moins nombreux qu'après une greffe traditionnelle. Si la publication de Blood ne parle que de 19 patients, Patrick Stiff a pourtant suivi 34 personnes ayant bénéficié de ce type de transplantation. Selon le communiqué, 22 d'entre elles étaient à des stades avancés de cancer du sein. Quinze mois environ après le traitement, ces patients auraient vu la progression de leur maladie cesser. Biotech : http://www.usinenouvelle.com/
|
 |
 |
 |
|
 |
 |
|
Bien avant que l'homme n'invente le réveille-matin, la nature avait doté la plupart des organismes vivants d'un infaillible moyen de suivre le rythme du jour et de la nuit. Depuis les années 60, les scientifiques savent qu'une horloge interne, située au coeur du système nerveux, dans l'hypothalamus, permet aux êtres humains et aux animaux d'accompagner la rotation quotidienne de la Terre autour du Soleil. Ce rythme a d'ailleurs été appelé "circadien", du latin circa diem signifiant "presque un jour". Mais les travaux du Pr. Paolo Sassone-Corsi, publiés ce mois-ci dans la revue Nature, vont probablement faire avancer la connaissance de ce mécanisme. Ce chercheur italien, installé en France et considéré comme l'un des meilleurs biologistes européens, montre scientifiquement qu'il n'y pas d'horloge centrale unique et laisse entrevoir la perspective d'un système très complexe et décentralisé. Son équipe de l'Institut de génétique et de biologie moléculaire et cellulaire de Strasbourg, associée au CNRS et à l'INSERM, avait déjà, l'an dernier, mis en évidence chez les poissons-zèbres la présence d'horloges périphériques situées dans plusieurs cellules de l'organisme, et notamment celles du rein, du foie ou du coeur. Elle démontre aujourd'hui que ces unités cellulaires, isolées in vitro, sont sensibles à la lumière. Elles continuent à osciller de façon circadienne, sans aucune consigne du système nerveux central. Et il est possible, par l'éclairage, de modifier artificiellement leur rythme d'activité, au point d'inverser le cycle jour-nuit, selon le principe du décalage horaire. C'est la preuve que ces cellules disposent de photorécepteurs, alors qu'on pensait que seules certaines parties du cerveau et la rétine en étaient pourvues. Pour le Pr. Alain Reinberg, grand spécialiste français de la chronobiologie, "cette approche fondamentale confirme et précisera peut-être l'existence de nombreuses horloges biologiques déjà connues d'un point de vue fonctionnel et empirique". On sait par exemple que, chez l'homme, le rythme du cerveau droit n'est pas le même que celui du cerveau gauche. Les périodes d'activité et de repos sont différentes. Des phénomènes comparables ont été observés chez le dauphin. Ne sachant pas respirer de façon automatique, cet animal ne peut jamais dormir que d'un oeil. Son activité cérébrale pendant le sommeil alterne donc toutes les vingt minutes du cerveau droit au cerveau gauche. Denis Boquet, directeur de recherche à l'INSERM de Marseille, estime très intéressante la mise en évidence d'une sensibilité à la lumière dans des organes qui ne doivent normalement pas être exposés au jour: "Si cela se confirme, on pourrait espérer utiliser la lumière pour synchroniser différemment certains organes malades. Mais il reste beaucoup à démontrer..." Express : http://www.lexpress.fr/Express/Info/Sciences/Dossier/chronobio/dossier.asp?nom=h... Nature : http://www.nature.com/nature/
|
 |
 |
 |
|
 |
 |
|
Des chercheurs américains ont immunisé, en utilisant pour cela un vaccin expérimental, avec succès des souris contre le mélanome, un cancer de la peau très agressif, annonce un communiqué de presse de l'Université de Floride. A ce jour, ces souris immunisées ont survécu 150 jours après avoir été inoculées avec des cellules de mélanome actives. En revanche, d'autres rongeurs non immunisés sont morts après quelques semaines, a indiqué le Dr Howard Johnson, a graduate research professor de microbiologie et de biologie cellulaire au University of Florida's Institute of Food and Agricultural Sciences et directeur du projet de recherche. Les souris ont été "vaccinées avec des cellules tumorales inactivées, et ensuite avec des super-antigènes". Ceci qui s'est alors traduit par une augmentation de la survie des animaux, a ajouté le Pr. Johnson. Les résultats de ces recherches menées à l'Université de Floride, qui reposent sur des bases comparables à celles utilisées pour protéger les individus contre la poliomyélite, la coqueluche et la grippe, devraient être présentées le 2 avril prochain à l'occasion de la National Conférence on the American Association for Cancer Research à San Francisco. Le problème du cancer, a souligné un autre membre de l'équipe,le Pr. Barbara Torres, tient au fait que le système immunitaire ne reconnaît pas immédiatement la cellule maligne comme une cible vis-à-vis de la quelle il doit passer à l'attaque. D'où l'intérêt d'amplifier la réponse immune en utilisant des super-antigènes pour tenter de venir à bout de la tumeur. Les chercheurs américains estiment que cette approche vaccinale anti-cancer, pour le moment chez les rongeurs, pourrait être tentée sur l'homme. Caducée : http://www.caducee.net/breves/breve.asp?idp=1&idb=488
|
 |
 |
 |
|
 |
 |
|
Les kinés, ça les a épatés de me voir debout. Alors, mes tout premiers pas, ça les a achevés!", a déclaré cet homme qui avait perdu l'usage de ses deux jambes à la suite d'un accident de la route survenu il y a dix ans. Il peut désormais se mettre debout tout seul et se déplacer, à l'aide d'un déambulateur. "D'ici un an, j'espère qu'on remplacera cet appareil par des béquilles", confie-t-il en souriant à des journalistes, à son domicile. "Mais rien que de marcher avec un déambulateur, c'est extraordinaire, vous ne réalisez pas!", lance-t-il, en soulignant "la nécessité physique d'être debout" et le "bien-être naturel" qui en découle. "Mon but immédiat, c'est de pouvoir déambuler partout chez moi en laissant le fauteuil roulant à l'entrée", explique ce Strasbourgeois de 39 ans. L'ancien directeur d'agence bancaire, reconverti en consultant à l'Université depuis son accident, a été opéré le 28 septembre à l'institut Propara(Centredetraitement et de réadaptation pour paraplégiques et tétraplégiques) de Montpellier, par l'équipe que dirige le professeur Pierre Rabischong, coordonnateur du projet européen SUAW (Stand up and walk - "Lève toi et marche"). L'opération, qui permet de retrouver la marche après une lésion de la moelle épinière, consiste d'abord à greffer dans l'abdomen du patient un implant contenant une puce électronique, a expliqué le professeur Rabischong. Cette puce électronique d'un centimètre est elle-même reliée à des électrodes placées sur les nerfs et sur les principaux muscles qui commandent la marche, a-t-il poursuivi, en insistant sur le fait que la lésion responsable de la paralysie n'était pas modifiée. Après un "faux départ" - un problème technique découvert dans l'implant posé en septembre- Marc Merger a subi une seconde intervention à Montpellier, le 14 février. C'est lors de sa rééducation au Centre de réadaptation fonctionnelle Clémenceau de Strasbourg qu'il a commencé à remarcher - quelques pas hésitants, accroché à son déambulateur - devant les yeux médusés des kinésithérapeutes. Marc Merger "se remet debout tout seul, sans aucun appareillage, avec ses propres muscles", se félicite le professeur Pierre Rabischong, en assurant que son patient, toujours en rééducation, devrait accomplir "de gros progrès" dans les six prochains mois, sans plus de détails. Le Monde : http://www.lemonde.fr/article/0,2320,seq-2273-47104-QUO,00.html
|
 |
 |
 |
|
 |
 |
|
Des chercheurs de la John Hopkins University School of Medicine viennent de démontrer qu'il est possible de détecter certains cancers en analysant l'ADN mitochondrial contenu dans les urines ou la salive. Leurs travaux sont publiés dans le numéro de Science daté du 17 mars. Les mitochondries sont, avec le noyau, les seuls organites cellulaires à posséder un génome. Les mitochondries sont présentes en nombre dans la cellule et chacune possède plusieurs copies d'ADN mitochondrial (ADNmt) : on estime qu'il existe dans chaque cellule 1000 à 10.000 copies d'ADNmt. La séquence entière du génome mitochondrial doit être exprimée pour assurer les fonctions biologiques de la mitochondrie telle que la synthèse de l'ATP (adénosine triphosphate.) Cette propriété suggère que des mutations de l'ADNmt pourraient avoir de profonds effets sur le métabolisme cellulaire. En effet, des mutations de l'ADNmt ont été impliquées dans certains cancers comme le cancer du colon. L'équipe de D. Sidransky a séquencé l'ADNmt provenant de tumeurs de la vessie, du cou de la tête et des poumons.. Ces mutations révélatrices ont été trouvées chez 64 % des tumeurs de la vessie, 46 % des tumeurs du cou et de la tête et 43 % des tumeurs pulmonaires. Parallèlement, les chercheurs ont recueilli des échantillons d'urines, de salive afin de rechercher et séquencer l'ADNmt présent dans ces prélèvements. Les séquences d'ADNmt issues des tumeurs et des liquides biologiques ont été comparées. Les ADNmt mutés issus des tumeurs ont été détectés dans les 3 échantillons d'urines provenant des patients avec une cancer de la vessie, dans 6 des 9 échantillons de salive provenant des patients avec des tumeurs du cou ou de la tête et dans 8 des 10 lavages alvéolaires des patients avec un cancer du poumon. Les auteurs indiquent que l'ADNmt détectable dans les liquides biologiques était 20 à 200 fois plus abondant que l'ADN muté du gène nucléaire p53 que l'on sait impliqué dans les processus de tumorisation. Le nombre important de copies d'ADNmt dans les cellules et sa faible longueur (16 kb) assure une détection très efficace d'éventuelles mutations. L'analyse des séquences d'ADNmt dans les liquides biologiques possède 2 atouts majeurs: elle permet la détection non invasive des cancers et la mise en évidence des liens entre mutations mitochondriales et cancers. Brève rédigée par @RTFlash Wired : http://www.wired.com/news/technology/0,1282,35061,00.html?tw=wn20000321
|
 |
 |
 |
|
 |
 |
|
Une équipe des Johns Hopkins Medical Institutions (Etats-Unis) a réussi à déterminer la structure de la télomérase de plusieurs espèces de mammifères et d'autres vertébrés. Publiés dans le dernier numéro de Cell, leurs travaux ouvrent une nouvelle voie pour la lutte contre le cancer. En effet, cela fait plusieurs années que les scientifiques s'intéressent à la télomérase et au rôle qu'elle joue dans les cellules cancéreuses. Cette enzyme permet de reconstituer les télomères, les extrémités des chromosomes qui assurent leur stabilité. Or, si la production de télomérase cesse très tôt lors du développement embryonnaire dans les cellules normales, elle reprend dans les cellules cancéreuses. "Les causes de ce phénomène restent mystérieuses, explique Carol Greider, directrice de l'équipe. Certains soupçonnent que ce qui entraîne la division continue des cellules cancéreuses réveille également les programmes permettant de créer les cellules immortelles comme les cellules souches." Programmes qui incluraient la télomérase. Or, en identifiant sa structure, les chercheurs ont trouvé quatre sites identiques chez les trente-deux animaux étudiés. Ces sites, qui semblent participer activement au travail de l'enzyme, pourraient alors servir de cibles pour de futurs agents anticancéreux. Infosciences : http://www.infoscience.fr/breves/breves.php3
|
 |
 |
 |
|
 |
 |
|
Les recherches avancent sur la maladie d'Alzheimer, cette dégénérescence du cerveau de plus en plus fréquente en Occident avec le vieillissement de la population. Selon une nouvelle étude américaine, certains dépôts protéiques constatés dans le cerveau des malades ne seraient pas un simple symptôme mais la cause même de la pathologie, une interprétation qui demande encore à être confirmée. L'autopsie de 79 patients morts en institution confirme que la protéine béta-amyloïde joue un rôle dès les prémices de la maladie d'Alzheimer, avant même l'apparition des symptômes de confusion puis de démence, selon une étude publiée dans la revue scientifique "Journal of the American Medical Association''. Des plaques séniles de béta-amyloïde dans l'encéphale et des enchevêtrements d'une protéine baptisée "tau'' à l'intérieur des fibres nerveuses du cerveau constituent deux des caractéristiques cliniques de la maladie d'Alzheimer qui affecte plusieurs millions de personnes dans le monde, une personne âgée sur quatre selon les statistiques. Les scientifiques ne sont pas d'accord sur ce qui provoque la destruction des cellules cérébrales, certains pensant que les plaques et les enchevêtrements seraient des marqueurs des cellules cérébrales tuées par une cause aujourd'hui inconnue. Les auteurs de l'étude publiée mercredi sont partisans de la théorie béta-amyloïde car ils ont découvert que l'apparition de ces plaques précédait le développement de la protéine tau dans le cortex frontal. Dans l'éditorial accompagnant l'étude, le Dr Dennis Selkoe, neurologue à Harvard, estime que cette recherche ouvre la voie à un diagnostic plus précoce de la maladie et à son traitement, actuellement extrêmement limité. ''Ces travaux et d'autres désignent clairement l'amyloïde comme cause de l'escalade'', écrit ce spécialiste ayant des intérêts dans la société Elan qui teste un vaccin visant à empêcher l'accumulation de béta-amyloïde. L'étude, dirigée par le chercheur en neuroscience Jan Naslund de l'université Rockefeller de New York, a consisté à analyser les résultats des autopsies de 63 patients ayant eu des démences allant de légères à graves cataloguées Alzheimer, ainsi que celles de 16 patients mentalement sains. Plus la démence était avancée et plus la quantité de béta-amyloïde était importante. Mais un début de plaque protéique a aussi été décelé chez les personnes mentalement saines à leur décès. Conclusion de l'équipe du Dr Naslund : elles auraient été atteintes elles aussi si elles avaient vécu plus longtemps. AP : http://fr.news.yahoo.com/000322/54/aarg.html
|
 |
 |
 |
|
L'équipe de William Weis du département de biologie structurale la Faculté de médecine de l'Université de Stanford (Californie, USA) ont réussi à déterminer, à une résolution de 2,6 angströms, la structure 3D de deux protéines clés de la physiologie cellulaire, en l'occurrence le complexe nSec1-syntaxin 1a qui joue un rôle crucial dans les processus de communication intracellulaires. Ces mécanismes intimes de la vie de la cellule ont été particulièrement étudiés dans les cellules nerveuses. En effet, la bonne transmission des neurotransmetteurs est une étape indispensable au bon fonctionnement des neurones. C'est justement la structure cristalline du `neuronal-Sec1-syntaxin 1a complex' qui a été déterminée par les chercheurs californiens qui se sont associés pour mener leurs travaux avec leurs collègues du Molecular and Cellular Physiology and The Howard Hugues Medical Institute. Brève rédigée par @RTFlash Nature : http://www.nature.com/nature/
|
 |
 |
 |
|
 |
 |
|
Un essai de thérapie génique mené sur des personnes atteintes de myopathie de Duchenne, la plus fréquente des maladies génétiques neuromusculaires, débutera en avril à Paris à l'hôpital de La Pitié-Salpétrière. Il s'agira d'une première mondiale, ont annoncé mardi des scientifiques, à quelques jours de l'ouverture du premier Congrès international de myologie (étude du muscle) qui se tiendra à Nice du 27 au 31 mars. La myopathie de Duchenne bien connue du grand public grâce au Téléthon est due à la déficience d'un gène codant pour une protéine musculaire, la dystrophine. Il n'existe à l'heure actuelle aucun traitement de cette maladie. L'approche par thérapie génique consiste à faire parvenir le gène normal de la dystrophine au sein de la cellule musculaire afin de suppléer au gène défectueux. Neuf personnes ''âgées de plus de 15 ans'' réparties en "trois groupes de trois malades'' atteints de myopathie de Duchenne ou de myopathie de Becker, une forme dans laquelle l'atteinte du gène est plus atténuée, participeront à cet essai de phase I pour lequel "on ne s'attend pas à un bénéfice thérapeutique'', a déclaré le Dr Serge Braun, co-responsable de l'essai (société Transgène), à l'occasion de la conférence de presse de présentation du Congrès de myologie. "Nous allons injecter le gène de la dystrophine directement dans la cellule musculaire par le biais d'un vecteur non infectieux, un ADN plasmidique, pour voir si l'injection directe du gène produit bien de la dystrophine, et si cette protéine est bien tolérée par le malade'', a ajouté ce spécialiste. En effet, ces malades qui ne possèdent pas le gène codant n'ont "jamais été en contact avec la dystrophine'', a-t-il précisé. Il s'agit d'évaluer si cette protéine "ne provoque pas chez eux d'effets secondaires inflammatoires et/ou une réponse immune. Une étape indispensable pour la suite des recherches que veulent mener les scientifiques pour tenter "de restaurer la force de certains groupes musculaires, localement dans un premier temps, plus diffusément ensuite''. L'étude qui se déroulera dans le service de médecine interne du Pr. Serge Herson et à l'Institut de myologie sous l'égide du Pr Michel Fardeau, a reçu l'accord de l'Agence française de sécurité sanitaire des produits de santé (AFSSPS) le 30 novembre dernier. Elle est le résultat de quatre ans de recherches menées en étroite collaboration entre les chercheurs de transgène, les médecins cliniciens, l'association française contre les myopathies, les malades et leurs familles. AP : http://fr.news.yahoo.com/000321/54/a9fo.html
|
 |
 |
 |
|
 |
 |
|
Les expériences conjointes des groupes de Ehud Ahissar de l'Institut Weizmann, en Israël, et de Daniel Shulz du CNRS ont été menées chez le rat adulte sur les cellules nerveuses du cortex somatosensoriel. Cette aire de l'écorce cérébrale contient une représentation des vibrisses du museau, organes sensoriels que l'animal utilise activement durant l'exploration de son environnement. Pour cela, l'animal balaie les surfaces et objets rencontrés avec ses vibrisses de façon analogue aux mouvements utilisés par les non-voyants pour explorer tactilement la surface des objets. Les neurones somatosensoriels s'activent lorsque les vibrisses sont stimulées dans une gamme restreinte de fréquences. D'après les résultats des chercheurs, si l'une de ces fréquences de stimulation est associée de manière spécifique à l'augmentation, imposée par l'expérimentateur, de la concentration locale d'acétylcholine -un neurotransmetteur impliqué dans des mécanismes de mémorisation et dont la concentration cérébrale est réduite dans la maladie d'Alzheimer, les cellules nerveuses augmentent leur activité de façon élective chaque fois que cette même fréquence de stimulation est présentée ultérieurement. Cette augmentation n'est cependant observée que si la concentration d'acétylcholine est à nouveau augmentée. C'est ainsi que le neurone cortical apprend de façon conditionnelle à reconnaître une fréquence de stimulation des vibrisses. Ces résultats montrent pour la première fois que, de même que le phénomène d'apprentissage comportemental dépend du contexte sensoriel et physiologique, l'expression de la modification des réponses au niveau du neurone cortical n'est révélée que lorsqu'un contexte neurochimique semblable à celui présent durant la période d'apprentissage neuronal est restitué. CNRS : http://www.cnrs.fr/Cnrspresse/n382a9.htm
|
 |
^ Haut |
 |
|
 |
|
 |
|
|
Recherche |
|
 |
Recherche & Innovation, Technologies, Transports
|
|
 |
|
 |
|
 |
 |
|
Le supersonique aura-t-il une seconde chance? Aucune certitude encore, mais les signes s'amoncellent. À commencer par les résultats de l'appel à projet lancé par le ministère de la Recherche et de la Technologie en décembre dernier. À la clôture, en février, pas moins de soixante-dix réponses étaient parvenues. Un succès qui ne manquera pas de donner des arguments au Comité d'orientation supersonique, créé en juin dernier, qui devra rendre ses conclusions sur la pertinence de lancer un vaste programme scientifique sur ce thème au mois de juin prochain. En attendant, ce sont les industriels de l'aéronautique (Aérospatiale Matra, British Aerospace et Daimler Chrisler Aerospace) qui vont suivre de près le travail du comité. Ils sont, depuis 1994, engagés dans un programme européen PERS (Programme européen de recherches supersoniques) dont l'objectif est de concevoir les bases d'un successeur au Concorde. En effet, les études de marché estiment qu'il existe un potentiel d'environ 500 à 1 000 avions pour des vols trans-océaniques. Tout juste assez pour rentabiliser un modèle, quand quatre candidats sont en lice: l'Europe, le Japon, les États-Unis et la Russie. Dans ce cas, la bataille ne sera pas commerciale mais technologique au sein d'une large coopération internationale. Le partage économique final se fera alors en fonction de la contribution de chacun au développement. D'ici là, la guerre technologique va donc aller crescendo. Concevoir un super-Concorde n'est pas une mince affaire. La capacité sera portée à 250 passagers au lieu de 100, le rayon d'action de 10 000 km au lieu de 6 000, la consommation par siège divisée par deux et le bruit ramené à celui d'un avion subsonique classique pour le survol des zones habitées. En revanche, la vitesse restera Mach 2. Un objectif qui ne sera atteint qu'à condition de remplacer le métal de la carlingue par des matériaux composites légers et du titane. Par ailleurs, les moteurs sont entièrement à revoir: la Snecma réfléchit à des réacteurs à cycle variable capables de s'adapter aux différentes phases de vol de l'avion pour générer moins de bruit lors des manoeuvres aéroportuaires. Dans cette course technologique, l'Europe bénéficie bien entendu d'une large avance, mais les États-Unis et le Japon reviennent vite. La Nasa a ainsi transformé le Tupolev supersonique russe en laboratoire volant dans l'espoir de doubler les Européens, en lançant un avion volant à Mach 2,4 dès 2007. Depuis, l'agence spatiale semble avoir renoncé à ce projet et s'est alignée sur le projet PERS. Les Japonais, quant à eux, partis de zéro avancent à pas de géant. Ils devraient faire voler des maquettes de démonstration à partir de 2002. Un engagement européen de grande envergure est donc indispensable pour conserver un avantage technologique dans ce secteur. Tout dépendra donc de l'implication des pouvoirs publics mais aussi de la capacité de l'industrie aéronautique européenne à transformer l'essai de l'A3XX (Airbus géant prévu pour 2005), prochaine étape stratégique incontournable avant de miser à fond sur le supersonique. Sciences&Actualités : http://www.cite-sciences.fr/actu/index.html
|
 |
^ Haut |
 |
|
|
|
|
VOTRE INSCRIPTION |
 |
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
|
|
|
|
|
|