|
|
Edito
Il ne reste que peu de temps pour décider de l'avenir du cinéma français
La révolution que beaucoup attendaient depuis de nombreuses années est en train de se dérouler sous nos yeux. Les derniers maillons qui composent la chaîne numérique du cinéma viennent d'être forgés. En cette semaine de Festival de Cannes, il nous faut prendre conscience que cette grande mutation du numérique va donner un nouveau souffle au 7e Art. George Lucas avec Star Wars l'année dernière et Walt Disney avec Toy Story 2, il y a quelques semaines, ont ouvert une époque nouvelle dans l'histoire du cinéma en tournant les deux premiers films " grand public " pour lesquels il n'a pas été utile d'utiliser le moindre mètre de pellicule. Mais ce qui est peut-être encore plus extraordinaire, et pourtant cet événement est passé quelque peu inaperçu, un cinéma parisien, comme le font par ailleurs une quinzaine de salles aux Etats-Unis et deux au Canada, projette Toy Story 2 sur grand écran sans employer la moindre bobine, portant le film au standard historique de 35 mm. Cette chaîne numérique ininterrompue qui va du tournage jusqu'à la projection sur grand écran dans les salles obscures va certainement autant changer l'avenir du cinéma qu'a pu le faire en son temps l'avènement du parlant ou de la couleur. Cette prouesse de la projection numérique sur grand écran utilise un procédé de vidéoprojection révolutionnaire reposant sur les puces DMD (Digital Micromirror Device) qui sont en train de bouleverser le secteur de l'image et de la vidéo. Des micro-miroirs qui se comptent en millions basculent en 1/60e de seconde sur de minuscules barres de torsion. Chacun de ces miroirs est attiré ou repoussé par deux électrodes. En basculant, chacun de ces miroirs, soit envoie la lumière sur l'écran (le point projeté est alors blanc) soit la dévie vers une surface d'absorption (le point projeté est alors noir). Pour la couleur, le même nombre de miroirs (en millions) traitent chacune des couleurs de base (rouge, vert, bleu). Cette technique permet de faire disparaître les zones légèrement ombrées qui entourent chaque pixel avec des cristaux liquides (LCD) car chacun de ceux-ci doit porter un micro-transistor alors que les miroirs sont parfaitement jointifs. De plus, grâce à une astuce qui permet de faire basculer chaque miroir à une vitesse différentielle supérieure à 1/60e de seconde, il est obtenu un piqué (surtout dans les gris) qui n'a jamais été atteint avec une autre technologie de vidéoprojection. En effet, si la durée typique du basculement est de 1/60e de seconde, le miroir projettera un point blanc si le rayon est, pendant cette durée, dirigé vers l'objectif. Mais si ce même miroir est éclairé pendant 1/120e de seconde seulement, la moitié de l'énergie lumineuse sera projetée sur l'écran et le point sera alors gris. Si le basculement ne dure que 1/240e de seconde, il sera obtenu un point lumineux, beaucoup plus faible, en gris sombre proche du noir. Si nous imaginons que ces durées cycliques de basculement peuvent être simultanément gérées de façon autonome sur les millions de micro-miroirs et ce dans les trois couleurs de base, chacun imagine le nombre de centaines de millions de couleurs qui pourront être utilisées. De plus, comme l'énergie lumineuse avec les puces DMD n'est plus absorbée par le composant comme c'est le cas actuellement sur les cristaux liquides (LCD), lorsque le pixel projeté est noir, mais réfléchie par le miroir sur une surface sombre d'absorption, les problèmes liés à l'échauffement sont beaucoup moins importants. Cela permet d'utiliser avec ces puces DMD des " lanternes " puissantes (plusieurs kilowatts) permettant d'obtenir des images très lumineuses sur les grand écrans des salles de cinéma. Par ailleurs, les ingénieurs de Texas Instruments qui se sont montrés particulièrement imaginatifs dans cette formidable aventure ont réussi à mettre au point, en s'appuyant sur la théorie mathématique des ondelettes, des algorithmes de compression ramenant de 2000 Go à 50 Go la taille du fichier numérique d'un film comme Toy Story 2 tout en obtenant un résultat sensiblement supérieur au procédé MPEG. Comme par ailleurs les réseaux câblés et les satellites auront très prochainement la possibilité de livrer ces films numériques à une vitesse de transmission de 10 Mo/seconde au moins, cela signifie qu'il sera alors possible de télécharger en temps réel les films numériques diffusés. Avec ce bouclage de la chaîne numérique du cinéma, ce sont non seulement les lourdes et fragiles bobines de pellicules qui vont disparaître après un siècle de bons et loyaux services, mais c'est tout un secteur économique qui aura profondément marqué le 20e siècle qui va être bouleversé. Mais ce bouleversement très conventionnel finalement puisqu'il respecte les règles et les hiérarchies établies depuis longtemps entre les producteurs et les distributeurs n'est rien par rapport à la profonde révolution que va provoquer cette chaîne numérique du cinéma dans nos rapports avec l'image. En effet, comme devrait l'annoncer Texas Instruments à Infocomm International à Anaheim en Californie (du 15 au 17 juin 2000), la technologie DLP (Digital Light Processing) qui porte les puces DMD devrait être introduite immédiatement dans le vidéo-projecteur de Monsieur Toulemonde. Si le " plumage était aussi beau que le ramage ", il n'y a aucun doute que chacun devrait pouvoir disposer de l'outil idéal pour installer chez soi son propre cinéma (home-cinema). C'est là que se trouverait le vrai défi de l'avenir pour le cinéma. Très vite, les producteurs seraient incités à investir dans de puissants réseaux optiques ou satellitaires (n'est-ce pas ce qu'a commencé à faire Time Warner ?) et proposeraient leurs films les plus récents (jusqu'ici réservés aux salles de cinéma) à leurs abonnés sur le réseau mondial. Les économies de distribution atteindraient un tel niveau par rapport aux réseaux traditionnels que cette nouvelle approche mettrait non seulement les réseaux traditionnels de distribution en difficulté mais ce sont même les économies nationales du 7e Art qui pourraient être mises en péril, par cette diffusion utilisant les satellites. En effet, pourquoi les grands groupes de production américains qui dominent outrageusement le cinéma mondial s'encombreraient-ils encore des particularités nationales et de notre " exception culturelle " si la chaîne numérique ne comptant plus de maillon faible leur permettait d'être solidement reliés à chaque cinéphile ? Tous les responsables du cinéma français et même les ministres (dont le premier d'entre eux) qui, dans ces jours printaniers, gravissent les escaliers d'honneur de Cannes, devraient très vite prendre conscience que nous ne disposons plus que de peu de temps pour décider de l'avenir du cinéma français et européen en faisant en sorte que de ce coté de l'Atlantique nous sachions aussi bien mettre en valeur cette nouvelle chaîne numérique du 7e Art (de la production jusqu'au spectateur) comme s'y prépare la puissante industrie cinématographique américaine. René TREGOUET Sénateur du Rhône
|
|
|
|
|
|
|
|
TIC |
|
|
Information et Communication
|
|
|
|
|
|
|
|
|
L'industrie du jeu électronique et vidéo est en pleine transition. Au niveau mondial, son chiffre d'affaires dépasse depuis trois ans celui du cinéma. Une nouvelle génération de consoles s'apprête à révolutionner le marché, et Internet est une lame de fond que chacun se prépare à exploiter. Parce qu'il attire un public plus vaste que le joueur chevronné, le réseau est perçu comme une opportunité de croissance incomparable par les éditeurs de jeux et les fabricants de plates-formes de jeux qui anticipent une explosion du marché des appareils mobiles. La foule qui s'est pressée au Centre de convention de Los Angeles pour la quatrième édition annuelle de l'Electronic Entertainment Expo (E3), qui a fermé hier ses portes, attestait de la vigueur d'une industrie qui a réalisé près de 100 milliards de francs de chiffre d'affaires en 1999 sans compter environ 30 milliards pour les consoles. Le marché américain représente à lui seul 6,9 milliards de dollars (48,3 milliards de francs). " Nous n'avons pas encore dépassé le box office [7,1 milliards de dollars], mais si Hollywood cessait d'augmenter ses prix [d'entrée en salle] pendant que nous baissons les nôtres, peut-être que ça pourrait arriver plus vite ", a déclaré Douglas Lowenstein, président de l'Interactive Digital Software Association, l'association américaine de l'industrie du multimédia. Au niveau mondial, le dépassement a déjà eu lieu. Consoles très attendues. Sony a créé l'événement avec sa nouvelle console PlayStation 2, qui doit arriver aux Etats-Unis et en Europe à la fin de l'automne. Elle est équipée d'un lecteur de CD et de DVD et il sera bientôt possible de la connecter à un disque dur et à Internet. Les analystes anticipent un ralentissement du marché du jeu vidéo cette année, tandis que les joueurs attendent de s'équiper de la nouvelle console avant d'investir dans de nouveaux jeux. Sega, concurrent de Sony, a réagi en annonçant une réduction de 25 % sur sa console Dreamcast mise sur le marché à l'automne dernier. Par ailleurs, Sega s'est associé avec InnoMedia pour intégrer la téléphonie sur Internet à la console, déjà équipée d'une connexion rapide au réseau, et permettre ainsi aux joueurs qui jouent ensemble via le réseau de communiquer. Enfin, Sega va offrir un bon d'achat de la valeur de la console aux nouveaux membres de SegaNet, le site de jeux vidéo en ligne par abonnement de Sega. La guerre des consoles ne fait que commencer, avec deux nouveaux produits attendus sur le marché pour l'an prochain, la X-Box annoncée par Microsoft en février et la Dolphin de Nintendo. Plate-forme mobile ou pas, Internet s'impose comme la prochaine frontière du jeu vidéo.
|
|
|
|
|
|
|
|
Sony veut faire de son nouveau terminal internet mobile, dont le lancement est prévu en septembre, un produit aussi stratégique que le Walkman, déclare le nouveau président du groupe, Kunitake Ando, dans l'édition asiatique du Wall Street Journal. Le n°2 mondial de l'électronique grand public donne désormais la priorité à la production d'appareils sans fil capables de surfer sur le web, au détriment des téléphones portables classiques, explique Ando dans un entretien. "Nous estimons que le terminal mobile sera un produit particulièrement (...) stratégique pour Sony", précise-t-il. "De même que nous avons créé une culture du Walkman, nous allons avoir une sorte de culture du mobile." Sony veut coopérer avec les opérateurs téléphoniques du monde entier pour mettre au point des services d'internet mobile, comme la diffusion de musique et de films en ligne, ajoute-t-il. Le futur terminal mobile pourra envoyer et recevoir des courriers électroniques et des images numériques. Il utilisera la base logicielle du fabricant d'ordinateurs de poche Palm Computing Inc, dont la licence a été achetée par Sony l'an dernier. Reuters : http://fr.news.yahoo.com/000515/32/dysl.html
|
|
|
|
|
|
|
|
Le raccordement de l'internet à n'importe quel type d'appareil, technique aujourd'hui développée par de nombreux industriels, laisse entrevoir une révolution du rapport entre la machine et l'utilisateur. De l'électroménager à la télévision, en passant par les ascenseurs, les chaudières, les parcmètres ou les compteurs électriques, une quantité d'appareils pourront bientôt "communiquer" par courrier électronique avec leur propriétaire, un centre de maintenance ou même d'autres machines. "La force de l'internet, c'est qu'il est devenu un vrai standard de communication", observe Yves Abitbol, cofondateur et directeur du développement européen de eDevice. Cette société a mis au point un petit boîtier qui permet pour un coût modique (environ 15 euros) de connecter au web n'importe quel appareil. Les applications sont nombreuses. L'une des plus exemplaires est la maintenance. Jusqu'ici, lorsqu'un appareil ménager ou un ascenseur tombait en panne, il fallait d'abord constater l'avarie avant de faire venir un réparateur. Relié à l'internet, l'ascenseur pourra désormais envoyer un e-mail à son centre de maintenance au moindre problème technique, voire prévenir de l'usure d'une pièce ou d'un fonctionnement anormal. Plusieurs industriels se sont déjà lancés dans le développement de machines connectées au web à destination du grand public, particulièrement dans le domaine de l'électroménager. Ainsi, en octobre prochain, le groupe Ariston commercialisera sur le marché italien, sa machine à laver "intelligente". Baptisée "Margherita2000.com", elle sera interrogeable à distance et télécommandable, par téléphone portable ou à travers le site internet qui porte son nom, et préviendra toute seule son centre de maintenance en cas de panne. Ariston commercialisera également "LeonArdo", un écran interactif lui aussi relié à l'internet, qui mettra en réseau, dans un premier temps, le réfrigérateur et le four à micro-ondes. LeonArdo ira chercher des recettes sur le web, fera la liste des ingrédients, commandera ceux qui manquent et informera le four du temps de cuisson. Le réfrigérateur n'est pas en reste. Le suédois Electrolux a mis au point un appareil qui utilisera toutes les potentialités de l'internet. "Outre son écran, son clavier et sa web cam, qui permettront aux membres de la famille de se laisser des messages vidéo, explique Alexis de Fombelle, chef de produit froid chez Electrolux, il sera équipé d'un lecteur de codes barres". Ce dernier permettra à l'ordinateur intégré d'enregistrer les articles qui entrent et sortent du réfrigérateur et de gérer son contenu. L'appareil pourra ainsi commander directement sur des sites marchands les produits dont l'utilisateur ne souhaite jamais manquer ou compléter les ingrédients d'une recette sélectionnée sur le web. "L'avantage pour une entreprise est de pouvoir connaître en temps réel l'état de son matériel ou de son équipement", estime Yves Abitbol. Un fabricant de boissons pourrait être informé automatiquement chaque fois qu'une canette sort de l'un de ses distributeurs. Un compteur électrique pourrait être relevé tous les jours et la somme d'argent contenue dans un parcmètre connue à la minute près. AFP : http://fr.news.yahoo.com/000513/32/dtq6.html
|
|
|
|
|
|
|
|
A l'occasion du sommet du G8 consacré à la cyber-criminalité, Jean-Pierre Chevènement, le ministre de l'intérieur, a annoncé sa naissance le lundi 15 mai 2000 à Paris, à l'occasion de la Conférence du G8 sur la cyber-criminalité. La création d'un " office central de lutte contre la criminalité liée aux technologies de l'information et de la communication ", sera définitivement entérinée le mardi 16 mai 2000, après publication au Journal officiel. Cet office central, qui "va désormais constituer notre instrument pour le travail opérationnel d'enquête judiciaire, organe interministériel", a précisé M. Chevènement, sera placé au sein de la direction centrale de la police judiciaire. Il sera "en même temps, le correspondant international naturel des services équivalents à l'étranger", a ajouté le ministre de l'intérieur. Son rôle, autrement dit, sera multiple. Sans se substituer aux différents organismes d'investigation qui existent déjà (brigade centrale de la répression de la criminalité informatique (BCRCI), service d'enquêtes sur les fraudes aux technologies de l'information (Sefti), lire " les organismes d'investigation "), le nouvel office central aura pour tâche de " centraliser toutes les informations en provenance des différents services, d'analyser ces informations, de coordonner les enquêtes, et sera enfin une plate-forme de coopération internationale ", précise Mireille Ballestrazzi, sous-directeur aux affaires économiques et financières à la direction centrale de la police judiciaire. L'office central de lutte contre la criminalité liée aux technologies de l'information et de la communication sera ainsi le huitième office central créé au sein de la direction centrale de la police judiciaire. .J.O. Numéro 113 du 16 Mai 2000 page 7338 http://www.legifrance.gouv.fr/citoyen/officiels.ow?lalangue=FR
|
|
|
|
|
|
|
|
Un document du Global Internet Project (GIP), qui regroupe les industriels du secteur, publié à l'occasion du G8, invite les gouvernements à gouverner, et le secteur privé à prendre la tête de la lutte contre les problèmes de sécurité sur le réseau. Le document s'adresse prioritairement aux entreprises et aux gouvernements. Après avoir identifié clairement les différents types de cyber-attaques et leurs conséquences (virus, intrusions, refus de service...), le GIP a présenté deux listes de recommandations, une en 13 points à l'usage des entreprises, l'autre, en 9 points, pour les gouvernements, qui peuvent être considérées comme les "10 commandements" de la sécurité sur Internet. S'il invite les gouvernements à montrer l'exemple, il les incite en revanche à rester en retrait. " Si les gouvernements sont logiquement concernés par les cas récents de cyber-attaques, et veulent agir pour développer un Internet solide et suffisamment sûr pour soutenir différentes applications telles que le e-commerce et le gouvernement électronique, ils doivent résister à la tentation de proposer des mesures de régulation ". Selon le GIP, la solution viendra du privé, qui doit prendre la tête de la lutte contre les problèmes de sécurité " parce que la régulation par les gouvernements nationaux ne résoudra pas le problème global, tandis que les innovations et les investissements du privé le pourront ". Le GIP compte parmi ses membres Vinton Cerf, l'un des pères de l'Internet. Les News : http://www.lesnews.net/ Global Internet Project http://www.gip.org/gipwp0500.htm
|
|
|
|
|
|
|
|
On le croyait organisé comme une toile d'araignée, le Web se dévoile sous une forme plus complexe, que les chercheurs décrivent comme un "noeud papillon". A force d'étudier les liens qui partent des pages et ceux qui y mènent, les scientifiques ont découvert dans le réseau quatre groupes de documents d'importance presque égale: un corps, deux ailes, et un ensemble de filaments. Quatre micro-univers dont la connaissance permettrait d'améliorer l'efficacité des recherches sur le Web. En principe, les moteurs de recherche sont censés permettre aux internautes de retrouver leur chemin sur la Toile. Les chercheurs ont détourné ces index au profit d'une discipline nouvelle, la cybertopologie, afin de comprendre la structure du Web. Un espace très mouvant, peuplé de plus d'un milliard de documents, qui connaît chaque jour des dizaines de millions de naissances mais aussi des déménagements et des disparitions. La photographie du noeud papillon publiée cette semaine nous vient d'un "robot" d'exploration baptisé Scooter, un logiciel qui parcourt inlassablement le Web depuis 1995 pour le compte du site Altavista.com. On le doit notamment au Français Louis Monier, qui travaillait à l'époque chez Digital, constructeur qui a rejoint depuis le giron de Compaq. Le champ de vision de Scooter concerne 200 à 300 millions de pages, qu'il a parcouru en simulant les clics sur tous les liens rencontrés. Puis, il a fallu plusieurs mois pour analyser les pages et repérer les milliards de liens qui se cachent dans les documents. Un travail de titan mené par les chercheurs d'Altavista et de Compaq avec le soutien de mathématiciens d'IBM. Leurs résultats seront communiqués lors du congrès international du Web, le WWW9, qui se tient cette semaine à Amsterdam. . Au coeur du Web se trouverait donc un cyberespace hyperconnecté. Un univers dans lequel il existe toujours un chemin reliant deux pages choisies au hasard, même s'il peut parfois passer par une trentaine d'intermédiaires. En moyenne, cette "distance" entre deux pages est évaluée à 16 clics dans le coeur. Mais à côté de son coeur hyperconnecté, le cyberespace comporte trois autres univers. Celui des "in", que les scientifiques décrivent comme l'aile gauche du "papillon", soit un petit quart du Web, permet d'accéder au corps de l'insecte mathématique. L'inverse est impossible. A droite, il y a l'aile des "out". Un espace visible au travers d'une glace sans tain. On y accède depuis le coeur, mais pas l'inverse. Il existe aussi un étroit tunnel à sens unique qui relie directement l'entrée à la sortie. Reste le plus mystérieux de la photographie du Web: les "filaments", une multitude de petits espaces représentant le quart du Web. Ces filaments sont connectés à l'une des ailes du papillon. Mais aucun ne permet d'accéder au coeur. Parfois, ces filaments forment des micro-univers totalement déconnectés du reste du Web. Hormis son intérêt mathématique, la topologie de la Toile ouvre de nouvelles perspectives pour la compréhension du réseau. "Ces études permettront d'améliorer les techniques de recherche d'informations dans le Web", assure le trio d'IBM. On sait aujourd'hui que la structure du Web oppose au simplisme des moteurs une complexité qui exclut toute exhaustivité. "Notre étude suggère qu'il faudrait développer des méthodes de collecte de pages plus sophistiquées, expliquent les chercheurs d'IBM. C'est indispensable pour atteindre l'aile d'entrée du papillon et les filaments." Faute de tels outils, la proportion de documents visités par les moteurs de recherche risque de diminuer, provoquant une surreprésentation des premiers sites arrivés.
|
|
|
|
|
|
|
|
Les parents ont, face à Internet, une attitude ambivalente. Tout en étant conscients de l'importance d'Internet pour l'avenir de leurs enfants, ils craignent les contenus " inappropriés " que l'on peut trouver sur le Web et souhaitent les en protéger. Tels sont les résultats d'une étude commandée à la SOFRES par le fournisseur d'accès AOL à l'occasion du lancement d'un dispositif de contrôle parental. Pour tous les parents, savoir utiliser Internet, c'est important pour l'avenir de leurs enfants, à 80 % chez les parents non connectés et à 98 % chez les parents connectés. Les enjeux d'Internet sont perçus non pas seulement dans le cadre d'un métier ou comme intégration au monde moderne, mais essentiellement " parce qu'à l'avenir on utilisera Internet dans tous les domaines de la vie quotidienne " (raison placée en tête par respectivement 59 et 63 % des parents). Les parents n'ont d'ailleurs pas d'inquiétude sur les capacités de leurs enfants, qui maîtrisent mieux Internet qu'eux-mêmes . Seuls un peu plus de la moitié (56 %) des parents connectés s'estiment, en revanche, plus compétents que leur progéniture. La seule inquiétude des familles concerne les risques d'accès des enfants à des contenus indésirables. Sites offrant des images à caractère violent ou pornographique, propagandes de sectes ou de groupes politiques extrémistes, rencontre dans des forums avec des personnes mal intentionnée sont les risques les plus cités, l'atteinte à la vie privée de l'enfant incité à communiquer des informations personnelles et la publicité venant en dernier. De toutes ces évolutions techniques et culturels, c'est encore Internet qui a été le mieux accueilli, puisqu'il est considéré comme une chance pour les enfants. Néanmoins, la surveillance parentale a déjà commencé. Les parents connectés sont plus de la moitié (53 %) à surveiller la navigation de leurs enfants. Dans l'ensemble, tous les parents souhaitent un contrôle parental d'accès délimitant le contenu (à 95 et 84 %). Les parents non connectés, moins experts, sont partisans de toutes les limitations, alors que les parents connectés veulent définir les fonctionnalisés accessibles. Mais il ne s'agit pas pour autant de restreindre le temps de connexion des jeunes internautes. Dans l'enquête européenne réalisée en 1997-1998 sur 15 000 familles européennes, avec des enfants de 6 à 16 ans, souligne Dominique Pasquier, le contrôle parental sur Internet et l'ordinateur était beaucoup moins fréquent que sur la télévision et le téléphone. Lancé le 16 mai, le contrôle parental AOL permet au parent titulaire du compte de leur construire, au moment où il en attribue mot de passe et pseudonyme à ses enfants, un accès spécifique, enfant (moins de 12 ans) ou adolescent. Les plus jeunes, par exemple, ne pourront pas lire les pièces jointes des messages, ni effectuer de téléchargement. Ils n'auront accès qu'à une sélection de 700 sites et aux salons de discussion réservés aux enfants. L'écran d'accueil sera celui des chaînes thématiques proposées par AOL : ZAP (enfant) ou PLUG IN (adolescent). Le dispositif n'est toutefois pas sans faille, les plus malins pouvant toujours contourner les limites parentales en utilisant un navigateur extérieur à AOL. C'est pourquoi il est accompagné de brochures de conseils pour sensibiliser les enfants à la sécurité et les mettre en garde contre les mauvaises rencontres virtuelles. Quotidien du Médecin http://www.quotimed.com/articles/actualite/getarticle.cfm?ArtIdx=30312&IdxNumber...
|
|
|
|
|
|
|
|
Un directeur de la CIA qui consultait chez lui des documents secrets sur un ordinateur à risque, un savant nucléaire qui en faisait de même, des consoles portables qui disparaissent du département d'Etat: plusieurs affaires récentes ont exposé au grand jour de graves lacunes dans l'administration américaine en matière de sécurité. Chacun de ces scandales a un dénominateur commun: l'ordinateur de tous les jours. Les meilleurs esprits aux Etats-Unis ont beau se concentrer sur les nouvelles menaces posées par la cybernétique, c'est bien le tout venant de l'âge moderne de l'information - disquettes, ordinateurs portables, connexion à l'internet - qui ont récemment permis d'importantes brèches de sécurité au sein de l'administration américaine. Ainsi, lorsqu'une console portable a disparu en janvier d'une salle de conférence en principe sécurisée du département d'Etat, ses responsables ont subi un choc: elle contenait des informations hautement confidentielles liées à la prolifération des missiles et aux armes de destruction massive. Selon John Pike, un expert du renseignement, membre de la Fédération des scientifiques américains, "c'est un accident qui devait arriver un jour". "Il est simplement inconcevable que quelqu'un ait pu transcrire des informations aussi sensibles - classées comme ultra-confidentielles - sur une console portable", estime-t-il. "Les portables sont faits pour être perdus ou volés", ajoute-t-il. Une autre affaire, concernant un scientifique d'origine taiwanaise, Wen Ho Lee, travaillant au laboratoire nucléaire de Los Alamos (Nouveau Mexique, sud-ouest) et accusé d'avoir transféré des secrets nucléaires sur des ordinateurs non protégés, avait déjà, l'année dernière, révélé la vulnérabilité des Etats-Unis. Le problème, estiment des experts, vient de la révolution de l'information, qui a bouleversé le traitement et l'archivage des données et créé une véritable culture d'accès instantané, venant se heurter aux procédures fastidieuses liées à la conservation des secrets de l'Etat. "Le système dans son ensemble - la manière dont les documents sont répertoriés, classés, signés et conservés - a été conçu pour le papier", indique John Pike, en soulignant le caractère "dépassé" de ces classifications. Le recours massif aux ordinateurs devrait inciter les gardiens de ces secrets à examiner plus attentivement les nouvelles implications de sécurité, renchérit Daniel Goure, du Centre d'études internationales et stratégiques. Les autorités fédérales ont ouvert une enquête concernant l'ancien directeur de la CIA John Deutch (mai 1995 à décembre 1996), pour déterminer s'il a mis en cause la sécurité nationale en conservant de nombreux documents confidentiels sur des ordinateurs personnels, à la centrale de renseignements, et chez lui. Selon un rapport de la CIA en février, dans ces documents figuraient des notes ultra-confidentielles au président Bill Clinton, ainsi que des détails d'opérations clandestines et de tournées à l'étranger de Deutch. Alors que les espions transféraient autrefois vers leur base un seul document à la fois, ils peuvent maintenant procéder à cette opération instantanément pour d'importantes quantités de données, relève par ailleurs M. Goure. "Cette possibilité de transférer des secrets en grande quantité n'a rien du caractère romantique des méthodes du passé, avec les micros et caméras. Cela enlève beaucoup d'épice à l'activité d'espionnage car, évidemment, tout le monde peut le faire", précise M. Pike. http://fr.news.yahoo.com/000514/32/dxe7.html
|
|
|
|
|
|
|
|
La preuve est faite. La sécurité informatique des entreprises du monde n'est guère plus efficace qu'un écran de fumée. Le virus ILOVEYOU en a fait la démonstration lors de son apparition, le 4 mai. Pas moins de 26 % des entreprises américaines auraient été atteintes, selon les premiers sondages, et les chiffres les plus fantaisistes circulent sur la facture mondiale. Cinq, 10, voire 15 milliards de dollars... Les estimations tentent de prendre en compte les manques à gagner engendrés par le blocage des messageries et le coût des interventions sur les centaines de milliers d'ordinateurs infectés. Mais le coût de cette avertissement ne représente sans doute qu'une fraction des pertes financières que les prochains virus pourraient engendrer. La sécurité informatique contredit le vieil adage professant qu'un homme averti en vaut deux. Dans ce domaine, chaque nouvelle attaque de virus laisse les entreprises aussi désarmées pour faire face à la suivante. " On ne peut pas détecter automatiquement un virus inconnu ", affirme Eric Beaurepaire, directeur marketing entreprises chez Symantec France, l'une des principales sociétés éditrices de logiciels anti-virus. La protection offerte par les programmes de blocage des virus n'est efficace qu'a posteriori, c'est-à-dire après que le nouvel intrus eut été identifié et analysé. Pourtant, ce type de protection ne peut espérer immuniser ses utilisateurs contre la première vague d'assaut. Or, sur Internet, la vitesse de propagation des virus du type " ver " (worm en anglais) est telle que les dégâts sont inévitables avec un tel procédé. Tout ce que les victimes potentielles d'un sinistre informatique majeur peuvent espérer, ce sont des perfectionnements du système de mise à jour des antidotes de leurs machines grâce à des systèmes " automatiques et transparents ". Aujourd'hui, en effet, les utilisateurs de logiciels anti-virus doivent effectuer cette manoeuvre manuellement. En période critique, comme en ce moment où les variantes d'ILOVEYOU se multiplient, Symantec préconise de réaliser cette opération tous les jours au lieu d'une fois par semaine, la fréquence conseillée en temps normal. 45 000 virus circulent aujourd'hui. Ils se classent dans quatre familles qui se distinguent par leurs cibles et leur modes d'action : logiciels applicatifs, systèmes, macro-commandes et scripts, la catégorie à laquelle appartient ILOVEYOU. La sécurité anti-virus actuelle consiste à offrir une protection qui n'est pas plus efficace qu'une vaccination contre la grippe... de l'année précédente. ILOVEYOU va sûrement faire prendre conscience de cette criante insuffisance, ouvrir un nouveau marché de la protection efficace contre les nouveaux virus, les vers et autres chevaux de Troie inconnus, et relancer la recherche. Le Monde http://www.lemonde.fr/article/0,2320,seq-2039-62003-MIA,00.html
|
|
|
|
|
|
|
|
Utilisateurs de Windows, vos empreintes digitales, vos iris et votre voix seront bientôt vos biens les plus chers. Avec eux, plus besoin de mot de passe : ils vous serviront d'identifiant pour vous connecter à votre machine, signer vos mails ou effectuer des transactions sécurisées. Microsoft a en effet annoncé le 2 mai la signature d'un partenariat avec I/O Software pour intégrer des API (Application Program Interface) d'identification biométrique dans les futures versions de Windows. Le but est d'obtenir un système à la fois plus sûr et plus pratique qu'un mot de passe ou une phrase-clé, faciles à percer ou à oublier. L'annonce de Microsoft a cependant fait bondir les responsables de BioAPI, un consortium international qui regroupe 51 membres, dont Intel, Compaq, NEC ou la NSA (National Security Agency). En effet BioApi travaille depuis deux ans au développement d'une application pour identification biométrique, susceptible de devenir un standard industriel non seulement sous Windows mais aussi sous UNIX et Linux. Les spécifications de cette API (disponibles sur http://www.bioapi.org ) relèvent du domaine public et peuvent être implémentées sans royalties. La mise au point du standard devrait être achevée au troisième trimestre 2000, d'abord sous Windows puis pour d'autres systèmes d'exploitation. BioAPI s'étonne donc que Microsoft choisisse de se tourner vers une technologie propriétaire. Ses responsables craignent que cela ralentisse la diffusion des technologies biométriques mais aussi qu'on assiste aux mêmes cafouillages que pour les standards DVD; Transfert http://www.transfert.net/fr/techno/article.cfm?idxrub=89&idxart=620
|
|
|
|
|
|
|
|
Chez Microvision, l'avenir de l'image se conjugue déjà au présent du virtuel: un nouveau monde électronique, sans écrans et vu du fond de l'oeil. Cette société américaine fondée en 1993 sur la côte ouest des Etats-Unis, à Bothell (Etat de Washington), a inventé un procédé optique révolutionnaire capable de projeter une image directement sur la rétine, une découverte susceptible d'ouvrir des horizons insoupçonnés dans les domaines militaire, industriel, médical et de l'électronique de grande consommation. "La technologie RSD ouvre des portes sur un monde visuel vaste et nouveau. Un monde où la lumière véhicule l'information et permet une nouvelle interface entre l'homme et la machine", affirme le PDG de Microvision, Richard Rutkowski. Baptisée "Affichage par balayage rétinien" (Retinal Scanning Display, RSD), cette technologie permet de visualiser des données textuelles ou graphiques sans recourir aux écrans électroniques traditionnels, lourds et encombrants. Monté dans un casque, des lunettes ou dans un appareil portable (type téléphone cellulaire), le système consiste en une source lumineuse, des scanners et un système optique, le tout tenant dans un mouchoir de poche. Des diodes à rayon laser de très faible intensité, et donc inoffensif pour l'oeil, génèrent des pixels (points lumineux) qui sont combinés en rangées par des scanners à microbalayage horizontal et vertical pour former une image, monochromatique ou en couleur. L'image est "peinte" directement sur la rétine à travers la pupille de l'oeil. A l'opérateur, l'image apparaît superposée à son champ de vision naturel, comme suspendue et flottante dans l'air, à environ un mètre devant lui. Microvision assure que la qualité graphique obtenue est bien supérieure aux technologies actuelles: tubes cathodiques, affichages à cristaux liquides ou encore écrans plats. Les premiers intéressés ont été les militaires. Le Pentagone étudie actuellement la possibilité d'utiliser le RSD pour permettre par exemple aux pilotes de chars de "voir" à travers le métal, à l'aide de caméras optiques reliées à leur casque. Microvision a également signé un accord avec le constructeur aéronautique Boeing en vue de développer pour l'US Air Force un "cockpit virtuel" pour les hélicoptères militaires de la prochaine génération. L'idée consiste à mettre au point un système intégré comprenant un logiciel de gestion du vol et un générateur graphique. Plus besoin d'instruments, d'écrans et de jauges: les données du vol, l'état des systèmes d'armement et les objectifs de la mission sont superposés au monde extérieur directement sur l'oeil du pilote. En médecine, grâce aux énormes progrès de l'imagerie médicale, un chirurgien pourra bientôt opérer un patient, tout en étant capable de voir ses détails anatomiques et "naviguer" à l'intérieur de son corps. Reste, enfin, le domaine de l'informatique de grande consommation. Microvision a signé en mars un accord avec la société Xybernaut en vue de la mise au point d'un ordinateur à vision virtuelle. A quand l'ordinateur portable sans écran ? AFP http://fr.news.yahoo.com/000518/2/e8zl.html Microvision http://www.mvis.com/1-rsdisp.htm
|
|
|
|
|
|
|
|
Le journal de demain, en gestation au MediaLab du Massachusset Institute of Technology (MIT), se passera de papier et sera taillé sur mesure pour chaque lecteur, qui pourra être aussi producteur d'information. Les chercheurs et étudiants de cette structure unique au monde en sont persuadés: la révolution des télécommunications va entraîner la disparition, ou du moins une refonte complète, des mass-médias. L'un des groupes de recherche du MediaLab est l'Electronic Publishing Group (EPG, Groupe d'édition électronique) au sein duquel quatorze projets futuristes sont développés. L'EPG "utilise les technologies digitales pour transformer la façon dont nous préparons, filtrons et présentons l'information" explique son directeur, Walter Bender. Ancien rédacteur-en-chef du Boston Globe, Jack Driscoll apporte sa caution journalistique et assure que "ce qui se passe dans ce bâtiment est vital pour l'avenir de la presse". Première évidence: les avancées technologiques vont permettre de s'adresser, via l'ordinateur, à des cibles de plus en plus réduites. "Nous allons inévitablement vers le plus petit produit d'information imaginable: le journal personnalisé, Journal-Moi (Daily Me), dont le contenu aura été confectionné en fonction des centres d'intérêts de chacun", estime Walter Bender. Les grands sites web proposent déjà des versions simplifiées de ces médias à la carte, avec des produits personnalisés comme MyCNN, MyYahoo ou MyLycos, qui sélectionnent les informations en fonction de mots-clés fournis par l'internaute. Pour aller plus loin dans cette direction, le MediaLab met au point des logiciels faciles d'emploi, qui permettront la création sur le réseau mondial d'une quantité infinie de médias spécialisés ou l'enrichissement (à l'infini ou presque) des médias existants. Première avancée, déjà opérationnelle: le mot-clé est remplacée par "l'expression-clé", l'analogie (en plusieurs langues) ou même "l'image-clé", qui permet de retrouver des images fixes ou animée d'un événement dont on connaît le nom. Le logiciel Time Frame permet de créer pour le lecteur des analogies entre ce qu'il découvre et son environnement connu. Exemple: 820.000 hectares de terre sont inondés en Chine. Le lecteur de Boston découvrira sur son écran que cela équivaut à toute la partie de la ville au sud de la route 128. Celui de la Côte d'Azur que c'est 500 fois la superficie de Monaco. ZWrap permet d'intégrer des informations provenant de sources différentes (agences de presse, télévisions, journaux en ligne, l'intégralité du Web) mettant la création d'un média en ligne à la portée de tous. "Lorsque le consommateur devient producteur d'information, sa relation à la presse change" avance le directeur de l'EPG. "Il devient plus exigeant, plus critique, mais aussi plus impliqué". Les avancées technologiques du MediaLab sont testées en grandeur nature par des retraités d'une petite ville du Connecticut et des adolescents du monde entier. AFP : http://fr.news.yahoo.com/000514/2/dwyq.html
|
|
|
|
|
|
|
|
Le groupe japonais d'électronique Matsushita Electric Industrial Co Ltd annonce le lancement en juin au Japon de son premier lecteur-enregistreur de DVD, laissant augurer une "guerre des formats" avec son concurrent Pioneer Corp, déjà présent sur ce marché. Matsushita, qui contrôle notamment les marques Panasonic, National et Technics, déclare que son appareil utilisera un disque DVD-RAM (Digital Versatile Disc-Random Access Memory) de 4,7 gigaoctets et serait vendu au prix de 250.000 yens (2.300 dollars). Ce prix est identique à celui de l'appareil DVD-RW de Pioneer, le premier enregistreur de DVD mis sur le marché, qui utilise un format différent, également adopté par les fabricants Sharp Corp et Kenwood Corp . De son côté, Matsushita, n°1 mondial de l'électronique grand public, compte rallier à son système Toshiba Corp et Hitachi Ltd . "Nous voulons faire du DVD-RAM le standard industriel en matière d'enregistrement de la vidéo grand public sur DVD. Nous n'avons pas l'intention de le rendre compatible avec les enregistreurs DVD-RW", a déclaré un responsable de Matsushita. Reuters : http://fr.news.yahoo.com/000515/32/dz8u.html
|
|
^ Haut |
|
|
|
|
|
|
|
Matière |
|
|
Matière et Energie
|
|
|
|
|
|
|
|
|
Chaque puce, son usage". Cette maxime en vigueur depuis des décennies dans l'industrie des mémoires électroniques a-t-elle vécu ? Peut-être. Les laboratoires industriels élaborent une nouvelle technologie qui pourrait répondre à l'ensemble des applications. Des puces pour tout faire, téléphones mobiles, appareils de photo numériques... et capables de simplifier la conception des ordinateurs. Cette mémoire s'appelle la MRam (M pour magnétique, Ram pour mémoire à accès aléatoire). "Les composants de MRam devraient apparaître d'ici trois à cinq ans", prédit Stuart Parkin, spécialiste de la technologie chez IBM à Almaden(Etats-Unis). "Ils cumulent plusieurs atouts des technologies de mémoire utilisées aujourd'hui." Les composants disponibles sur le marché se divisent en deux catégories. Les mémoires dites "vives", offrent des performances inégalées et équipent l'essentiel de la mémoire des ordinateurs grâce à leur aptitude à délivrer, en quelques dizaines de nanosecondes (milliardièmes de seconde), n'importe quelle information. Revers de la médaille, toute donnée est irrémédiablement perdue dès que le courant est coupé, et ces puces ont besoin qu'on leur rafraîchisse régulièrement la mémoire. Un aspect qui se paie cher en terme de consommation électrique. De leur côté, les mémoires Flash ont connu un essor considérable avec le développement de la téléphonie mobile et des appareils photo numériques. Là, leurs performances pèsent moins face à leur capacité à conserver les données en toutes circonstances. Mémoires vives et Flash s'appuient toutes deux sur la capacité des semi-conducteurs à stocker et transférer des charges électriques à la demande. La mémoire magnétique, elle, provient tout droit des technologies conçues pour les systèmes de lecture et d'écriture des disques magnétiques. Pour entasser leurs milliards d'informations sur chaque centimètre carré de leurs disques, les chercheurs ont appris à maîtriser les propriétés magnétiques de films très minces. Ils ont ensuite observé comment le courant électrique peut passer ou non au travers d'un mince tunnel (dont l'épaisseur se compte en nombre d'atomes) qui sépare deux éléments magnétiques, en fonction de l'orientation du champ qui règne dans ces éléments. "L'une est fixe, et l'autre peut être modifiée de manière à représenter le 0 ou le 1 de la logique binaire, explique Stuart Parkin. Comme le courant qui peut traverser la jonction est fortement dépendant de l'orientation du champ magnétique, nous pouvons obtenir des vitesses de lecture et d'écriture de 3 nanosecondes." L'équivalent, donc, des meilleures puces de mémoire disponibles sur le marché. "Le champ magnétique, et donc les informations, peuvent être conservées indéfiniment si le composant est placé dans un bouclier magnétique", poursuit le chercheur qui se félicite de cette spectaculaire progression. "En trois ans, nous avons gagné un facteur de dix millions sur la résistance électrique de ces composants." Libération : http://www.liberation.com/quotidien/semaine/20000512veny.html
|
|
|
|
|
|
|
|
Le silicium, sable à l'état pur, est à l'origine de tout: d'une nouvelle croissance, voire d'une nouvelle économie. Sans lui, les chimistes ne pourraient pas fabriquer ces longs cylindres noirs utilisés par l'industrie des semi-conducteurs. A priori, sur les marchés, cette matière première devrait donc connaître une flambée de son prix. Car de la régulation d'une plaque vitrocéramique à la gestion d'un ordinateur en passant par la télévision ou le téléphone portable, les puces envahissent notre quotidien. Et pourtant, le prix du silicium n'augmente pas. "Au contraire, constate Philippe Chalmin, responsable du rapport Cyclope (1), son prix est plutôt orienté à la baisse. La forte augmentation de la demande de puces ne se traduit pas par une forte augmentation de la demande de silicium. Chaque année depuis 1993, l'industrie des semi-conducteurs utilise à peu près la même quantité de silicium." On produit de plus en plus de microprocesseurs, mais ils sont de plus en plus petits.... En fait, que ce soit dans l'industrie automobile, dans l'aéronautique ou dans l'informatique, les puces sont considérées comme une matière première. Il n'existe pas encore de Bourses où soient cotées ces minuscules plaques, mais rien ne l'interdirait. "Le prix des puces se forme comme celui d'un baril de pétrole, par un ajustement entre l'offre et la demande. Avec la même instantanéité que pour une matière première classique, le prix d'un type de puces peut devenir inférieur à son prix de revient. Tout dépend de l'état du marché à un moment précis", ajoute Philippe Chalmin. Après la crise asiatique, ce marché a renoué avec la croissance. Une longue vague d'expansion qui, selon la plupart des experts, devrait porter l'industrie à 300 milliards de dollars en 2003, contre 126 milliards de dollars en 1998. Il n'y a pas eu d'inflation du prix, malgré la forte reprise. Et pour cause, répondent les spécialistes, car la loi Moore continue de régir le monde de la microélectronique. Cette loi, du nom d'un des fondateurs d'Intel, numéro un mondial du secteur, tient en deux constatations. La première veut que sur une même surface de silicium, le nombre de transistors qui détermine le nombre d'opérations réalisées à la seconde par la puce double tous les dix-huit mois. La seconde, c'est que le prix de la puce baisse d'environ 30 % par an. C'est pourquoi, aujourd'hui, le prix moyen d'une puce est d'environ 0,5 dollar seulement (4 F)! "Grâce aux progrès technologiques, on peut espérer que cette matière première qu'est la puce ne connaisse pas une forte hausse de son prix moyen, même si sa demande reste en forte augmentation", estime Jean-Philippe Dauvin. Une demande qui ne risque pas de s'essouffler. Durant près de deux décennies, c'est surtout l'industrie du PC qui a dopé les carnets de commandes des fabricants de semi-conducteurs. Intel, NEC, Toshiba, Samsung, Motorola, IBM... ont profité de la diffusion de masse de l'ordinateur domestique. Mais aujourd'hui, une nouvelle ère s'ouvre pour les fournisseurs de puces: les composants de silicium se portent de plus en plus sur des marchés plus larges. Aux commandes de l'expansion, la téléphonie mobile - avec 400 millions de postes vendus - remplace le PC qui les avait fermement tenues pendant quinze ans. Et le numérique grand public (DVD, TV...) va entamer la technologie analogique avant d'être, aux alentours de 2005, le nouveau grand foyer d'expansion. Libération : http://www.liberation.com/quotidien/semaine/20000516marza.html
|
|
|
|
|
|
|
|
La multiplication des accès à internet par la télévision et les téléphones mobiles et l'essor de "l'administration électronique" vont donner une seconde chance à la technologie française de la carte à puce pour s'imposer dans le monde, y compris aux Etats-Unis jusqu'ici réticents. Invention française, la puce s'est imposée dans les cartes bancaires et téléphoniques dans l'hexagone. Mais à l'instar du Concorde et du TGV, elle n'avait pas réussi jusqu'ici à s'implanter aux Etats-Unis. "Les premiers marchés de la carte à puce sont déjà la Chine et le Mexique. Le seul obstacle à une généralisation mondiale de la puce est que les Américains ne l'avaient pas adoptée, mais plusieurs signes témoignent d'un changement", a affirmé Marc Giry, directeur du marketing de Gemplus, leader mondial des cartes à puce. Les puces sécurisées connaissent en effet un nouvel essor à la faveur d'internet, car elles permettent de réduire les fraudes: l'internet représentait 1% des transactions en Europe en 1999, mais la moitié des plaintes, selon Gemplus. La carte à puce (assortie d'un code confidentiel) authentifie que l'auteur de la transaction est bien le propriétaire de la carte bancaire. Les cartes bancaires américaines, jusqu'ici dotées d'une simple piste magnétique, vont de plus en plus être munies de puces. American Express connaît un grand succès avec sa nouvelle carte à puce Blue Card. Pour sa part, Visa a décidé que toutes ses cartes devraient être munies d'une puce d'ici 2003. Jusqu'ici, les Américains n'utilisaient pas la puce, qui équipe tous les téléphones portables français. Aux Etats-Unis, l'abonné doit acheter un nouveau combiné s'il veut changer d'opérateur, alors qu'en Europe il lui suffit d'installer dans le même combiné la puce de son nouvel opérateur. Aussi, les Américains commencent-ils à se convertir aux avantages de la puce sécurisée, adoptée par la norme américaine CDMA, a indiqué Olivier Piou, président de Schlumberger Smartcards. Au delà, dans les années à venir, des milliards d'appareils quotidiens vont permettre de se connecter à l'internet, de faire des achats et seront tous munis de puces sécurisées: consoles de jeu, télévisions interactives, voitures radio-guidées, selon Gemplus. Enfin "l'administration électronique" représente un débouché important pour les cartes à puces: dans l'avenir, les internautes pourront avoir accès en ligne à des données confidentielles comme leur propre casier judiciaire ou leur dossier médical, remplir leur déclaration d'impôts ou même voter en ligne lors des élections, selon Guy Sitruk, directeur général de Cyber-Comm, une société spécialisée dans les paiements sécurisés sur internet. Les européens fabriqueront 90% des 1,4 milliard de cartes à puce produites en 2000. Les industriels tablent sur une progression de 50% du marché mondial en 2000, contre 30% en 1999 et de 15% en 1998. AFP http://fr.news.yahoo.com/000516/32/e35t.html
|
|
|
|
|
Sanyo Electric et Kodak ont annonce qu'ils avaient développé en commun un écran plat couleur de 5,5 pouces en technologie OLED (organic light emitting diode). Cet écran, d'une résolution de 320 ( 240 pixels et d'une luminosité supérieure a 50 cd/m2, consomme environ deux watts. Un écran OLED est constitue de diodes auto-luminescence, ce qui élimine le besoin de retro-eclairer l'écran comme dans le cas des écrans a cristaux liquides. Ainsi, ce type d'écran n'est pas plus épais que le substrat de verre sur lequel sont posées les électrodes. Par ailleurs, il possède un temps de réponse mille fois inférieur a celui d'un écran LCD et un angle de vue de 170 dans toutes les directions. Sanyo et Kodak prévoient de produire, le premier trimestre 2002, l'écran 2,2 pouces qu'ils ont développé l'année dernière. Quant au nouvel écran 5,5 pouces, il devrait être disponible fin 2002. Be Japon http://www.adit.fr
|
|
^ Haut |
|
|
|
|
|
|
|
Terre |
|
|
Sciences de la Terre, Environnement et Climat
|
|
|
|
|
|
|
|
|
L'équipe scientifique de l'Institut universitaire européen de la mer (IUEM), basé à Brest, et le Laboratoire des sciences du climat et de l'environnement de Gif-sur-Yvette ont résolu une énigme appelée le "paradoxe antarctique", une double découverte pouvant permettre de mieux comprendre l'évolution des climats. Selon Paul Tréguer, directeur de l'IUEM, cette double découverte, évoquée jeudi dans la revue scientifique britannique "Nature", devrait permettre de mieux comprendre les échanges de gaz carboniques entre les océans et l'atmosphère. Elle pourrait en conséquence permettre de savoir combien de temps encore l'eau des mers de notre planète va continuer de pomper le gaz carbonique contenu dans l'atmosphère. L'enjeu est de taille, puisque l'on peut imaginer que l'homme parvienne à manipuler cette fonction de régulation des océans pour continuer d'augmenter ses émissions de gaz dans l'atmosphère, responsables de l'effet de serre. Plusieurs campagnes océanographiques de 1993 à 1999 entre les îles Kerguelen, les îles Crozet et le continent antarctique, ont permis de recueillir des données capitales sur la production des organismes planctoniques qui par la photosynthèse alimentent la "pompe biologique" du CO2 contenu dans l'atmosphère. Il s'avère que leur production est deux à trois fois plus importante que ce que la communauté scientifique pensait depuis une vingtaine d'années. "On peut imaginer un jour de contrôler cette production. Des expériences ont même été faites au sud de l'Australie par des chercheurs internationaux en février 1999 pour tenter de l'augmenter artificiellement en jetant du fer dans la mer. Ils se sont aperçus que les algues pompaient effectivement plus de CO2", explique Tréguer. Par ailleurs, les scientifiques français se sont aperçus que la sédimentation de ces organismes planctoniques, notamment des diatomées au fond des mers, qui donne de l'opale (verrerie organique), avait été surévaluée et que la pompe biologique au dernier maximum glaciaire (- 18.000 ans) était en fait cinq moins active qu'ils ne le pensaient. "Le rapport entre les deux, et la connaissance du présent et du passé permet finalement de dire que le puits de gaz carbonique de l'Océan austral (sa capacité de pomper du CO2) est plus important que ce que l'on pensait. Il s'agit maintenant de savoir combien de temps encore il sera capable de pomper le CO2 que nous rejetons dans l'atmosphère", conclut-il. Selon le directeur de l'IUEM, on sait depuis le début des années 90, que les océans pompent 92 milliards de tonnes de CO2 par an et en rejettent 90 milliards, un rapport "déséquilibré" provoqué par l'aire industrielle. AFP http://158.50.204.19/ext/francais/lemonde/sci/000512074112.fhdl49g7.html
|
|
^ Haut |
|
|
|
|
|
|
|
Vivant |
|
|
Santé, Médecine et Sciences du Vivant
|
|
|
|
|
|
|
|
|
Le nombre de cas de cancer et de morts des suites de cette maladie a diminué au cours de la dernière décennie aux Etats-Unis, selon un rapport publié par plusieurs instituts d'étude américains sur le cancer. Après avoir augmenté de 1,2% par an de 1973 à 1990, le taux de nouveaux cas de cancer a baissé de 0,8% par an entre 1990 et 1997, selon un communiqué dimanche de l'Institut national du cancer (NCI). Le taux de mortalité par cancer à également diminué de 0,8% pendant cette période. Les responsables de la santé attribuent cette baisse à la réduction de la consommation de tabac et aux progrès réalisés en matière de prévention, de détection précoce et de traitement. Le cancer du poumon est le plus meurtrier, avec 158.900 morts en 1999, soit 28% de toutes les morts par cancer. Un cancer sera diagnostiqué sur 1,2 million d'Américains en 2000 et 560.000 mourront de cette maladie, selon le rapport. "Ces chiffres soulignent les progrès remarquables que nous avons faits contre le cancer", a déclaré le directeur du NCI, Richard Klausner. "La baisse de morts par cancer ces dernières années en dépit de l'accroissement de la population américaine est encourageant", a-t-il ajouté. C'est chez les hommes, qui ont le taux de cancer le plus élevé, que la baisse a été la plus forte. Les cancers du poumon, de la prostate, du sein, du colon et de l'anus représentent plus de la moitié des nouveaux cas de cancer et sont aussi les plus meurtriers. Le nombre de nouveaux cancers du sein reste stable, mais le nombre de morts de cette maladie diminue de 2% par an depuis 1990. AFP http://158.50.204.19/ext/francais/lemonde/sci/000515215253.ajc0o8d7.html
|
|
|
|
|
|
|
|
Les Français fument de moins en moins. Selon l'institut américain Worldwatch, qui a rendu public hier les résultats d'une très vaste étude, la consommation de cigarettes a baissé de 19 % en France depuis 1985. Aux Etats-Unis, où une guerre au tabagisme a été déclarée depuis vingt ans, la chute est spectaculaire : le nombre de cigarettes fumées par américain a diminué de 42 %. Cette tendance commune à tous les pays développés touche aussi des pays en développement comme la Chine, qui a perdu 8 % de fumeurs en dix ans. Voici les raisons de cette évolution. Le prix de vente a découragé les fumeurs. En France, la hausse incessante du prix des cigarettes a été l'élément le plus efficace pour faire baisser le nombre de fumeurs. Les Français ne veulent ou ne peuvent pas fumer à n'importe quel prix. Pour preuve, entre 1990 et 1996, le prix du paquet a doublé et les ventes de cigarettes ont chuté de 11 %. Cette explosion du prix du tabac a sans doute dissuadé nombre de jeunes, au budget limité, de commencer à fumer. Mais certains jeunes fumeurs invétérés se sont reportés sur le tabac à rouler, moins cher, dont les ventes ont progressé de 42 % pendant la même période. Les jeunes commencent plus tard. Contrairement à une idée reçue, les jeunes ne fument pas plus aujourd'hui que dans les années quatre-vingt. En 1977, près de 46 % des 12-18 ans se disaient fumeurs plus ou moins réguliers. Vingt ans plus tard, selon les chiffres de CFES (Comité français pour l'éducation à la santé), ils ne sont plus que 25 %. Les adolescents commencent également plus tard que leurs aînés. Aujourd'hui, on allume la première clope en moyenne à quinze ans, en 1980, c'était à douze ans et demi. Hélas, à 19 ans, ils se rattrapent avec 50 % de fumeurs réguliers, filles et garçons à égalité. D'où l'idée du député Alfred Recours d'interdire le tabac aux moins de 16 ans. Car c'est entre 14 et 15 ans que tout se joue. L'effet de la loi Evin. Interdiction de la publicité sur le tabac, interdiction de fumer sur les lieux de travail et dans les lieux publics, la loi Evin de 1991 a fait changer l'état d'esprit des Français. Autrefois totalement dominant, le fumeur doit aujourd'hui composer avec le non-fumeur. S'il est très difficile de dire dans quelle mesure cette loi a contribué à faire baisser le nombre de fumeurs, elle a sans doute convaincu certains " fumeurs occasionnels ", non dépendants, de rompre avec le tabagisme. Passé la quarantaine, on s'inquiète pour sa santé. Plus on avance en âge et plus l'arrêt du tabac est fréquent. Toutes les courbes le montrent : c'est clairement entre 40 et 50 ans que le nombre de fumeurs commence à décroître, âge à partir duquel on se soucie davantage de sa santé. Or la population française vieillit et les candidats à l'arrêt du tabac seront donc de plus en plus nombreux. Depuis quinze ans, ce sont les hommes, retraités, agriculteurs mais aussi cadres supérieurs, soucieux de leur hygiène de vie, qui ont le plus contribué à la baisse du nombre de fumeurs en France. Les femmes, qui ont commencé à fumer massivement à partir des années quatre-vingt, réduisent leur consommation depuis trois ou quatre ans mais pas autant que les hommes. Souvent peu perméables aux campagnes antitabac, il semble que de nombreuses Françaises ne se décident pas à arrêter de fumer par " peur de grossir ". Parisien http://www.leparisien.fr/
|
|
|
|
|
|
|
|
Près d'un million et demi de Français souffrent de lésions de la rétine. Et, avec l'augmentation de l'espérance de vie, certaines de ces affections vont devenir un véritable problème de santé publique. D'autant que la plupart sont encore incurables. Tout au mieux peut-on aujourd'hui ralentir ou bloquer leur progression. Pourquoi? Essentiellement parce que la rétine, comme le système nerveux central, ne se régénère pas spontanément. Un os brisé peut se ressouder, un muscle abîmé se reconstruire. Une rétine endommagée, elle, reste en l'état. Mais la récente découverte de cellules souches rétiniennes, à l'université de Toronto (Canada), laisse entrevoir des possibilités de régénération thérapeutique de ces tissus nerveux. Prélevées dans les marges ciliaires de l'oeil, puis cultivées in vitro, ces "souches" présentent de grandes capacités de réplication. "Pluripotentes", elles peuvent se différencier en une multitude de cellules fonctionnelles. On peut donc, à partir de ces "cellules mères", recréer toute la diversité des composants rétiniens: photorécepteurs (cônes et bâtonnets), neurones bipolaires, etc. A priori, il suffirait de les réimplanter dans l'oeil, après les avoir extraites et cultivées in vitro. Mais les mécanismes sont beaucoup plus subtils. "La rétine est comparable à un dense réseau routier, explique un chercheur français. Rien ne dit que des cellules réimplantées prendront leur place dans ce réseau et qu'elles créeront les bonnes liaisons, au bon endroit." Autrement dit, on ne sait pas, aujourd'hui, comment "installer" correctement ces cellules dans le complexe édifice nerveux de la rétine. Cette dernière, semblable à une pellicule photographique, réunit de 40 à 80 millions de bâtonnets et 7 millions de cônes. Chacun de ces composants possède une fonction propre: les bâtonnets repèrent les mouvements, les cônes permettent de distinguer les couleurs. La découverte canadienne ouvre d'ailleurs de nouvelles voies de recherche dans ce domaine. En effet, certaines de ces protéines pourraient inhiber la néovascularisation, impliquée dans les dégénérescences maculaires vasculaires. Ce développement de minuscules varices endommage les photorécepteurs de la rétine. Chez l'animal, on a montré que des protéines de croissance peuvent enrayer cette prolifération de "néovaisseaux". Les premiers essais cliniques sur l'homme ne sont cependant pas prévus avant cinq ans. L'Express http://www.lexpress.fr/Express/Info/Sciences/Dossier/retine/dossier.asp?nom=reti...
|
|
|
|
|
|
|
|
Selon des recherches menées à l'Université d'Alberta (Canada), des antibiotiques courants à base de tétracycline pourraient réduire, voire supprimer, les dommages subis par le coeur lors d'une crise cardiaque. L'équipe du docteur Richard Schulz a découvert que pendant les premières secondes d'une crise cardiaque, les enzymes connues sous le nom de matrices métalloprotéinases (MMPs) circulent en quantité anormalement élevée dans le coeur, contribuant à son incapacité à se contracter et à irriguer le système sanguin avec sa force habituelle. Or, les expériences ont montré que les antibiotiques à base de tétracycline bloquent l'action des MMPs. Pour parvenir à ce constat, Schulz a isolé un coeur de rat et l'a mis sous perfusion. La perfusion a ensuite été stoppée pendant 20 minutes, simulant un arrêt cardiaque. Pendant la minute qui a suivi la reprise de la perfusion, le taux de MMPs dans les artères d'alimentation du coeur a significativement augmenté. Ce taux était d'autant plus élevé que l'arrêt de la perfusion était long. La reprise de l'activité du coeur était, elle, d'autant plus rapide que le taux de MMPs était faible. En dehors de ce contexte particulier, ces enzymes, présentes dans la plupart des tissus, ont pour rôle de restructurer la matrice collagène qui lie les cellules entre elles. Le plus souvent inactives, les MMPs entrent en action dans des circonstances particulières telles que le développement foetal ou la cicatrisation. Chez le rat de Richard Schulz, l'injection d'anticorps de MMPs ou d'inhibiteurs comme la doxycycline et la phénantroline, a permis d'améliorer la reprise du coeur. Des compagnies pharmaceutiques testent actuellement des produits à base de tétracycline pour le traitement des crises cardiaques, mais aussi pour celui du cancer et de maladies inflammatoires comme l'arthrite Info Science http://www.infoscience.fr/index.php3
|
|
|
|
|
|
|
|
Des chercheurs américains ont créé, par génie génétique, une plante qui brille lorsqu'on la touche. Cette expérience pourrait bouleverserer notre conception de la physiologie des plantes. Il semblerait en effet, que les plantes aient un certain sens du toucher et qu'elles s'en servent pour s'adapter à leur environnement. La phytogénéticienne Janet Braam, de l'Université Rice au Texas, a découvert il y a dix ans que certains gènes des plantes réagissaient au toucher. Après avoir essayé d'activer ces gènes en y appliquant diverses hormones, la chercheuse a constaté que les plantes ne réagissaient pas à ces produits, mais à leur application. C'était la sensation tactile qui activait les gènes, pas le choix de l'hormone. L'équipe américaine a alors créer une plante transgénique, où l'on avait inséré un gène de mouche à feu. Ces plantes brillent dans le noir lorsqu'elles ont été touchées, ce qui permet d'observer le phénomène en temps réel à l'aide de caméras ultrasensibles. Cette expérience a révélé que la plante se met à briller environ 20 minutes après avoir été touchée. D'abord à l'endroit exact du contact, puis ensuite sur toute sa surface. Il semble que des signaux chimiques qui s'apparente à une forme de système nerveux primitif communique l'information à toute la plante. Ces gènes du toucher semblent avoir un effet sur le développement des plantes. Celles qui sont manipulées régulièrement sont plus basses et plus robustes que les autres. Janet Braam pense que ce mécanisme permet probablement aux plantes, immobiles par nature, de s'adapter le mieux possible à leur environnement. Brève rédigée par @RTFlash BBC News http://news.bbc.co.uk/hi/english/sci/tech/newsid_751000/751069.stm
|
|
|
|
|
|
|
|
Des souris chez lesquelles un certain gène a été supprimé boivent volontairement plus d'alcool que les autres et elles se remettent plus vite de ses effets, indiquent des chercheurs dans une étude parue lundi dans le Journal of Neuroscience. Ces rongeurs, à qui avait été enlevé un des six gènes contrôlant la production de la protéine du cerveau Kinase A (PKA), ont bu deux fois plus d'alcool que des souris normales, notent les chercheurs de l'Université Washington. Par ailleurs, ils se sont remis beaucoup plus vite (65 minutes) que les autres (90 minutes) des effets de l'alcool après avoir bu des doses très élevées. "Ceci est la première preuve directe du fait que la PKA est liée à l'absorption volontaire d'alcool", note M. Todd Thiele, le principal auteur de l'étude, patronnée par l'Institut national sur l'abus d'alcool et l'alcoolisme (NIAAA). Il souligne toutefois que "ceci est vrai pour les souris, mais ne l'est pas forcément chez l'homme". La PKA est une protéine qui renforce la communication entre les cellules du cerveau. Ces expériences "offrent une preuve concrète que la PKA est impliquée dans la régulation volontaire de la consommation d'alcool et la sensibilité à ses effets", souligne pour sa part le Dr. Enoch Gordis, directeur du NIAAA. AFP http://158.50.204.19/ext/francais/lemonde/sci/000515184052.6bke2fcp.html
|
|
|
|
|
|
|
|
Des chercheurs américains sont parvenus à générer de nouvelles cellules ciliées de l'oreille interne par génie génétique. La possibilité de stimuler la croissance de ces cellules de l'oreille interne pourrait éventuellement être utilisée pour le traitement des troubles de l'audition et de l'équilibre .Deux chercheurs de la société Genentech (San Francisco, Californie) ont réussi à régénérer ces cellules grâce à la surexpression d'une protéine particulière dans des cellules de la cochlée prélevées sur des rats nouveau-nés. Les cellules ciliées localisées dans la cochlée sont responsables de la conversion des signaux auditifs en impulsions électriques. Celles qui sont situées dans le vestibule réagissent aux mouvements et participent au maintien de l'équilibre. Comme leur nombre est défini à la naissance, la perte de ces cellules sensorielles est irréversible et responsable de nombreux troubles de l'audition et de l'équilibre. Plusieurs travaux laissaient suggérer que le gène Math1, qui code pour un facteur de transcription, pouvait faciliter la différenciation des cellules ciliées dans l'oreille interne. Afin de vérifier cette hypothèse, le Dr J. Lisa Zheng et le Dr Wei-Qiang Gao ont introduit le gène Math1 dans des cellules provenant de la cochlée de rats. La culture cellulaire de ces cellules transfectées a montré que la surexpression de la protéine Math1 s'accompagnait par la production de nouvelles cellules ciliées. Ces nouvelles cellules ont été mises en évidence par l'expression de marqueurs spécifiques et la microscopie électronique a révélé la présence de stréréocils. D'autres expériences ont montré que ces nouvelles cellules ciliées dérivaient des cellules épithéliales transfectées. Des résultats similaires ont été obtenus avec des cellules issues de l'utricule, un organe du vestibule. L'augmentation du niveau d'expression de Math1 dans les cellules de l'oreille interne par des molécules spécifiques ou par la transfection de gène pourrait être utilisée pour stimuler la régénération de cellules ciliées, indiquent les auteurs. Cette éventualité permettrait de traiter les troubles de l'audition et de l'équilibre causés par la perte des cellules ciliées. Caducée http://www.caducee.net/
|
|
^ Haut |
|
|
|
|
|
VOTRE INSCRIPTION |
|
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
|
|
|
|
|
|