|
|
|
|
|
NUMERO 229 |
|
|
|
|
|
|
|
Edition du 07 Février 2003
|
|
|
|
|
Edito
Le WiFi, nouveau moteur des télécoms et de l'internet haut débit
Alors qu'aux Etats-Unis comme en Europe, la mise en oeuvre de l'UMTS et de l'internet haut débit ne cesse de prendre du retard à cause des difficultés financières de l'industrie des télécoms et de l'attentisme des utilisateurs, l'irrésistible et surprenante montée en puissance de la technologie WiFi est en train de bouleverser la donne sur le marché des télécoms et de l'internet large bande. L'année 2002 a en effet été marquée par deux grandes évolutions dans les réseaux : l'arrivée du haut débit dans la boucle locale, avec l'ADSL, et celle du sans-fil dans les réseaux locaux publics ou privés, avec WiFi (802.11b). Mais à présent une nouvelle convergence technologique se développe de manière accélérée : celle qui combine mobile, réseaux sans fil et WiFi. Avaya, Proxim et Motorola viennent ainsi de signer un accord pour faire converger téléphonie cellulaire et réseaux sans fil. Le premier apportera un logiciel de téléphonie IP pour central téléphonique, le second son infrastructure permettant à la voix de transiter sur des réseaux WiFi. Quant à Motorola, il se chargera du terminal, en proposant un téléphone cellulaire/WiFi. L'alliance a pour objectif d'offrir le meilleur des deux mondes sur un seul appareil : à proximité d'une borne WiFi, la transmission des données à haut débit et de la voix ; hors de portée d'une borne, la connexion à un réseau GSM ou GPRS. Il sera ainsi possible d'être toujours connecté sans fil avec le débit le plus élevé disponible. Plus que pour la voix, c'est dans la transmission des données que la convergence WiFi/GPRS pourrait jouer le rôle de technologie universelle. C'est ainsi que Nokia propose sa carte PC D211 qui gère aussi bien le WiFi que le GPRS et coûte 450 euros. Avec cette carte, le téléphone portable mais aussi l'assistant personnel ou le PC portable, sont connectés toujours au meilleur débit, ce qui intéresse au plus haut point le monde de l'entreprise. Certains éditeurs ont d'ailleurs saisi l'opportunité. Les Suisses de Togewanet sont ainsi en train de passer des accords avec des opérateurs européens (Orange et Vodafone) de réseaux GSM et de bornes WiFi pour interconnecter leurs clients respectifs. Selon le principe des vases communicants, les opérateurs de téléphonie mobile voyant s'éloigner les perspectives mirifiques de bénéfices avec l'UMTS ont compris tout le profit qu'ils pouvaient tirer rapidement avec l'utilisation professionnelle du WiFi. C'est ainsi que France Telecom/Oléane propose un pack "WiFi + ADSL", conçu spécialement pour les PME/PMI et basé sur le routeur "Office Connect Wireless Cable/DSL Gaetway" de l'équipementier américain 3Com . Cette solution clef en main permet ainsi à une PME de partager simplement son accès internet avec n'importe quel terminal (PC, PC portable, PC de poche, tablette SmartDisplay) équipé d'une antenne WiFi, sans utiliser le moindre câblage et en rendant possible, dans un rayon d'une centaine de mètres, l'accès au Web, à l'intranet ou encore à la messagerie d'entreprise. France Telecom vient par ailleurs d'annoncer qu'il proposerait mi 2003, en étroit partenariat avec Wanadoo et Orange, un ensemble d' offres professionnelles de HotSpots (points d'accès sans fil à l'internet utilisant la technologie WiFi) qui devrait permettre aux abonnés de se connecter de façon transparente sur chaque HotSpot. Il faut par ailleurs souligner que le WiFi est en train de reléguer au second plan la technologie Bluetooth, présentée au départ comme une technologie universelle, notamment dans les réseaux domestiques, aux applications industrielles et aux réseaux strictement personnels (PDA, PC, téléphone portable). Le WiFi est en train de s'imposer non seulement dans les réseaux d'entreprises mais aussi dans les réseaux domestiques (via l'ADSL sans fil) et enfin comme technologie tout à fait compétitive de boucle locale, comme le montre par exemple l'expérience initiée par la ville de Pau (Pau Broadband Country). Il reste qu'en France l'internet sans fil à haut débit commence seulement à s'installer dans les lieux très fréquentés. Certains de ces lieux, gares, aéroports, hôtels, sont pourvus de bornes d'accès permettant une connexion à l'internet à haut débit et sans fil (WiFi) grâce à une carte insérée dans un ordinateur portable ou un assistant personnel (PDA). Mais une fois encore la France, dans ce domaine stratégique de l'Internet sans fil à haut débit, est en retard par rapport aux Etats-Unis. Aux Etats-Unis, il existe plus de trente groupements visant à promouvoir l'installation de services Internet sans fil ou WiFi, en particulier dans les villes de San Francisco, Long Beach (Californie), Seattle (Washington) et Jacksonville (Floride). Long Beach sera la première ville à mettre à la disposition de ses habitants une aire de connexion gratuite couvrant d'abord quatre pâtés de maisons dans le centre ville. Ce service devrait être rapidement étendu à la marina et à l'aéroport. La ville assume les frais de la connexion Internet et des entreprises locales comme Vernier Networks de Mountain View fournissent les équipements nécessaires. Cette "île WiFi" est considérée par les planificateurs de Long Beach comme faisant partie du renouveau urbain. Autour de San Francisco, le Bay Area Wireless Regional Network prévoit la mise en place d'une aire connectée d'un rayon de 12 Km couvrant le sud de la ville. En outre il est révélateur, sur le plan politique, de constater que les réseaux WiFi avaient dans un premier temps été écartés du débat parlementaire américain concernant l'accès Internet à haut débit dans les zones rurales et les petites agglomérations. Seuls les accès via le câble et l'ADSL avaient été pris en compte dans la discussion. Mais à l'initiative de deux sénateurs, la technologie WiFi a finalement été réintégrée dans ce débat législatif et sera reconnue dans le nouveau cadre réglementaire américain comme une alternative dans le développement de l'accès haut débit. Mais le développement rapide et fiable du WiFi nécessite encore une simplification et une clarification des différentes normes de réseaux locaux sans fil. La norme 802. 11 se décline actuellement en deux standards réputés utilisables par les ordinateurs pour des liaisons à haut débit : le 802.11b qui fournit des liaisons à 11 Mbits/s sur la bande des 2,4 GHz, et le 802.11a qui doit le compléter sur la bande des 5 GHz, à une vitesse de 54 Mbits/s. Ces bandes de fréquences radio vont heureusement pouvoir faire l'objet d'une utilisation plus large grâce à l'adoption, par l'IEEE, d'une certification d'interopérabilité des matériels commercialisés. L'IEEE a mis au point un éventail de règles qui vont harmoniser les procédures mises en oeuvre lors du passage d'un réseau à l'autre, dans les lieux publics ou privés. Le but est d'assurer la persistance de la liaison à un réseau et d'éviter que les ordinateurs des personnes connectées et changeant de zone de couverture ne passent alternativement d'un réseau à l'autre de façon totalement anarchique. Cette certification a permis l'apparition des premiers produits WiFi compatibles 802.11a et b. Mais un troisième standard devrait rejoindre les deux premiers qui sont déjà de fait interopérables sur certains produits, principalement vendus aux Etats-Unis : le 802.11g , capable d'assurer des débits de transmission de données à 22 Mbits/s sur la bande des 2, 4 GHz. Ce standard devrait prochainement faire l'objet d'une nouvelle spécification à 54 Mbits/s pour s'appeler 54 Mbps 802.11b. Il y aurait aujourd'hui 10.000 stations relais à travers le monde, mais la diffusion de cette technologie s'emballe. Pour la société de recherches spécialisée Gartner, elle représentera un chiffre d'affaires mondial de 3,9 milliards de dollars en 2007, à comparer avec 1,7 milliards en 2001 -, avec, rien qu'en Amérique du nord, près de 5,5 millions d'utilisateurs. Pour les experts, il faudra attendre plusieurs années avant qu'il y ait assez de bornes relais pour atteindre une masse critique, et plus longtemps encore pour gagner de l'argent avec le WiFi. Pour l'instant, c'est en Asie que les stations sont les plus nombreuses, mais c'est en Amérique du Nord qu'il y a le plus d'ordinateurs avec l'équipement ad hoc. L'accès est parfois gratuit, mais plus souvent requiert un abonnement ou le paiement d'un droit d'accès, à la journée. De gros investisseurs se sont lancés dans l'aventure : AT and T, Intel et IBM ont uni leur force pour lancer en décembre Cometa Networks, avec l'ambition de mettre sur pied un réseau couvrant tous les Etats-Unis avec 20.000 stations relais, un chiffre insuffisant, selon Gartner, qui prévoit des résultats à l'équilibre en 2007 au plus tôt. Côté équipement, Dell commence à vendre des ordinateurs portables avec WiFi intégré, ce qui supprime la nécessité d'une carte. Et Intel annonce pour bientôt le lancement d'un microprocesseur avec WiFi intégré. "Aujourd'hui, à peu près 20 % des utilisateurs d'ordinateurs portables recourent au sans-fil", selon un responsable d'Intel, Don MacDonald. "On devrait arriver à au moins 30 % dès cette année", prédit-il. Avec l'arrivée massive d'ordinateurs intégrant le WiFi, et une fois achevée la clarification et cette mise en cohérence des différentes normes, la technologie WiFi, en combinaison synergique avec l'UMTS, devrait connaître une progression encore plus fulgurante, tant dans les domaines de la téléphonie mobile que de la transmissions de données à haut débit et des réseaux locaux d'entreprises ou domestiques. Le succès commercial du WiFi, et son adoption comme norme universelle pour les réseaux locaux et les transmissions de données sans fils dépendra sans aucun doute du degré d'interopérablitité et de compatibilité entre machines et réseaux, et de la pertinence des offres commerciales, pour que l'utilisateur puisse de manière totalement transparente obtenir en tout lieu la meilleure connexion haut débit. Mais la question ultime que tout le monde se pose est de savoir si la technologie WiFi restera complémentaire de l'UMTS ou finira, et à quelle échéance, par absorber cette norme universelle pour laquelle les opérateurs on dépensé des sommes colossales. René TRÉGOUËT Sénateur du Rhône
|
|
|
|
|
|
|
|
TIC |
|
|
Information et Communication
|
|
|
|
|
|
|
|
|
Le Forum des droits sur l'internet a publié, le 3 février, sa recommandation pour le "développement de l'administration électronique". S'inscrivant dans un contexte de mobilisation politique forte en faveur de la e-administration, illustré notamment par le récent rapport "L'Hyper-République. Bâtir l'administration en réseau autour du citoyen", cette recommandation a pour objet d'accompagner les travaux que mène actuellement le secrétariat d'Etat à la réforme de l'Etat sur ce sujet en portant à sa réflexion un plan d'action pour le développement de l'administration sur l'internet. Il offre des solutions concrètes à destination des praticiens pour mettre en oeuvre l'administration électronique dans une perspective de service au citoyen. Ce plan d'action vise à consolider le cadre juridique de l'administration en ligne et à souligner les priorités en termes de développement de services. Il porte également sur les conditions juridiques et techniques de mise en place d'un portail administratif personnalisé et présente de façon complète son fonctionnement. Recommandation pour le développement de l'administration électronique CONSOLIDER LE CADRE JURIDIQUE DE L'ADMINISTRATION ELECTRONIQUE L'administration électronique doit être l'occasion de consacrer une véritable démarche de services aux usagers, pour cela le Forum recommande que : -* La mise en place de services administratifs par l'internet s'intègre dans une rénovation d'ensemble de l'interface de l'administration avec ses usagers -* Les modes de fonctionnement des services en ligne soient très précisément articulés avec les services de guichet. -* La participation des usagers à la définition du service soit un préalable absolu à la mise en place des téléservices et une condition indispensable de leur bon fonctionnement. -* L'administration électronique soit un véritable facteur de réduction des contraintes a priori imposées aux usagers, notamment en remplaçant l'obligation de pièces justificatives par un mécanisme de déclaration sur l'honneur. -* L'interactivité des procédures en ligne soit maximale, en ne se bornant pas à une simple mise en ligne des formulaires papier. -* L'offre d'information publique en ligne soit complétée par une obligation de publicité des actes administratifs en ligne. C'est notamment par la généralisation de meilleures pratiques que la confiance des usagers sera assurée, pour cela le Forum recommande que : -* Des règles claires de validation et de confirmation des démarches effectuées en ligne soient posées, notamment en généralisant les accusés de réception de l'administration. -* Des droits d'accès et de modification en ligne aux informations saisies soient reconnus. -* L'ergonomie du service proposé en ligne rende le remplissage d'un formulaire électronique aussi souple que celui d'un formulaire papier (à titre d'exemple, il faut que les usagers puissent interrompre leur remplissage du formulaire à tout moment) -* Les administrations publiques définissent et affichent clairement une politique bienveillante en cas d'incidents techniques Il convient d'introduire une véritable gestion du courrier électronique des usagers de l'administration, pour cela le Forum recommande que : -* Soit systématisé l'équipement des administrations en adresses de courrier électronique -* Les administrations définissent et affichent des politiques de traitement des courriers administratifs qui leur sont adressés. -* Les courriers électroniques envoyés par l'administration mentionnent le nom d'un agent. -* Les administrations se mettent en état de recevoir les « lettres recommandées » électroniques qui commencent à apparaître. Il convient d'introduire progressivement et de manière raisonnée l'exigence de la signature électronique, pour cela le Forum recommande que : -* L'usage de la signature électronique ne soit pas un préalable systématique au déploiement des services en ligne -* Les administrations engagent une réflexion approfondie sur les considérations qui peuvent imposer le recours à la signature électronique -* Les administrations puissent envisager de fournir elles-mêmes aux usagers les outils de la signature électronique. -* La gestion des incidents et des recours administratifs et contentieux doit pouvoir être exercée en ligne, pour cela le Forum recommande que : -* Les administrations permettent la formation de réclamations et de recours administratifs en ligne. -* Les autorités administratives indépendantes puissent être saisies en ligne. -* Les recours contentieux en ligne soient rendus possibles par l'équipement des greffes de juridictions en adresses de courrier électronique et de service d'horodatage des messages reçus. -* Les possibilités de médiation en ligne en cas d'incidents ou de litiges soient encouragées. SATISFAIRE DE NOUVEAUX BESOINS EN MATIERE DE SERVICES PUBLICS EN LIGNE La circulation des informations entre administrations doit être organisée afin de réduire les formalités pour les usagers lorsqu'un évènement de la vie nécessite d'informer différentes administrations. Dans cette démarche de grappes de services, le Forum recommande que cette circulation d'informations entre administrations se mette en place pour les évènements suivants: -* Le changement d'adresse Les modifications de la situation familiale (naissance, mariage, décès) -* Le changement dans la situation au regard de l'emploi (perte d'emploi, nouvel emploi) Les téléservices correspondant aux besoins les plus courants des usagers doivent être développés. Quatre domaines apparaissent prioritaires pour le Forum : -* Le suivi en ligne par l'usager d'une demande adressée à l'administration -* Les demandes en ligne d'extraits d'acte d'état-civil -* La déclaration de perte ou de vol de papiers d'identité -* La mise en place d'une possibilité de paiement en ligne des procès-verbaux de stationnement Le Forum recommande que la possibilité de paiement par carte bancaire en ligne soit offerte aux usagers des services publics. Le Forum recommande de développer les services de justice en ligne qui répondent aux besoins de proximité et de rapidité exprimés par les usagers. Le Forum recommande que : -* Des services en ligne soient créés en priorité pour les relations directes des justiciables avec les juridictions notamment pour le règlement des litiges pécuniaires. -* Les services quasi administratifs des juridictions soient offerts en ligne (inscription sur les listes électorales...). -* Les procédures juridictionnelles faisant intervenir des auxiliaires de justice soient dématérialisées. -* Le Forum ne souhaite pas la mise en place d'un véritable service de dépôt de plainte en ligne car les risques liés à ce service ne peuvent pas être clairement appréhendés et maîtrisés : risques d'abus, difficultés quant à la vérification de l'identité et de la véracité des faits. DEFINIR LES CONDITIONS DE MISE EN PLACE D'UN PORTAIL ADMINISTRATIF PERSONNALISE Le Forum recommande la mise en place du portail administratif personnalisé, www.monservice-public.fr, afin de permettre aux administrés d'accéder directement aux informations qui les concernent et qui sont détenues par les différentes administrations. Le Forum souhaite que les principes essentiels en matière de protection des données personnelles soient affirmés et précisés dans l'optique du portail administratif personnalisé. A cet égard, le Forum recommande que : -* La formule du portail administratif personnalisé soit conçue comme une simple passerelle permettant à l'usager, à l'aide de liens hypertexte, d'accéder aux différents services de l'administration et non comme un compte administratif centralisant l'ensemble des données administratives de l'usager -* Le fonctionnement du portail administratif personnalisé repose sur un principe de volontariat et de réversibilité -* Le projet de portail personnalisé soit prévu dans son principe par la loi. -* Les droits d'accès et de rectification prévus par la loi du 6 janvier 1978 soient complétés de manière à prévoir que leur exercice puisse se faire en ligne La réforme en cours de la loi de 1978 soit également mise à profit pour créer un dispositif juridique rendant possibles, à la demande de l'usager, des dialogues entre des fichiers administratifs. -* L'aspiration des individus à maîtriser davantage leurs données personnelles ne se traduisent pas par la reconnaissance d'un droit de propriété sur celles-ci. Recommandation du Forum des droits sur l'internet : http://www.foruminternet.org/telechargement/documents/syntreco-adm-20030203.htm
|
|
|
|
|
|
|
|
Imaginez une mère de famille qui veut surveiller ses enfants tout en continuant à consulter ses e-mails. Cela est désormais possible avec les écrans amovibles et autonomes Smart Display, qui permettent d'utiliser à distance son PC par communication radio», explique à ZDNet Nicolas Mirail, chef produit chez Microsoft France. Le géant du logiciel est à l'origine de ce concept d'écran nomade, véritable télécommande radio du PC. Un projet longtemps resté dans les cartons sous le nom de code "Mira", du fait d'un positionnement loin d'être évident: ni tablette PC, ni assistant personnel. «Nous ciblons le grand public passionné de technologie, qui utilisera le Smart Display pour un usage domestique», précise Nicolas Mirail. La commercialisation des premiers modèles aura pris du retard. Initialement prévus pour octobre dernier, ils ne seront disponibles aux États-Unis comme en Europe qu'au cours du premier trimestre (février, mars). En France, trois écrans seront signés Viewsonic et Philips, et vendus de 1000 à 1500 euros environ. «Mais les prix devraient baisser par la suite avec l'arrivée d'autres constructeurs dont Nec, Fujitsu et Trigem Computer», assure le responsable de Microsoft. Ces écrans ont tous le même principe: l'appareil se branche sur le PC en plus ou à la place du moniteur principal; lorsque l'utilisateur veut travailler dans une autre pièce, il lui suffit de détacher l'écran Smart Diplay de sa base et de l'emporter avec lui. Il fonctionne alors dans un rayon de 30 mètres maximum, en restant en contact radio avec l'unité centrale, via la technologie Wi-Fi (802.11b). La navigation et la saisie des données s'effectuent au moyen d'un stylet directement sur l'écran tactile, comme avec un ordinateur de poche. Les modèles de Viewsonic et Philips, aux diagonales allant de 10 à 15 pouces, revendiquent une autonomie de 4 heures environ. Zdnet : http://www.zdnet.fr/
|
|
|
|
|
|
|
|
Le géant américain du logiciel Microsoft va modifier substantiellement son système de collecte de données personnelles sur internet, baptisé "Passport", pour mieux respecter les règles européennes sur le respect de la vie privée, à la suite d'un accord conclu le 30-01- à Bruxelles. Cet accord, signé avec un groupe de travail composé des autorités nationales de protection des données des Quinze, prévoit quatre modifications au système lancé il y a deux ans par Microsoft afin de faciliter l'utilisation de nombreux sites de commerce électronique par un même internaute, qui n'a ainsi pas besoin de s'identifier à chaque fois. "Passport" compte aujourd'hui plus de 200 millions d'utilisateurs dans le monde, et deux millions en France. Tout d'abord, au lancement de "Passport", l'internaute européen --identifié comme tel lors de la procédure d'inscription-- verra s'afficher une boîte de dialogue indiquant quelles sont les règles en Europe sur le respect de la vie privée. Il disposera également d'un pointeur renvoyant sur les sites de la Commission européenne détaillant ces règles. "Aucun autre continent ne disposera de règles de fonctionnement de "Passport" semblables à celles que nous avons accepté en Europe", a relevé Olivier Ezratty, directeur de la division développeurs chez Microsoft France, en détaillant les changements qui seront opérés par Microsoft dans "Passport". D'autre part, le système de Microsoft permettra à l'utilisateur européen de préciser si les données qu'il a saisies dans un site internet alimenteront ou non les bases de données de "Passport". En cloisonnant ainsi les identités, d'un site à l'autre, tout en utilisant une identité unique dans "Passport", Microsoft répond aux inquiétudes d'autorités comme la CNIL française (Commission nationale informatique et libertés), soucieuses d'empêcher les systèmes d'identification unifié d'ouvrir la voie à des rapprochements entre fichiers, par exemple ceux de la police et de la Sécurité Sociale. Microsoft va également proposer aux utilisateurs européens de "Passport" des conseils pour créer des mots de passe mieux sécurisés. Microsoft Europe a précisé que les modifications seront réalisées "dans un délai de deux à dix-huit mois". Union européenne 30-01-2003 : http://europa.eu.int/rapid/start/cgi/guesten.ksh?p_action.gettxt=gt&doc=IP/03/15...|0|RAPID&lg=FR;
|
|
|
|
|
|
|
|
Imaginez une machine universelle, un outil capable d'imiter les fonctionnalités de n'importe quelle autre machine. Maintenant, imaginez l'expression de terreur sur les visages des fabricants d'appareils. Imaginez qu'il vous suffise de télécharger et d'installer un logiciel libre pour que votre assistant personnel numérique (PDA) devienne à la fois un récepteur pour le positionnement par satellite, un téléphone, un poste de radio ou une télévision miniature. Pour Eric Blossom, instigateur du projet GNU Radio, cette vision se répète incessamment, comme un anneau de Moebius en Cinémascope. Ingénieur électricien de son métier, il sait bien que le dispositif d'ouverture d'une porte de garage et un récepteur GPS ne sont séparés que par de minces cloisons. Il connaît également les obstacles liés à la propriété intellectuelle qui entravent l'innovation technologique. Plutôt que de vouloir déplacer les murs, il a entrepris de démanteler le plancher, grâce aux logiciels libres. Et au diable Sony, Philips et Nokia. "En gros, nous transformons tous les problèmes matériels en problèmes logiciels, explique-t-il. Nous voulons encourager l'évolution dans le domaine radio." "La radio a toujours été un univers exclusivement matériel, un système fermé, poursuit Eric Blossom. Il fallait prouver qu'on pouvait réussir avec une idée de base : une radio par ordinateur." Jusqu'à présent, le projet GNU Radio a tenu ses promesses. Eric Blossom et son associé, Matt Ettus, ont développé un programme qui permet à un ordinateur de recevoir simultanément deux stations de radio. Les seuls composants supplémentaires nécessaires sont une carte radio bon marché, pour réceptionner les ondes radio, et un convertisseur analogique-numérique, pour la conversion de tous les signaux. On pourrait penser que la réception de deux stations de radio en même temps est un passe-temps réservé aux fanatiques, mais les objectifs à long terme de GNU Radio sont plus ambitieux. A la base, le projet vise à fournir aux développeurs de logiciels radio un ensemble commun d'outils non propriétaires adaptables à différents supports. Mais, dès que l'on prend un peu de distance, GNU Radio prend une autre tournure. Dans le contexte de la "convergence" numérique - terme de marketing qui désigne le fait de combiner données et communication dans un seul appareil -, GNU Radio est un tremplin vers le dispositif hybride par excellence : un ordinateur de poche pouvant devenir instantanément un talkie-walkie ou une télévision haute définition. Les implications politiques du projet GNU Radio sont devenues évidentes. Face à la date limite fixée en 2007 par la Federal Communication Commission (FCC) Courrier International : [http://www.courrierinternational.com/numeros/639/063905001.asp?TYPE=archives">organisme chargé de la réglementation de l'ensemble des télécommunications sur le territoire américain] pour le passage à la télévision numérique, les studios hollywoodiens, les sociétés informatiques et les fabricants d'électronique grand public se sont disputés pour savoir comment éviter une redistribution à grande échelle de films numériques. La solution suggérée par une commission conjointe l'hiver dernier consisterait à inclure un logiciel caché (broadcast flag) dans le contenu de toute diffusion numérique, pour permettre l'enregistrement mais pas la redistribution d'émissions de télévision diffusées sous cette forme. "De notre point de vue, GNU Radio est la preuve technologique que des innovations intéressantes sont possibles mais aussi qu'elles peuvent être confisquées", estime Brad Kuhn, patron de la Free Software Foundation. Quant à Eric Blossom, il espère que GNU Radio ouvrira la voie à encore plus d'innovation. La machine universelle est peut-être encore loin d'exister, mais, au fur et à mesure que les logiciels libres se multiplient, développeurs et utilisateurs auront à leur disposition de plus en plus de moyens. Il est convaincu que "la technologie doit être utile". "Sur le long terme, les utilisateurs pourront prendre beaucoup d'initiatives, ce qui devrait accélérer considérablement l'innovation. Cela ne signifie pas que tout utilisateur doit être un développeur, mais que la liberté d'innover existe." Courrier International : [http://www.courrierinternational.com/numeros/639/063905001.asp?TYPE=archives
|
|
|
|
|
|
|
|
Avec les scrutins régionaux, sénatoriaux, cantonaux et européens, l'année 2004 sera riche en consultations électorales. Si les délais sont respectés, les 64 000 bureaux de votes français seront bientôt équipés d'urnes électroniques. Une petite révolution qui pourrait contribuer à réduire sensiblement le risque de fraude. Parallèlement, les pouvoirs publics vont procéder à un toilettage significatif du système de gestion et de révision des listes électorales. Après cette phase d'informatisation poussée, les électeurs fantômes ne devraient plus le rester très longtemps. « En France , explique Yannick Blanc, sous-directeur aux affaires politiques et à la vie associative au ministère de l'Intérieur, le bureau de vote est considéré comme une assemblée électorale souveraine. A contrario des Etats-Unis, aucune opération de recomptage n'est possible. Le seul document qui fasse foi du dépouillement des suffrages est le procès-verbal établi en fin de scrutin. Tout le pari de la migration qui s'annonce sera de convertir les règles de transparences actuelles pour les appliquer au vote électronique. Il faudra veiller à ne pas confisquer la surveillance des opérations de vote qui appartiennent aujourd'hui aux électeurs. » Pour ce faire, toutes les caractéristiques techniques du système seront publiques. Bornes électroniques, écrans tactiles, serveurs centraux de collectes des données, les solutions techniques de vote électronique existent déjà. En Europe, il a déjà fait ses preuves, notamment en Belgique. Et sur ce marché prometteur, plusieurs entreprises (comme Bull/Steria, France Télécom ou l'espagnol Indra) sont sur les rangs. « Ce système pourra fonctionner pour les élections politiques, mais aussi pour les consultations, à caractère professionnel, consulaire et prud'homal », détaille Yannick Blanc. Le ministère de l'Intérieur met actuellement la dernière main au règlement technique. Une fois agréée, la procédure sera soumise à l'AMF (Association des maires de France) ainsi qu'à la Commission européenne. Les détails budgétaires seront réglés à l'automne prochain par la loi de Finances 2004. Concrètement, les communes s'équiperont, et l'Etat leur remboursera une partie de la dépense, sur une base forfaitaire. Pour accélérer la mise en oeuvre du vote électronique, le gouvernement va prochainement soumettre au Parlement une loi d'habilitation ouvrant la voie à des mesures de simplification administrative par ordonnance, avec un volet concernant les élections politiques. OINet : http://www.01net.com/article/200960.html
|
|
|
|
|
|
|
|
Les PC vont devoir affronter de nouvelles concurrentes : les chaînes hi-fi. L'industrie de l'électronique grand public commence en effet à s'organiser pour ne pas laisser la musique aux mains des ordinateurs. Sony, Sharp, Pioneer et Kenwood viennent en effet d'annoncer la création de Any Music Planning, société chargée de diffuser de la musique sur leurs produits connectés à Internet. Le service devrait être disponible à l'automne. A la même époque apparaîtront les premiers appareils signés Any Music Planning, capables de se relier directement au Web via câble ou ADSL. Un tel produit ne sera pas l'apanage du consortium japonais. Avec ses chaînes hi-fi Streamium, Philips propose déjà des machines capables de se connecter à des services de musique en ligne par liaisons câble, ADSL ou Wi-Fi. Mais Any Music Planning s'intéresse aussi de près à la question des droits d'auteur. Sony, autant présent dans l'électronique que dans la musique, ne joue pas ici le rôle de simple membre de l'entente. La multinationale semble en effet vouloir en profiter pour imposer OpenMG X. Ce nom désigne la technologie de gestion des droits numériques de la compagnie japonaise, capable de transférer directement des fichiers depuis Internet vers d'autres plates-formes qu'un PC comme de limiter le nombre de copies d'une oeuvre protégée. OpenMG X dispose même avec MagiqLip de son propre lecteur multimédia. Avec Any Music Planning, Sony dispose donc d'une plate-forme idéale pour donner du poids à sa technologie face à la concurrence des Microsoft et autres Real. OINet : http://www.01net.com/article/200560.html
|
|
|
|
|
|
|
|
En décembre, associé à l'opérateur de télécommunications LD Com, filiale du groupe Louis Dreyfus, à Thomson et à TPS, TF1 a décidé d'aller au-delà de la démonstration de laboratoire et a lancé une expérience de télévision par ADSL en grandeur réelle. Près de 200 salariés des sociétés concernées, habitant sont progressivement connectés au réseau et reçoivent un bouquet de 24 chaînes. Ce projet, baptisé Dream TV, n'est pas seul en lice. Le fournisseur d'accès à Internet, Free, a également commencé à livrer au compte-gouttes, dès la fin de l'année 2002, la Freebox. Ce boîtier gris, conçu par les ingénieurs de la maison mère de Free, Iliad, offre pour l'instant aux abonnés un accès rapide à Internet (de type ADSL), mais promet beaucoup plus. Enfin, France Télécom a décidé de mener des tests techniques à partir de juin à Lyon, puis à Lille et Paris, avec environ un millier d'abonnés. M6 travaille étroitement avec l'opérateur français, et proposera la diffusion de ses émissions, mais également de clips vidéo. A l'étranger, quelques opérateurs ont franchi le pas et commercialisent à petite échelle un service de télévision ou de vidéo sur ADSL. C'est le cas de Telefonica en Espagne, ou de Kingston Interactive en Grande-Bretagne. De son côté, T-Online, filiale de Deutsche Telekom, a annoncé, jeudi 30 janvier, la commercialisation de services vidéo sur l'ADSL au quatrième trimestre 2003. Selon Philippe Bailly, de la société NPA Conseil, qui a réalisé une étude sur le sujet, publiée par Satellifax, "près de 500 000 personnes regardent la télé sur ADSL dans le monde". Cette effervescence autour de la transmission de télévision sur l'ADSL s'explique aisément. Tout d'abord, la technologie a fait des progrès considérables. En décembre 2001, Thierry Breton, alors PDG de Thomson Multimedia, et Serge Tchuruk, PDG d'Alcatel, présentaient leur première expérimentation commune, exprimant le souhait de voir se développer ce marché. Depuis, les ingénieurs ont continué à améliorer les techniques de compression d'images pour réussir à transporter un flux d'images avec une qualité acceptable. "Nous souhaitons proposer une qualité d'image équivalente à celle du DVD. Aujourd'hui, une ligne ADSL peut offrir un débit de 5 Mbits/s en ville, et il nous faut 3,3 Mbit/s pour diffuser un flux vidéo", précise Christian Grellier, directeur du studio multimédia de TF1. "Il faut maintenant éprouver sur le terrain les temps de zapping et la stabilité du réseau", affirme Marc Roussel, directeur technique de M6. Par ailleurs, l'ADSL, accès rapide à Internet, s'est démocratisé en France. France Télécom en a fait son cheval de bataille. Résultat, le cap du 1,4 million d'abonnés a été franchi fin 2002, et l'opérateur parie sur un doublement en 2003. Les opérateurs de télécommunications souhaitent redonner un nouveau souffle au réseau de téléphonie fixe, pour ralentir le phénomène de substitution par la téléphonie mobile. Pour continuer à étendre le succès de l'ADSL, ils étudient le couplage de services, d'Internet, de téléphonie et de vidéo. De leur côté, les acteurs de l'audiovisuel veulent jouer leur carte. Les bouquets de chaînes par satellite comme TPS dont la courbe d'abonnés atteint une asymptote aimeraient bien avec l'ADSL étendre leur rayon d'action dans les villes, où la concurrence est frontale avec le câble. Mais finalement ce sera la réaction des abonnés qui déterminera si ce mode de diffusion vidéo passera du stade de test à la généralisation. Le Monde : http://www.lemonde.fr/article/0,5987,3236--307564-,00.html
|
|
^ Haut |
|
|
|
|
|
|
|
Avenir |
|
|
Nanotechnologies et Robotique
|
|
|
|
|
|
|
|
|
Pour la première fois au monde, la structure d'un photon (particule de lumière) a pu être transférée sur un autre photon distant de deux kilomètres au moyen d'une téléportation à travers un câble en fibres optiques, annonce une équipe helvéto-danoise dans un article publié dans la revue Nature jeudi.Par cet exploit, Nicolas Gisin, de l'Université de Genève, et son équipe ont effectué un pas notable en avant: jusqu'à ce jour, les essais de téléportation quantique d'un photon (sa "carte d'identité", en quelque sorte) ne dépassaient pas de petites distances d'environ un mètre, soulignent les scientifiques. L'expérience réalisée en collaboration avec l'Université d'Aarhus (Danemark) a permis de réaliser la téléportation entre deux laboratoires distants de 55 mètres à travers un câble de télécommunications standard en fibres optiques long de deux kilomètres. Popularisée par la science-fiction et faisant penser à Star Trek, cette technique ne permet pas, en réalité, du moins en l'état actuel de la connaissance scientifique, d'envisager un transfert de matière, d'objets usuels et encore moins d'être humains. La téléportation devrait néanmoins trouver des applications intéressantes, notamment dans le domaine des télécommunications. En effet, étant donné que la structure du photon ne se manifeste jamais et en aucun endroit intermédiaire au cours du transfert, la technique pourra garantir qu'une information envoyée d'un émetteur vers un récepteur ne sera pas interceptée. NYT : http://www.nytimes.com/2003/01/30/science/30TELE.html
|
|
^ Haut |
|
|
|
|
|
|
|
Matière |
|
|
Matière et Energie
|
|
|
|
|
|
|
|
|
Les Etats-Unis ont décidé de rejoindre l'Union européenne, la Russie, le Japon et le Canada dans un projet de construction d'un réacteur expérimental de fusion nucléaire ayant pour objectif la production d'une énergie nucléaire plus propre et illimitée.Ce souhait exprimé par le président George W. Bush est un revirement dans la position des Etats-Unis, qui s'étaient retirés en 1998 du projet ITER (International Thermonuclear Experimental Reactor), forçant les quatre autres partenaires à réduire le coût et les ambitions de cette collaboration, que la Chine souhaite également rejoindre. Le budget du projet est aujourd'hui estimé à cinq milliards de dollars par les Américains, qui souhaitent y contribuer à hauteur de 10%, selon le secrétaire américain à l'Energie Spencer Abraham, qui a annoncé la proposition lors d'une visite du Laboratoire de physique des plasmas de Princeton, à Plainsboro (New Jersey, nord-est). "Le projet international sur la fusion est une avancée importante vers un laboratoire expérimental de fusion qui pourrait déboucher sur (la production) commerciale d'énergie", a estimé M. Abraham. Selon lui, "ITER est une façon économique de poursuivre la recherche sur la fusion, au niveau mondial, avec la collaboration de partenaires partageant le coût de construction et de fonctionnement du projet". Le secrétaire à l'Energie a expliqué la décision américaine par la confiance placée dans la fusion nucléaire contrôlée pour les plans énergétiques des Etats-Unis à long terme, en raison de ses caractéristiques "abondante, sûre et bénigne pour l'environnement". Les Etats-Unis proposent une contribution matérielle à la construction du réacteur et à sa gestion, ainsi qu'une participation au développement scientifique et technique du projet. La nature exacte de la contribution reste à déterminer avec les partenaires actuels du projet. Les Etats-Unis souhaitent participer à la prochaine réunion de l'ITER en février, a précisé M. Abraham. Les Etats-Unis ne proposeront pas de site pour ce réacteur. Le lieu de construction du réacteur n'est pas encore déterminé. Une décision sur ce point devrait intervenir dans le courant 2003, entre les sites proposés par l'UE, le Japon et le Canada. Le début de la construction du réacteur est prévu pour 2006 et son fonctionnement en 2014. Cette collaboration internationale pourrait durer jusqu'à 20 ans. La Chine a envoyé une lettre aux membres de l'ITER le 10 janvier pour proposer de rejoindre la collaboration, selon le site officiel du projet (www.iter.org). La fusion nucléaire contrôlée est la quête ultime des physiciens pour doter l'humanité d'une source d'énergie nucléaire copiant le processus naturel intervenant au coeur du Soleil, une solution de rechange à la fission nucléaire. Les scientifiques tentent depuis 30 ans de réaliser la fusion, processus par lequel les noyaux de deux atomes de deutérium (forme lourde de l'hydrogène) se fondent pour former du tritium (autre forme de l'hydrogène) en dégageant une grande quantité d'énergie. La fission nucléaire, mise en jeu dans les centrales électronucléaires, se traduit au contraire par la fragmentation d'un atome pour obtenir de l'énergie. Cette fission des noyaux lourds d'uranium est réalisée depuis 1942. Les réactions de fusion nécessitent, pour vaincre la répulsion des atomes entre eux, des températures de l'ordre de 200 millions de degrés. Les progrès de la recherche sur la fusion enregistrés ces dernières années ont convaincu les scientifiques de lancer le projet ITER, visant à démontrer la maîtrise de la combustion entretenue d'un plasma deutérium-tritium sur une longue durée. NYT : http://www.nytimes.com/2003/01/31/politics/31FUSI.html?ex=1044680400&en=8c8b2eea...
|
|
^ Haut |
|
|
|
|
|
|
|
Espace |
|
|
Espace et Cosmologie
|
|
|
|
|
|
|
|
|
les premiers éléments de l'enquête de la Nasa sur la catastrophe qui a coûté la vie, samedi 1er février, aux 7 astronautes de Columbia font état d'un échauffement anormal sur son flanc gauche, quelques minutes avant sa désintégration au-dessus du Texas. Les enquêteurs de la Nasa concentrent leurs efforts sur l'analyse de données conservées dans les ordinateurs sur le vol de Columbia, et en particulier plusieurs anomalies techniques peu avant sa désintégration. Ron Dittemore, le directeur du programme navette de la Nasa, a ainsi détaillé dimanche la séquence des évènements à bord dans les six minutes précédant la catastrophe. Les premières hausses de températures constatées par les contrôleurs de Houston sont survenues en quatre points du "circuit hydraulique du puits du train d'atterrissage gauche", a-t-il indiqué. La navette Columbia voyageait à plus de 26.400km/h en approchant de la côte californienne peu avant 9h heure locale. A ce moment-là, il n'y avait plus de communication avec les astronautes. Comme pour tout retour de l'espace, le commandant de la navette, Rick Husband, et son copilote, William McCool, avaient pris place sur les sièges de contrôle devant le pare-brise du cockpit, entouré d'instruments de contrôle sophistiqués, notamment des écrans d'ordinateur. Juste derrière, à la droite de McCool, se trouvait Laurel Clark, un médecin. Derrière les deux hommes, figurait l'astronaute Kalpana Chawla. Dans le petit compartiment situé sous le cockpit, étaient installés les trois autres astronautes, Michael Anderson, David Brown, et Ilan Ramon, le premier Israélien dans l'espace. La navette en pilotage automatique a entamé la première série de manoeuvres de virage afin de ralentir l'appareil lors de son entrée dans l'atmosphère. La première indication que quelque chose se passait mal à bord est survenue à 08H53 (heure de la côte est, 12H53 GMT), sept minutes avant que la navette se désintègre au-dessus du ciel texan. Dans la salle du centre de contrôle de Houston, les contrôleurs remarquaient soudainement la disparition sur leurs écrans des données télémétriques mesurant la température dans les moteurs hydrauliques de l'aile gauche de Columbia. Trois minutes plus tard, à 08H56, ils constataient un accroissement des températures sur le circuit hydraulique de freinage et de la roue dans le train d'atterrissage gauche. Deux minutes plus tard, à 08H58, l'inquiétude gagne les contrôleurs à Houston. Trois des capteurs de températures intégrés dans l'aile gauche de la navette sont dans le rouge, indiquant une brusque élévation de température du métal. La navette Columbia est en surchauffe dangereuse. Le "CapCom", Charles Hobaugh, le contrôleur de Houston, tente de communiquer avec le commandant de bord Rick Husband, qui confirme apparemment une hausse de la pression hydraulique sur le train d'atterrissage. Le "CapCom" tente à nouveau d'entrer en contact avec le commandant. "Columbia, ici Houston. Nous avons reçu vos messages sur la pression des pneus. Nous n'avons pas capté le dernier (message)... ". Le commandant de bord répond: "Bien reçu..." puis la communication est rompue. Il est 09H00, c'est le dernier mot de l'équipage. la navette atteignait alors la frontière entre le Nouveau-Mexique et le Texas à une altitude d'environ 64km et à une vitesse de 21.200km/h. La navette Columbia avait encore 2.250km à parcourir, soit 20 minutes de vol avant d'atteindre la zone d'atterrissage. Ron Dittemore a mis en garde contre toute conclusion hâtive sur le fait que les premières anomalies sont dans le compartiment du train d'atterrissage gauche. La Nasa a révélé samedi qu'une pièce de mousse isolante très dense s'était détachée du réservoir central externe de Columbia 80 secondes après le décollage le 16 janvier dernier. Ce débris était venu frapper l'aile gauche de la navette. Mais Ron Dittemore a souligné dimanche qu'il ne pensait pas à ce stade que cet incident ait eu des conséquences structurelles "significatives" sur la navette, autrement dit que les tuiles du bouclier thermique aient été endommagées. Même si c'était le cas, a-t-il tenu à souligner, "la perte d'une tuile en soi ne signifierait pas la perte de la navette". Plus de 12000 débris de la navette spatiale Columbia, dont un casque de vol, ainsi que des restes humains ont déjà été retrouvés dans plusieurs comtés du Texas et en Louisiane. Aucune victime n'était signalée dimanche après la chute de ces débris, disséminés sur plus d'une centaine de kilomètres. Une pièce de la taille d'une voiture est tombée à Toledo Bend, à la frontière entre le Texas et la Louisiane, selon Tom Maddox, shérif du comté de Sabine. Par ailleurs, des restes humains ont été trouvés en deux endroits dans l'Etat du Texas, à l'est de la localité de Nacogdoches. A Hemphill, un membre du personnel hospitalier a fait état de la découverte de ce qui semblait être un torse humain carbonisé, un fémur et un crâne humains sur une route de campagne. Billy Smith, coordinateur des services locaux de secours, a confirmé l'information. "J'espère que personne ne verra ce que j'ai vu. C'était horrible", a-t-il déclaré". Le président américain George W. Bush a invoqué samedi soir les pouvoirs extraordinaires dont il est investi pour autoriser la FEMA (Federal Emergency Management Agency) à consacrer tous les fonds fédéraux nécessaires aux opérations de recherche et de ramassage des débris de la navette spatiale Columbia et au paiement des dépenses liées au drame dans les Etats de Louisiane et du Texas. Plus d'une dizaine de débris ont été découverts par les habitants de Nacogdoches, localité située à 217km au nord-est de Houston, au Texas: un barreau métallique avec des boulons argentés et une pièce métallique en forme de demi-lune, longue d'environ 1,50m et zébrée de brûlures, ont été retrouvés dans la cour de deux maisons. Une pièce métallique d'une trentaine de centimètres est passée à travers le toit d'un cabinet de dentiste, un réservoir d'environ un mètre de diamètre a atterri sur une piste de l'aéroport régional A.L. Mangham, une pièce métallique d'un mètre carré est tombée sur le parking d'une banque, une autre pièce de métal gris de 30cm de diamètre a été découverte devant le tribunal de la ville, tout comme un objet cylindrique d'un mètre cube environ sur des bâtiments de la Garde nationale et de la cendre sur une voiture. La population s'est rendue en grand nombre sur les lieux pour photographier les débris. Au sud de la ville, près de la frontière avec la Louisiane, un morceau semblant provenir d'un casque a été trouvé à Bronson. A l'ouest, une pièce incurvée en métal d'environ 1,50m est tombée au bord de l'autoroute 55 dans le comté d'Anderson et deux pièces rondes d'une soixantaine de centimètres de diamètre et de petits morceaux de tuile ont été retrouvés dans le comté de Cherokee. D'autres morceaux provenant apparemment de la navette ont été trouvés près de Neches (sur une route rurale, sur le parking et le toit d'une église baptiste), dans le comté d'Anderson (une pièce en forme de V sur une route au nord-est de Palestine, d'autre débris non-identifiés près de Pert), dans le comté Navarro (devant le lycée de Rice, des pièces portant des lettres et des chiffres peints au pochoir à Kerens), dans le comté de Henderson, et dans le comté Cherokee (un fragment ressemblant à une porte et un autre pouvant faire partie du bouclier de la navette). Des équipes de secours et de recherche ont aussitôt été mobilisées dans la région de Dallas et Fort Worth et la NASA a mis en garde la population, invitée à ne pas toucher les débris de la navette, en raison des produits toxiques qui se trouvaient à bord -notamment dans les réservoirs. La première division de cavalerie de l'armée a envoyé un hélicoptère des équipes de recherche et de sauvetage de Fort Hood, au Texas, pour participer aux recherches et récupérer les débris pour les besoins de l'enquête. Deux avions de combat F-16 de Fort Worth, au Texas, sont également mobilisés dans le cadre de ces opérations, a précisé le major Clay Church, le porte-parole de cette unité de l'armée. Des débris ont été retrouvés jusqu'en Louisiane, l'état voisin du Texas. De Washington, l'administrateur de la Nasa Sean O'Keefe a répété qu'une commission indépendante, dirigée par un ancien amiral, Harold Gehman, qui avait co-présidé une commission d'enquête sur le navire USS Cole, cible d'un attentat à Aden en octobre 2000, devrait déterminer les causes de la catastrophe. NASA : http://www.nasa.gov/columbia/
|
|
|
|
|
|
|
|
La désintégration de la navette Columbia remet en question l'avenir du programme spatial américain, et particulièrement sur celui de la Station spatiale internationale (ISS). Car il est peu probable que Columbia soit remplacée et la Russie n'a pas les moyens techniques et financiers de prendre immédiatement le relais. Bien que le président George Bush assure que "le voyage dans l'espace allait continuer", les trois autres navettes américaines -Atlantis, Endeavour et Discovery- risquent de rester au sol pour un certain temps, alors que dès le 1er mars Atlantis devait décoller pour l'ISS. "C'est clairement un gros revers parce qu'(en 2003) les navettes devaient transporter de nombreuses grosses pièces pour l'assemblage" de la station internationale, souligne John Logsdon, directeur du Space Policy Institute (Institut de la politique spatiale) à l'Université George Washington. Il est en effet fort improbable que l'agence spatiale américaine construise une nouvelle navette, selon les experts. Or, comme le rappelle Donald Emero, ingénieur en chef de la navette de 1989 à 1993, la nouvelle génération de véhicule spatiaux ne sera pas prête avant au moins 10 à 15 ans. Car le nouvel administrateur de la NASA, Sean O'Keefe, a mis de côté il y a quelques années les nouveaux modèles examinés, préférant continuer de travailler avec les navettes pendant 10 à 15 ans. Columbia était âgée de 22 ans, et les trois navettes restantes datent de 10 à 18 ans. Plusieurs anciens responsables de la NASA s'étaient inquiétés du vieillissement de la flotte. En avril, Richard Blomberg, l'ancien directeur de la commission consultative de sécurité de l'agence, s'était déclaré "plus inquiet que jamais pour la sécurité de la navette", estimant que les coupes budgétaires dans les années 1990 s'étaient faites au détriment de la mise à niveau de l'engin. Jose Garcia, assistant technique à la retraite à la NASA, affirme que nombre de contrôles de sécurité au lancement ont été supprimés. Mais "les responsables disent toujours: 'C'est plus sûr que cela ne l'a jamais été. La sécurité avant tout'. Facile à dire", réagit-il. Après l'explosion de Challenger en 1986, la flotte avait attendu trois ans avant de redécoller mais Donald Emero estime que l'enquête devrait être plus rapide cette fois. Aux Etats-Unis, des voix se sont immédiatement élevées pour demander l'arrêt pur et simple du programme. "La navette spatiale doit être arrêtée", écrit ainsi l'hebdomadaire Time dans son édition à paraître lundi. "Elle coûte cher, elle est dépassée, impraticable, et comme nous venons à nouveau de l'apprendre, mortelle". Mais les Etats-Unis ont-ils vraiment le choix ? Non, répondent de nombreux responsables et experts car, sans navettes spatiales, plus question de terminer l'assemblage de la Station spatiale internationale (ISS) et d'assurer son exploitation. C'est ce qu'a laissé entendre dimanche l'administrateur de la Nasa, en n'excluant pas une reprise prochaine des vols, une fois que l'enquête aura tiré au clair les causes de l'accident de Columbia. Hormis celle de Columbia, cinq missions étaient prévues cette année. En mars, la navette Atlantis devait relever l'équipage résident de l'ISS. Interrogé sur la possibilité qu'une navette puisse être lancée d'ici juin, M. O'Keefe a déclaré: "Nous n'allons certainement écarter aucune possibilité. "Nous nous préparons pour un lancement quand il le faudra, une fois que nous aurons trouvé le problème et la façon d'y remédier". "La navette spatiale volera de nouveau" car il n'y a pas d'autre vaisseau pour la remplacer, assure pour sa part Nick Fuhrman, spécialiste de la politique spatiale. "Nous avons une station spatiale et un engagement à long terme de présence dans l'espace", ajoute-t-il. "Si quelque chose de bien sort de cette tragédie, ce sera la volonté de mettre davantage de ressources financières dans ce programme, ce qui n'a pas été fait ces dix dernières années", souligne-t-il. En septembre 2001, le sénateur de Floride Bill Nelson avait pourtant tiré la sonnette d'alarme. "Si l'on ne donne au programme des navettes spatiales les ressources nécessaires pour mettre à niveau leur sûreté, notre pays va payer un prix insupportable. Nous étouffons le budget navette de la Nasa, en augmentant considérablement les risques d'une perte catastrophique", avait-il dit. "C'est le moment de dire que nous n'allons pas continuer à couper ce budget", a affirmé dimanche la sénatrice du Texas Kay Bailey Hutchison, en remarquant que les fonds de l'agence spatiale avaient été amputés de 40% en dix ans. Un ingénieur de la NASA, Don Nelson, qui a participé aux contrôles de sécurité sur les navettes américaines, jusqu'à son départ en janvier 1999, avait également averti par courrier, en août 2002, les responsables du programme spatial américain et le président des Etats-Unis de l'existence de graves lacunes de sécurité sur la navette Columbia mais il n'avait eu aucune réponse. De cinq navettes, la flotte de la Nasa est désormais réduite à trois: Atlantis, Endeavour et Discovery, la petite dernière entrée en service en 1992. Plus question d'en construire d'autres: elle repose sur une technologie vieille de 35 ans, lourde (trois mois de préparation avant chaque vol) et coûteuse (un lancement coûte au minimum 400 millions de dollars). "C'est clair, nous voulons aller de l'avant avec la prochaine génération" de vaisseaux spatiaux, a reconnu dimanche le patron de la Nasa. L'avenir, c'est l'avion spatial orbital, plus petit que la navette, lancé au bout d'une fusée classique. Mais les premiers prototypes commencent à peine à sortir des cartons et il ne devrait pas être opérationnel avant 2010. En attendant une éventuelle reprise des vols de la navette spatiale,, l'agence spatiale russe Rossaviakosmos propose ses services et elle a lancé dimanche un vaisseau Progress M-47 inhabité pour ravitailler comme prévu l'ISS, mais elle connaît de graves difficultés budgétaires. Si la NASA veut utiliser des vaisseaux russes pour envoyer des hommes dans l'espace, "elle devra acheter des (capsules) Soyouz TMA" et il faudra deux ans pour les construire, estime un porte-parole de Rossaviakosmos, Sergueï Gorbounov. Pour le moment, "le travail en orbite avancera en sous-régime", ajoute-t-il: "les équipes peuvent mener les diverses expériences scientifiques, mais oubliez la construction de la station jusqu'à la reprise des lancements américains". Sans équipe permanente à bord, l'ISS peut opérer en mode "veille" tant que la maintenance est assurée par des spationautes de passage, et la NASA envisageait déjà cette solution pour 2003 avant la catastrophe de Columbia. Mais plus longtemps la station reste inhabitée, plus elle risque de se détériorer. En attendant que les décisions soient prises, les astronautes américains Ken Bowersox et Don Pettit et leur commandant russe Nikolaï Boudarine, arrivés sur l'ISS en novembre dernier, peuvent y rester jusqu'en juin sans recevoir de visite, selon un responsable du programme des navettes spatiales, Ron Dittemore. Si nécessaire, l'expédition numéro Six peut regagner la Terre avec le vaisseau Soyouz attaché à l'ISS. NYT : http://www.nytimes.com/2003/02/03/national/03SHUT.html WP : http://www.washingtonpost.com/wp-dyn/articles/A16687-2003Feb2.html WP : http://www.washingtonpost.com/wp-srv/nation/transcripts/NASA0203_2.htm NYT : http://www.nytimes.com/reuters/politics/politics-shuttle-experience.html NASA : http://www.nasa.gov/columbia/
|
|
^ Haut |
|
|
|
|
|
|
|
Terre |
|
|
Sciences de la Terre, Environnement et Climat
|
|
|
|
|
|
|
|
|
Les conseils généraux ont consacré 4,72 milliards d'euros à l'environnement sur la période 1996-1999, soit 1,18 milliard par an, indique l'Institut français de l'environnement (IFEN) dans une récente étude (1). Les dépenses liées à l'environnement des départements ont progressé de 9,3% de 1996 à 1999 alors que leurs dépenses totales se sont accrues de 6,8%. En moyenne, sur cette période, les budgets totaux des conseils généraux se sont élevés à 36 milliards d'euros, dont 3,3% consacrés à l'environnement. Maires Info http://www.maire-info.com/articles/article.asp?param=2608 Dans le document publié, on trouve une carte intitulée "Environnement : l'effort des conseils généraux (moyenne 1996 à 1999)" et un tableau consacré aux "Contributions et dépenses moyennes environnementales des départements par domaine (entre 1996 et 1999"). Les principaux domaines d'intervention environnementaux concernent la protection de la biodiversité et des paysages (9,9%), l'environnement urbain (9,2%) et surtout l'eau, avec près de 61,4% des dépenses, soit 727 millions d'euros en moyenne annuelle sur le total. La forte prépondérance de ces dernières dépenses concernant le traitement des eaux usées et la gestion de la ressource en eau semble liée aux recettes provenant du Fonds national pour le développement des adductions d'eau versées aux conseils généraux par l'Etat, qui s'élèvent à 122 millions d'euros par an de 1996 à 1999. Ces estimations sont issues de l'exploitation des données 1996-1999 de l'enquête d'évaluation des dépenses liées à l'environnement des conseils généraux, réalisée par l'IFEN depuis 1998. IFEN : http://www.ifen.fr/pages/4ecosoc.htm#79
|
|
|
|
|
|
|
|
L'utilisation continue et à long terme des OGM les plus répandus dans le monde est remise en question. Soja, coton et maïs modifiés pour ne pas être affectés par un herbicide très courant, le Roundup, sont très appréciés des agriculteurs, parce qu'ils peuvent pulvériser le produit directement sur les champs et tuer ainsi les mauvaises herbes sans affecter les cultures. Toutefois, certaines herbes sauvages commencent à développer une résistance au Roundup. Le problème, disent les agronomes, est la rançon du succès de ces cultures transgéniques, notamment celle du soja, qui représente désormais plus des trois quarts de tous les plants de soja cultivés aux Etats-Unis. Outre le soja, environ 65 % du coton et 10 % du maïs poussant aux Etats-Unis contiennent le gène Roundup Ready, affirme Monsanto. Le canola (colza transgénique) Roundup Ready est très courant au Canada, où il est cultivé pour son huile. Et Monsanto est en train de mettre au point du blé, de la luzerne et du gazon Roundup Ready, destiné aux terrains de golf. Le problème a été soulevé pour la première fois par des fermiers du Delaware, à propos d'une herbe appelée la pesse. Rex Mears, de Seaford, dans le Delaware, cultivait du soja Roundup Ready depuis plusieurs années, et tout allait pour le mieux. Mais, en 2000, une partie de la pesse a résisté à l'herbicide. L'an dernier, il a donc épandu du Roundup à plusieurs reprises pour tenter d'éliminer ces herbes sauvages. Si l'on en croit le Dr Van Gessel, de l'université du Delaware, cette herbe prolifère à présent sur 10 000 hectares de la péninsule constituée par le Delaware, le Maryland et l'est de la Virginie, ainsi que dans le sud du New Jersey. Alliée à l'importante sécheresse de l'été dernier, la présence de la pesse a rendu certains champs totalement inutilisables, ajoute-t-il. On a également trouvé de la pesse résistante dans des champs de coton et de soja dans l'ouest du Tennessee et dans quelques Etats mitoyens, comme le Kentucky. Pas moins de 250 000 hectares sont affectés, déclare Robert M. Hayes, professeur de botanique à l'université du Tennessee. Les agronomes constatent en outre que le bidens, une herbe sauvage abondante dans la Corn Belt (la grande région productrice de maïs aux Etats-Unis), résiste de plus en plus au glyphosate (composant du Roundup). Et du ray-grass résistant est apparu dans les champs d'amandiers du nord de la Californie comme dans de nombreux champs de blé d'Australie. Si cette résistance s'étendait, elle limiterait sérieusement l'efficacité de Roundup. Cela poserait un problème aux cultivateurs, parce que le glyphosate est de loin l'herbicide chimique le plus utilisé au monde. Il est considéré comme relativement inoffensif pour l'environnement et suffisamment sûr pour être utilisé dans les jardins. Les détracteurs des OGM ont tiré depuis longtemps le signal d'alarme : ces produits, disent-ils, risquent de se croiser avec des herbes sauvages de la même famille, donnant naissance à de "superherbes" résistantes aux herbicides ou aux insectes. Mais les mauvaises herbes résistant au Roundup qui sont aujourd'hui au coeur du débat n'ont pas été créées ainsi, disent les scientifiques. Elles sont le fruit de l'évolution : les lignées OGM sont devenues si populaires que l'usage du Roundup a littéralement décollé, entraînant l'évolution sélective des espèces et favorisant la prolifération des quelques mauvaises herbes qui lui résistent. La résistance est un phénomène commun à tous les herbicides et insecticides, et de nombreux produits continuent malgré cela à être largement utilisés. D'après les scientifiques, le fait que très peu de résistance se soit manifestée à ce jour est rassurant, parce que cela donne à penser que cette résistance ne se répandra pas trop vite à d'autres types d'herbes sauvages. Mais il n'empêche que le Roundup est utilisé avec une plus grande fréquence qu'autrefois et selon des modes d'application différents. Les chercheurs estiment qu'il faut varier les herbicides, pour éviter trop de résistance. Pourtant, de nombreux cultivateurs n'utilisent plus que du glyphosate. En général, la rotation des cultures permet de déjouer la résistance, parce que des variétés différentes nécessitent des herbicides différents. Mais, à présent, certains fermiers alternent la culture du soja Roundup Ready avec celle de coton ou de maïs Roundup Ready. Autrement dit, le même herbicide est utilisé année après année. NYT : http://query.nytimes.com/gst/abstract.html?res=FB0C12FA39550C778DDDA80894DB40448...
|
|
|
|
|
|
|
|
La salinité de l'océan joue un rôle dans la mise en place d'El Nino, et l'étude de ce paramètre permettrait d'affiner les modèles de prédiction du phénomène, qui survient tous les 2 à 7 ans et perturbe le climat de la planète pendant plusieurs mois, selon une recherche de l'IRD (Institut pour la Recherche et le Développement).El Nino est de retour depuis fin 2002. Cette anomalie climatique constitue en fait une phase d'un système de fluctuation climatique global appelé ENSO (El Nino-Southern Oscillation), propre au Pacifique équatorial, mais dont les effets affectent toute la planète. Les perturbations météorologiques qui l'accompagnent sont souvent lourdes de conséquences pour les pays de la ceinture intertropicale. Malgré le développement de modèles de prévision, son déclenchement reste délicat à prévoir.Jusqu'à présent, les scientifiques avaient pu démontrer l'implication de forts coups de vents d'ouest associés au déplacement d'eaux chaudes vers l'est du bassin dans le déclenchement d'El Niño. Les océanographes de l'IRD viennent de démontrer que la salinité, plus précisément une "couche barrière de sel", joue également un rôle actif. Dans les conditions "moyennes", les alizés qui soufflent d'est en ouest, accumulent, dans la partie occidentale du Pacifique équatorial, un immense réservoir d'eaux chaudes (autour de 29°C) au-dessus duquel d'intenses phénomènes de convection se produisent. Les précipitations énormes ainsi générées apportent un flux d'eau douce considérable dans l'océan, ce qui diminue la salinité en surface. En revanche, les eaux des parties centrale et orientale du Pacifique tropical se caractérisent par des salinités plus élevées, en partie dues à la remontée des eaux froides profondes vers la surface. Dans ces conditions, la thermocline (couche de séparation entre les eaux chaudes superficielles et les eaux froides profondes de l'océan) est proche de la surface à l'est et profonde à l'ouest. Lors d'un événement El Nino, les alizés faiblissent. Les courants et les forts coups de vents d'ouest poussent "anormalement" vers l'est le bord oriental du réservoir d'eaux chaudes, qui se déplace d'autant plus facilement que ces eaux chaudes peu salées, donc de faible densité, flottent sur les eaux sous-jacentes, froides et salées, plus denses. La thermocline s'enfonce alors à l'est et remonte à l'ouest, jusqu'à se positionner parallèlement à la surface de l'océan. La salinité, dont on tenait peu compte jusqu'ici, joue en fait le rôle d'une "couche barrière de sel", caractéristique du Pacifique tropical Ouest. Agissant comme un isolant, celle-ci "limite la création, sous l'effet du vent, du mélange vertical entre les deux couches", selon l'IRD. Elle concentre l'action des puissants coups de vents d'ouest dans une couche océanique superficielle fine. Elle intensifie ainsi le déplacement des eaux chaudes vers le centre et l'est du bassin lors d'un événement El Nino et, de ce fait, amplifie le phénomène. IRD : http://www.ird.fr/
|
|
^ Haut |
|
|
|
|
|
|
|
Vivant |
|
|
Santé, Médecine et Sciences du Vivant
|
|
|
|
|
|
|
|
|
Avec environ 22 000 morts chaque année en France, le cancer broncho-pulmonaire est l'une des premières causes de mortalité masculine. Des ravages qui pourraient être évités à 90 % par la seule suppression du tabagisme. A l'occasion du colloque Onco 2003 récemment organisé à Nantes, pneumologues, oncologues et radiothérapeutes ont lancé un véritable cri d'alarme afin de réduire l'incidence de cette maladie qui tue trois fois plus que la route. Pourtant, les effets du tabagisme sont bien connus. Comme l'a rappelé le Pr Jean-Yves Douillard, oncologue au Centre régional de Lutte contre le Cancer René Gauducheau à Nantes, « la prévention notamment envers les jeunes, est le seul moyen qui permette de réduire de manière significative l'incidence du cancer bronchique. Il faut donc tout faire pour qu'un jeune ne commence pas à fumer. S'il ne fume pas à 19 ans, il aura toutes les chances de ne jamais être accro. Malheureusement, compte tenu du nombre important de jeunes fumeurs, nous allons devoir faire face à cette maladie pendant encore de nombreuses années. » Les chiffres confirment malheureusement ce constat. Actuellement en France, près de 60% des jeunes de 18 ans fument, contre 25% des Finlandais. Résultat, d'ici 2025 l'incidence des cancers broncho-pulmonaires devrait continuer d'augmenter de façon exponentielle. Tout comme le nombre de décès liés au tabac. Dans 25 ans en France, le tabagisme provoquera près de 160 000 morts contre 60 000 aujourd'hui... Destination Santé : http://www.destinationsante.com/home.cfm
|
|
|
|
|
|
|
|
Les femmes sont davantage touchées par les incapacités que les hommes, et en souffrent plus longtemps. Problèmes de vue, d'audition, autonomie limitée. L'INSERM en collaboration avec l'Institut national d'études démographiques (INED) fait le point. Les chercheurs des deux organismes rappellent que les femmes vivent plus longtemps avec une gène ou une difficulté à accomplir un certain nombre d'activités quotidiennes, puisqu'elles atteignent des âges plus avancés auxquels les handicaps sont fréquents. Et à âge égal, elles souffrent plus souvent d'incapacités que les hommes. Avant 65 ans, l'inégalité face au handicap n'est guère perceptible : les problèmes de vue ou d'audition concernent 9 % des femmes et 11% des hommes, contre respectivement 10 % et 9 % pour ceux qui concernent la mobilité. En revanche après 65 ans, les difficultés liées au manque de souplesse, celles qui empêchent la manipulation des objets affectent davantage les femmes (68 %) que les hommes (50 %). Il en découle que le tiers de la population féminine et le quart de la gent masculine ne peuvent plus assurer leur entretien personnel. Ainsi, une femme sur quatre et un homme sur sept se retrouvent confinés au domicile. En dehors des affections auditives - plus masculines que féminines - les femmes de plus de 65 ans cumulent les handicaps. Selon l'INED et l'INSERM, cela s'expliquerait par le fait qu'elles « sont plus touchés que les hommes par des maladies qui engendrent des incapacités ». Au premier rang desquelles bien sûr l'ostéoporose. Voilà pourquoi les femmes ont davantage recours aux aides à domicile que les hommes. En cas de besoin, ces derniers préfèrent utiliser des aides techniques et des appareillages qui les rendent plus indépendants. INED "Population&Société n°386 : http://www.ined.fr/publications/index.html
|
|
|
|
|
|
|
|
Responsable en France de milliers de gastrites, d'ulcères et de cancers, "Helicobacter pylori", une bactérie qui a fait de l'estomac sa niche exclusive, devrait être éliminée sans pitié, estiment les experts de cette maladie qui se réunissent vendredi à l'Institut Pasteur de Paris. "Les études épidémiologiques ont clairement montré qu'aucun cancer gastrique ne peut se développer si cette bactérie est absente de l'estomac, et son dépistage permettrait de l'éradiquer chez toutes les personnes infectées", a expliqué jeudi le Pr Jean-Charles Delchier, gastro-entérologue à l'hôpital Henri Mondor de Créteil et président du groupe d'étude français sur cette maladie (GEFH). Cette bactérie - dont l'existence n'a officiellement été reconnue par les médecins qu'au début des années 80 - est la cause de la quasi-totalité des gastrites chroniques et de 9.000 cancers de l'estomac par an. Le cancer gastrique est le deuxième cancer digestif en France derrière le cancer du colon qui, lui, frappe 34.000 personnes. Il touche plus fréquemment les hommes que les femmes, autour de 70 ans, a rappelé le Dr Dominique Lamarque, de l'hôpital Bichat-Claude Bernard, à Paris. Selon ce spécialiste, environ 40 % de la population française est infectée par la bactérie Helicobacter. En Corée du sud, près de 90 % des plus de 8 ans en sont porteurs. La présence de la bactérie entraîne une transformation progressive de la muqueuse de l'estomac qui se poursuit pendant près de 25 ans et débouche, dans 12 cas sur 100.000, sur un cancer. Par comparaison, chez les personnes non-porteuses de la bactérie, le risque de cancer de l'estomac est 30 fois moindre. "Dans la plupart des cas, l'infection s'acquiert à l'enfance et dans la très grande majorité des cas, elle devient chronique, s'accompagne d'une inflammation de la muqueuse gastrique et est la cause de 90 % de toutes les gastrites chroniques", a souligné le Dr Anne Courillon-Mallet, gastro-entérologue à l'hôpital de Villeneuve-Saint-Georges. Liée à la promiscuité et aux mauvaises conditions de vie, elle est extrêmement présente en Asie et en Afrique mais en forte diminution dans les pays occidentaux. Le traitement existant, une trithérapie de sept jours associant un inhibiteur de la pompe à protons à deux antibiotiques, permet de s'en débarrasser dans 70 % des cas. Pour les malades résistants, un second traitement, plus puissant et plus long, fait disparaître la bactérie dans 63 % des cas, soit au total, un taux d'éradication de 90 %. L'inflammation persiste pendant 6 à 24 mois et la muqueuse redevient normale. Si celle-ci était déjà atteinte, les lésions persistent, mais leur extension et leur aggravation sont définitivement stoppées. Le dépistage - facilité par l'existence de plusieurs tests - était jusqu'à présent seulement recommandé aux malades ayant subi une ablation partielle de l'estomac à la suite d'un cancer, à leurs proches parents ainsi qu'aux patients souffrant de gastrite atrophique. Au vu des résultats d'études récentes, les experts estiment maintenant - sans aller jusqu'au dépistage généralisé - que la présence de la bactérie devrait être recherchée chez les personnes ne présentant pas de facteur de risque identifié et qu'un traitement devrait être proposé à toutes les personnes infectées qui se présentent dans un établissement de soin. La Recherche : http://www.larecherche.fr/medecine/n030130165513.9w6cifeq
|
|
|
|
|
|
|
|
Un professeur d'endocrinologie et de dermatologie du Boston University Medical Center a publié dans le Current Opinions in Endocrinology and Diabetes un résumé de ses recherches menées depuis 30 ans sur la vitamine D. Ses expériences l'ont conduit à reconnaître le rôle de la vitamine D dans la régulation de la croissance cellulaire et de l'équilibre des systèmes cardio-vasculaire et immunitaire, comme dans le développement du diabète et des cancers colorectaux, du sein, de la prostate, et des ovaires. Ces travaux ont contribué à l'élaboration de traitements de l'ostéoporose, de la défaillance rénale et du psoriasis et amené beaucoup de dermatologues à remettre en question le mot d'ordre de leur discipline, à savoir éviter le soleil à tout prix. Effectivement, entre 80 et 100% des besoins en matière de vitamine D proviennent de l'exposition au soleil, même indirecte. Aussi un programme de prises régulières de suppléments vitaminés est-il nécessaire pour obtenir le même effet, surtout chez des personnes habitant des régions où le soleil ne se montre pas beaucoup l'hiver. Ainsi, 36% des jeunes adultes entre 18 et 25 ans, qui ont fait l'objet d'une étude dans la région de Boston, montraient une déficience en vitamine D à la fin de l'hiver, et 11% du même groupe continuaient à, présenter une déficience à la fin de l'été. Si le corps a la capacité d'emmagasiner la vitamine D dans les tissus gras, une exposition régulière au soleil pendant les saisons plus clémentes est nécessaire. Dans la région de Baltimore, située plus au sud, des enquêtes récentes ont démontré que 50 à 60% des adultes âgés de plus de 65 ans présentaient des déficiences en vitamine D. La Recherche : http://www.larecherche
|
|
|
|
|
|
|
|
Faire calculer à un réseau d'ordinateurs des masses de données, images ou statistiques : tel sera l'objet des grilles informatiques de santé, évoquées lors d'un important colloque européen organisé en janvier à Lyon sous l'impulsion du Cern et du CNRS. La Commission européenne souhaite que dans les cinq ans, les premières grilles permettent, par exemple aux médecins de disposer d'un outil de diagnostic puissant pour faire analyser des images du système cardio-vasculaire d'un malade. Une grille de santé permettrait aussi de recevoir au jour le jour des informations sur la progression d'une épidémie pour alerter les médecins et mieux protéger la population. Deux projets régionaux seront présentés pour répondre à des appels d'offre lancés par l'Union européenne dans le cadre du sixième programme cadre pour la recherche et le développement technologique. Le premier est piloté par le CNRS, par le biais de l'Institut de physique des particules. Animé par Vincent Breton, chercheur à l'IN2P3, à Clermont Ferrand, il vise à mettre avec une douzaine de laboratoires de six pays européens, une grille informatique opérationnelle dans cinq ans. Le second projet, baptisé « e.heart », est piloté par le Centre de recherche et d'application du traitement de l'image et du signal (Creatis) basé à l'Insa, qui travaille entre autre avec des chercheurs de Lyon 1. Il sera déposé le 24 avril auprès de la direction générale de la Commission européenne chargé de la société de l'information. « Nous sommes laboratoire d'excellence depuis que nous avons animé en France le programme « coeur battant » dans lequel nous travaillons sur l'imagerie et la modélisation du système cardio-vasculaire, explique Isabelle Magnin, de Creatis. Le projet européen a surtout pris corps lors d'un séminaire avec l'Université technologique d'Helsinki avec laquelle nous travaillons ». Le projet sera élargi lors d'un congrès qui en juin étendra à l'Europe le programme sur le thème « imagerie et modélisation fonctionnelle du coeur ». L'objectif : réunir 120 chercheurs européens sélectionnés en fonction de leurs publications, pour constituer un laboratoire virtuel capable de proposer un système d'exploration et de modélisation du système cardio-vasculaire. Un tel système permettrait d'étudier par exemple les effets d'un médicament. Des projets intégrés proposés par des industriels seront favorisés par le projet « e.heart ». Ces projets permettront par exemple la mise au point de nouveaux instruments d'exploration médicale. Progrés : http://www.leprogres.fr/infosdujour/rhone/106661.html Programme « e.heart » : http://www.creatis.insa-lyon.fr/e-heart
|
|
|
|
|
|
|
|
Alors que 47 millions d'Américains souffrent d'affections liées à l'obésité, les résultats d'une étude dirigée par la Harvard Medical School et menée par des chercheurs du Joslin Diabetes Center de Boston remettent en cause les hypothèses sur le lien existant entre la minceur et la longévité chez l'homme. Précédemment, les chercheurs avaient établi que la réduction de la consommation en calories chez les animaux entraînait un accroissement de leur longévité. Néanmoins, les avis des chercheurs quant aux mécanismes impliqués restent partagés. Une réduction de l'activité métabolique serait-elle à l'origine d'une production moins élevée de radicaux libres qui endommagent les cellules ? Les résultats de l'étude du Joslin Diabetes Center publiée dans Science indiqueraient plutôt que le bénéfice en longévité est imputable à moins de matières grasses dans l'organisme, plutôt qu'à une réduction stricte du nombre de calories consommées. Matthias Blüther (Harvard Medical School) et ses confrères ont créé une lignée de souris dépourvues de récepteurs d'insuline dans leurs cellules adipeuses. Ils publient leurs résultats dans le dernier numéro de la revue Science. Lorsqu'elles suivent un régime alimentaire normal, ses souris nommées FIRKO (fat-specific insulin receptor knockout) ont une masse graisseuse réduite et ont une espérance de vie allongée de 130 jours, soit 18 % de plus que des souris de type sauvage. Selon les auteurs, « une restriction de la masse grasse sans restriction calorique peut être associée à une augmentation de la longévité chez les souris, vraisemblablement par des effets sur la voie de signalisation de l'insuline ». Pour cette étude, les chercheurs ont limité la capacité des souris à stocker les graisses en modifiant certains de leurs récepteurs, mais leur ont permis de manger normalement. Les souris sont restées en bonne santé, ne présentant aucune trace de diabète. En revanche, le poids de ces animaux était 25 % moins élevé que celui du groupe de contrôle et leur masse de gras corporel inférieure de 70 %. Ces résultats sont à rapprocher de ceux d'une autre étude américaine évoquée dans @RTFlash 227 (voir "Une souris génétiquement modifiée a atteint la longévité record"). Dans cette expérience, réalisée par l'Université de l'Illinois, une souris naine génétiquement modifiée afin de ne plus répondre à l'hormone de croissance était parvenue à atteindre la longévité record de quatre ans et onze mois, ce qui correspond à 200 de nos années. Ces résultats éclairent d'une lumière nouvelle les liens complexes entre apport calorique, répartition des sucres et des graisses dans l'alimentation et longévité. Harvard Medical School : http://www.joslin.harvard.edu/news/FirkoMouseStudy01.shtml Science du 24-01-2003 : http://www.sciencemag.org/cgi/content/abstract/299/5606/572
|
|
|
|
|
|
|
|
Des recherches récentes indiquent que les enfants en bas âge sont capables de percevoir des comportements sociaux et émotionnels. Des chercheurs en psychologie de l'enfant de Tufts University et de l'Université de Stanford ont mené deux études sur des enfants âgés de douze et dix mois. Ceux-ci ont été placés devant un ensemble de jouets divers tandis qu'au même moment, durant une vingtaine de secondes, apparaissait sur l'écran d'un moniteur vidéo une comédienne réagissant en présence des mêmes jouets. Les chercheurs ont observé que les enfants âgés de douze mois adaptaient leur comportement en fonction de ceux de la comédienne, rejetant les jouets face auxquels celle-ci avait réagi en exprimant peur ou dégoût, et jouant avec ceux pour lesquels son comportement avait été positif. En revanche, les enfants âgés de dix mois ne semblent pas avoir été influencés par les réactions de la comédienne. Les résultats de cette étude, publiée dans le dernier numéro de Child Development, contribuent à préciser l'âge auquel un enfant perçoit les émotions exprimées par un adulte. Les chercheurs soulignent que ces résultats démontrent la probabilité d'une nette sensibilité des enfants en bas âge à des scènes émotionnelles diffusées sur un écran de télévision. NYT 21/01/03 : http://www.nytimes.com/2003/01/21/health/psychology/21BEHA.html
|
|
^ Haut |
|
|
|
|
|
VOTRE INSCRIPTION |
|
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
|
|
|
|
|
|