|
|
Edito
Internet : il en va de l'avenir de la France
Tout déploiement technologique dont la finalité est d'améliorer le sort de l'Homme en exigeant que chacun sache l'utiliser se divise, inexorablement, en trois phases. Une première phase : la découverte et la mise au point technique. Une deuxième phase : la réalisation des investissements nécessaires et le développement des applications. Une troisième phase : l'acquisition des usages par les utilisateurs potentiels. Or, à l'encontre de ce qui avait été prévu ou espéré lors du lancement d'Internet, le cycle complet du développement des NTIC sera comparable sinon même plus long que celui de l'électricité, du téléphone, de l'automobile ou de la télévision. La grande différence entre ces technologies du XIXe et de la première moitié du XXe avec celle de la planète Internet réside dans le fait que les technologies d'hier ont souvent demandé plusieurs décennies de développement technique, d'investissements préalables et de mise au point des applications alors que l'utilisateur potentiel n'avait que peu d'efforts à accomplir pour en acquérir les usages. Il a suffi de peu de temps à nos grands-parents et parents pour apprendre à se servir d'un interrupteur électrique pour éclairer une pièce ou faire tourner un moteur, tourner une manivelle pour appeler l'opératrice du téléphone, appuyer sur un bouton pour allumer un téléviseur. Même la conduite d'une automobile qui fut la grande aventure de nos aînés il y a moins d'un siècle, même si elle ne fut pas toujours aisée, aura été une pratique abordable par le plus grand nombre. Comme pour le livre au 15e siècle, l'appropriation d'Internet va exiger un énorme effort de l'ensemble de l'Humanité et tout laisse à penser, à moins qu'un génie fasse que la communication entre l'Homme et la machine soit totalement naturelle, qu'il faudra encore plusieurs décennies avant que notre Terre entre globalement dans ce nouveau monde. L'erreur fatale qui a été faite par de nombreux responsables et de nombreux investisseurs aura été de croire qu'il suffisait de mettre au point une nouvelle technologie d'information et de communication pour penser que celle-ci serait adoptée sans retard par l'ensemble de nos contemporains. Depuis des siècles et des siècles, les investissements qui jouent un rôle fondamental dans l'évolution de l'humanité ne parviennent à leur rentabilité qu'après plusieurs décennies et s'inscrivent dans l'échelle du temps plus en demi-siècles qu'en années. Il en aura été ainsi des forêts, des mines, de l'électricité, du chemin de fer, du téléphone, de l'automobile : il en sera de même pour Internet. Il est regrettable que d'éminents décideurs et même des gouvernements se soient laissé tromper par le mirage de la Toile Internet et aient pu penser que les nouvelles technologies pouvaient à elles seules changer le destin du Monde en quelques courtes années. Ceci aura été aussi vrai pour le commerce électronique que pour l'UMTS. Cela ne veut pas dire, loin de là, que tout ce qui a été annoncé depuis plus de cinq ans, s'appuie uniquement sur le mensonge et le virtuel. Tout au contraire : un grand nombre des prouesses techniques annoncées ont été tenues mais ces nouveautés, au lieu d'être utilisées par des millions et des millions de personnes, ne sont employées que par quelques milliers. C'est bien là que se trouve le véritable défi de l'avenir. Comme prévu, année après année, la Loi de Moore s'applique de façon implacable à nos calculateurs et celle-ci devient vraie non seulement pour les mémoires des machines mais aussi pour les capacités des réseaux de télécommunications qui relient toutes ces machines. Hier, le développement d'une nouvelle technologie, comme l'électricité par exemple, était essentiellement dû à la compétence des ingénieurs et à la volonté des pouvoirs publics. Quand un réseau électrique était hier construit dans le quartier d'une ville ou dans un village, chacun tenait à ce que le réseau desserve sa maison, ne serait-ce que pour avoir le plaisir d'éclairer une unique ampoule. Aujourd'hui, ce ne sont plus les ingénieurs qui résoudront les problèmes d'appropriation des NTIC mais beaucoup plus les sociologues, les anthropologues, les ergonomes et surtout les formateurs. Aussi, alors que notre Société tend à entrer dans le Pouvoir par le Savoir annoncé par Alvin Toffler, il y a plus de dix ans, il faut que les gouvernants du Monde prennent conscience, sans retard, que ce n'est plus le nombre de soldats ou le nombre de consommateurs qui détermineront le rang d'un Pays dans le concert des Nations mais c'est bien plus sa capacité à donner à tout un peuple un maximum de Savoirs pour maîtriser ce Monde du Signal qui, inexorablement, déterminera son avenir. Aussi, les décideurs publics et privés doivent se défaire de l'idée qu'il pourrait suffire de construire les réseaux du futur et d'aider le plus grand nombre à acquérir les machines pour changer le destin d'un Pays. Quand, tous ensemble, nous aurons accompli cette première phase, indispensable, il ne faudra surtout pas se reposer. Quand cette première phase, hautement prioritaire, aura été menée à son terme, il sera alors nécessaire qu'un effort sans précédent soit accompli par notre Pays pour que tous les Français s'approprient ces nouvelles technologies de l'information et de la communication. Certains pourraient sourire quand je demande avec force depuis plusieurs années que notre Pays sache faire se lever en ce début de 21e siècle un Jules Ferry de l'Internet comme la France sut si bien le faire à la fin du 19e siècle pour apprendre à tout Français à lire, écrire et compter. Ne souriez pas : Internet changera autant notre destin qu'ont su le faire la lecture, l'écriture et le calcul pour nos aïeux. Cette prise de conscience est urgente car nous vivons dans un monde où l'écart entre l'homme informé, utilisant quotidiennement Internet, et la personne ignorant totalement ce Nouveau Monde, est plus grand qu'entre le paysan et le philosophe à la veille de la Révolution française. Avec la chute vertigineuse des valeurs Internet depuis quelques mois, qui a mis en difficulté les principales bourses mondiales, les gouvernements des grandes démocraties de notre Monde semblent se détourner, sans l'annoncer encore franchement, des Nouvelles Technologies de l'Information et de la Communication. Si cela se confirmait, ce serait une terrible erreur. Leur erreur serait de même nature que celle faite au XVIe siècle par les Cardinaux du Concile de Trente qui n'avaient pas pressenti combien l'imprimerie allait changer notre Monde. Cette bévue n'a certes pas empêché le Siècle des Lumières de nous apporter toute sa soif de connaissances mais n'a certainement pas été sans conséquence sur la genèse de la Révolution Française. Ressaisissons-nous. Nous entrons dans une aventure que l'Homme ne connaît que deux fois par millénaire. René TRÉGOUËT Sénateur du Rhône
|
|
|
|
|
|
|
|
TIC |
|
|
Information et Communication
|
|
|
|
|
|
|
|
|
Chercher une recette sur Internet dans sa cuisine, téléphoner dans le jardin et jouer en réseau sur son écran portable dans la chambre du premier étage : aussi étonnant que cela puisse paraître, il était jusqu'à présent impossible de faire tout cela simultanément chez soi avec un seul accès Internet. La technologie sans fil n'était pas suffisamment avancée pour permettre une telle liberté d'utilisation dans les foyers. Une lacune réparée grâce à l'expérimentation d'un nouveau système dans le Val-d'Oise et les Yvelines. C'est Jean-Claude Delmas, directeur de France Télécom Yvelines-Val-d'Oise et passionné de multimédia, qui a découvert la borne développée par la société parisienne Inventel, spécialiste de la téléphonie sans fil. Une petite boîte bleue, qui intrigue par son design futuriste et amuse par ses clignotements. « Mais elle peut aussi changer la vie », estime Jean-Claude Delmas, qui annonce rien moins que « la révolution Internet dans les foyers ». Cette borne qui, une fois reliée à une prise téléphonique, permet aux ordinateurs, téléphones et imprimantes de fonctionner et naviguer en toute liberté, France Télécom l'a expérimentée pendant plus d'un mois dans le Val-d'Oise et les Yvelines. Chez vingt-deux clients, onze dans chaque département, choisis parce qu'ils possèdent une connexion Internet haut débit (ADSL) et au moins deux ordinateurs. Pour l'instant, ce système intéresse une minorité d'usagers. Parmi les clients de France Télécom dans les deux départements, 30 % surfent sur Internet. Et seulement 5 % des internautes sont équipés du haut débit. Mais Jean-Claude Delmas est persuadé que le grand public y succombera. Le patron d'Inventel, Henri-Nicolas Olivier, aussi. « Ce marché est évalué à 15 à 20 % de plusieurs dizaines de millions de foyers en 2004, soit plusieurs millions d'unités », a-t-il déclaré en juin sur le Net. Convaincue par les résultats de l'expérimentation, la direction régionale de France Télécom a décidé de commercialiser la borne sous forme d'un pack abonnement. Elle sera disponible à la fin de la semaine dans les Yvelines, et le sera dans le Val-d'Oise à la rentrée. Le pack sera vendu dans un premier temps 490 ?, France Télécom réfléchissant à la mise en place de mesures d'accompagnement, comme des formations, puis à une généralisation de l'offre à toute la France.
|
|
|
|
|
|
|
|
Intel annonce que "le premier point d'accès cellulaire public d'Europe proposant des services 802.11a et 802.11b vient d'être installé à Stockholm", et très précisément à l'Internet café Nine de la capitale suédoise. Par "point d'accès public" il faut entendre un lieu qui peut être "privé" mais ouvert au public et qui permet des connexions sans fil à Internet à partir d'un PDA, ou d'un PC portables ou d'un terminal "mobile data". Le point d'accès pilote à Stockholm est intégré au réseau cellulaire public et indépendant d'Amazingports, un partenaire d'Intel, promoteur de la technologie cellulaire LAN (local area network). La connectivité Internet s'effectue via une technologie radio à courte distance (802.11a/b) -quelques dizaines voire une centaine de mètres dans des zones urbaines à population dense. Dans la plupart des cas, les utilisateurs utilisent leur ordinateur portable muni d'une carte WLAN 802.11a (fournie par Intel). La connexion permet de très hauts débits de 11 ou 54 Mbits/s. Le point d'accès utilise l'infrastructure réseau Pro/Wireless 5000 LAN d'Intel. les utilisateurs, habitués ou de passage, trouvent sur place des cartes de connexion pour leur PC, cartes qu'ils peuvent emprunter en achetant ou non un code d'accès sur site ou en s'abonnant. A ce jour, en milieu entreprise, Intel revendique plus de 1000 points d'accès de ce type en Europe. IDC prévoit que d'ici 2006 environ 18.000 aires d'accès publiques ou semi-publiques (complexes hôteliers ou culturels, gares, aérogares...) seront disponibles en Europe occidentale. Certains analystes considèrent déjà que ces déploiements s'ils rencontrent un succès commercial, viendront concurrencer directement les infrastructures mobiles 3G ou UMTS, dont le démarrage s'avère déjà retardé... Silicon : http://www.silicon.fr/public/door?
|
|
|
|
|
|
|
|
A l'heure où les opérateurs mobiles américains lancent leurs premières offres d'accès internet permanent sur téléphone portable, leurs homologues européens tirent un bilan morose des services d'échanges de données qu'ils proposent depuis plusieurs années sans parvenir à atteindre la rentabilité. De la Suède à l'Espagne, les opérateurs européens refusent de révéler ce que représente ce segment dans leurs chiffres d'affaires, mais des experts estiment qu'il représente environ 1% du C.A. des acteurs même les plus dynamiques, comme Vodafone. Les grands opérateurs américains se lancent en même temps sur ce nouveau marché. Sprint PCS a choisi de prendre le risque de construire un réseau sans fil à haut débit sur tout le territoire des Etats-Unis. Ses concurrents Verizon Wireless et AT&T Wireless Services ont préféré tester d'abord leurs services dans les grandes villes du pays. Au vu des résultats des efforts de leurs collègues européens, la prudence reste de mise. L'opérateur britannique MMO2, filiale mobile de British Telecommunications, est un des rares opérateurs à accepter de révéler ses chiffres d'abonnés: 70.000 au total pour son réseau GPRS (General Packet Radio System) avec une croissance de 10.000 nouveaux clients par mois. Une goutte d'eau parmi ses 11,17 millions de clients au total. Cet échec commercial des services de navigation sur internet et de courrier électronique sur téléphones mobiles a d'autant plus surpris que l'Europe est la terre d'élection des communications sans fil et des services d'échange de données de première génération, comme les messages SMS (short message service) qui représentent 10 à 15% des revenus des opérateurs. Les SMS constituent une source de bénéfices faciles pour les opérateurs dans la mesure où ces messages textuels courts, adoptés d'abord par leurs jeunes abonnés puis généralisés à toute la population, ne prennent que très peu de bande passante par rapport aux appels vocaux. Le succès du SMS reste toutefois l'arbre qui cache la forêt des échecs commerciaux de services plus évolués. La palme du raté le plus retentissant revient sans conteste au WAP (pour Wireless Application Protocol), un langage de programmation dérivé du HTML (hypertext mark-up language) utilisé sur le web et qui permet la conception de pages web consultables sur de petits écrans monochromes comme celui d'un téléphone mobile. Lancé à grand renfort de publicité il y a quatre ans, le WAP n'a toujours pas trouvé son public, même lorsqu'il a été porté sur des réseaux rapides comme celui de MMO2. "Le problème du manque de contenus attractifs demeure", souligne Dion Price, analyste spécialiste du secteur chez le consultant britannique de télécommunications MobileStreams. Devant le risque grandissant de nouveau flop commercial, les opérateurs comptent adapter les réussites actuelles sur les nouveaux réseaux en proposant par exemple l'envoi de messages textes accompagnés de photos, moyennant un tarif plus élevé que pour un simple SMS. Lancé au Japon il y a 18 mois, le MMS (multimedia messaging service) y rencontre un franc succès. Sur les 12 millions d'abonnés de l'opérateur nippon J-Phone, 5,4 millions possèdent un téléphone avec caméra intégrée. Mais il est trop tôt pour prédire le sort commercial des messages avec photo. Les responsables du secteur s'accordent juste à dire que ce service n'aura pas d'impact majeur en Europe cette année. Autre service sur lequel reposent les espoirs de profits, le courrier électronique, transmis directement sur votre téléphone mobile ou sur un assistant personnel, sans parler des nouveaux "smart phones" qui combinent ces deux fonctions en un seul appareil. Là encore, le succès tarde toutefois à arriver. Les interrogations du marché demeurent donc entières et ne sont pas près de trouver de réponse. Une nouvelle évolution des réseaux, afin de passer à la fameuse "troisième génération" (3G), est prévue dans les deux ans à venir en Europe. Reuters : http://fr.news.yahoo.com/020808/85/2pgik.html
|
|
|
|
|
|
|
|
Le fossé numérique s'élargit dans le monde, les pays riches accroissant régulièrement leur pourcentage de foyers connectés à internet, tandis que l'Afrique et l'Amérique latine présentent toujours des taux d'utilisation très bas. Les Etats-Unis et la Canada totalisent 180 millions d'internautes, l'Europe en rassemble 154 millions et l'Asie-Pacifique (y compris Australie et Nouvelle-Zélande) 144 millions, selon des statistiques rassemblées par "Le Journal du Net", un site internet spécialisé. L'Amérique latine ne dépasse pas 15,3 millions d'internautes et l'Afrique 4,15 millions. Le pourcentage d'internautes par rapport à la population totale, qui atteint 59 % aux Etats-Unis et 38 % en Finlande, tombe à 5 % au Venezuela et 1,6% au Maroc. En France, il est d'un peu plus de 19%, contre 26,5 % en Grande-Bretagne et 21% en Allemagne. Le Journal du Net a rassemblé des chiffres fournis par les instituts d'étude spécialisés ou non, comme l'américain IDC ou l'allemand Gfk, des statistiques officielles et des estimations calculées par les spécialistes de la mesure de fréquentation sur internet, comme NetValue ou NetSurvey. Selon NetValue, les plus fortes croissances du taux de foyers connectés sont enregistrées à Hong Kong, devant l'Espagne, la Corée du Sud, la France et Singapour. Les progressions sont beaucoup moins fortes là où les foyers sont les plus équipés, comme au Danemark ou à Taiwan. Les Etats-Unis accusent même une baisse de 0,2 %. Les autorités chinoises viennent par ailleurs d'annoncer que le nombre d'internautes a atteint fin juin 45,8 millions, faisant de la Chine le troisième pays le plus connecté dans le monde. Mais rapporté à la population, le taux de pénétration n'est que de 3,5 %. "La pénétration d'internet peut fortement évoluer suivant les saisons, la fin de l'année enregistrant un pic, mais aussi avec l'évolution des offres commerciales", rappelle Valérie Chaillou, consultante en stratégies des réseaux et services à l'Institut de l'Audiovisuel et des Télécommunications en Europe (Idate). Dans de nombreux pays, le nombre d'internautes a varié avec l'apparition éphémère de forfaits illimités, succédant à des offres d'internet gratuit (mais ne comprenant pas le prix des télécommunications), avant l'arrivée des forfaits tout compris. La faible pénétration d'internet dans les pays du sud n'est pas seulement due au manque d'infrastructures de télécommunications, soulignent les spécialistes. La forte pénétration d'internet au Japon (51,3 millions d'internautes) s'explique ainsi pour moitié par la réussite commerciale de l'i-mode lancé par NTT-Docomo, qui permet de se connecter avec un téléphone mobile. L'OCDE souligne, dans son rapport 2002 sur les technologies de l'information, que si "la fracture numérique est en train de s'aggraver", "on note des écarts particulièrement frappants selon les niveaux de revenu et d'instruction des ménages". "Aujourd'hui, c'est l'extension des connexions à haut débit, offrant des usages d'internet beaucoup plus riches pour la photo, la video ou la musique, qui commande la progression d'internet dans de nombreux pays", note Roland Montagne, responsable à l'Idate. La Corée, l'un des pays comptant le plus fort taux de pénétration d'internet, est aussi celui qui dispose du plus grand nombre de connexions à haut débit (9,2 millions à fin juin et 10 millions à la fin de l'année). En Europe, au moins un internaute sur quatre sera connecté à haut débit d'ici 2006, estime l'Idate. En France, le cap du million de lignes à haut débit sera franchi avant la fin de l'année. AFP : http://fr.news.yahoo.com/020727/1/2owd8.html
|
|
|
|
|
|
|
|
Windows dans le domaine public ? On en est encore très loin. Mais la décision de Microsoft de rendre publiques prochainement près de 400 sections du programme détaillé de son système d'exploitation vedette constitue un pas symbolique dans la bonne direction pour le numéro un mondial du logiciel. Sans attendre l'issue du procès antitrust qui l'oppose encore - et peut-être pour de longs mois - à neuf Etats américains, le groupe de Bill Gates a ainsi décidé d'appliquer l'une des principales dispositions de l'accord amiable signé en novembre dernier avec les autorités fédérales américaines. En levant dès ce mois-ci le secret industriel sur une partie du "code" informatique de Windows, Microsoft est censé favoriser une meilleure compatibilité des programmes de ses concurrents avec Windows, et donc leur permettre de lutter contre sa position dominante. Accessoirement, Microsoft peut espérer favoriser la création de nouveaux programmes pour les différentes versions de Windows, et donc améliorer encore la diffusion de celui-ci. Dans le détail, 272 sections du code-source de Windows seront mises à la disposition des développeurs. De plus, 113 "protocoles" propriétaires, qui permettent aux constructeurs informatiques d'assurer une bonne communication entre leurs matériels et des PC fonctionnant sous Windows, seront désormais gratuits. Au-delà, Microsoft assure que les prochaines mises à jour de Windows XP, la dernière version de Windows, permettront aux constructeurs l'installant en série sur leurs machines et aux utilisateurs de désactiver certaines fonctions du programme, comme le navigateur Internet Explorer, le lecteur multimédia Media Player ou le gestionnaire de courrier électronique Outlook Express. Cette annonce correspond à la description du "patch" (correctif) présenté fin mai et testé depuis par quelques dizaines de milliers d'utilisateurs volontaires. Mais appliquer - même en partie - l'accord avant que la juge Colleen Kollar-Kotelly ait pris une décision sur son application ne jouera pas forcément en faveur de Microsoft. Son bouillant directeur général, Steve Ballmer, prend le risque de se voir reprocher de forcer la main à la justice fédérale. Les neuf Etats qui ont refusé d'entériner l'accord amiable réclament un durcissement des sanctions, avec notamment la mise sur le marché d'une version "allégée" de Windows, qui permettrait aux utilisateurs d'en éliminer définitivement Internet Explorer ou Media Player. Tribune : http://www.latribune.fr/Tribune/Articles.nsf/ArticlesWeb/ID9F335518BE5939B5C1256...
|
|
|
|
|
|
|
|
Le fabricant américain de supports de stockage Western Digital s'apprête à commercialiser en France son nouveau disque dur interne IDE de grande capacité. Baptisé WD Caviar 200, ou Drivezilla. Avec ses 200 Go, il offre la capacité de stockage la plus importante du marché. Il intègre trois plateaux de 67 Go chacun, soit une capacité réelle de 201 Go. Mais le gigaoctet supplémentaire est réservé aux logiciels de récupération de données fourni avec le disque, explique-t-on chez Western Digital France. Les plateaux tournent à 7200 tours par minute, ce qui permet au disque dur d'offrir un temps d'accès de 8,9 ms, selon le constructeur. Reste que les deux principaux problèmes de ce type de support, sont généralement la surchauffe et le bruit, dus aux frottements des plateaux tournant sur des roulements à billes. Aussi, Western Digital a utilisé pour son nouveau disque la technologie baptisée Fluid Dynamic Bearing (FDB), qui permet de remplacer les billes par un fluide à viscosité élevé. Cela est censé amoindrir considérablement la surchauffe et l'émission sonore. Un autre problème tient à ce que bon nombre de cartes mères ne gèrent pas une telle capacité de stockage. Western Digital a donc décidé de livrer gratuitement aux clients qui en font la demande une carte contrôleur, permettant d'exploiter les 200 Go. En prime, cette carte d'extension conférera au système une compatibilité avec la nouvelle norme de connexion Serial ATA. Cette dernière, dont les premiers composants compatibles devraient arriver sur le marché l'année prochaine, permet de raccorder le disque à la carte mère par un câble coaxial unique, à la place de la nappe et du cordon d'alimentation actuels. Enfin, le WD Caviar 200 ou Drivezilla sera disponible au début du mois d'août, à 649 euros pour la version intégrant 2 Mo de mémoire cache, et à 699 euros pour celle avec 8 Mo. Zdnet : http://news.zdnet.fr/story/0,,t118-s2119879,00.html
|
|
|
|
|
|
|
|
Se comporter parfaitement en société: tel est le défi que tentera de relever GRACE, un robot "femme" plutôt laid mais assurément bien élevé à l'occasion lors de la 18e conférence nationale de l'Association américaine pour l'intelligence artificielle (AAAI) qui s'ouvrira dimanche à Edmonton au Canada. GRACE sera lâchée dans le symposium avec la mission de s'inscrire, trouver une salle de conférence, faire un exposé sur elle-même et répondre aux questions. Elle montrera au passage sa bonne éducation en s'écartant courtoisement pour laisser passer les gens, en souriant durant une conversation et en demandant poliment son chemin. Elle pourra compter davantage sur son urbanité que sur son physique pour charmer. La machine de 1,83 mètre de haut possède un écran plat en guise de tête, sur lequel s'affiche un visage animé virtuel, surmontant un corps ressemblant vaguement à une pièce montée. GRACE (acronyme en anglais de "robot diplômé assistant à une conférence") est l'oeuvre d'une équipe de chercheurs conduite par l'informaticien Reid Simmons de l'université Carnegie Mellon. C'est la seule machine autonome, c'est-à-dire sans pilotage à distance, à participer au concours de la conférence. D'autres robots seront de la fête, certains en smoking et servant des hors d'oeuvres, pour montrer le dernier cri en matière de robots capables d'évoluer en sécurité et le plus naturellement possible au milieu des humains. GRACE est censée être du sexe féminin. Mais son aspect n'évoque pas vraiment celui d'une femme. Ses attributs féminins se limitent au "visage" et à la voix. En outre, le mouvement des lèvres et ses paroles sont mal synchronisés ce qui lui donne l'air d'être un personnage de film mal doublé. Le robot ne possède ni bras ni jambe et se déplace sur des roulettes. Il ne peut emprunter des escaliers. Avec un torse en forme de barrique doté de sonars, GRACE possède un système de vision qui lui permet d'interpréter des gestes humains, comme par exemple le fait d'indiquer une direction en la montrant du doigt. Elle est également dotée d'un logiciel de reconnaissance des mots prononcés par l'homme. En outre, elle utilise des lasers au niveau du sol pour s'orienter et devrait ainsi être capable de se déplacer sans encombre au milieu des conférenciers. Son intelligence artificielle a été conçue pour centraliser toutes les informations et indiquer à la machine son comportement. Ses concepteurs ne sont toutefois pas certains qu'elle accomplira sa mission sans accroc. "C'est la chose la plus difficile que j'ai faite jusqu'ici dans ma carrière", avoue Bryn Wolfe, un roboticien impliqué dans le projet. Reid Simmons a coordonné le projet GRACE avec l'aide du Laboratoire de recherche naval américain, du Swarthmore College, de la Northwestern University et de l'entreprise de défense Metrica. Il estime que GRACE a 50% de chances de réussir à accomplir toutes ses tâches. "Pensez à ce qu'un robot doit faire pour répondre à une question en terme de reconnaissance des mots", souligne Holly Yanco, co-présidente du concours. "En outre, les gens posent des questions de manière différente". Les chercheurs espèrent au final enseigner à GRACE à être encore plus polie, en lui apprenant à reconnaître des personnes et à leur poser des questions. AP : http://fr.news.yahoo.com/020726/5/2ovjd.html
|
|
|
|
|
|
|
|
L'autorité de régulation des télécommunications (ART) a publié, début août, les lignes directrices, qu'elle a fixées en concertation avec les opérateurs de téléphonie mobile, concernant la «portabilité» des numéros de leurs abonnés. Il s'agit de permettre à chaque client de changer d'opérateur tout en conservant son numéro d'origine. Un dispositif qu'impose la directive européenne sur le service universel et les droits des utilisateurs au regard des réseaux et services de communication électronique, adoptée le 7 mars 2002. Selon l'ART, la portabilité des numéros devra être opérationnelle à partir du 30 juin 2003. À partir de cette date, tout client souhaitant aller chez la concurrence se verra remettre un «bon de portage» par l'opérateur d'origine, dans un délai de quinze jours après la résiliation de son contrat. Ce dernier devra également, le cas échéant, fournir les modalités déverrouillage du téléphone, pour rendre le combiné accessible à une nouvelle carte SIM. Le client pourra présenter ce bon de portage au nouvel opérateur de son choix. Le coût qu'il devra supporter pour cette manipulation technique n'est cependant pas encore défini très clairement. Car c'est l'opérateur d'origine qui facture les frais de reroutage des appels au nouvel opérateur. Libre à ce dernier de facturer «tout ou partie des coûts de portage, sous réserve que ce tarif ne soit pas dissuasif», se contente d'indiquer l'ART. «La portabilité est un droit», rappelle par ailleurs l'Autorité. L'opérateur d'origine ne peut donc refuser la demande de portage que dans des cas très précis; le principal motif pour un tel refus étant une situation d'impayé. Cependant, en cas de conflit entre un opérateur et son client, la société de téléphonie se doit de «garder la disponibilité du numéro pour une durée maximum de six mois», le temps de résoudre le problème. Si, à l'issue de ce délai, le conflit persiste, «l'opérateur peut librement réutiliser le numéro, dont le client perd définitivement le bénéfice». ART : http://www.art-telecom.com/publications/index-pnm.htm
|
|
^ Haut |
|
|
|
|
|
|
|
Avenir |
|
|
Nanotechnologies et Robotique
|
|
|
|
|
|
|
|
|
La Terre est plus bombée qu'à l'habitude à l'équateur et plus creuse aux pôles en raison d'une modification de son champ gravitationnel, selon des observations réalisées par le satellite franco-américain Topex/Poséidon. Les chercheurs qui opèrent le satellite d'observation de la Terre estiment que la mer pourrait être la source des changements de forces gravitationnelles qui provoquent les renflements plus ou moins importants à l'équateur et aux pôles. Avant 1998, le gonflement à l'équateur était en réduction, une conséquence à long terme de la fonte des glaces depuis la fin de la dernière époque glacière. La rétraction glaciaire permettant une remontée des zones de terre a provoqué une modification du champ gravitationnel, selon les spécialistes. Aux pôles, "la Terre se comportait comme une éponge dans laquelle on enfoncerait un doigt avant de la regarder se regonfler", selon Christopher Cox, chercheur au centre spatial Goddard de la NASA à Greenbelt (Maryland, est). Mais "les observations actuelles du champ gravitationnel montrent que certains phénomènes vont maintenant à l'encontre des effets gravitationnels du rebond post-glaciaire. Là où le rebond réduisait le gonflement à l'équateur, ce phénomène récent provoque un accroissement de ce renflement", a encore expliqué M. Cox. L'hypothèse retenue par les chercheurs pour expliquer le phénomène serait une redistribution des masses au sein des océans, opérées par les courants marins, qui redistribueraient les masses de latitudes élevées vers l'équateur. De telles modifications pourraient être provoquées par le réchauffement du climat mais pourrait également faire partie de périodes normales de variations climatiques. Les changements du champ gravitationnel sont mesurés grâce à un suivi laser des satellites pour observer les petites variations d'orbites de ces satellites et par l'étude des modifications dans la durée du jour ou la rotation de la Terre. AFP : http://fr.news.yahoo.com/020806/202/2pf1k.html
|
|
|
|
|
|
|
|
IBM a annoncé la mise au point un microscope électronique permettant de localiser plus précisément les atomes et donc de fabriquer des semi-conducteurs plus petits et plus rapides. Les scientifiques pourront ainsi observer comment les atomes interagissent et réparer les défauts dans des puces, tels que des atomes manquant ou excédentaires. "Nous ne pouvons pas réparer ce que nous ne pouvons pas voir", a expliqué Philip Batson chargé du projet chez IBM. IBM travaille avec une autre entreprise, Nion, depuis cinq ans sur l'amélioration du microscope électronique, qui utilise des lentilles magnétiques afin de faire converger les électrons en très petits faisceaux afin d'observer les atomes. Depuis 50 ans, les chercheurs n'ont cessé d'améliorer la précision des microscopes électroniques en compensant les effets de flou et les aberrations optiques. IBM et les scientifiques de Nion ont combiné sept nouveaux ensembles d'objectifs magnétiques avec un nouveau traitement informatique pour corriger ces aberrations optiques en temps réel. Après la correction, le microscope, Le nouveau microscope qui ne compte pas moins de 38 lentilles, alors que les microscopes actuels en possèdent quatre ou cinq, peut permettre la visualisation d' un faisceau d'électrons de seulement Il offre en effet une résolution de 0,75 angström, soit 0,075 nanomètre, une taille inférieure au diamètre d'un seul atome d'hydrogène. Il s'agit d'une avancée décisive car la précision actuelle des microscopes électroniques est de 2 angströms, ou 0,2 nanomètre, ce qui ne permet pas de définir l'écartement entre les atomes de silicium - composant central des puces - qui est de 1,3 angström. Jusqu'à présent les fabricants de processeurs ne pouvaient pas déterminer s'il y avait un ou deux atomes dans un espace donné, explique Philip Batson, le chercheur qui a dirigé le projet dans les laboratoires de recherche d'IBM. Or cette imprécision, qui était acceptable lorsque la couche d'isolant faisait 100 atomes de large, est devenue un obstacle réel avec les couches actuelles composées de seulement 20 atomes. Avec ce nouveau microscope, qui s'inscrit dans le prolongement du microscope à effet tunnel et du microscope à force atomique, il est désormais possible d'examiner des structures mesurant moins d'un angström, c'est à dire un dix-milliardième de mètre, une distance inférieure à la largeur d'un seul atome d'hydrogène ! Brève rédigée par @RT Flash IBM : http://www.research.ibm.com/resources/news/20020808_sub-angstrom.shtml Nature : http://www.nature.com/cgi-taf/DynaPage.taf?file=/nature/journal/v418/n6898/abs/n...
|
|
^ Haut |
|
|
|
|
|
|
|
Matière |
|
|
Matière et Energie
|
|
|
|
|
|
|
|
|
L'énergie nucléaire apporte une contribution substantielle à la réduction des émissions de gaz à effet de serre, considérées comme responsables du réchauffement de la planète, et devrait être mieux prise en compte dans les mécanismes prévus par le protocole de Kyoto, selon un rapport de l'Agence pour l'énergie nucléaire (AEN). "Une analyse exhaustive des émissions de gaz à effet de serre de différentes filières de production d'électricité place l'énergie nucléaire parmi celles qui ont la moindre intensité de carbone car elle ne produit pas de fumées", souligne le rapport de cette agence spécialisée de l'OCDE.Si les réacteurs nucléaires étaient remplacés dans les pays de l'OCDE par des centrales thermiques classiques, "les émissions de dioxyde de carbone (CO2, le principal gaz à effet de serre) des centrales seraient aujourd'hui d'environ un tiers supérieures", note l'AEN. "Ceci représente une économie annuelle de 1.200 millions de tonnes de dioxyde de carbone, soit 10 % des émissions totales de CO2 liée à la consommation d'énergie dans la zone OCDE", ajoute le rapport. A l'échelle de la planète, le nucléaire permet de réduire de plus de 8 % les émissions de CO2 du secteur énergétique, le pourcentage atteignant 17 % si l'on prend en compte le seul secteur électrique. Le protocole de Kyoto impose à 39 pays occidentaux et est-européens de réduire en 2008-2012 de 5,2 % en moyenne leurs rejets de gaz à effet de serre par rapport à 1990. Pour faciliter leur tâche, le protocole a prévu des "mécanismes de flexibilité", qui permettent notamment aux pays riches de financer des technologies propres dans les ex-pays communistes ou dans le tiers monde et de recevoir en échange des crédits d'émission. Le protocole de Kyoto "n'interdit pas de bénéficier des avantages de l'énergie nucléaire" pour réduire les gaz à effet de serre, rappelle l'AEN. En revanche, il "contient des dispositions qui aboutissent en fait à exclure l'énergie nucléaire des solutions envisageables pour la mise en oeuvre de deux des trois mécanismes de flexibilité", regrette l'AEN. "Mais c'est surtout sur le long terme que l'énergie nucléaire pourra davantage contribuer à réduire les émissions de gaz à effet de serre, ne serait-ce qu'en raison du temps nécessaire à la construction de centrales nucléaires", conclut l'agence de l'OCDE. AEN : http://www.nea.fr/html/nea/flyerfr.html
|
|
^ Haut |
|
|
|
|
|
|
|
Espace |
|
|
Espace et Cosmologie
|
|
|
|
|
|
|
|
|
|
|
Terre |
|
|
Sciences de la Terre, Environnement et Climat
|
|
|
|
|
|
|
|
|
Le Sommet de Johannesburg, qui s'est ouvert le 26 août, a pour objectif de passer des promesses -qui ont été nombreuses il y a 30 ans mais aussi il y a 10 ans - à l'action. Il existe, selon Kofi Annan, cinq domaines particuliers où des résultats concrets sont aussi essentiels que réalisables. Premièrement, l'eau et l'assainissement. Plus d'un milliard d'êtres humains n'ont pas accès à l'eau potable. Deux fois plus ne disposent pas de systèmes d'assainissement appropriés. Et plus de trois millions meurent chaque année de maladies causées par l'insalubrité de l'eau. Sans des mesures rapides et décisives, d'ici à 2025, les deux tiers de la population mondiale vivront peut-être dans des pays qui auront à faire face à une grave pénurie d'eau. Nous devons élargir l'accès à l'eau et parvenir à une consommation rationnelle, par exemple en encourageant les techniques dites « plus de grains par goutte d'eau » dans l'agriculture qui est le principal consommateur dans ce domaine. Il faut améliorer la gestion des bassins versants, réduire les fuites, notamment dans les grandes villes où elles représentent 40 % ou plus du total de l'approvisionnement en eau, chiffre véritablement ahurissant. Deuxièmement l'énergie. L'énergie est une condition du développement. Et pourtant deux milliards de personnes dans le monde en sont privées et donc condamnées à rester prisonnières de la misère. Nous devons faire en sorte que chacun puisse avoir accès à des sources d'énergie non polluantes et économiques. Nous devons accroître l'utilisation des énergies renouvelables ainsi que les rendements énergétiques. Et nous ne devons pas nous dérober face au problème de la surconsommation - le fait que les habitants des pays développés utilisent beaucoup plus d'énergie par personne que ceux des pays en développement. Les États doivent ratifier le Protocole de Kyoto, qui traite non seulement des changements climatiques mais également d'une multitude de pratiques écologiquement nuisibles. Les États doivent également éliminer les subventions à l'énergie et les incitations fiscales dont les effets pervers perpétuent le statu quo et entravent le développement de solutions nouvelles et prometteuses. Troisièmement, la productivité agricole. Les deux tiers des terres agricoles dans le monde souffriraient des effets de la dégradation des sols. Cette situation entraîne une chute considérable de la productivité agricole, alors que le nombre de bouches à nourrir ne cesse de croître. En Afrique, notamment, des millions de personnes sont menacées de famine. Nous devons augmenter la productivité agricole et enrayer le grignotage des forêts, des prairies et des zones humides par l'homme. La recherche et le développement seront déterminants à cet égard, tout comme l'application de la Convention des Nations Unies sur la lutte contre la désertification. Le quatrième domaine est la biodiversité et la gestion des écosystèmes. La biodiversité diminue très vite - presque 1 000 fois plus vite que si elle ne subissait pas les effets de l'activité humaine. La moitié des forêts équatoriales et des mangroves tropicales ont déjà disparu. Près de 75 % des réserves marines de poissons sont épuisées. Soixante-dix pour cent des récifs coralliens sont menacés. Nous devons inverser cette tendance - préserver autant d'espèces que possible, et mettre un frein à la pêche illégale et non viable ainsi qu'aux pratiques de déboisement - tout en aidant ceux qui dépendent actuellement de telles activités à réaliser la transition vers des modes de subsistance plus viables à terme. Enfin, le domaine de la santé. Les liens entre l'environnement et la santé humaine sont indéniables. Les substances chimiques toxiques et d'autres matières dangereuses sont peut-être indispensables au développement, mais il reste que plus d'un milliard de personnes respirent un air malsain, et trois millions de personnes meurent chaque année à cause de la pollution atmosphérique; deux tiers d'entre elles sont des pauvres, surtout des femmes et des enfants, qui meurent de la pollution à l'intérieur des habitations, causée par la combustion du bois de chauffage et d'excréments animaux. Les maladies tropicales comme le paludisme et la dracunculose sont étroitement liées à l'insalubrité des sources d'eau et à des conditions d'hygiène insuffisantes. Les conventions et les autres mesures prises pour réduire les déchets et prévenir l'utilisation de certains produits et substances chimiques peuvent aider à créer un environnement plus sain. Mais nous devons également mieux comprendre comment et où agir. Pour cela, la recherche et le développement sont particulièrement importants, notamment les études qui doivent être axées, davantage que par le passé, sur les maladies des pauvres. Près de 800 millions de personnes, dans les pays en voie de développement, ne se nourrissent pas suffisamment pour jouir d'une santé satisfaisante. Onze millions d'enfants, dans ces mêmes pays, meurent avant d'avoir atteint l'âge de cinq ans. Environ 70% sont tués par la diarrhée, le paludisme, les infections respiratoires, la rougeole ou la malnutrition. Chaque année, quelque 8,8 millions de personnes sont victimes de tuberculose active, et 1,7 million en meurent, notamment dans les pays pauvres. D'ici 2020, 35 millions de personnes supplémentaires risquent de succomber à la tuberculose si rien n'est fait pour renforcer la prévention. Le paludisme tue un million de personnes par an, essentiellement des enfants africains. Selon des estimations de l'Organisation mondiale de la santé (OMS), le PIB africain serait plus élevé de 100 milliards de dollars, chaque année, si le paludisme avait été combattu de manière adéquate depuis trente ans. Entre cinq et six millions de personnes meurent enfin chaque année en raison de maladies véhiculées par l'eau ou de la pollution atmosphérique. Pourtant, en dépit des immenses problèmes liés à la pauvreté, à la santé et à la dégradation de l'environnement, l'espérance de vie s'est globalement améliorée pour les six milliards d'habitants de la planète, pour atteindre les 66,4 ans en 1995-2000 contre seulement 59,9 ans au début des années 1970. Sur le même laps de temps, la part de la population mondiale touchée par la malnutrition est passée de 40% à 20% et le taux de mortalité des enfants de moins de cinq ans a fortement diminué, passant de 96 pour mille à 56 pour mille. Depuis 1990, 800 millions de personnes ont un meilleur accès à l'eau. Alors que vient de s'ouvrir le sommet de la terre à Johannesburg voici un aperçu des principaux problèmes auxquels est confrontée la planète : -* Croissance démographique La Terre compte 6,1 milliards d'habitants et la population mondiale devrait atteindre 9,3 milliards en 2050. Les 49 pays les moins avancés vont voir leur population tripler, passant sur la même période de 668 millions d'habitants à 1,86 milliard. La population ne commencera sans doute à décliner que dans la seconde moitié du siècle, sous l'effet de la baisse des taux de natalité. -* Pauvreté et inégalités Quelque 2,8 milliards de personnes vivent avec moins de 2 dollars par jour. 800 millions, dont plus de 150 millions d'enfants, sont sous-alimentées. 80% de la richesse mondiale est détenue par 15% des habitants des pays les plus riches. -* Surexploitation des ressources Chaque année, l'utilisation des ressources naturelles dépasse de 20% la capacité de la planète à les régénérer, selon le Fonds mondial pour la nature (WWF). En 2050, la population mondiale consommera entre 180 et 220% du potentiel biologique du globe, estime le WWF. -* Changements climatiques La combustion de pétrole, de gaz et de charbon provoque l'émission de dioxyde de carbone (CO2) et d'autres gaz à effet de serre qui piègent une partie du rayonnement de chaleur émis par la Terre et contribuent au réchauffement climatique. La teneur en CO2 dans l'atmosphère est passée de 280 parties par millions (ppm) à 360 ppm en l'espace de 150 ans, alors qu'elle était restée inférieure à 300 ppm pendant au moins 500.000 ans. Les experts tablent sur une concentration de 500 à 1.000 ppm pour 2100, ce qui se traduira par une hausse de température moyenne comprise, selon les scénarios, entre 1,5 et 5,8 degrés. -* Trou dans la couche d'ozone La couche d'ozone qui entoure la Terre et la protège des émissions de rayons ultraviolets émis par le Soleil a diminué sous l'effet des chlorofluorocarbones (CFC) utilisés dans certains produits. Le "trou" a atteint une superficie record de 30 millions de kilomètres carrés au-dessus de l'Antarctique en octobre 2001. Grâce au protocole de Montréal de 1987 et à la baisse de production des CFC qui a suivi, la couche d'ozone se reconstitue et retrouvera son niveau d'avant les années 80 d'ici 2050. -* Espèces menacées 11.046 espèces animales sont menacées de disparition dans les décennies à venir, principalement à cause de la disparition de leur habitat naturel, représentant 24% des espèces de mammifères, 12% de toutes les espèces d'oiseaux, 25% des espèces de reptiles, un cinquième des amphibiens, 30% des espèces de poissons. -* Disparition des forêts Les forêts couvrent 30% des terres émergées. Leur surface s'est réduite de 2,4% depuis 1990, sous la pression de l'industrie du bois, de l'activité minière et de l'extension des villes, selon l'Organisation des Nations Unies pour l'alimentation et l'agriculture (FAO). 40% de ce qui reste des forêts anciennes aura disparu d'ici 10 à 20 ans, selon les écologistes. -* Accès à l'eau Environ 1,1 milliard de personnes n'ont pas accès à l'eau potable et 2,4 milliards ne disposent pas d'installations sanitaires décentes. La baisse du niveau des nappes phréatiques est devenue un sérieux problème dans certaines régions d'Inde, de Chine, d'Asie occidentale, du Proche-Orient, de l'ex-URSS et de l'Ouest américain. La moitié des fleuves et rivières du monde sont à des niveaux bas ou pollués. -* Erosion des sols La croissance de la population entraîne une énorme pression sur l'agriculture, et donc une demande croissante de terres agricoles. Une superficie équivalente à celle des Etats-Unis et du Mexique réunis est considérée comme dégradée, en raison principalement de la surexploitation agricole et de la salinisation des sols due à une irrigation mal maîtrisée. -* Epuisement des stocks de poissons Près d'un tiers des stocks de poissons sont à un niveau très bas ou surexploités. Certaines espèces, comme la morue de la mer du Nord, ont pratiquement disparu de certaines régions sur le plan commercial. Les subventions à la pêche, estimées à quelque 20 milliards de dollars par an, en sont la cause principale. Sommet de Johannesburg : http://www.un.org/french/events/wssd/index.html
|
|
|
|
|
|
|
|
Une étude publiée le 8 août dans la revue Nature confirme que les traînées de condensation (ou "cotra" pour "condensation trails aloft") des avions de ligne influent sur la température au sol des zones survolées. Une équipe menée par David Travis, de l'Université de Whitewater (Wisconsin) a profité de la suspension des vols pendant trois jours après les attentats-suicides du 11 septembre pour mesurer l'impact de l'absence de traînées, impact qui avait jusqu'alors été supposé sans être mis en évidence. Les chercheurs ont comparé les données fournies par 4.000 stations météo du territoire avec celles recueillies pour des intervalles de temps équivalents entre les années 1977 et 2000. Ils ont observé que l'amplitude de température au sol diminue de 1°C lorsque des avions circulent. Les traînées de vapeur d'eau lâchées par les aéronefs agissent comme des nuages élevés, de type cirrus. Elles reflètent une partie des rayons du soleil en journée, et au contraire agissent comme des isolateurs la nuit, en renvoyant au sol un peu de la chaleur emmagasinée. Au final, la différence entre la température la plus élevée le jour et la plus basse la nuit est de 1°C supérieure lorsqu'il n'y a pas d'avions. Sur la seule période des 11, 12 et 13 septembre 2001, la différence d'amplitude a même atteint 1,8°C. Selon Andrew Carleton, spécialiste de l'atmosphère à l'Université de Pennsylvanie cité par Nature, l'impact des traînées de condensation est évidemment négligeable à l'échelle du globe, "mais localement, elles agissent comme des gaz à effet de serre". Pour son homologue Patrick Minnis, du centre de recherches de la NASA à Hampton (Virginie), il s'agit d'une découverte importante, "surtout si l'on considère que le trafic aérien devrait croître de 5 % par an". Nature : http://www.nature.com/nsu/020805/020805-7.html
|
|
^ Haut |
|
|
|
|
|
|
|
Vivant |
|
|
Santé, Médecine et Sciences du Vivant
|
|
|
|
|
|
|
|
|
Un traitement antibiotique contre les infections à microsporidies, des parasites qui provoquent des infections intestinales et biliaires notamment chez les malades du SIDA, a été découvert par une équipe de médecins et chercheurs français, ont annoncé l'Assistance publique/Hôpitaux de Paris. "Pour la première fois, une équipe de médecins et chercheurs français dirigée par le professeur Jean-Michel Molina du service des maladies infectieuses et tropicales, et le professeur Francis Derouin du Laboratoire de parasitologie de l'hôpital Saint-Louis de l'AP-HP, vient de démontrer l'efficacité d'un nouvel antibiotique, la fumagilline, dans le traitement de ces infections parasitaires", précise l'AP-HP dans un communiqué. L'étude ayant permis de découvrir l'activité de ce médicament, dont les résultats ont été publiés fin juin dans le "New England Journal of Medecine, a été réalisée dans plusieurs hôpitaux français avec le soutien de l'Agence nationale de recherches sur le SIDA (ANRS), souligné le communiqué de l'AP-HP. "Un brevet d'invention a été déposé par AP-HP et Sanofi-Synthélabo qui a fourni le produit pour l'essai". Les microsporidies sont "des parasites qui infectent l'intestin et les voies biliaires des patients dont les défenses immunitaires sont déficientes", précise l'AH-HP. Elles forment un ensemble de 1.200 espèces parasitant tous les groupes animaux et notamment l'Homme. "Elles se rencontrent essentiellement chez les patients atteints du SIDA où elles présentent une des principales causes de diarrhées et chez les patients ayant subi une greffe d'organes ou de moëlle". Ces parasites provoquent "une malabsorption des aliments et une diarrhée chronique responsable d'amaigrissement et de fatigue". Opportunistes du Sida, les microsporidies se retrouvent aussi de plus en plus fréquemment chez des immunocompétents -personnes ayant un système immunitaire capable de lutter contre une agression microbienne. AP : http://fr.news.yahoo.com/020726/5/2ovjl.html
|
|
|
|
|
|
|
|
Des cellules souches provenant de la moelle osseuse seraient capables de traiter des maladies des yeux comme l'atteinte de la rétine des diabétiques ou des détériorations de la vision liées à l'âge, selon une étude américaine sur des souris publiée dans le numéro de septembre de la revue "Nature Medicine" du groupe Nature. A l'origine de cet espoir, une lignée particulière de cellules dites EPC (pour endothelial precursor cells), capables de former des vaisseaux sanguins et issues de la moelle osseuse, notre usine à fabriquer les cellules du sang (globules rouges, blancs...). Martin Friedlander et ses collègues (département de biologie cellulaire, Scripps Research Institute, La Jolla, Californie) ont découvert que les cellules EPC issues de cette lignée, injectées dans l'oeil de souris, allaient se fixer sur des cellules de la rétine, les astrocytes. Une fois qu'elles avaient ciblée ces cellules de la rétine, les EPC se mêlent aux structures des vaisseaux sanguins existant et se révèlent capables de réduire la détérioration vasculaire en formant de nouveaux vaisseaux sanguins. De plus, ajoutent les chercheurs, si les cellules EPC sont génétiquement modifiées avant d'être injectées dans l'oeil de la souris, elles peuvent aussi stopper la prolifération indésirable de vaisseaux sanguins. Selon les chercheurs, si cette technique marche aussi bien chez les humains qu'elle le fait chez la souris, alors ces cellules souches seraient susceptibles de traiter la rétinopathie diabétique, une atteinte de la rétine fréquente au cours du diabète. Les résultats, mis en ligne lundi sur le site de la revue américaine, suggèrent que les cellules EPC génétiquement modifiées pourrait être utilisées pour délivrer directement dans l'oeil, "au niveau local, des substances pharmacologiques", et représenter ainsi un nouveau mode d'administration des médicaments, ajoutent les chercheurs. Le diabète, toutes formes confondues, touche plus de 150 millions de personnes dans le monde. L'obésité, qui tue quelque 300.000 Américains par an, prédispose à la forme la plus courante de diabète dite de type 2. Le diabète entraîne une dégénérescence des petits vaisseaux qui irriguent la rétine. La rétinopathie diabétique est la première cause de cécité parmi les Américains actifs. Pratiquement toutes les personnes qui ont un diabète depuis plus de 30 ans auront une altération de la vision. Une autre maladie, liée à l'âge, la dégénérescence maculaire est une cause courante de perte de la vision parmi les plus de 60 ans. La macula est la partie centrale de la rétine. Nature : http://www.nature.com/nsu/020722/020722-13.html
|
|
|
|
|
|
|
|
Une équipe de chercheurs suédois a découvert que la bactérie responsable des gastrites et autresulcères à l'estomac attaque la paroi stomacale en s'accrochant aux cellules censées aider le système immunitaire du corps humain. Grâce aux résultats de cette recherche, publiée vendredi dans le magazine "Science", il semble désormais possible d'envisager la fabrication d'un vaccin. Ce dernier sera d'autant plus attendu qu'on estime que la moitié de la population mondiale environ est infectée par l'Helicobacter pylori, une bactérie tenace à l'origine de gastrites, d'ulcères à l'estomac et associée au cancer de l'estomac. Or cette nouvelle recherche démontre que l'H. pylori a développé une manière unique d'adhérer à la paroi stomacale, grâce à deux adhésines protéiques. Lorsque la surface de l'estomac s'infecte et s'enflamme, apparaît une sorte de molécule appelée sLex qui sert normalement de signal pour activer les défenses immunitaires. "Elle a pour objectif est de signaler (...) qu'une partie du corps a besoin d'aide et que ce serait une bonne idée d'envoyer plus de lymphocytes en renfort", explique Thomas Boren, directeur de l'équipe de recherche de l'université d'Umea. Malheureusement, ajoute-t-il, "la bactérie H. pylori s'adapte particulièrement bien, développant au contraire des outils" permettant "une meilleure adhésion aux cellules de l'estomac", ce qui provoque une inflammation encore plus importante et un ulcère. Mais ces protéines spéciales, les adhésines protéiques BabA et SabA, sont uniquement fabriquées par l'H. pylori et seraient donc également susceptibles de se retourner contre la bactérie et provoquer sa destruction. Pour Thomas Boren, cette caractéristique unique les transforme en "premier candidats pour un vaccin, qui serait spécifique à l'Helicobacter et qui n'affecterait pas d'autre bactéries", un élément essentiel, sachant que le système gastrointestinal contient de nombreuses bactéries utiles au corps humain. Cette recherche peut également expliquer pourquoi l'infection au H. pylori se présente sous forme d'inflammation chronique, plus ou moins brutale. L'adhésine protéique permet à la bactérie de s'approcher de la paroi stomacale, provoquant une inflamation. Mais à l'arrivée des lymphocytes, la bactérie se détache légèrement: elle évite alors l'attaque immunitaire, tout en laissant l'inflammation se calmer, avant de se rapprocher à nouveau de la paroi et de provoquer une nouvelle crise. Selon Douglas Berg de la Faculté de médecine de Saint-Louis et co-auteur de la recherche, ces découvertes améliorent la connaissance des réponses du corps humain face à l'infection et la manière dont la bactérie s'y adapte. "Nous espérons également que la compréhension du fonctionnement des adhésines permettra la création d'un vaccin contre les infections au H. pylori, ainsi que la fabrication de nouveaux médicaments pour traiter ou réduire leur activité", a-t-il déclaré. Aujourd'hui, ces infections sont en général traitées par des antibiotiques, mais si ces traitements se développent, la bactérie risque de devenir plus résistante, s'inquiète Thomas Boren. Selon le chercheur, le but est de développer une forme des deux adhésines protéiques qui provoquera une réponse du système immunitaire, en préparant le corps à les reconnaître et à les utiliser pour cibler la bactérie H. Pylori. Des expérimentations avec des souris sont en cours, a-t-il précisé. "Fabriquer un vaccin contre l'Helicobacter et l'ulcère de l'estomac constitue une tâche difficile", a-t-il ajouté, avant de préciser que même si tout fonctionne bien, six à huit années pourraient s'écouler avant qu'un vaccin ne soit mis à disposition du public. AP : http://fr.news.yahoo.com/020725/5/2oty7.html Science : http://www.sciencemag.org/cgi/content/abstract/297/5581/573
|
|
|
|
|
|
|
|
L'injection, dans les jambes de patients atteints d'artérite, de certaines cellules prélevées dans leur moelle épinière, serait efficace pour régénérer les systèmes circulatoires endommagés et soulager la douleur, selon une recherche japonaise publiée dans la dernière livraison de la revue britannique The Lancet. L'ischémie (insuffisance de la circulation du sang) dans les membres inférieurs est due à un rétrécissement des artères. Non soignée, elle peut entraîner des gangrènes et nécessiter l'amputation et même entraîner la mort.Eriko Tateishi-Yuyama, spécialiste des maladies cardio-vasculaires à l'Université Médicale du Kansai à Osaka a fait l'expérience, sur 45 patients, d'injecter des cellules souches extraites de leur moelle épinière dans l'une de leurs jambes. Quatre semaines plus tard, la majorité des patients condamnés à court terme ont vu leurs lésions cicatrisées. 37 ont vu leurs douleurs s'amenuiser ou dans certains cas disparaître, 15 sur les 20 qui devaient subir une amputation d'orteil ont pu l'éviter, et les ulcères à la jambe se sont améliorés pour 6 patients sur 10. Les bénéfices de l'experience étaient toujours manifestes 6 mois plus tard, précisent les chercheurs. "L'implantation de cellules mono-nucléaires pourrait se révéler une stratégie sûre et efficace pour parvenir à une angiogenèse thérapeutique" (croissance de nouveaux vaisseaux sanguins), affirment les chercheurs cités dans The Lancet. Pour le Professeur Flessinger, "ce nouveau traitement pourrait, à court terme, aider les malades qui ont perdu une grande partie de leur arbre artériel, ce qui constitue une avancée thérapeutique considérable." Lancet : http://www.thelancet.com/journal/vol360/iss9331/abs/llan.360.9331.original_resea...
|
|
|
|
|
|
|
|
La conférence O'Reilly sur le logiciel libre, qui a eu lieu a San Diego aux Etats-Unis, a vu naître une idée étonnante. Deux scientifiques, Ewan Birney et Jim Kent, sont intervenus pour proposer l'extension des principes du logiciel libre: le séquencage du génome humain, selon eux, devrait tout autant que la conception informatique, être traité librement. Les développeurs se sont donnés rendez-vous a San Diego pour discuter de l'intérêt et de l'objectif du logiciel libre. Le principe d'ouverture du code permet la modification en vue de l'amélioration de ce code. Plus il y a de monde qui cherche, plus on a de chances de trouver. C'est ce que pensent Ewan Birney, chef d'équipe dans l'annotation génomique a l'Institut Europeen de Bioinformatique, et Jim Kent, chercheur a l'Universite de Californie. Pour eux, la science n'est pas concevable sans ouverture. Ils disposent de 3 Gigaoctets d'information concernant le génome humain, ce qui représente 99% du génome humain complet. Selon Ewan Birney, "tout ce que nous savons sur l'homme est forcement encodé dans ces 3 GB". Dans le cadre de la recherche scientifique, la source (apparentée ici au code logiciel) ne peut être cachée. Jim Kent ajoute que "les scientifiques travaillent dans un système ou la relecture d'une découverte par un pair est indispensable si l'on cherche a l'authentifier". Comment faire autrement que dévoiler la source, dans de telles circonstances ? Les deux scientifiques ont reçu des soutiens de la part de nombreux developpeurs. Et a l'inverse, ces derniers pensent que l'informatique doit pouvoir s'inspirer de certaines méthodes scientifiques. Les standards utilisés pour tester les expériences scientifiques devraient être appliqués aux tests logiciels. Avoir accès au code d'un logiciel doit permettre sa dissection, et donc l'éviction des bogues. Selon eux, toujours, les éditeurs contrôlant la propriété intellectuelle de leur code logiciel multiplient les risques de mettre sur le marché des logiciels bogues. Un bémol s'est cependant fait entendre. Il existe une différence fondamentale entre le génome humain et un logiciel, selon Alex Lewin, développer logiciel libre : "le génome préexiste, alors que le logiciel est une invention humaine". Alex Lewin a néanmoins convenu que le TCP/IP et le génome avaient un point commun : Ils sont essentiels, l'un pour la communication sur Internet, l'autre pour la vie. "Les deux doivent être ouverts", a-t-il ajouté. JDNet : http://solutions.journaldunet.com/
|
|
^ Haut |
|
|
|
|
|
|
|
Recherche |
|
|
Recherche & Innovation, Technologies, Transports
|
|
|
|
|
|
|
|
|
Les " merveilleux fous volants " ont une nouvelle machine ou plutôt un ancien projet remis au goût du jour, risquant de révolutionner dans un avenir proche, le transport aérien lourd. Un programme gigantesque de " sherpa de l'air " pouvant transporter des charges de plus de deux cents tonnes, voire à plus long terme, de mille tonnes, à l'autre bout de la planète, pour un coût moindre que l'avion et bien plus rapidement que par les voies navigables. Le dirigeable, " futur déménageur du ciel industriel ", a souffert durant des décennies des images prises en direct, lors de la catastrophe du géant transatlantique "Hindenburg", ayant explosé à Lakehurst (Etats-Unis). Le drame, survenu à l'atterrissage près de New York, le 6 mai 1937, avait coûté la vie à trente-sept personnes et sonné le glas du Zeppelin et de ce mode de transport. On ne voyait donc plus ces longs cigares silencieux évoluant au travers des nuages. Cette mise à l'écart avait été à ce point radicale, qu'en France, le dernier permis de pilote de dirigeable a été supprimé en 1954. Actuellement les quelques dirigeables en service sont utilisés à des fins publicitaires ou touristiques. Au dernier salon aéronautique du Bourget, les " poissons d'argent ", gros " boudins " volants, ont marqué le terrain. Les " plus léger que l'air " gonflés à l'hélium ininflammable, pour éviter de nouvelles explosions, dotés de moteur, ont refait surface. Ainsi Zeppelin, la société pionnière allemande, a présenté son LZ N07, long de 70 m, d'un poids de 7 tonnes pour un tour de taille de 15 mètres. L'engin est capable de transporter une douzaine de personnes à 125 km/h sur une distance de 900 km. Depuis l'obtention du certificat de navigabilité, délivré par les autorités aéronautiques allemandes en avril 1997, pour le Zeppelin NT, d'une longueur de 75 m pour 14 m de haut, la firme a vendu 2 000 billets de plus de 300 euros pour effectuer une croisière à 130 km/h au dessus du lac de Constance. Mais l'avenir du futur gros dirigeable c'est le transport industriel. " La demande de transport de charges lourdes et volumineuses augmente plus vite que l'ensemble du trafic. Les infrastructures classiques ne peuvent plus suivre. Logiquement plusieurs secteurs d'activités commencent à s'intéresser très sérieusement au dirigeable ", explique ainsi Michel Chouzenoux, chercheur au sein de l'association Urba 2000. En pratique, il s'agirait d'acheminer des travées de pont, des étages complets de bâtiments, des éléments de centrales électriques, des portes de barrage, d'écluse, des réservoirs de stockage, voire même des éléments de la fusée Ariane ou pourquoi pas des ensembles du super gros porteur Airbus A 380 entre Bordeaux et Toulouse. Les engins volant offrent en effet la possibilité de se jouer des pièges du terrain et de supprimer le passage sur des ponts ne supportant pas de telles charges. L'armée est en outre très intéressée par ce mode de transport pouvant emporter 200 tonnes sur 6 000 km à 80 km/h en une seule rotation. Le futur Airbus militaire A 400M - qui ne sera pas opérationnel avant 2008 - aura une capacité maximale de 32 tonnes de fret qu'il pourra acheminer à 4 000 km. Progrés : http://www.leprogres.fr/infodujour/france_Monde/index.html
|
|
|
|
|
|
|
|
VOTRE INSCRIPTION |
|
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
|
|
|
|
|
|