|
|
Edito
Eradiquer la pauvreté, il en va de la Paix sur notre Terre
Dans son dernier rapport, particulièrement passionnant, ( http://www.developmentgoals.org/goals-poverty.html ) la Banque mondiale (BM) appelle "à une action urgente à l'échelon mondial pour aider un nombre plus important de pays à atteindre les objectifs fixés pour le développement international". "Nous ne nous demandons pas ici ce qu'il va arriver à l'économie américaine demain. Nous parlons de la pauvreté dans le monde", a souligné dimanche Nicholas Stern, l'économiste de la BM. Le nombre de personnes vivant dans le Monde avec moins d'un dollar (1,10 euro) par jour est tombé de 452 millions à 65 millions entre 1990 et 1998 en Asie de l'Est et dans la région Pacifique, cette région comprenant la Chine. En revanche, il a grimpé pendant cette même période de 242 millions à 302 millions en Afrique sub-saharienne. Dans l'ensemble du monde, le nombre de personnes vivant sous ce seuil d'extrême pauvreté a diminué de 8 % en pourcentage et de 100 millions de personnes en valeur absolue, passant de 1,276 milliard à 1,175 milliard pendant les années 90, sur une population mondiale totale à la fin du 20ème siècle de 6 milliards d'habitants, indique la Banque Mondiale. Mais ce progrès est dû essentiellement à une amélioration en Extrême-Orient qui peut être imputée, principalement, à la croissance économique en Chine. "Si quelques pays en développement, surtout en Asie de l'Est, peuvent atteindre les objectifs de développement, d'autres, essentiellement en Afrique, n'y parviendront pas sans une coopération internationale", affirme le rapport. Dans ses prévisions pour les 15 années à venir, la Banque présente deux scénarios. L'un table sur une croissance moyenne annuelle du PIB par tête de 2,3 % dans les pays en développement et l'autre de 3,7 %. Le nombre de personnes vivant avec moins d'un dollar par jour devrait baisser en 2015 à 1,011 milliard dans le premier cas et à 777 millions dans le second. Pour l'Afrique, avec le premier scénario, 426 millions de personnes seront sous le seuil de l'extrême pauvreté et avec le second 297 millions. Les objectifs de développement fixés par les Nations Unies et approuvés en septembre dernier par les chefs d'Etat de 149 pays, sont, pour la période 1990-2015, de réduire de moitié le nombre de personnes vivant en situation d'extrême pauvreté, de scolariser tous les enfants en école primaire, de réduire les taux de mortalité infantile des 2/3 et de réduire les taux de mortalité des mères à l'accouchement des 3/4. La Banque Mondiale rappelle que 10 millions d'enfants de moins de 5 ans sont morts de maladies en 1999 et que plus de 113 millions ne vont pas à l'école. Près d'un demi-million de femmes meurent pendant leur grossesse et l'accouchement. L'épidémie de Sida n'améliore pas les perspectives de l'Afrique où se trouvent actuellement 70 % de l'ensemble des personnes infectées par ce virus dans le monde. Dans le cadre de l'initiative pour l'allégement de la dette des pays pauvres très endettés, la Banque mondiale et le FMI se sont engagés à aider 22 pays parmi les plus pauvres à réduire de 34 milliards de dollars le service de leur dette et cet allégement pourrait atteindre 53 milliards de dollars avec les effacements de dettes bilatérales consentis par des gouvernements. Les deux institutions souhaitent étendre cette initiative à 11 autres pays "en conflit" exclus du programme d'allégement de dette. Les conflits "restent un obstacle majeur à l'amélioration de la vie de millions de personnes, en particulier en Afrique", a noté le CFMI. Le FMI et la Banque mondiale soulignent que la dette ne sera supportable que si l'on s'attaque aux racines de la pauvreté, notamment aux problèmes d'éducation et de santé. James Wolfensohn, président de la Banque mondiale, a déclaré que son institution était prête à s'impliquer et à administrer un nouveau fonds proposé par l'Italie pour améliorer la santé dans les pays les moins développés. Ce fonds devrait disposer d'au moins un milliard de dollars, avec des contributions émanant de sources diverses. Il s'efforcera en particulier de combattre la tuberculose et le paludisme, maladie dont Brown a souligné qu'elles causent chaque année quatre millions de morts évitables. Un peu plus tôt, la Banque mondiale avait reconnu que, à moins de mesures d'urgence, de nombreux pays en développement, en particulier en Afrique, ne parviendraient pas à atteindre leur objectif de réduire la pauvreté de moitié d'ici 2015. En effet, la situation ne s'est guère améliorée en Afrique sub-saharienne, notamment en ce qui concerne la scolarisation et la mortalité maternelle et infantile. La région compte aussi 70 % de l'ensemble des personnes infectées par le virus du sida de par le monde. Les comités du FMI et de la Banque mondiale ont affirmé que le développement du commerce et l'ouverture des marchés aux pays les moins développés seraient aussi des facteurs importants de réduction de la pauvreté et d'amélioration de la santé. Les pays en voie de développement pourraient disposer de 200 milliards de dollars de plus chaque année pour combattre la pauvreté si les pays riches accroissaient leur aide et abaissaient les barrières commerciales, a affirmé l'économiste en chef de la Banque mondiale. Nicholas Stern a prévenu les nations industrialisées qu'elles devraient s'améliorer nettement dans ces deux domaines si elles voulaient parvenir d'ici 2015 à réduire de moitié le nombre de personnes vivant dans une extrême pauvreté. La Banque Mondiale invite donc les pays développés à augmenter leur aide au développement. Pour l'instant, seuls la Norvège, le Danemark, les Pays Bas et la Suède répondent à l'objectif d'y consacrer au moins 0,7 % de leur PIB. La moyenne est de 0,24 % et les Etats-Unis n'y accordent que 0,1 %, indique la BM. Un autre obstacle au développement est constitué par les barrières commerciales et les subventions accordées par les pays industrialisés à leurs produits, leur permettant ainsi d'être plus concurrentiels face à ceux des pays en développement. Si les pays riches faisaient passer le montant de l'aide étrangère de 0,25 % de leur PIB à 0,70 %, 100 milliards de dollars supplémentaires seraient disponibles annuellement pour les pays en voie de développement. Nicholas Stern a expliqué que si les nations industrialisées réduisaient les barrières commerciales imposées aux produits issus des PVD, les pays pauvres pourraient également gagner 100 milliards de dollars par an pour enrichir leur économie et développer leurs services sociaux fondamentaux. L'économiste en chef de la Banque mondiale s'interroge également sur les subventions versées par les pays industrialisés à leurs agriculteurs pour maintenir les prix à un niveau élevé et fermer la porte aux produits agricoles des PVD. "Les subventions agricoles dans les pays en développement représentent 300 milliards de dollars par an, soit environ le même montant que le PNB de l'ensemble de l'Afrique. Les diminuer serait bien non seulement pour les économies des pays développés mais aussi pour les pays en développement", a affirmé Nicholas Stern, qui s'est exprimé en faveur du lancement d'un nouveau cycle de négociations multilatérales dans le cadre de l'Organisation mondiale du Commerce (OMC). On mesure mieux les immenses défis politiques et économiques qui nous attendent quand on sait que la population mondiale est passée en 50 ans de 2.5 milliards à 6.1 milliards d'êtres humains. Même si la croissance démographique mondiale diminue plus vite que prévue, la population mondiale va continuer à croître de 1.1 % par an au cours de la prochaine décennie, soit une augmentation de 70 millions de personnes chaque année ! Le Produit Mondial Brut est estimé à environ 36000 milliards de dollars pour 2001. Il a été multiplié par 4, à valeur constante, depuis 1960. Si ce PMB était équitablement réparti entre tous les hommes, chaque terrien disposerait d'un revenu annuel de 6000 dollars (6600 euros) alors que dans la réalité un habitant de la planète sur 5 vit encore avec moins d'un dollar par jour, c'est-à-dire moins de 400 dollars par an. Cet écart entre pays riches et pauvres se retrouve également, et de manière tout à fait concrète, dans la répartition des biens matériels et de l'éducation au niveau mondial. Dans le domaine agricole, les pays de l'OCDE possèdent 927 tracteurs pour 1000 agriculteurs alors que ce ratio est de 5 pour 1000 dans le Tiers Monde. Dans le domaine de l'énergie, les pays riches, avec seulement 15 % de la population mondiale, consomment plus de la moitié de l'énergie mondiale, c'est-à-dire 10 fois plus par habitant que dans les pays pauvres. Dans le secteur des transports, les disparités sont tout aussi grandes puisqu'on compte en moyenne 580 véhicules pour 1000 habitants dans les pays riches, contre 10 véhicules pour 1000 habitants dans les pays pauvres. Sur le plan des technologies de l'information, les 400 millions de terriens connectés au Net se répartissent très inégalement puisqu'en moyenne on compte 40 fois plus d'ordinateurs personnels par habitant dans les pays riches qu'en Afrique subsaharienne. Mais il faut cependant souligner une évolution récente très encourageante : en 1995, seulement 5 pays d'Afrique subsaharienne étaient connectés au Web alors qu'en 2001 tous les pays de cette région sont branchés sur le Net. En outre, la croissance du taux de connexion au Net dans cette région est presque deux fois supérieure à la croissance mondiale moyenne. Autre signe positif, le recul général de l'illetrisme qui est passé de 30 à 24 % au niveau mondial entre 1990 et 1999. L'éradication définitive de la pauvreté et de l'ignorance sur notre planète n'est pas seulement un impératif moral, c'est aussi une nécessité économique, sociale et politique absolue et le seul moyen de construire un monde stable qui ne soit pas déchiré par des conflits inter et intra-étatiques de plus en plus dangereux et meurtriers. Si nos pays nantis, notamment en Europe, ne savent pas s'unir pour voir plus loin que leurs égoïsmes et leurs intérêts particuliers, nous devrons en subir les conséquences et elles seront dévastatrices car la misère et le désespoir attiseront une spirale infernale de haine et de violence. Pour éviter cette perspective désastreuse mais nullement improbable, nous devons, avec courage et imagination, repenser les finalités de notre économie et réinventer la fonction politique pour intégrer cette double dimension -planétaire et immatérielle- dans nos choix et nos projets de société. René TRÉGOUËT Sénateur du Rhône
|
|
|
|
|
|
|
|
TIC |
|
|
Information et Communication
|
|
|
|
|
|
|
|
|
L'opérateur paneuropéen Broadnet démarre ses tests de boucle locale radio sur Paris avec pour objectif de proposer des offres commerciales dès le 1er juin. Il suit l'exemple d'autres opérateurs qui ouvrent progressivement leur réseau aux entreprises. La boucle locale radio (BLR) permet, en plaçant une simple antenne parabolique sur le toit d'un bâtiment, de transmettre par voie hertzienne de la voix et des données à haut débit pour l'accès internet et la téléphonie. Elle constitue une alternative technologique au monopole de France Télécom sur la portion locale du réseau téléphonique, théoriquement ouvert à la concurrence depuis le 1er janvier 2001. Bien que prévue à terme pour le grand public, l'offre actuelle s'adresse avant tout aux entreprises et institutionnels. Le nouveau venu Broadnet ne déroge pas à la règle et propose aux professionnels un accès internet à haut débit (de 128 kbps à 8 Mbits/s) ainsi que des services supplémentaires : enregistrement du nom de domaine, distribution de news, services de statistiques, d'assistance et de pare-feu (firewall). Cette filiale de Comcast Corporation, 3e câblo-opérateur américain, est détenue à hauteur de 10 % du capital par l'assureur AXA. Elle dispose de licences pour 15 régions françaises. Après l'ouverture de ses offres à Paris en juin, la couverture devrait progressivement s'étendre à tout l'Hexagone en 2002. La BLR a déjà fait son chemin en France depuis le début de l'année. Belgacom France, filiale française de l'opérateur historique belge Belgacom SA, a ouvert ses offres commerciales dès le 15 janvier 2001 à Roubaix. Il couvre désormais 11 villes dans 7 des 9 régions pour lesquelles il détient une licence. Il inaugurera ses accès à Rouen le week-end prochain et compte aujourd'hui une centaine de clients. Toujours en ce qui concerne les licences régionales, l'opérateur français Altitude Telecom a ouvert son réseau BLR en Normandie en mars 2001. Il couvre aujourd'hui les principales villes de cette région avec une trentaine de clients. Quant à Landtel France, filiale de la holding hollandaise Landtel NV, elle dispose de 7 licences régionales et ouvrira son réseau en juin prochain. Les deux détenteurs d'une licence nationale arrivent timidement sur le marché. Ainsi, FirstMark Communication France, détenu par l'opérateur européen FirstMark mais également par une multitude d'actionnaires (Suez Lyonnaise des Eaux, le Groupe de Bernard Arnault, BNP Paribas, etc.), a ouvert son réseau à Nantes le 25 janvier 2001 et à Lyon le 29 mars 2001. ZDnet : http://fr.news.yahoo.com/010426/7/17yr2.html
|
|
|
|
|
|
|
|
Après un début difficile et un retard sur les prévisions, la boucle locale radio, solution alternative d'accès à Internet à haut débit, semble enfin trouver sa voie en France. Derrière Broadnet, Belgacom et FirstMark, c'est au tour de BLR Services, filiale du groupe LDCOM de lancer ses services à Lyon. Dans ce cadre, l'opérateur a choisi la solution radio point-à-multipoint de Lucent Technologies. Le montant du contrat n'a pas été communiqué. Cible principale : les résidentiels, ainsi que les petites et moyennes entreprises, pour des services de liaisons louées, de téléphonie sur IP, de réseaux privés virtuels et d'accès Internet à haut débit. Les solutions Lucent -Wave Access et OnDemand- opèrent à 3,5 GHz et à 26 GHz. "La solution proposée par Lucent nous permet de déployer notre réseau dans les délais très brefs et d'apporter des services de bout en bout à nos clients, à des coûts compétitifs" précise M. Gastaldo, Président de BLR Services. Le réseau déployé par BLR Services dans l'agglomération lyonnaise permet de couvrir 50% des PME et des résidentiels et représente un investissement de 40 MF à juin 2001 (stations de base, équipements clients, Centre d'Opération de Réseau situé à Vénissieux, etc). La société vient de connecter les premiers clients pilotes, notamment Tele et Infonet qui bénéficient des services à des débits allant de 512 kb/s à 2 Mb/s. Les tarifs proposés, selon les volumes et la durée, sont inférieurs de 20 à 30% par rapport aux tarifs habituellement offerts sur le marché. Après la région Rhône - Alpes, où le déploiement se poursuivra pour couvrir l'ensemble des principales agglomérations, BLR Services étendra son offre en juin aux régions Alsace, PACA et Midi-Pyrénées. L'opérateur a prévu de couvrir à la fin de l'année 17 villes dans 8 régions. France internet.com : http://france.internet.com/news.asp?news_ID=2666
|
|
|
|
|
D'après un sondage réalisé sur le site Les Providers.com, spécialisé dans les offres d'accès Internet en France, il ressort que 74 % des internautes désirent un accès haut débit pour moins de 200 FF / mois. Or, l'offre la moins chère du marché est actuellement le pack Wanadoo ADSL, pour 298 FF/mois. Le pack ADSL de Mangoosta est passé de 290 à 390F/mois, auxquels s'ajoutent 690 F de frais d'installation. Seules 20 % des personnes interrogées au cours de ce sondage seraient disposées à dépenser plus de 200 FF pour un forfait haut débit. Il semblerait que les opérateurs doivent encore baisser leurs tarifs pour que le haut débit se démocratise en France... A condition, bien-sûr, que le dégroupage progresse. Réseaux&Télécoms : http://www.reseaux-telecoms.net/daily/2001/0424/hdppio^^.htm Les Providers.com : http://www.lesproviders.com/index.html
|
|
|
|
|
|
|
|
Le nombre d'utilisateurs d'internet a progressé de 74 % en 2000 au Japon, grâce au boom de l'accès depuis les téléphones portables, a indiqué mardi le ministère des Postes et télécommunications (MPT) dans une étude. Quelque 47,8 millions de personnes, soit 37,1 % de la population, disposaient d'un accès internet (téléphone ou/et ordinateur personnel) en 2000, parmi lesquels il faut compter 23,6 millions de personnes utilisant leur téléphone portable. "Depuis 1999, le nombre d'utilisateurs de l'internet mobile a plus que quadruplé. L'essentiel des nouveaux internautes a été généré par l'engouement pour le i-mode", a expliqué un haut fonctionnaire du MPT, Shinto Morishita, en se référant au service de connexion permanente au web proposé par l'opérateur NTT Docomo. I-mode, qui permet à ses abonnés de surfer sur internet et télécharger du courrier électronique sur leurs terminaux, a fidélisé 22,71 millions d'utilisateurs depuis son lancement en février 1999. Selon le MPT, 37,2 millions de Japonais utilisent leur ordinateur personnel pour surfer sur le net, soit 29,3 % de la population. La pénétration de l'internet au Japon demeure cependant très éloignée des Etats-Unis, avec 168 millions d'utilisateurs, essentiellement à travers leurs ordinateurs personnel, soit 60% de la population. En Chine, le nombre d'utilisateurs d'internet a doublé en 2000 pour atteindre 22,5 millions de personnes. AFP : http://www.larecherche.fr/informatique/010424101523.rhqbr6ov.html
|
|
|
|
|
|
|
|
D'ici 2010, les services Internet mobile de 3G devraient générer au total à travers le monde 1000 milliards de dollars. C'est ce que prevoit la dernière étude de l'UMTS Forum. Cette étude prend notamment en compte l'ensemble des récentes et indépendantes prévisions sur le sujet, et est avalisée par l'ensemble des quelques 200 membres de cette organisation internationale professionnelle chargée de veiller au lancement de la 3G dans de bonnes conditions. En 2010, l'Internet mobile de 3G devrait générer 322 milliards de dollars à travers le monde. Et, 2005 est attendue comme un tournant dans l'adoption de ces services par le plus grand nombre, même si à l'échelle planétaire dans neuf ans, seuls 28 % des abonnés utiliseront le haut débit sur 1/3 de la population mondiale au total qui aura accès à des services nomades. En fait, si les abonnés dépenseront en moyenne moins d'argent, ils seront aussi plus nombreux à utiliser de tels services. Le revenu moyen par utilisateur devrait ainsi s'élever à 42 dollars par mois, dont 30 dollars pour les seuls services de 3G et 12 dollars pour les appels vocaux traditionnels. En 2010, l'UMTS Forum prévoit ainsi que les revenus liés au transfert de données représenteront 66 % des revenus de 3G. Et, dès 2004, les données devraient supplanter la voix en termes de revenus. Cette étude prévoit également que le commerce B-to-C devrait dominer le B-to-B en 2010. L'UMTS Forum prévoit en effet que 65 % des revenus liés à l'Internet mobile à haut débit proviendront des abonnés particuliers, le reste provenant donc de son utilisation en milieu professionnel. Cela signifie donc que des modèles commerciaux vont se dégager, notamment en Asie où en 2010 toujours, 120 des 322 milliards de dollars au total seront dégagés. L'Europe devrait d'ailleurs suivre la vague du succès de ce continent en faisant la promotion du même type de services. C'est effectivement l' « infotainment » qui semble le mieux correspondre aux attentes des consommateurs asiatiques et européens. Il s'agit par exemple des services de téléchargement de clips vidéos, l'échange de Multimedia Messaging Service (MMS) ou encore la réservation de places de spectacles sur son téléphone, bref tout ce qui tourne autour du divertissement. Aux Etats-Unis au contraire, la 3G devrait davantage se résumer au surf sur Internet à but informatif. UMTS Forum : http://www.umts-forum.org/press/article064.html Rapport UMTS : http://www.umts-forum.org/reports/report13.pdf Guardian : http://www.guardianunlimited.co.uk/internetnews/story/0,7369,479121,00.html
|
|
|
|
|
Le chef de la commission électorale indienne souhaite que la majeure partie de l'électorat du pays vote électroniquement lors des prochaines élections législatives, en 2004. "L'Inde doit voter électroniquement. Sur les 620 millions d'électeurs, mon objectif sera de faire en sorte qu'au moins 550 millions puissent voter électroniquement", a déclaré à Reuters M.S. Gill. L'Inde, où les scrutins sont régulièrement entachés d'irrégularités et d'autres abus, cherche à limiter toutes formes de fraude en imposant progressivement le vote électronique - ce qui évite notamment le bourrage d'urnes. Ainsi le 10 mai, plus de 120 millions d'électeurs seront appelés aux urnes pour les élections dans cinq Etats, dont le Tamil Nadu, le Kerala, le Bengale occidental, ainsi que dans le territoire de Pondichéry. Les machines électroniques seront également utilisées dans l'Etat d'Assam (nord-est). Reuters : http://fr.news.yahoo.com/010428/2/18b5l.html
|
|
|
|
|
|
|
|
Alors que le Japon a retardé le lancement de ses nouveaux téléphones portables dotés d'une connexion internet, les États-Unis sont confrontés à des difficultés encore plus importantes et ne pourront pas ouvrir de services de troisième génération (3G) avant deux ans ou plus. Pendant que l'Asie et l'Europe s'activent pour offrir des services de téléphonie mobile 3G, les opérateurs de téléphonie mobile américains en sont encore à essayer de raccorder un réseau national avec un nombre d'antennes pour couvrir tout juste les besoins des usagers existants. Les services sans fil 3G fonctionnent sur des réseaux à haute vitesse offrant aux clients la transmission par internet de données numériques de toute nature. Ces réseaux peuvent avoir un débit 40 fois plus élevé que la vitesse actuelle de 9,6 Kbits par seconde. Au-delà des reproches concernant les interruptions de service durant les appels, les États-Unis doivent faire face à une transition difficile avant d'offrir les services 3G que les opérateurs asiatiques et européens comptent mettre sur le marché cette année ou l'année prochaine. Les obstacles comprennent les questions d'attribution de spectres, de concurrence entre les normes techniques et des choix de connexion à internet. "Les gens vont comparer leurs connexions à internet par portable avec celle de leur ordinateur personnel", dit Kirk Parsons, analyste des services de télécommunications chez J.D. Power and Associates. Or, les Etats-Unis enregistrent le plus fort taux des connexions internet à haut débit par le câble ou l'ADSL dans le monde, d'où un niveau d'exigence très élevé de la part des internautes américains. "La pénétration internet par câble n'atteint pas les 10 % au Japon, alors qu'elle dépasse les 50% aux États-Unis (...) Au Japon, les sans-fil sont le principal outil pour accéder à internet", affirme Knox Bricken, analyste du sans-fil au cabinet de recherches Yankee Group. Aspect inhabituel, l'industrie américaine des télécommunications est très loin du premier rang mondial en matière de téléphonie mobile. Des normes nationales et internationales unifiées en Asie et en Europe ont donné une longueur d'avance à ces régions, laissant en retrait les sociétés américaines de la téléphonie cellulaire, qui en sont à tirer les enseignements des services de NTT DoCoMo Inc. par exemple, dans un Japon en pleine fièvre de téléphonie mobile. Le plus important des obstacles rencontrés par les États-Unis reste l'incapacité de la Commission fédérale des communications (FCC) à libérer les spectres d'ondes dont ont besoin les réseaux numériques pour voix et données. Ces derniers sont submergés par la circulation de données provenant des anciens services analogiques, des forces armées, des fournisseurs locaux de transmission sans fil et des diffuseurs par satellite. "À l'heure actuelle, la FCC n'a pas proposé de plan acceptable pour libérer le spectre nécessaire", dit Ray Jodoin, analyste principal pour la firme de recherches spécialisée Cahners In-Stat Group. Les réseaux 3G qui peuvent transmettre les données vidéo en temps réel ont besoin de larges spectres qui n'existent pas dans l'univers fragmenté des attributions de fréquence aux États-Unis qui distribue les fréquences à tout le monde, qu'il s'agisse de radios amateurs ou de marins. Même si le gouvernement libérait des spectres, les fournisseurs de services sans fil devront encore dépenser d'énormes sommes pour obtenir de nouvelles licences, ce qui viendrait s'ajouter au fardeau de la dette de nombreux fournisseurs. Dans le reste du monde, les compagnies ont dépensé 108 milliards de dollars pour obtenir des licences nationales en Europe seulement, poussant de nombreux investisseurs à se demander si les services 3G parviendront à générer des recettes suffisantes pour justifier ces coûts. À l'opposé, le Japon, où la concurrence du sans-fil reste limitée, a accordé des licences 3G gratuitement. Les Américains doivent aussi compter avec trois technologies concurrentes pour les systèmes de seconde génération, développées dans les dix dernières années, alors que la plupart des pays dans le monde se sont entendus sur une seule norme. Chez Yankee, Bricken soutient que le besoin d'un accès internet par le réseau sans fil est moins important aux États-Unis parce que la plupart des utilisateurs ont déjà un accès sur leur ordinateur à domicile ou au bureau. Des millions de clients bénéficient d'une connexion internet à grande vitesse par câble ou ligne téléphonique. Des millions d'autres utilisent des ordinateurs de bureau ayant des liaisons internet à haut débit. Le plus rapide des services sans fil actuellement en développement offre une vitesse de transmission beaucoup moins élevée. Les ordinateurs de poche de Palm, le iPaq de Compaq ou le Clie de Sony offrent à d'autres millions d'utilisateurs un accès internet et leur permet de télécharger des informations en ligne chaque fois qu'ils reconnectent leur appareil à leur ordinateur, observent des analystes. Une fois que les réseaux seront construits et les normes technologiques choisies, les États-Unis auront besoin de nouveaux logiciels et de programmes innovateurs pour attirer une clientèle vers le 3G. Les concepteurs américains devront apprendre à travailler avec des écrans plus petits au lieu de simplement transférer leurs méthodes internet au téléphone. "Les fournisseurs de contenu pour le réseau sans fil doivent réellement commencer à réfléchir hors des sentiers battus, affirme Bricken. "C'est une toute nouvelle façon de penser." Reuters : http://fr.news.yahoo.com/010428/2/18bxg.html
|
|
|
|
|
|
|
|
La dernière puce d'Intel, le Pentium 4, lancée en novembre 2000 atteindra les 2 gigahertz (GHz) à la fin de cette année. Le 23 avril, le fabricant américain a annoncé la version à 1,7 GHz, qui vient s'ajouter aux trois premières (1,3, 1,4 et 1,5 GHz). "Ce qui est important aujourd'hui, c'est le monde numérique qui nous entoure, pas le traitement de texte ou le tableur", indique Jean-Paul Colin, directeur du développement d'Intel France. De fait, le Pentium 4 a fait l'objet, dès son lancement, de critiques pointant des performances inférieures à celles de son prédécesseur, le Pentium III, dans certaines applications simples de bureautique. Il en faut plus pour surprendre Intel, qui attribue ce constat à l'architecture particulière du Pentium 4, baptisée Netburst. Conçue pour traiter plus efficacement les grandes quantités de données des séquences vidéo, cette dernière est moins à l'aise avec un simple traitement de texte. "Cela ne nous gêne nullement, précise Jean-Paul Colin. Pour faire fonctionner Word, un Celeron 500 est suffisant." En effet, la perte de quelques millisecondes sur une vérification orthographique, même si elle pénalise le résultat des tests, reste imperceptible pour l'utilisateur. En revanche, Intel vise la réduction des durées de compression vidéo, une opération de plus en plus populaire avec le développement des Camescopes numériques. "Le délai de montage de 60 minutes de vidéo au format DivX, qui atteint 9 à 11 heures avec un Pentium III à 1 GHz, est réduit de près de 40 % avec un Pentium 4 à 1,7 GHz", assure le fabricant. Malgré cet avantage, le nouveau processeur d'Intel est mis sur le marché à un prix particulièrement bas, 352 dollars (372 euros, 2 438 francs) par lot de 1 000 unités, soit près de la moitié du tarif attendu par certains analystes américains, et 2 dollars de plus que la puce Athlon à 1,33 GHz de son concurrent AMD. A titre de comparaison, le Pentium III à 1,13 GHz avait été commercialisé à 990 dollars en juillet 2000. En novembre, la version à 1,5 GHz revenait à 637 dollars. Elle sera proposée à 256 dollars à partir de la semaine prochaine, soit une baisse de 60 % en cinq mois... Pour Intel, qui déclare "se féliciter d'une concurrence qui fait avancer plus vite", 2001 devrait se terminer avec un Pentium 4 à 2 GHz utilisant la technologie de gravure à 0,13 micron contre 0,18 micron aujourd'hui. AMD prévoit le même progrès de la miniaturisation de ses puces au dernier trimestre et une montée en fréquence passant, cet été, par un Athlon à 1,5 GHz. Si la guerre des prix se poursuit, le consommateur devrait en bénéficier largement avec des ordinateurs très puissants à des tarifs séduisants, en particulier pour la rentrée 2001. Le Monde : http://www.lemonde.fr/article/0,5987,3244--177058-,00.html
|
|
^ Haut |
|
|
|
|
|
|
|
Matière |
|
|
Matière et Energie
|
|
|
|
|
|
|
|
|
Pour la première fois, des chercheurs ont réussi à fabriquer un assemblage de transistors moléculaires 500 fois plus petit que les transistors actuels, à partir de nanotubes de carbone. Cet exploi a été accompli au centre de recherche d'IBM à Yorktown Height. De nombreux laboratoires dans le monde avaient déjà montré qu'il était possible de réaliser des transistors et autres composants électroniques élémentaires à base de molécules. en 1998, une première étape avait été franchie avec la réalisation de composants à l'aide de nanotubes. Mais il s'agissait jusqu'à présent de démonstration isolés. IBM vient de montrer qu'il était capable de les assembler en grandes quantités, ce qui ouvre la voie à des vraies puces moléculaires. La géométrie des puces les plus fines du moment se mesure au dessus de 0,1 micron ou 100 nanomètres. Certes, de nouveaux procédés lithographiques utilisant les ultraviolets ou les rayons X ont recemment repoussé les limites de technologie du silicium . Mais ces nouvelles techniques permettront, au mieux, de descendre autour de 30 nanomètres ( 0,03 micron). La nouvelle structure moléculaire d'IBM, elle, utilise des nanotubes de carbone dont la plus petite dimension, le diamètre, n'est que de 1,4 nanomètre, soit une dizaine d'atomes à peine... On imagine sans peine la rapidité et la puissance que pourraient avoir ces puces de taille atomique. Le carbone n'est certes pas le silicium, mais les nanotubes ont en particulier la propriété de supporter des densités de courant très élevées. L'astuce d'IBM consiste à fabriquer ses assemblages de nanotubes sur une puce en silicium conventionnelle, qui facilite le procédé, puis à ne garder que le réseau de nanotubes semi-conducteurs obtenu. Les chercheurs d'IBM ont mis au point un procédé de fabrication qui autorise toutes les manipulations possibles de ces tubes d'atomes. La production synthétique de nanotubes produisait un mélange de métal et de semi-conducteurs. Il restait à séparer la couche de métal qui recouvre celle de semi-conducteurs, seule à même d'assurer la conduction électrique du transistor. C'est ce qu'ont réussi à obtenir les scientifiques avec une méthode dite de "destruction constructive" qui utilise un procédé complexe de lithographie. Cette méthode permet d'obtenir un cylindre d'atomes de carbone conducteurs (le nanotube) qui peut être utilisé pour construire un circuit logique, élément de base du processeur. La manipulation de ce nanotube s'effectue à l'aide d'un microscope à force atomique. Non seulement ces travaux montrent la possibilité de puces moléculaires, mais ils confirment aussi celle de puces hybrides combinant nanotubes et silicium. On mesure mieux le chemin parcouru quand on se souvient que les nanotubes de carbones ont été découverts il y a dix ans à peine, dans les laboratoires japonais de NEC. Brève rédigée par @RT Flash IBM : http://www.ibm.com/news/2001/04/27.phtml Standard : http://www.thestandardeurope.com/article/display/0,1151,16389,00.html CNN : http://www.cnn.com/2001/TECH/ptech/04/27/ibm.breakthrough.reut/index.html
|
|
|
|
|
|
|
|
Des chercheurs des Bell Laboratories ont créé un papier électronique flexible et peu onéreux en utilisant un procédé novateur. La base de ce papier moderne est un plastique souple et transparent sur lequel est sapoudrée une fine couche d'or. La prouesse de John Rogers et ses collègues est de transformer ce métal précieux en un circuit électronique en employant une technique plus commode que celle derrière les écrans plats à base de silicone. Cette technique repose sur un rouleau gravé de sillons. Ces sillons, à l'image du circuit électronique, sont remplis d'un liquide : en roulant sur l'or, celui-ci se répand sur le métal qui sera conservé. Le reste du métal, ainsi que la substance protectrice, sont ensuite enlevés, ne laissant derrière que le circuit. Ce dernier, alors recouvert d'un plastique conducteur, sert à activer individuellement chacune des particules qui composent l'encre électronique. L'encre électronique, couche finale de ce "papier" réutilisable à volonté, a été créée par la compagnie E-Ink : elle est composée de microcapsules remplies d'une substance sombre où flottent des particules blanches électriquement chargées. En fonction du courant, ces particules glissent vers le haut ou le bas des microcapsules. Elles laissent donc apparaître du blanc ou du noir, reproduisant ainsi fidèlement les pixels des textes ou des images. Pour l'instant, ce nouveau papier électronique ne compte que 256 microcapsules : bien trop peu pour afficher une page de texte. Mais les chercheurs sont persuadés qu'il ne sera pas top difficile d'augmenter la quantité de ces "billes" à l'aide de circuits électronique plus complexe. Proceedings of the National Academy of the Sciences : http://www.pnas.org/cgi/content/short/98/9/4835
|
|
|
|
|
|
|
|
La société FortuBat, petite P.M.E. allemande, vient de dévoiler un nouveau type de batterie dont le rendement énergétique permet, a volume et poids identiques, une autonomie jusqu'à six fois supérieure a celle des batteries classiques au plomb. Cette nouvelle technologie, découverte en 1988 a l'université de Witten/Herdecke, utilise des électrodes et un électrolyte minéraux. Chaque élément possède une tension nominale de 4V et délivre jusqu'à 2Ah selon le mode de mesure SubC ; il ne nécessite aucun entretien et est compose uniquement de matériaux bon marche et recyclables. L'electrolyte,qui a été breveté, prend la forme d'un gel qui ne présente aucun risque meme en cas d'accident ou d'incendie. Le système supporte sans problème plus de mille cycles charge/décharge, ce qui correspondrait, d'après les concepteurs, a plus de 150 000 km pour un véhicule automobile. Pour l'instant, la température minimale de fonctionnement se situe vers -10°C mais la température de -29°C semble facilement atteignable. Chaque élément de 2Ah peut délivrer un courant instantané atteignant 80A, ce qui présente un avantage dynamique certain par rapport aux piles a combustible handicapées par l'inertie de leur reformeur. De plus, le système FortuBa creuse l'écart car le coût d'un module de 15Kwh ne dépasserait pas 7500 DM (3700 euros). Les concepteurs restent néanmoins réalistes et voient plutôt des applications immédiates pour les chariots élévateurs, les caddies de golf, les fauteuils pour handicape...Même les fabricants de téléphonie mobile ou d'ordinateurs portables sont vivement intéressés. Mais le prochain développement pourrait être un véhicule hybride muni d'un moteur électrique de 60 Kw alimente par une batterie de 15Kwh et un moteur a combustion interne entraînant un générateur électrique; un tel véhicule atteindrait les 50km/h en 4 secondes et n'aurait plus aucun problème d'autonomie... et une consommation record de 0.9 l d'essence pour 100km (chauffage compris) si l'on se base sur le cycle EU de 7.2kwh pour 100km. BE Allemagne : http://www.adit.fr
|
|
|
|
|
|
|
|
Popularisé par la mise au point du format de fichier audio MP3, le Fraunhofer Institut pourrait bientôt de se distinguer par une autre application révolutionnaire, qui n'a rien de musicale, celle-là. Il s'agit d'une nouvelle génération de batteries pour assistant personnel, téléphone portable et autre appareil sans fil gourmands en énergie. L'équivalent allemand du MIT a simplement eu l'idée d'adapter la technologie des piles à hydrogène exploitées par l'industrie automobile pour les véhicules électriques. Les piles se rechargent à l'énergie solaire si bien que leur durée de vie est considérablement rallongée, voire illimitée. Ne plus avoir à se soucier de changer les piles du caméscope, n'est-ce pas le rêve de tout touriste ? Jusqu'à présent, les batteries à l'hydrogène des véhicules électriques, couplées à des capteurs solaires, étaient trop volumineuses pour être intégrées dans un PC de poche. Et, paradoxalement, plus on réduit leur taille et plus elles consomment d'énergie. Les capteurs solaires susceptibles d'apporter cette énergie sont économiquement inabordables pour le marché grand public. L'exploit du département Solar Energy Systems du Fraunhofer Institut a été de réussir à combiner ses deux facteurs contradictoires. Miniaturiser la tailles des "piles" sans augmenter leur besoin énergétique. Les ingénieurs ont mis au point un module électrique qui se contente de 1 % de la lumière émise par le soleil en été (sachant que la plupart des lieux publics et de travail n'en perçoivent que 3 %) pour assurer son autonomie. Le module énergétique est composé de 14 capteurs solaires en cristal de silicium. Leur disposition, comparable aux tuiles d'un toit, optimise la surface occupée et augmente leur efficacité de 20 %. Les cellules photoélectriques sont recouvertes d'oxyde de silicium ou de nitrure. Cette couche, isolante, doit être retirée puis repositionnée sur les points de contacts qui assurent la conduction électrique. Un processus très complexe qui rend les coûts de fabrication prohibitifs. C'est là que le savoir faire de l'institut de recherche allemand intervient. Il a mis au point un laser spécial qui élime la couche isolante au niveau des points conducteurs uniquement. Une innovation qui a permis d'éliminer 80 % des étapes de fabrication et rend le produit concurrentiel vis-à-vis des autres sources d'énergie autonomes. Les premières démonstrations devraient se dérouler à la fin du mois à l'occasion du salon de l'industrie à Hanovre. Casio et Siemens, notamment, ont annoncé avoir lancé la fabrication de prototypes de téléphones portables équipées des "batteries solaires" du Fraunhofer Institut. Lequel, il faut le rappeler, avait dès 1998 présenté un ordinateur portable doté de cette technologie. Vunet : http://www.vnunet.fr/actu/article.htm?id=0&numero=7492&date=2001-04-25 Fraunhofer Institut : http://www.iis.fhg.de/index.html
|
|
|
|
|
|
|
|
Coup d'accélérateur pour les biocarburants. La France va augmenter les surfaces consacrées aux cultures destinées à la production de Diester et d'éthanol : 100.000 hectares supplémentaires seront plantés dès ce printemps. L'usine de Grand-Couronne (Seine-Maritime) va accroître ses capacités et deux autres unités vont être construites, à Donges (Loire-Atlantique) et à La Mède (Bouches-du-Rhône). Issu du colza et du tournesol, le Diester est une huile végétale. En adjuvant, cette substance oxygène le gazole. Ce qui améliore la combustion des moteurs et réduit les émissions de particules. Produit à partir de betterave et de blé, l'éthanol est un alcool. Mélangé avec de l'isobutylène, il forme l'éthyl-tertio-butyl-éther (ETBE). Utilisé dans l'essence, l'ETBE apporte de l'octane. Avantage: il diminue de 20% les émissions d'oxydes de carbone et d'hydrocarbures non brûlés. A l'origine, la filière des biocarburants n'a pas été mise en place pour des raisons environnementales. Il s'agissait avant tout d'utiliser les terres mises en jachère dans le cadre de la politique agricole commune. Les bilans écologiques et les accords internationaux sur la limitation des gaz à effet de serre ont changé la donne. Selon Etienne Poitrat, de l'Agence de l'environnement et de la maîtrise de l'énergie, «chaque tonne de Diester économise le rejet de 2,2 tonnes d'oxyde de carbone dans l'atmosphère. La production de cette année devrait ainsi permettre un gain de plus de 600 000 tonnes de CO2». Globalement, les biocarburants sont bénéfiques. Lors de leur pousse, les plantes utilisées stockent le CO2. Par ailleurs, le Diester et l'éthanol sont brûlés en remplacement de produits d'énergie fossile, non renouvelable. Toutefois, au-dessous d'un certain dosage, ces adjuvants sont inefficaces pour lutter contre la pollution atmosphérique locale. Actuellement, ils sont incorporés en raffinerie sans souci de respecter un pourcentage minimum. Afin d'obtenir une amélioration de l'air des villes, il faudrait 30% de Diester par litre de gazole, et entre 3 et 5 % d'ETBE pour l'essence. En France, seules quelques flottes d'autobus urbains respectent ces dosages. Les Etats-Unis ont pourtant fait la preuve de l'efficacité de la mesure. Avec l'adjonction de seulement 3% d'ETBE, obligatoire pendant l'hiver dans les grandes métropoles, les pics de pollution à l'oxyde de carbone ont quasi disparu. Les pétroliers estiment qu'il n'est pas possible de transposer cette solution en Europe. Première raison avancée: les différences de motorisation. Deuxième argument: lors de la combustion, l'ETBE produit des composés organiques volatils du type aldéhydes, imparfaitement piégés par les pots catalytiques. Ces aldéhydes favorisent la formation d'ozone. Mais le véritable motif de l'opposition des pétroliers est tout autre. Pour produire une essence oxygénée avec un taux garanti d'ETBE, il faudrait changer les procédés de raffinage. L'adaptation des installations américaines a coûté des milliards de dollars. Les multinationales du pétrole voudraient donc éviter de payer de telles factures de ce côté-ci de l'Atlantique. Express : http://www.lexpress.fr/Express/Info/Sciences/Dossier/essenceus/dossier.asp?nom=c...
|
|
^ Haut |
|
|
|
|
|
|
|
Espace |
|
|
Espace et Cosmologie
|
|
|
|
|
|
|
|
|
La carte du ciel vient de s'enrichir de 11 nouvelles exoplanètes, c'est-à-dire situées hors du système solaire. Cette découverte est à porter à l'actif d'une équipe internationale composée essentiellement d'astronomes suisses et français. Pendant longtemps, personne n'imaginait qu'il pouvait y avoir des planètes hors du système solaire. Puis, en 1995, l'astronome Michel Mayor, qui est aussi directeur de l'observatoire de Genève, a découvert la première exoplanète. Sous sa direction, un programme de recherche intensive a été mis en place, auquel participent des astronomes des observatoires de Haute-Provence et de Grenoble. Au total, ce sont 67 planètes extrasolaires qui ont ainsi été détectées en six ans. On ne peut pas observer directement les planètes, qui ne sont pas assez lumineuses. En revanche, elles réfléchissent la lumière d'une étoile. On observe donc les étoiles. Lorsque celles-ci se déplacent, leur vitesse subit parfois des petites accélérations ou décélérations. Ces fluctuations sont liées à la présence d'une planète qui gravite autour de l'astre. 350 étoiles ont été scrutées depuis l'observatoire européen austral, au Chili, et celui de Haute-Provence. Tous deux sont équipés de spectrographes, baptisés Coralie et Elodie, qui permettent de mesurer la vitesse des étoiles avec une incertitude de quelques mètres par secondes seulement. A partir de ces observations les astronomes ont pu déduire la masse et l'orbite des planètes tournant autour des astres. Une des planètes tourne autour d'une étoile semblable à notre soleil. Et la distance qui les sépare est équivalente à celle entre la terre et le soleil. Cette planète est donc située dans une zone habitable, c'est-à-dire où les températures permettent la présence d'eau liquide. TF1 : http://www.tf1.fr/news/sciences/0,2280,777045,00.html
|
|
^ Haut |
|
|
|
|
|
|
|
Terre |
|
|
Sciences de la Terre, Environnement et Climat
|
|
|
|
|
|
|
|
|
Les gaz à effet de serre sont responsables des hivers plus doux et des printemps précoces constatés ces trente dernières années dans l'hémisphère Nord. Tel est le constat d'une étude réalisée par des chercheurs de l'Institut Goddard d'études spatiales de la NASA et de l'université de Columbia, parue ce mois-ci dans la revue « Journal of Geophysical Research - Atmospheres ». Les gaz à effet de serre (gaz carbonique, méthane, oxydes nitreux et azoteux) provoquent, selon eux, un accroissement de la circulation des vents polaires autour du pôle Nord. La modélisation des interactions entre les océans et les courants de circulation atmosphérique qu'ils ont mis au point montre qu'en se renforçant, ces vents polaires, qui descendent de la stratosphère vers la troposphère, soufflent plus fortement au-dessus des océans chauds et transportent ainsi de l'air chaud et humide vers les continents nord-américain, européen et asiatique. « Les températures de surface dans l'hémisphère nord ont augmenté durant les mois d'hiver de 5 degrés au cours des trente dernières années, soit plus de dix fois que l'augmentation mondiale », affirme l'un des auteurs de l'étude, Drew Shindell. « Les hivers plus doux vont entraîner des conditions météorologiques plus humides en Europe et dans l'ouest des Etats-Unis. L'Europe de l'Ouest sera la plus durement frappée des tempêtes venant de l'Atlantique », précise-t-il. D'après les prévisions des chercheurs, cette tendance au réchauffement devrait se poursuivre au cours des trente prochaines années, en corrélation avec l'accroissement de la concentration des gaz à effet de serre dans l'atmosphère. Quotidien du Médecin : http://www.quotimed.com/articles_actu/index.cfm?f Journal of Geophysical Research : http://www.ess.ucla.edu/research/jgr/toc.html
|
|
^ Haut |
|
|
|
|
|
|
|
Vivant |
|
|
Santé, Médecine et Sciences du Vivant
|
|
|
|
|
|
|
|
|
Il est largement prouvé que l'alimentation a des répercussions sur la santé. Certaines pathologies sont intimement liées au mode diététique, tel que le diabète ou encore les dyslipidémies. D'autres aliments ont un effet protecteur vis-à-vis de certaines maladies : c'est le cas du thé pour les maladies cardio-vasculaires, comme le rappelle une session du MEDEC 2001. On parle beaucoup du thé vert, mais qu'ils soit vert ou noir, ce qui caractérise le thé est sa richesse en flavonoïdes. Or, les flavonoïdes ont une puissante activité antioxydante : in vitro, cette activité est cinq fois plus importante que celle de la vitamine C ou de la vitamine E. Certes, les flavonoïdes ne sont pas présents uniquement dans le thé : on les retrouve également dans le vin, le cassis, les fraises ou encore les oignons. Mais le principal apport en flavonoïdes chez l'homme est le thé : ainsi en Grande-Bretagne, le thé représente plus de 70 % des flavonoïdes alimentaires. L'ingestion de thé augmente l'activité antioxydante plasmatique chez l'homme : c'est ce qui explique son activité protectrice cardio-vasculaire. Une étude hollandaise montre que les hommes ayant un taux plasmatique élevé de flavonoïdes ont une réduction de la mortalité cardio-vasculaire : or, 60 % des flavonoïdes proviennent de l'ingestion de thé. Sans être de grands buveurs de thé, les Français ne sont pas en reste : seuls 6 % des hommes et 10 % des femmes en consomment quotidiennement, mais ils sont respectivement 35 % et 57 % à en consommer régulièrement. Csanté : http://://www.csante.com/comsante/gen/read.php3?
|
|
|
|
|
|
|
|
L'injection intra-veineuse de mastocytes tirés de la moelle osseuse aurait permis d'obtenir un quasi-retour à la normale dans les 14 jours suivant une attaque cérébrale. Chez le rat...Il n'en reste pas moins que c'est là une percée incontestable. Elle vient d'être annoncée dans le dernier numéro de Stroke, une revue de l'American Heart Association, par le Pr Michael Chopp de Detroit. Vice-président du département de neurologie du Centre de Santé Henry Ford, le Pr Chopp souligne les implications de son expérience. Selon lui, celle-ci tendrait à démontrer que " l'injection à un sujet de ses propres mastocytes lui apporte un bénéfice substantiel, au terme d'une intervention facile à réaliser. " En théorie il est vrai, cette approche est séduisante. Chopp insiste sur le fait qu'elle nécessite " seulement " d'extraire des mastocytes de la moelle osseuse. De les multiplier en culture et de les réinjecter au sujet - un rat pour le moment, un patient demain ? - et d'attendre qu'elles migrent jusqu'au site de la lésion à traiter. Sans risque de rejet, il envisage pour cette technique des applications dans les suites d'accident cérébral, de blessure médullaire, de Maladie de Parkinson... C'est peut-être voir un peu loin. Et un peu vite. Mais les perspectives offertes par ces premières expériences sont en effet de nature à bouleverser les données de la science en neurologie et neurochirurgie... Healtandage.com : http://www.healthandage.com/newsletter/npf.htm Stroke : http://stroke.ahajournals.org/cgi/content/abstract/32/4/1005?
|
|
|
|
|
|
|
|
Un traitement combiné de deux médicaments antirétroviraux, la zidovudine (AZT) et la lamivudine, permet de pratiquement éliminer le risque de transmission du virus de l'immunodéficience humaine (VIH) de la mère à l'enfant. Une découverte à porter au crédit de chercheurs de l'hôpital Cochin, à Paris. Le taux de transmission a été réduit à 1,6% grâce à la prise de ce traitement par la mère et l'enfant, soit cinq fois moins que celui constaté lorsque seulement l'AZT a été administré. L'étude a été réalisée auprès de 445 femmes infectées par le VIH et traitées avec les deux antirétroviraux et de 899 traitées seulement avec de l'AZT. "La lamivudine pourrait être un moyen de réduire davantage les risques d'infection", concluent les chercheurs français, dont les travaux sont publiés dans la revue Journal of the American Medical Association. "Ces conclusions sont impressionnantes", commente un expert américain des Centres de prévention et de contrôle des maladies infectieuses (CDC), Nathan Schaffer, dans un éditorial. Selon les estimations officielles, près de 600.000 enfants sont contaminés chaque année par le VIH. En l'absence de traitement préventif, le taux de transmission de la mère à l'enfant est de 25 à 35 % lorsque ce dernier est nourri au sein. Un tiers des bébés est infecté par la tétée. Journal of the American Medical Association : http://jama.ama-assn.org/issues/current/abs/joc01694.html
|
|
|
|
|
|
|
|
Le célèbre fabricant allemand Zeiss a décidé d'incorporer des micro-écrans de l'américain Colorado Microdisplays dans son système de neurochirurgie OPMI Neuro MultiVision. Grâce à ce système, présenté cette semaine lors du congrés annuel de l'association américaine de neurochirurgie, le chirurgien peut opérer avec une source unique d'information visuelle synthétisant l'ensemble de l'information dont il a besoin. Les micro-affichages, ces écrans minuscules placés juste devant l'oeil et créant l'illusion d'un écran de 30cm à 1,8m de diagonale, ont du mal à percer. Mais ils deviennent de plus en plus précieux dans des applications où un encombrement minimal et une bonne mobilité sont essentiels. Ainsi, un neurochirurgien a besoin d'information en provenance d'un microscope médical (en l'occurrence le NeuroVision) mais aussi, souvent, d'un endoscope et d'images de synthèse fournies par un ordinateur pour guider la procédure. Sans micro-affichage, il doit en permanence jongler avec les données en provenance du microscope et de plusieurs écrans. Qui plus est, il doit s'assurer de la correspondance entre les détails significatifs de chaque image. Avec la technologie de CMD, il est possible d'intégrer au microscope lui-même un micro-affichage transparent qui superpose les différentes images au moment approprié, faisant gagner du temps au chirurgien et corrélant l'information. Le médecin dispose donc d'une sorte de “cockpit” virtuel qui devrait lui faire gagner un temps précieux tout en améliorant sa précision. Usine Nouvelle : http://www.usinenouvelle.com/usn/site/pages/actualit/actua_j/general.cfm?
|
|
|
|
|
|
|
|
Une équipe de chercheurs britanniques de Leceister a découvert que les empreintes génétiques relevées par la police pour constituer des fichiers de suspects et de criminels contenaient des informations très personnelles sur la santé des personnes, selon le magazine New Scientist. Ces chercheurs ont en effet découvert que l'un des marqueurs génétiques retenus par la police scientifique contient des informations sur la prédisposition d'une personne à souffrir de diabète insulino-dépendant (type 1). Les empreintes génétiques relevées par la police s'appuient sur 10 zones précises de l'ADN. Ces marqueurs ont une longueur variable d'une personne à une autre mais ne contiennent pas, en principe, d'informations sur les prédispositions génétiques et la santé. C'est l'une des règles éthiques fondamentales pour la constitution de ces fichiers qui s'avèrent précieux dans les affaires criminelles. Or l'équipe de John Stead, de l'Université de Leicester, a découvert que le marqueur appelé TH01 peut indiquer si la personne a un risque d'être diabétique. Cette signature génétique ne suffit pas à elle seule pour prédire le développement de la maladie, mais cette découverte indique que d'autres informations privées sont peut-être contenues dans ces marqueurs, estiment les chercheurs anglais. Brève rédigée par @RT Flash New Scientist : http://www.newscientist.com/dailynews/news.jsp?id=ns9999694
|
|
|
|
|
|
|
|
La société américaine Celera Genomics a annoncé que ses chercheurs avaient décodé 99% du génome de la souris. Cette société n'en est pas à sa première annonce. En juin 2000, elle présentait la première ébauche du génome humain en partenariat avec le consortium public, le HGP (Human Genome Project). La carte définitive à été publiée en février dernier. Pour ce nouveau séquençage, la société de Craig Venter est aussi en compétition avec la recherche publique. En février dernier, Mark Adams, chercheur à Celera Genomics annonçait déjà que 90% des gènes de la souris avaient été décryptés. La société Celera Genomics travaille sur le séquençage du génome de souris depuis avril 2000. L'intérêt d'une telle entreprise est double. D'une part, en mettant en place un accès payant à la base, la société espère un retour financier important ; d'autre part, la connaissance du génome de la souris, modèle clé pour l'étude des maladies chez l'homme, permettra de mieux cibler les traitements contre certaines pathologies. Les chercheurs de la société de Craig Venter ont employé la même méthode que pour le séquençage du génome humain. Dans un premier temps, l'acide désoxyribonucléique, ou ADN, est découpé de façon aléatoire, séquencé, puis remis dans l'ordre, grâce à une batterie de puissants ordinateurs. Afin d'éviter les écueils et les erreurs, ils ont comparé trois espèces différentes de souris. L'homme et les souris sont deux mammifères dont les espèces n'ont divergé que récemment à l'échelle de l'évolution. Les chercheurs ont besoin de ce génome pour mieux comprendre la spécificité de l'être humain. Les deux génomes ont environ le même nombre de paires de base, soit 2,6 milliards pour les souris et 2,9 milliards pour les hommes. "La souris est un modèle biologique clé utilisé par les chercheurs dans le monde entier pour déterminer comment se déclarent et évoluent les maladies chez l'homme a souligné Craig Venter le Président de Celera. Le décryptage du code génétique de la souris constitue une étape importante pour comprendre la spécificité du génome humain. En effet, les deux mammifères que sont l'homme et la souris n'ont divergé que récemment dans l'évolution des espèces et possèderaient jusqu'à 90% de gènes identiques. Brève rédigée par @RT Flash Celera News : http://www.applera.com/press/prccorp042701.html BBC : http://news.bbc.co.uk/hi/english/sci/tech/newsid_1300000/1300596.stm
|
|
|
|
|
|
|
|
Les enfants d'aujourd'hui sont globalement plus intelligents que leurs parents et grands-parents mais... il est généralement admis que les quotients intellectuels (QI) sont largement déterminés par les gènes. Un paradoxe vieux de 15 ans qui vient peut-être d'être résolu. Puisque des jumeaux identiques - mais séparés à la naissance - développaient des QI semblables, l'intelligence a longtemps été considérée comme génétique. Mais en 1987, James Flynn remarque que les scores aux tests de QI augmentent de façon constante depuis 50 ans. Selon lui, cet « accroissement de l'intelligence » est beaucoup trop rapide pour s'expliquer par des gènes qui « s'améliorent ». Il y a donc sûrement des causes environnementales au QI. Pour réconcilier cette conclusion et les résultats sur les jumeaux, James Flynn et William Dickens ont développé un modèle mathématique. Comme ils l'écrivent dans le Psychological Review d'avril, celui-ci montre que gènes et environnement font partie d'un cercle. Ainsi, un enfant génétiquement prédisposé au raisonnement abstrait sera plus doué pour l'école qu'un enfant qui préfère manipuler des objets : davantage attiré par les classes, il sera jugé meilleur élève par ses professeurs et encouragé à poursuivre ses études. Sa mince prédisposition génétique prendra alors de l'ampleur, le poussant peut-être jusqu'à l'université. En outre, soulignent les chercheurs, l'environnement peut à lui seul engendrer de nouvelles habiletés. De fait, les parents consacrent plus de temps à leurs petits qu'il y a 50 ans et développent peut-être ainsi leur QI. « Les sources de l'intelligence ne peuvent pas être segmentées, tel pourcentage dû aux gènes et tel pourcentage à l'environnement, conclut William Dickens. Un enfant génétiquement plus grand que les autres ne deviendra un grand basketteur que s'il joue avec un ballon ». Difficile de dire le contraire. Cybersciences : http://www.cybersciences.com/cyber/3.0/N2292.asp Psychological Review : http://www.apa.org/journals/rev/rev1082346.html
|
|
^ Haut |
|
|
|
|
|
VOTRE INSCRIPTION |
|
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
|
|
|
|
|
|